Peut-on prévoir le risque de destruction de l'humanité par l'IA ? [Olivier Sibony]

Xerfi Canal 2025-01-15

Views 32

Vous avez forcément entendu parler du débat qui agite la communauté de l’IA autour de la sécurité de l’IA. Pour certains experts, il existe un réel risque existentiel pour l’humanité : même si on ne sait pas forcément écrire le scénario de l’apocalypse, la simple existence d’une super-intelligence dont le contrôle pourrait échapper à ses créateurs serait un risque inacceptable. Certains de ces experts ont appelé, pendant un temps, à un moratoire sur l’IA ; le plus célèbre d’eux, Eliezer Yudkowsky, expliquait même en 2023 qu’on devrait être prêt à déclencher une guerre nucléaire pour faire appliquer ce moratoire ! [...]

Share This Video


Download

  
Report form
RELATED VIDEOS