L’intelligence artificielle pourrait-elle entraîner la fin de l’humanité ? Pour certains, la réponse est positive, à l’image de Pause AI, un groupement qui milite pour un moratoire dans le secteur. Pour ces derniers, cette technologie pourrait faciliter la fabrication de cyberarme, et devenir surtout une « super intelligence » capable de prendre, seule, des décisions contre nos propres intérêts : une peur qui est loin d’être nouvelle, et qui n’est pas que l’apanage de la société civile.
« Nous risquons l’effondrement social. Nous risquons l’extinction de l’humanité » : face à l’anxiété extrême qu’ils ressentent vis-à-vis de l’intelligence artificielle, des groupes n’hésitent pas à brandir la menace de la disparition de l’homme pour demander un moratoire sur cette technologie. « Pause AI » est l’un d’entre eux : ce groupement fondé par Joep Meindertsma, un entrepreneur néerlandais, milite pour l’arrêt du développement de l’IA, rapporte Wired, qui a pu rencontrer quelques-uns de ses membres.
Tout a commencé par cette idée, qui l’a littéralement submergée, que l’IA allait détruire la civilisation humaine, et qu’il « devait absolument faire quelque chose pour éviter le désastre », explique le co-fondateur de ce groupe à nos confrères. Il a alors été rejoint par d’autres personnes, qui partagent la même crainte, pour former « Pause AI ». Le groupement organise de (très) modestes manifestations en Europe – Wired décrit seulement des regroupements d’une dizaine de personnes dans une poignée de capitales. Ses membres déclarent cependant rencontrer des décideurs politiques européens, dont un membre de la Commission européenne. Ils leur partagent leurs principales craintes : que l’IA soit utilisée pour fabriquer des cyberarmes facilement accessibles, et peu coûteuses. Et surtout, que cette technologie décide de prendre le contrôle en atteignant un stade de « super intelligence », et qu’elle décide d’anéantir la civilisation. Cette angoisse va donc bien au-delà des craintes liées aux conséquences de l’IA sur l’emploi ou sur l’économie.
À lire aussi : Pourquoi une intelligence artificielle évoluée voudra sûrement éradiquer l’Humanité
Une IA qui deviendrait consciente d’elle-même ?
Cette peur, que l’on retrouve dans de nombreux scénarios de science-fiction, est loin d’être nouvelle. Elle a été décrite dès les années 2000 par Nick Bostrom : dans une interview de 2014, ce professeur à l’université d’Oxford a expliqué au Huffpost que si on demandait à une IA « super intelligente » de créer le plus grand nombre possible de trombones, « l’IA réalisera rapidement qu’il serait préférable qu’il n’y ait pas d’humains, parce que les humains pourraient décider de l’éteindre. Et les corps humains contiennent beaucoup d’atomes qui pourraient être transformés en trombones. L’avenir vers lequel l’IA essaierait de s’orienter serait un avenir où il y aurait beaucoup de trombones, mais pas d’humains », rapporte-t-il.
Certains scientifiques comme Clark Barrett, codirecteur du Centre pour la sécurité de l’IA de l’université de Stanford, en Californie, ne rejette pas complètement cette idée de voir un système d’IA travailler de manière malveillante contre nous. « Le fait que l’IA pourrait essayer de voler toute notre énergie ou toute notre puissance de calcul, ou essayer de manipuler les gens pour qu’ils fassent ce qu’elle veut que nous fassions (…) n’est pas réaliste à l’heure actuelle, déclare-t-il à nos confrères. « Mais nous ne savons pas ce que l’avenir nous réserve. Je ne peux donc pas dire que c’est impossible », ajoute-t-il prudemment. D’autres estiment à l’inverse que cette hypothèse ne devrait pas être discutée en sciences. Theresa Züger, directrice du laboratoire d’IA et de société de l’université Humboldt à Berlin, souligne qu’il n’y a absolument aucune preuve que cette hypothèse pourrait se produire – à savoir, voir une IA devenir consciente d’elle-même se retourner contre l’humanité. « Dans d’autres domaines scientifiques, nous n’en discuterions pas s’il n’y avait pas de preuves », rapporte-t-elle à Wired.
« Il n’y a rien de magique en elles, ce sont seulement des probabilités »
Ces types de messages inquiétants sont régulièrement brandis sur la place publique depuis l’explosion de l’IA générative, cette technologie qui permet de générer du texte, du code, des images, des sons à l’aide de simples commandes. Et ils ne sont pas que l’apanage de certains groupements de la société civile. On trouve des avertissements de scientifiques – à commencer par celui de Stephen Hawking qui date d’avant l’ère de ChatGPT, ce robot conversationnel adopté par plus de 2 milliards d’utilisateurs en à peine quelques mois. En 2014, l’astrophysicien évoquait déjà le risque de voir l’humanité remplacée par des robots.
Geoffrey Hinton, une figure de l’IA qui a quitté son poste chez Google, a décrit plus récemment le risque de voir les humains incapables de contrôler l’IA à mesure des « progressions » de cette technologie. Il y a enfin eu la retentissante lettre, signée par plus de 1 000 scientifiques et figures du secteur de la tech et de l’IA, demandant un moratoire en raison du « risque d’extinction ». Ajoutez à cela des messages similaires des acteurs principaux de l’IA, comme Sam Altman, le PDG d’OpenAI, à l’origine de ChatGPT, qui a déclaré que « si cette technologie tourne mal, cela peut très mal virer », suivis par ceux de quelques hommes politiques… Résultat, cette peur se reflète aussi chez une partie de la population. En France, un sondage Ipsos publié en février dernier montrait que 37 % des Français interrogés étaient effrayés par l’intelligence artificielle. 40 % considèrent même qu’elle finira par dépasser l’intelligence humaine.
Au Royaume-Uni, une enquête publiée le 5 juin 2023 par l’institut de sondage YouGov montre que le nombre de personnes craignant que l’intelligence artificielle ne conduise à une apocalypse a fortement augmenté entre 2022 et 2023, passant de 7 % à 17 %. Pour Scott Likens, spécialiste des technologies émergentes au cabinet de conseil et d’audit Pwc, interrogé par Usbek & Rica le 10 mai 2023, ces craintes existent surtout parce ces technologies n’ont pas encore été « apprivoisées » : « Ignorer n’est pas une option. Il faut tester les IA pour se rendre compte qu’il n’y a rien de magique en elles, et que ce sont seulement des mathématiques probabilistes ».
Source :
Wired