OpenAI a un plan pour éviter que l’intelligence artificielle ne mène à la disparition de l’humanité. La start-up à l’origine de ChatGPT a d’abord mis sur pied une nouvelle équipe de chercheurs triés sur le volet. Ces ingénieurs vont développer une IA… chargée de trouver un moyen de contrôler l’IA.
Ces derniers mois, OpenAI a plusieurs fois exprimé ses inquiétudes au sujet de l’évolution de l’intelligence artificielle. Tout en améliorant ChatGPT et son modèle linguistique sous-jacent, la start-up a multiplié les mises en garde et les avertissements, surtout à l’égard des autorités.
Sam Altman, PDG et cofondateur de la firme américaine, a notamment estimé que l’IA pouvait « faire beaucoup de dégâts », si les choses tournaient mal. Devant le Sénat des États-Unis, Altman a donc plaidé pour la mise en place d’un cadre réglementaire autour de l’IA. L’entrepreneur a recommandé la création d’une agence de régulation entièrement consacrée aux modèles de langage dans les plus brefs délais.
Une nouvelle équipe dédiée à la superintelligence
Toujours dans l’optique de maitriser cette technologie, OpenAI vient d’annoncer la mise sur pied d’une nouvelle équipe destinée à maitriser et à superviser l’IA. L’équipe, composée de « chercheurs et d’ingénieurs de haut niveau en apprentissage automatique », se concentrera sur l’avènement de la « superintelligence ».
Il s’agit d’une intelligence artificielle, encore au stade hypothétique, capable de surpasser l’esprit humain, explique OpenAI. Cette technologie pourrait aider l’humanité « à résoudre bon nombre des problèmes les plus importants du monde ». Malheureusement, elle risque aussi de mener à l’extinction de l’homme. En miroir d’OpenAI, Google Deepmind et Anthropic, la société qui développe le chatbot Claude, redoutent que l’IA conduise la civilisation à sa perte. Les trois sociétés ont d’ailleurs signé une lettre ouverte, enjoignant les décideurs à décréter des mesures d’atténuation plutôt qu’à imposer un moratoire sur la recherche.
Pour éviter la disparition de l’humanité à la suite de l’émergence de l’IA, OpenAI affirme qu’il faut surtout de « nouvelles percées scientifiques et techniques ». C’est d’autant plus urgent qu’OpenAI pense que la superintelligence pourrait voir le jour dans le courant de la décennie…
Maitriser l’IA… grâce à l’IA
Concrètement, l’équipe va travailler sur « la résolution du problème de l’alignement de la superintelligence ». En clair, les ingénieurs vont chercher un moyen de s’assurer que l’IA, une fois arrivée à un stade d’évolution avancé, suive « l’intention humaine » au lieu de s’en distancer. La start-up veut trouver un moyen de garder l’intelligence artificielle sous contrôle, même quand elle surpassera le cerveau humain.
Actuellement, l’IA est activement maitrisée par des êtres humains. Ce sont les ingénieurs et les modérateurs qui encadrent ChatGPT et consorts pour éviter les abus. Ce système ne tiendra pas face à un modèle devenu plus intelligent que ses créateurs.
Pour résoudre cet épineux problème, la start-up développe un « chercheur en alignement automatisé ». Derrière cette appellation sibylline, on trouve un système d’IA qui va se pencher exclusivement sur le problème de l’alignement, évoqué plus haut. En fait, OpenAI va demander à l’intelligence artificielle de trouver une solution… pour contrôler l’IA :
« Notre objectif est de construire un système d’IA suffisamment aligné (NDLR : sur les valeurs de l’humanité) qui puisse nous aider à résoudre tous les autres problèmes d’alignement ».
Sur son site web, la société explique que ce procédé « peut faire progresser la recherche sur l’alignement plus rapidement et mieux que les humains ». Afin de mettre au point ce premier système consacré au problème de l’alignement, OpenAI va recruter « de nouveaux chercheurs et ingénieurs exceptionnels ».
Optimiste, la firme ambitionne de « résoudre les principaux défis techniques de l’alignement de la superintelligence en quatre ans ». Une feuille de route des progrès dans le viseur de l’équipe sera mise en ligne dans un avenir proche.
Source :
OpenAI