Top Qs
Chronologie
Chat
Contexte
Superintelligence
agent surpassant l'intelligence humaine De Wikipédia, l'encyclopédie libre
Remove ads
Une superintelligence est un agent hypothétique qui posséderait une intelligence de loin supérieure à celle des humains les plus brillants et les plus doués. Un système résolvant des problèmes (comme un traducteur automatique ou un assistant à la conception) est parfois aussi décrit comme « superintelligent » s'il dépasse de loin les performances humaines correspondantes, même si cela ne concerne qu'un domaine plus limité.
S'il existe des scénarios de création de superintelligence biologique, ou de superintelligence collective, la plupart des analyses se concentrent sur la possibilité qu'une intelligence artificielle devienne capable de s'améliorer elle-même, donnant naissance à la singularité technologique ; celle-ci est le sujet d'espoirs (le transhumanisme)[1], mais aussi de craintes de catastrophe.
Le 22 octobre 2025, plus de 800 scientifiques et personnalités politiques demandent l'arrêt du développement de l'intelligence artificielle dite « superintelligence » en raison des risques existentiels qu'elle ferait peser sur l'humanité ; tant qu'il n'y aura pas de consensus scientifique et de cadre législatif strict et démocratiquement décidé. Sam Altman (OpenAI), estime que la superintelligence pourrait émerger d'ici cinq ans, et après son projet de métavers, Mark Zuckerberg investit des dizaines de milliards de dollars dans la recherche d'une « superintelligence »[2].
Remove ads
Définitions
De manière générale, on parle de superintelligence dès qu'un agent dépasse de loin les performances humaines dans une activité intellectuelle. Le philosophe Nick Bostrom définit une « superintelligence » comme « un intellect beaucoup plus compétent que les meilleurs cerveaux humains dans pratiquement tous les domaines, y compris la créativité scientifique, la sagesse et les talents sociaux. »[3]. Pour cet auteur, des programmes de jeux de réflexion, tels que Fritz ou AlphaGo, bien que largement supérieurs aux humains, ne méritent ainsi pas d'être considérés comme superintelligents, car ils ne sont compétents que pour une seule tâche[4]. Comme Marcus Hutter avant lui, Bostrom définit la superintelligence comme une supériorité générale dans les comportements ayant un objectif, laissant ouverte la question de capacités telles que l'intentionnalité[5] ou la perception des qualia[6].
Remove ads
Possibilité de créer une superintelligence
Résumé
Contexte
Les chercheurs sont en désaccord sur les chemins pouvant mener à une superintelligence. Le scénario le plus souvent proposé envisage des progrès en intelligence artificielle (IA), cependant d'autres pensent que les humains évolueront ou modifieront leur biologie pour augmenter radicalement leurs capacités intellectuelles. Certaines analyses de futurologues combinent des éléments de ces deux possibilités, suggérant que les humains pourraient se connecter directement à des ordinateurs, ou même y transférer leur esprit, de façon à permettre une amplification de leurs possibilités.
Superintelligence artificielle

Des chercheurs, comme David Chalmers[8], pensent que la superintelligence apparaîtra rapidement après la création d'une intelligence artificielle générale (IAG). Plusieurs scientifiques considèrent l'étude de ces possibilités comme prioritaire, en raison de leurs conséquences sociétales et sociales[9].
Certains logiciels sont capables de se reprogrammer pour s'auto-améliorer. Ils peuvent contribuer au scénario connu sous le nom d'explosion d'intelligence, proche du concept de singularité technologique[10].
Nick Bostrom note que les circuits électroniques présentent de nombreux avantages sur le cerveau humain. Leurs transistors peuvent fonctionner à des fréquences typiquement 10 millions de fois supérieures à celle des neurones biologiques, les rendant extrêmement rapides en comparaison. Les transistors sont aussi plus fiables que les neurones biologiques, nécessitant moins de redondance et permettant une meilleure précision. De plus, une IA peut être facilement dupliquée et éditée, contrairement au cerveau humain[11].
Néanmoins, vers 2020, la durée moyenne d'obsolescence d'un ordinateur est comprise entre 3 et 5 ans (selon sa qualité, son usage, son entretien et des questions d'obsolescence logicielle), et en France 6 % des PC portables sont remplacés après deux ans d'utilisation, alors que 15 % ont un cycle de renouvellement supérieur à six ans[12]. L'électronique embarquée des navires, avions, satellites ou sondes spatiales a une durée de vie plus longue (plusieurs décennies)[13], alors que le cerveau humain, tout en consommant bien moins d'énergie, peut continuer de fonctionner pendant près d'un siècle.
En juin 2025, après les performances jugées décevantes de son modèle Llama 4, Meta lance le Meta Superintelligence Labs (MSL), dirigé par Alexandr Wang (ancien dirigeant de Scale AI). Ce labo est créé avec un investissement de base de 14 milliards de dollars, pour 49 % du capital de sa société. Mark Zuckerberg a aussi recruté plusieurs chercheurs de haut niveau, dont Lucas Beyer, Alexander Kolesnikov et Xiaohua Zha. Le laboratoire disposera de 50 des meilleurs experts en IA, certains ayant des salaires annuels atteignant les 9 chiffres. Meta a prévu d'investir jusqu'à 65 milliards de dollars en IA rien que pour 2025. Cette initiative émerge dans un contexte de rivalité croissante entre géants du numérique[14].
Une autre approche pour la conception d'une superintelligence consiste à émuler un équivalent de cerveau humain, mais doté de circuits électroniques, permettant une meilleure rapidité et diverses optimisations. L'intelligence ainsi simulée (jumeau numérique) pourrait en théorie être des millions de fois plus rapide[15] et doué d'un énorme avantage dans la plupart des tâches intellectuelles, en particulier celles demandant des décisions rapides, ou nécessitant de longues chaînes de déductions couvrant de nombreux cas possibles. Un autre avantage des circuits électroniques est leur modularité, permettant d'accroître presque sans limite leur taille et leur complexité. Nick Bostrom, en 2014, considérait aussi que cela pourrait donner naissance à une « superintelligence collective », si l'on peut faire interagir un nombre assez grand d'agents déjà intelligents[16].
Superintelligence biologique
Carl Sagan a suggéré que la généralisation des césariennes et de la fécondation in vitro pourrait permettre aux humains de développer de plus grands cerveaux, que la sélection naturelle pourrait ensuite conduire à une intelligence améliorée[17]. D'un autre côté, Gerald Crabtree (en) craint au contraire que la diminution des pressions de sélection amène à un déclin de l'intelligence humaine. Il n'y a pas de consensus à ce sujet, et dans tous les cas ces changements seraient lents, comparés à la vitesse des changements culturels.
Des méthodes eugéniques, et plus encore le génie génétique, pourraient améliorer l'intelligence humaine plus rapidement. Bostrom pense que si nous parvenons à comprendre les mécanismes génétiques de l'intelligence, nous pourrons sélectionner des embryons ayant un haut potentiel intellectuel ; itérant ce processus sur de nombreuses générations, les gains pourraient être très importants. Bostrom suggère de plus que le processus pourrait être énormément accéléré en travaillant directement sur les cellules souches embryonnaires[18] ; une organisation sociale convenable d'humains ayant une intelligence exceptionnelle pourrait développer une superintelligence collective[19].
Les avantages mentionnés plus haut d'une superintelligence artificielle sont cependant moins importants pour une superintelligence biologique, les contraintes physiologiques limitant la vitesse et la taille des cerveaux ; c'est pourquoi les études ont plutôt porté sur des scénarios d'intelligence artificielle[20]. Un compromis intéressant pourrait être la création de cyborgs, associations symbiotiques de l'homme et de la machine. Cependant, Bostrom exprime des doutes sur la faisabilité d'une interface superintelligente, estimant qu'il s'agit d'un problème aussi difficile que de créer une superintelligence artificielle pure[21].
Remove ads
Prévisions
La majorité des chercheurs en intelligence artificielle s'attendent à ce que les machines soient un jour capable de rivaliser avec les humains sur le plan de l'intelligence, bien qu'il y ait peu de consensus sur la date à laquelle cela se produira. Ainsi, à la conférence de 2006 de l'AI@50 (en), 18 % des participants s'attendaient à ce que les machines « soient capable de simuler l'apprentissage et les autres capacités intellectuelles humaines » d'ici 2056 ; 41 % pensaient que cela se produirait, mais après 2056, et 41 % pensaient que les machines n'y arriveraient jamais[22].
En , une enquête auprès des cent auteurs les plus cités dans le domaine de l'IA, 2070 était l'année médiane pour laquelle était estimée, avec une confiance de 90 %, que des machines pourraient « exercer la plupart des professions humaines aussi bien qu'un humain typique » ; avec une probabilité de 50 %. Ils estimaient de même qu'il faudrait ensuite 30 ans pour que se développe une superintelligence[23].
Problèmes de conception et de prévention des dangers potentiels
Résumé
Contexte
Le 22 octobre 2025, plus de 800 scientifiques, personnalités politiques, entrepreneurs et célébrités ont signé un nouvel appel lancé par le Future of Life Institute[24], demandant l'arrêt du développement de la superintelligence en raison du risque existentiel posé par l'intelligence artificielle. Les signataires incluent des pionniers de l'IA comme Geoffrey Hinton, Stuart Russell et Yoshua Bengio, mais aussi des figures de la tech (Richard Branson, Steve Wozniak), des responsables politiques (Susan Rice, ex-conseillère à la sécurité nationale de Barack Obama ; ou Steve Bannon ex-conseiller de Donald Trump, autrefois impliqué dans la plateforme Ripon et la création de Cambridge Analytica et d'AggregateIQ), des représentants religieux (Paolo Benanti, conseiller du Vatican sur l'IA) et des célébrités (le chanteur will.i.am ou le prince Harry et son épouse Meghan Markle). Le message appelle à une interdiction du développement de la superintelligence tant qu'il n'y a pas de consensus scientifique sur le fait que cela se fasse de façon contrôlée et sécurisée, et tant qu'il n'y a pas un soutien fort de la population. Sam Altman, le PDG d'OpenAI, l'entreprise derrière ChatGPT, a estimé en 2025 que la superintelligence pourrait émerger d'ici à 2030. Cette initiative fait écho à une lettre publiée lors de l'Assemblée générale de l'ONU en septembre 2025, réclamant des accords internationaux fixant des « lignes rouges »[25] pour encadrer l'IA et prévenir celles de ses conséquences pouvant être dévastatrices[26].
Le principal danger envisagé est la possibilité qu'une superintelligence échappe à ses créateurs (ce que Nick Bostrom appelle le « problème du contrôle »[27]). Eliezer Yudkowsky pense que les risques ainsi créés sont plus imprévisibles que toutes les autres sortes de risques[1], et il ajoute que la recherche à ce sujet est biaisée par l'anthropomorphisme : les gens basant leur analyse de l'intelligence artificielle sur leur propre intelligence[28], ce qui les amène à en sous-estimer les possibilités. Il sépare d'ailleurs les risques en problèmes techniques (des algorithmes imparfaits ou défectueux empêchant l'IA d'atteindre ses objectifs), et en échecs « philosophiques », bien plus pernicieux et difficiles à contrôler, où les objectifs de l'IA sont en fait nuisibles à l'humanité[29] ; de plus, presque par définition, une superintelligence serait si puissante qu'on ne pourrait l'arrêter en cas de comportement imprévu[30]. Selon Yudkowsky, en l'absence de contrôle, « L'IA ne vous détesterait pas nécessairement, mais vous êtes faits d'atomes qu'elle pourrait décider d'utiliser pour faire autre chose. »[31]
Nick Bostrom s'est inquiété des valeurs qui devraient être incorporées au design d'une superintelligence pour éviter ces problèmes. Il a ainsi comparé plusieurs propositions[32] :
- Valeurs Extrapolées Cohérentes (VEC) : les valeurs sont celles sur lesquelles tous les humains s'accordent.
- Justesse Morale (JM) : la valeur principale est la justice.
- Permissivité Morale (PM) : tout ce qui est moral est permis, en respectant les valeurs VEC.
Remove ads
Dans la fiction
- Ted Chiang décrit dans sa nouvelle Comprends la vie d'un individu qui a acquis artificiellement une intelligence totalement hors norme.
Voir aussi
- Agent intelligent
- Altruisme efficace
- Apprentissage automatique
- Autoréplication
- Cerveau artificiel
- Course aux armements
- Explosion d'intelligence
- Future of Humanity Institute
- Intelligence artificielle digne de confiance
- Machine Intelligence Research Institute
- Post-humanisme
- Risque de catastrophe planétaire
- Singularitarisme
Citations
Bibliographie
Liens externes
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads