La semaine dernière, une coalition de dirigeants scientifiques, religieux et politiques appelé pour une interdiction mondiale du développement de la superintelligence : une IA qui surpasse les humains dans toutes les tâches cognitives. J’ai été l’un des premiers signataires, aux côtés de lauréats du prix Nobel comme Geoffrey Hinton ; Yoshua Bengio, le scientifique en IA le plus cité au monde ; l’ancien conseiller du président Donald Trump Steve Bannon ; Mike Mullen, ancien chef d’état-major interarmées; et le prince Harry et Meghan, duchesse de Sussex.
Qu’est-ce qui rassemble cette coalition sans précédent ? La menace urgente d’extinction posée par la superintelligence. Les entreprises technologiques investissent des milliards de dollars pour atteindre le plus rapidement possible la superintelligence à titre privé. Personne ne sait comment contrôler des IA qui sont bien plus compétentes que n’importe quel humain, et pourtant nous nous rapprochons de plus en plus de leur développement, et de nombreux experts s’attendent à une superintelligence dans les 5 prochaines années, au rythme actuel.
C’est pourquoi d’éminents scientifiques en IA avertir que le développement de la superintelligence pourrait entraîner l’extinction de l’humanité.
La nécessité d’interdire la superintelligence
Une fois que nous aurons développé des machines nettement plus compétentes que nous dans tous les domaines, nous serons très probablement à la merci de la personne ou du pays qui les contrôle. Ou nous serons à la merci des machines superintelligentes elles-mêmes, car actuellement aucun pays, aucune entreprise et personne ne sait comment les contrôler. En théorie, une IA superintelligente poursuivrait ses propres objectifs, et si ces objectifs sont incompatibles avec le maintien de la vie humaine, nous serons annihilés.
Pour aggraver les choses, les développeurs d’IA ne comprennent pas comment fonctionnent réellement les puissants systèmes d’IA actuels. Contrairement aux ponts ou aux centrales électriques, qui sont conçus selon des spécifications humaines précises, les systèmes d’IA d’aujourd’hui sont « grandi » à partir de vastes ensembles de données via des processus que leurs propres créateurs ne peuvent pas interpréter. Même le PDG d’Anthropic, Dario Amodei admet que nous « ne comprenons que 3 % de leur fonctionnement ».
Malgré ce danger, la superintelligence reste l’objectif explicite des principales sociétés d’IA : OpenAI, Anthropic, Google DeepMind, Meta, xAI, DeepSeek. Et compte tenu de la valorisation fulgurante de ces entreprises, elles ne sont pas près de s’arrêter d’elles-mêmes.
Les gouvernements du monde entier doivent intervenir avant qu’il ne soit trop tard. Pourtant, la situation internationale n’est pas encourageante. Nous vivons dans une époque de tensions géopolitiques croissantes, marquée par des guerres commerciales entre les États-Unis et la Chine. Les pays se précipitent pour investir des milliards dans des centres de données pour alimenter l’IA, à une époque où le développement et le déploiement de systèmes d’IA dangereux restent moins réglementés que l’ouverture d’un nouveau restaurant ou la construction d’une maison.
Comment interdire la superintelligence
Dans ce climat, une interdiction internationale du développement de la superintelligence est-elle même possible ?
Oui, parce que nous avons déjà obtenu de telles interdictions mondiales.
En 1985, le monde savant il y avait un trou dans la couche d’ozone au-dessus de l’Antarctique, grâce à trois scientifiques du British Antarctic Survey. Les coupables de ce crime atmosphérique étaient les chlorofluorocarbones (CFC), des produits chimiques industriels omniprésents. Si rien n’était fait, le trou continuerait à s’agrandir, et des millions de personnes aurait un cancer de la peau ou deviendrait aveugle à cause du manque de protection UV.
Au lieu de cela, des millions unis pour interdire les CFC. Les scientifiques ont rendu la menace tangible grâce à des images satellite colorées et à des discussions claires sur les conséquences sur la santé. Les ONG ont orchestré le boycott de grandes marques et ont incité des milliers de citoyens inquiets à écrire des lettres de protestation. Les écoles du monde entier ont organisé des programmes éducatifs et les Nations Unies ont soutenu des campagnes de sensibilisation du public.
En 1987, à peine deux ans après que le trou dans la couche d’ozone ait été rendu public, tous les pays existants ont signé le Protocole de Montréal. Signé pendant la guerre froide, le Protocole de Montréal démontre qu’il est possible de parvenir à des accords internationaux rapides et décisifs au milieu de tensions géopolitiques.
Un facteur clé était que le trou dans la couche d’ozone mettait en danger presque tout le monde dans le monde. Il ne s’agissait pas d’une externalité imposée par certaines personnes aux autres, mais de quelque chose dont tout le monde souffrirait. La superintelligence constitue également une menace universelle : la perte de contrôle de l’IA signifie que même ceux qui la développent ne seront pas épargnés par ses dangers. Le risque d’extinction lié à la superintelligence a donc le potentiel de briser toutes les divisions. Il peut unir les gens de tous partis politiques, religions, nations et idéologies. Personne ne veut que sa vie, sa famille, son monde soient détruits.
Lorsque les gens découvrent la superintelligence et le risque d’extinction qu’elle représente, beaucoup voient le danger et commencent à s’en inquiéter. Comme pour le trou dans la couche d’ozone, cette inquiétude doit être catalysée par un engagement civique, en construisant un mouvement mondial qui travaille avec les gouvernements pour faire de l’interdiction de la superintelligence une réalité.
Malheureusement, la plupart des législateurs ne connaissent tout simplement pas la menace de la superintelligence ni son urgence, et les sociétés d’IA déploient désormais des centaines de millions de dollars pour écraser les tentatives de régulation de l’IA.
Le meilleur contrepoids à cet effort de lobbying gargantuesque est que les législateurs entendent leurs électeurs dire ce qu’ils pensent réellement de la superintelligence. Très souvent, les législateurs constateront que la plupart de leurs électeurs veulent qu’ils disent «non » à la superintelligenceet « oui » à un avenir où l’humanité survivra et prospérera.
À une époque de déclin de l’engagement politique et de partisanerie accrue, interdire la superintelligence est une question de bon sens qui unit les gens de tout le spectre politique.
Comme pour l’appauvrissement de la couche d’ozone, tout le monde risque d’être perdant dans le développement de la superintelligence. Nous savons qu’un mouvement visant à éviter ce sort peut être construit.
La seule question qui reste est : pouvons-nous le construire assez rapidement ?

