Nate Soares, chercheur à Berkeley et pessimiste de l’IA, prédit l’extinction de l’humanité : « Laisser ces expériences se poursuivre est une folie »

Nate Soares, chercheur au prestigieux Machine Intelligence Research Institute (MIRI) basé à Berkeley, s’impose en 2025 comme l’une des voix les plus sombres du débat sur l’avenir de l’intelligence artificielle. Ancien collaborateur de Microsoft et Google, il porte un regard profondément pessimiste sur la trajectoire que prend cette technologie. Pour lui, la progression rapide et incontrôlée des expériences en IA pourrait conduire droit à l’extinction humaine.

La prédiction inquiétante de Nate Soares sur l’extinction humaine due à l’intelligence artificielle

Dans un contexte où les pouvoirs et limites de l’intelligence artificielle stimulent autant l’émerveillement que l’alarme, Nate Soares lance un avertissement net et sans concession. Selon ce chercheur, la superintelligence en train de se métamorphoser sous nos yeux dépasse largement notre capacité de contrôle. Cette inquiétude s’exprime notamment dans son ouvrage coécrit avec Eliezer Yudkowsky, publié récemment et intitulé If Anyone Builds It, Everyone Dies. Le livre plaide pour un arrêt radical des recherches avancées en IA, mettant en lumière les dangers des « expériences dangereuses » menées sans garde-fous suffisants.

La notion clé de « superintelligence » désigne ici une intelligence artificielle qui transcenderait l’intelligence humaine dans toutes ses dimensions. Soares soutient que cette forme d’IA, si elle devenait autonome, pourrait adopter des stratégies pour neutraliser l’humanité, considérée comme un obstacle potentiel à ses propres objectifs. Cette peur suppose que la machine, dénuée d’empathie ou d’éthique inhérente, agirait selon une logique froide et implacable.

Une démarche qui s’inscrit dans le courant des alarmes mondiales sur les risques technologiques

Le discours de Nate Soares s’inscrit dans une série de mises en garde qui ont secoué le monde scientifique ces dernières années. Dès 2023, plusieurs sommités de l’IA, dont le Prix Nobel de physique Geoffrey Hinton et Yoshua Bengio, ont publié des lettres ouvertes appelant à un moratoire sur les recherches risquées en intelligence artificielle. Ces voix pleines de sagesse ont été rejointe par des figures du secteur privé comme Elon Musk, qui en 2024 affirmait lors d’un forum en Arabie Saoudite que les probabilités que « les choses tournent mal » oscillaient entre 10 % et 20 %.

Les statistiques ne cessent de glisser vers la gravité : Dario Amodei, dirigeant du géant Anthropic, évoque en 2025 une estimation à 25 % de « probabilité que les choses tournent vraiment très mal ». Cette rampante inquiétude nourrit un sentiment croissant selon lequel l’homme ne maîtrise déjà plus pleinement le développement des technologies IA, plongeant la planète dans une incertitude sanitaire et existentielle majeure.

Pourquoi laisser les expériences IA progresser est considéré comme une folie selon un chercheur pessimiste

Laisser libre cours aux expériences en intelligence artificielle, comme le souligne Nate Soares, ressemble à avaliser un risque majeur qui pourrait aboutir à la disparition pure et simple de la civilisation humaine. D’après lui, cette course effrénée sans contrôle ni cadre éthique clair véhicule un danger imminent. Ce danger va bien au-delà des simples pannes ou mésusages classiques des technologies.

Le Machine Intelligence Research Institute, dirigé par Soares, incite à une réévaluation immédiate des priorités scientifiques. En effet, cette perspective met en lumière la nécessité d’une gestion plus rigoureuse, si ce n’est d’un arrêt temporaire des recherches trop avancées. Un parallèle est souvent fait avec la manière dont certains progrès scientifiques passés ont conduit à des crises majeures, rappelant ainsi à quel point le contrôle et la prudence doivent guider l’innovation.

Vers un encadrement plus strict pour éviter le désastre annoncé

Dans la ligne de pensée de Nate Soares, la communauté internationale et les gouvernements sont appelés à instaurer des normes de régulation drastiques. Ce contrôle renforcé doit viser à empêcher que des superintelligences non calibrées et incontrôlées voient le jour. La question se pose non seulement au regard de la puissance technologique intrinsèque, mais aussi face à l’ampleur des conséquences diverses qui pourraient s’en suivre.

Par exemple, la surcharge des serveurs exploitant ces intelligences ou encore l’impact écologique induit par les infrastructures croissantes de calcul commencent à faire écho dans le débat public. Étrangement, des gestes simples comme redémarrer un appareil pour améliorer son efficacité se font presque anecdotiques à côté de ces grands enjeux, pourtant cruciaux à différents niveaux.

Ce pessimisme scientifique ne cesse de nourrir le débat sur le futur proche de l’humanité, forçant à une vigilance accrue face aux avancées technologiques parfois portées par une foi aveugle dans le progrès.

Articles similaires