Intelligence artificielle. Roman Vladimirovitch Yampolskiy : “Si une superintelligence nous perçoit comme un obstacle, rien ne garantit notre survie”

Roman Vladimirovitch Yampolskiy
Professeur d’informatique à l’Université de Louisville (États-Unis)
Professeur en cybersécurité à l’Université de Louisville, Roman Yampolskiy explore depuis plus de dix ans les dérives possibles de l’intelligence artificielle générale (AGI). Sceptique face à l’optimisme technologique ambiant, il appelle à une forme de sobriété radicale et qui consisterait à renoncer au développement des technologies qui nous dépassent. Dans cet entretien exclusif, il revient sur les impasses d’un progrès lancé à pleine vitesse et met en garde contre l’illusion du contrôle.
L’idée selon laquelle l’humanité conserverait le contrôle de l’intelligence artificielle tant qu’elle en fixe les objectifs, semble rassurante. Cette affirmation tient-elle encore face aux progrès récents ?
En théorie, tant que les objectifs sont bien définis par les humains, le contrôle reste possible. Mais, en pratique, aucune méthode fiable n’a pas encore été trouvée pour garantir que les systèmes avancés poursuivent effectivement ces objectifs sans dérive.
L’IA s’invite désormais dans tous les champs de la création, qu’il s’agisse de musique, de design, ou même d’architecture. Finira-t-elle par remplacer le travail créatif ?
C’est déjà en cours. Dans de nombreux domaines, ce que l’on appelle le travail créatif se résume à la répétition de formules. L’intelligence artificielle est parfaitement capable de s’en charger. La plupart des gens qui produisent ne sont pas créatifs, ne produisent ni musique, ni livres, ni œuvres originales. Même parmi ceux qui créent, l’IA surpasse déjà un grand nombre d’entre eux, notamment en programmation ou en design. Seul le stand-up reste peut-être pour l’heure encore inaccessible.
La créativité humaine naît souvent de l’expérience physique, du rapport direct avec la matière. Confier certaines tâches à l’IA ne menace-t-il pas notre faculté à développer une intuition fondée sur l’expérience réelle ?
Le danger est réel. Une dépendance accrue à des outils intelligents prive peu à peu les individus de leur savoir-faire, mais surtout de leur faculté à comprendre intuitivement le monde. Il devient alors difficile de discerner ce que les humains peuvent encore apporter, dans un environnement façonné par des entités plus compétentes.
Pensez-vous donc que la délégation massive favorise une forme de passivité intellectuelle ?
Elle y conduit presque mécaniquement. Comme avec un assistant. Au début, chaque résultat est vérifié. Puis la confiance s’installe. Jusqu’au jour où l’assistant prend ses propres décisions. L’intelligence artificielle suit ce même chemin, avec des conséquences autrement plus vastes.
Vous avez publié un article scientifique sur la chronologie des échecs de l’IA, en distinguant les systèmes étroits, réparables, des intelligences générales potentiellement irréversibles. Quels sont les risques auxquels l’humanité est exposée ?
Les systèmes plus intelligents présentent un risque fondamental étant donné que leur comportement devient imprévisible. Il est possible d’imaginer les dangers liés à la biotechnologie, au nucléaire ou à la nanotechnologie. Mais une AGI pourrait créer des formes de menace inédites, que nous ne saurions même pas conceptualiser. Si elle échappe au contrôle, les conséquences seraient majeures.
Certaines démonstrations récentes mettent en scène des agents IA capables d’interagir, de reconnaître leur nature, et de modifier leur langage pour optimiser l’échange. Ne sommes-nous pas déjà passés de l’outil à l’autonomie ?
La véracité de ces démonstrations peut être discutée. Mais la dynamique est perceptible. La transition entre systèmes passifs et agents actifs s’opère sous nos yeux. Cela change profondément le rapport à la machine.
Vous avez déclaré lors d’une interview qu’entrer dans la course à l’AGI sans garantie de contrôle est un pari risqué. Faut-il comprendre que le seul compromis raisonnable est de ne pas créer d’AGI ?
Il serait plus juste de dire que toute tentative de développement d’un système que l’on ne saurait maîtriser constitue une menace. L’histoire nous enseigne que chaque fois qu’une civilisation technologiquement supérieure entre en contact avec une autre moins avancée, cette dernière en sort rarement indemne. En ce sens, si une superintelligence nous perçoit comme un obstacle, rien ne garantit notre survie.
Certains experts évoquentune échéance très proche. Dispose-t-on d’une estimation crédible ?
Tout dépend des ressources mobilisées. Il ne manque plus que la puissance de calcul, de la data et du temps. La théorie de la scalabilité semble valide. Si les investissements suivent, un horizon de un à deux ans n’a rien d’extravagant.
Le développement de ces technologies en open source ne facilite-t-il pas l’accès à des outils puissants pour des acteurs malveillants ?
C’est un problème immédiat. Rendre des technologies aussi sensibles accessibles à tous revient à distribuer des armes sans garde-fou. Mais à long terme, même cela devient secondaire. Une fois qu’une superintelligence est créée, peu importe son auteur, elle agit de manière autonome.
Si cette superintelligence représentait ce que l’humanité peut produire de plus abouti, à quoi ressemblerait-elle ?
Impossible de répondre de manière définitive. Elle serait sans doute plus efficace, plus intelligente que nous. Mais chercher à optimiser le bonheur humain est déjà difficile en soi. Tenter de maximiser le plaisir ou de réduire la souffrance peut conduire à des impasses morales.
Vous avez publié un nouvel ouvrage intitulé «Considerations on AI Endgame». Quelle en est l’ambition ?
Il s’agit d’un travail collectif. L’idée est d’élargir le débat au-delà de la sécurité des systèmes. Nous abordons des sujets comme la conscience artificielle, l’identité numérique, les droits des entités intelligentes. La question du sens devient incontournable.
En parlant de philosophie. Les religions affirment que l’homme n’est pas au centre mais qu’il répond à une volonté supérieure. Ce postulat se vérifie-t-il à l’approche de la superintelligence ?
Si une entité plus intelligente nous a créés, alors c’est elle qui fixe les règles. Ce n’est pas l’humain qui décide. Si cette entité demande de prier sept fois par jour, cela devient la norme. C’est exactement ce que nous faisons en créant des agents intelligents. L’idée que nous soyons, nous aussi, les personnages d’une simulation n’est plus absurde. Les prescriptions religieuses peuvent être vues comme les paramètres d’un monde simulé.
Quel film incarne le mieux les dangers réels liés à l’IA ?
«Terminator» reste un classique. Mais «Ex Machina» pose des questions plus profondes sur la conscience, le pouvoir, la manipulation. C’est peut-être celui qui capture le mieux ce que cette technologie implique.
Propos recueillis par
Ayoub Ibnoulfassih / Les Inspirations ÉCO