La fin du monde ne passera (sans doute) pas par l’IA
La série Next envisage la possibilité qu‘une intelligence artificielle éradique les humains. En vérité, nous pouvons nous débrouiller tous seuls.
Cette semaine, Boîte Noire est heureux et fier de publier un article rédigé par un invité : Antoine « Kitetoa » Champagne, co-fondateur de Reflets.info mais avant tout « dino du net égaré dans le journalisme ». Tout commence avec Next, une série Fox qui met en scène un affrontement entre l’humanité et une intelligence artificielle belliqueuse...
∎ « Next ». Le nom de la super-intelligence artificielle, personnage central de la série télévisée éponyme, est particulièrement bien choisi. C’est l’étape d’après. Après les IA que l’on connaît aujourd’hui. Après, avec aucune possibilité de retour en arrière. Futur, comme ce qui nous attend ? Allons-nous, les yeux fermés, vers le développement d’une intelligence artificielle sous stéroïdes, nous menant à une singularité technologique ? C’est-à-dire à un instant où ce programme viendrait à se reprogrammer lui-même pour s’améliorer à chaque itération et dépasser de loin toute forme d’intelligence humaine ? Et dans ce cas, que pourrions-nous contre une IA nous surpassant dans des proportions ineffables ? Que décidera-t-elle de faire de nous ? C’est cette situation qu’explore la série Next. En faisant largement appel au réel contemporain…
La série met en scène un magnat de la tech, Paul Leblanc, qui sonne l’alerte contre le développement d’intelligences artificielles pouvant aboutir à une catastrophe. Un peu comme Elon Musk qui avait estimé en 2017 que « L’intelligence artificielle est un risque fondamental pour l’existence de notre civilisation ». « L’IA est l’un des rares cas où je pense que l’on doit adopter une régulation préventive. Si on attend le moment où il faudra réglementer de façon réactive, ce sera trop tard », ajoutait-il.
La même année était lancé le Partnership on IA, visant à promouvoir une utilisation responsable de l’intelligence artificielle, qui réunissait Amazon, Facebook, Google, DeepMind, Microsoft et IBM. Mais, fin 2020, Google licenciait Timnit Gebru, en charge des questions éthiques liées à l’IA. Elle était en passe de publier un rapport mettant en cause le modèle de développement de Google, notamment en matière de langage naturel pour les IA et d’entrainement de ces outils. Doit-on leur fournir des contenus sans supervision humaine, les laisser apprendre sur la base de textes contenant des biais ou des idées controversées ? Google vient d’annoncer avoir entraîné un algorithme de machine learning dans le domaine du langage, un modèle de langage, doté de 1 000 milliards de paramètres. Le dernier record, avec le modèle GPT-3, était de 175 milliards.
Next décrit par ailleurs très bien un monde interconnecté, des utilisateurs prêts à abandonner leur vie privée en échange d’outils agréables et pratiques. Pourvu que l’UX soit belle… Des informaticiens saluent même l’effort des scénaristes, les scènes de hack font appel à des outils réalistes. Reste le plus dur : parvenir à convaincre des spécialistes que la naissance d’une IA possédant une conscience, pouvant s’autodéterminer, est possible.
C’est probablement après avoir vu la série Next, même s’il ne la nomme pas précisément, que l’un des membres de l’American Network Operators’ Group (NANOG) a lancé ce sujet de discussion au sein de la mailing-list des membres. Il l’a adapté aux problématiques de ces deniers, généralement des responsables de très vastes réseaux informatiques de communication. Cet intervenant, architecte système, imagine un système de management de réseaux automatisé reposant sur des IA. Afin de protéger leur réseau, ces IA pourraient aller puiser des ressources ailleurs et créer une sorte de monumental déni de service. Une forme de cataclysme moins terrible que celui décrit dans Next (l’IA veut détruire l’humanité), mais un souci tout de même dans un monde reposant autant sur les réseaux informatiques.
La réponse n’a pas tardé : « Vous réalisez que l’intelligence artificielle forte est de la science-fiction, n’est-ce pas ? Il n’y a pas d’IA forte, et même le machine learning n’est pas réellement un apprentissage dans le sens où les humains ou les animaux apprennent. De même, les “réseaux de neurones” n’ont rien à voir avec la façon dont les neurones biologiques fonctionnent pour créer la cognition (et que la science ne comprend pas). Tout cela n’est que mythologie, amplifiée par la science-fiction et les séries télévisées de fiction, comme le personnage “Data” de Star Trek. Ce n’est qu’anthropomorphiser la technologie ». Mel Beckman, expert réseau, parle également d’une peur alimentée par des gens comme Elon Musk. « C’est à nous, les véritables experts en technologie, de combattre les semeurs de peur et de dire la vérité, pas de propager un battage médiatique » qui, selon lui, sert les intérêts financiers de certains. Une analyse que partage Laurence Devillers, professeur en intelligence artificielle au LIMSI-CNRS et auteur du livre Les robots émotionnels.
« Les IA sont manifestement déjà plus “intelligentes” que les humains pour certaines tâches, les jeux, comme le Go, les calculs et les comparaisons. Mais elles n’ont pas, et ne sont à mon avis pas prêtes d’acquérir nos capacités d’intuition, de réflexion, d’adaptabilité. Elles ne sont pas douées de conscience ou d’intention. Notre univers, notre monde est incertain. Nous sommes incapables d’en définir toute la complexité de manière informatique. Les machines ont donc du mal à s’y adapter et à interagir », explique la chercheuse.
Pour Laurence Devillers, avec les IA, on ne copie pas le biologique, mais des fonctionnalités. Les robots font ce qu’on leur a appris ou reproduisent des actions. Rien de plus. On est donc encore loin de la conscience, un concept que l’on a déjà du mal à définir pour les humains… « Avant d’imaginer des dystopies, ce qui peut être utile pour les éviter, on devrait sans doute se servir de ces outils pour mieux appréhender et comprendre le monde qui nous entoure, poursuit-elle. Au-delà des données personnelles, qui sont le Graal des géants de la tech, on devrait réfléchir à ce que les données d’intérêt général pour la société peuvent apporter pour créer des communs », souligne la chercheuse. La vitesse d’érosion des roues d’une voiture donne par exemple des informations sur l’état des routes et pourraient être utiles à leur entretien.
Tout en montrant un fort scepticisme sur l’approche d’une singularité technologique, dans la liste NANOG, Mel Beckman se veut toutefois réaliste. Pour toute construction faisant appel à l’automatisation, comme les programmes informatiques qualifiés d’IA, il faut des systèmes de sureté parce que toutes sortes de choses « explosent ». Mais quand elles le font, « ce n’est jamais parce que les systèmes ont exploité tout seuls une intelligence pour s’interconnecter et devenir encore plus intelligents. C’est parce que vous avez été stupide ».
Pour bien rappeler que derrière ce que l’on appelle des intelligences artificielles, il y a surtout des humains, avec leurs biais, un intervenant de la liste NANOG souligne qu’il ne faut pas craindre que les IA nous privent de notre liberté, mais que des gens qui les utilisent, le fassent. La fin du monde envisagée dans Next n’est sans doute pas pour demain. Si les humains ne font pas n’importe quoi… ∎
Boîte Noire est la newsletter hebdomadaire sur l’intelligence artificielle de Sébastien Wesolowski. Inscrivez-vous par ici : http://eepurl.com/hivYvT