Et si... les robots prenaient le pouvoir ? Soulèvement des machines

Joseph Miguel 16-11 à 20:37 Science

On connaît le moment précis où l'intelligence artificielle (IA) s'est imposée dans la société : c'était en octobre 2012, à Florence (Italie), lors de la troisième édition du Image Net Large Scale Visual Recognition Challenge. Au cours de ce défi annuel de reconnaissance automatique de scènes visuelles (photographiées), destiné aux chercheurs en IA, l'équipe de l'université de Toronto (Canada) rafle la mise avec son système de Deep Learning (ou apprentissage profond). C'est une nouveauté technique et une petite révolution : alors qu'on n'était jamais passé sous la barre des 25 % d'erreur dans la reconnaissance d'un millier d'objets, l'IA de Toronto obtient le score impressionnant de 16 % d'erreur (taux qui, depuis lors, est tombé à quelques pour cents). Ce type d'IA, un réseau de neurones à plusieurs couches, n'est pas une nouveauté théorique : il a été imaginé dans les années 1980, par analogie avec les couches du système visuel humain (V1 à V5).

Mais c'est la première fois que ce type d'algorithme prouve sa supériorité sur le terrain.

Impressionnées, les grandes entreprises du Net (Google, Facebook, Amazon, Apple, IBM, Baidu, Alibaba, etc.) ne tardent pas à s'emparer de cette technologie en embauchant à tours de bras des spécialistes, venus du monde académique. Une enquête publiée en septembre 2016 dans Fortune, « Pourquoi le Deep Learning est entrain de changer votre vie », dévoilait qu'entre 2014 et 2016, les investissements des firmes américaines dans les projets d'apprentissage profond avaient atteint 6 milliards de dollars (pour seulement 1,5 milliard en technologies IA entre 2011 et 2014). Très vite, les exploits du Deep Learning (souvent associé à d'autres technologies, comme l'apprentissage par renforcement) se font connaître du public : l'IA de Google Alpha Go accède à la célébrité, en 2016, en battant deux des meilleurs joueurs de go mondiaux, puis sa version améliorée, Alpha Zero, devient championne de jeux d'arcade en apprenant à jouer seule, contre elle-même. En 2017, le système Libratus développé par l'université Carnegie-Mellon (États-Unis) plume littéralement quatre des meilleurs joueurs de poker, remportant 1,76 million de dollars…

DES PROGRAMMES CAPABLES DE DÉCIDER

Moins médiatique, la recherche scientifique bénéficie aussi du phénomène Deep Learning, notamment en médecine : recherche sur le cancer (détection de cellules malignes), imagerie médicale (rayons X, IRM, scanner), neurosciences, épidémiologie, biologie, psychiatrie… « L'IA, en particulier l'apprentissage profond, permet d'extraire des connaissances à partir d'un volume phénoménal de données, explique Jean-Gabriel Ganascia, professeur d'informatique à la Sorbonne. Elle est donc idéale pour des tâches impliquant des décisions : reconnaissance de visages, traitement des données médicales, voiture autonome… »

Avec cette révolution de l'IA portée par le Deep Learning, des voix critiques commencent également à se faire entendre. Les plus audibles proviennent de célébrités du monde académique ou entrepreneurial, comme le physicien Stephen Hawking (décédé en 2018), le fondateur de Microsoft, Bill Gates, ou encore Elon Musk, le charismatique PDG de Spa ce Xe t Tesla. « Si les gens peuvent concevoir des virus informatiques, quelqu'un pourrait concevoir une IA capable de s'améliorer et de se reproduire, déclarait Stephen Hawking en 2014. Ce sera une nouvelle forme de vie capable de surpasser les humains. » Pour Elon Musk, l'intelligence artificielle est devenue « le plus grand risque auquel notre civilisation sera un jour confrontée ». Leur hypothèse est que, dans quelques décennies, les améliorations conceptuelles et technologiques portées par la loi de Moore (voir p. 79) conduiront inévitablement à un point nommé « singularité technologique » où les systèmes IA acquerront une intelligence supérieure à celle des humains et prendront des décisions sur leur propre fonctionnement par-delà notre volonté. Quand ? Vers 2030, pour Hans Moravec, chercheur en IA à l'université Carnegie-Mellon et futurologue. En 2045, pour Ray Kurzweil, du MIT, l'un des « gourous » de la Silicon Valley, spécialiste en IA, futurologue et cofondateur de la Singularity University. Que se passera-t-il alors ? Ces « super intelligences artificielles » s'opposeront à nous et finiront par nous pré dater -comme nous l'avons fait nous-mêmes avec de nombreuses espèces.

RAPIDITÉ ET FIABILITÉ

Nick Bostrom, philosophe, professeur à l'université d'Oxford et directeur du Future of Humanity Institute, a étudié le scénario de cette « transition » dans son ouvrage Super intelligence : Paths, Dangers, Strategies (Oxford University Press, 2014), synthétisant les arguments de ses partisans. Selon lui, les IA acquerraient une intelligence dépassant la nôtre non seulement en vitesse -ce qui est déjà le cas pour des tâches spécifiques non générales -mais aussi en qualité, de la même manière que « la qualité de l'intelligence humaine est supérieure à celle des dauphins, éléphants et chimpanzés ». En effet, à moins de considérer que l'intelligence humaine est un maximum absolu, on peut supposer que d'autres entités pourraient la dépasser. Certes, on ignore à quoi ressemblera cette super IA car « il est difficile, sinon impossible pour nousde donner un sens intuitif aux aptitudes d'une super intelligence, écrit Bostrom, mais nous pouvons au moins avoir une idée de l'étendue des possibilités en examinant certains des avantages offerts aux esprits numériques ».

Ces avantages sont la vitesse de calcul, la vitesse d'échange d'informations internes, le nombre d'éléments informatiques servant au calcul, les capacités de stockage, la fiabilité et la durée de vie -certains dépassent déjà les capacités cérébrales. L'IA compte aussi sur d'autres compétences que les humains ne partagent pas : la possibilité de modifier ses programmes, la duplicabilité de ceux-ci, la transmissibilité de la mémoire… Selon Bostrom, avec le progrès exponentiel permis par la loi de Moore, il existe un risque réel que cette super intelligence émerge et asservisse, voire élimine l'humanité, quel que soit son objectif initial - « protéger les humains », « fabriquer des trombones » ou « calculer les décimales de pi ». Car, selon ce scénario, elle cherchera avant tout à optimiser ses ressources de calcul, un principe au cœur de tout système de traitement de l'information. Pour cela, les IA concevront des objectifs secondaires, des sous-programmes, servant l'objectif primaire : pour peu qu'elles soient enfermées dans une boîte étanche sans communication avec l'extérieur, elles mettront au pas d'autres systèmes informatiques du réseau pour accélérer le calcul. Un autre objectif secondaire sera de garantir leur pérennité en captant et sécurisant des ressources énergétiques, via les systèmes informatiques des industries.

Aucune volonté de nuire dans ces agissements, seulement un raisonnement algorithmique surpuissant sur la meilleure stratégie à court et à long terme pour le but assigné -ce que fait déjà l'IA, mais plus modestement. Et si deux super intelligences ou plus venaient à s'opposer dans les réseaux, la bataille aboutirait inexorablement à l'amélioration de l'un des systèmes (via l'autoprogrammation), qui deviendrait dominant -à l'instar des algorithmes évolutionnistes déjà utilisés en IA. Le conflit est inévitable. Suffira-t-il alors d'intégrer dans l'objectif primaire des principes de limitation, du type « Tu ne porteras pas atteinte aux humains » ? Rien n'est moins sûr, pour des raisons déjà évoquées par de nombreux auteurs de science-fiction : le manque de bon sens et de sensibilité humaine de ces entités.

Dans son roman With Folded Hands (« Les Mains jointes », 1947), l'écrivain américain Jack Williamson décrit une machine super intelligente dont l'objectif est de rendre les humains heureux : elle finit par lobotomiser tout le monde -la meilleure façon d'éviter les guerres, les conflits et autres formes de souffrance que les humains s'imposent entre eux ! Mais rassurons-nous : même si leur voix porte, les chercheurs qui défendent l'idée de singularité technologique sont très minoritaires. De fait, pour la plupart, elle se classerait dans la même catégorie que la chute d'une très grosse météorite (comme il y a 65 millions d'années), l'éruption d'un super volcan (comme celui qui sommeille sous Yellowstone), l'arrivée d'extraterrestres super intelligents ou l'émergence d'une espèce supérieure (par voie de manipulation génétique) : un événement qui, sans être impossible, ne s'inscrit pas dans la continuité du présent.

« Rien, dans la technologie IA actuelle, ne permet de la postuler, conteste Jean-Gabriel Ganascia. Et en focalisant là-dessus, on se détourne d'autres risques de l'IA… sur lesquels on pourrait agir concrètement. » En effet, laisser l'IA prendre le pouvoir peut aussi revenir à laisser les machines orienter les sociétés et asservir la culture. Un danger bien plus concret.

En 2012, lors du concours Image Net, l'équipe gagnante était coachée par Geoffrey Hinton, l'un des meilleurs spécialistes mondiaux en réseaux de neurones formels depuis les années 1980. En 2013, Google rachète sa petite star tu pet nomme Hinton à la tête de sa propre recherche en IA. Et ce n'est pas le seul : tout ce que le monde académique de l'IA compte d'esprits brillants est courtisé à coups de salaires juteux et d'accès illimité à de gigantesques ressources (serveurs et bases de données).

La révolution du « Deep Learning »

Le Deep Learningest un programme informatique simulant une collection de « neurones », des sous-programmes interconnectés, composé de plusieurs couches. Celle d'entrée reçoit le flux d'informations venant de l'objet à reconnaître (une photo de chat). Puis, lors de l' « entraînement », les couches cachées extraient les motifs qui se répètent (entre des millions de photos de chat). De couche en couche, des structures plus complexes (forme des oreilles…) sont reconnues. La couche de sortie recueille les informations filtrées : la « signature » de l'image. Au fil de l'apprentissage, elle s'affine grâce à la rétro propagation : l'opérateur corrige les erreurs (un chien pris pour un chat) dans la couche de sortie, ce qui modifie les paramètres de filtrage des autres couches.In fine, les neurones reconnaissent le « concept » de chat, c'est-à-dire tout ce qu'il peut être.

DES ALGORITHMES DICTENT NOS CHOIX

Les entreprises développent alors des systèmes de Deep Learning toujours plus complexes et les proposent gratuitement aux internautes : traduction, reconnaissance de visages, reconnaissance de scènes sur des photos ou vidéos… Tout le monde, y compris les sociétés sans moyens de développer une IA, a un accès online gratuit (ou presque) à ces réseaux de Deep Learning pour mettre en œuvre sa propre IA (via les sites TensorFlow de Google, Azure de Microsoft, Amazon Web Services). Mais ce cadeau a un coût : l'enregistrement dans les serveurs des firmes de toutes les données individuelles, médicales, industrielles ou commerciales transitant par leurs plate formes. La concentration de ces données entre les mains d'un petit nombre d'entreprises met déjà le respect de la vie privée et l'anonymat en danger. Mais elles sont aussi exploitées pour suggérer des choix aux internautes : ce sont les algorithmes affinitaires de Netflix, YouTube, Facebook, Apple, Amazon. Ils sélectionnent pour nous des films, des informations, des « amis » en fonction de nos choix passés. L'effet pervers, c'est qu'en suivant ces indications, les individus finissent par s'enfermer dans une « bulle culturelle » confortable mais qui bride la recherche de nouveaux centres d'intérêt. Ces algorithmes sont même devenus des faiseurs de goûts et d'opinion, souvent associés au phénomène des Fake News sur les réseaux sociaux : ils mettent en relation « ceux qui partagent les mêmes intérêts, les mêmes motivations, opinions ou attitudes que soi, le tout à l'échelle de la planète », écrit Pascal Huguet, directeur du Laboratoire de psychologie sociale et cognitive (CNRS université Clermont-Auvergne), dans L'Informationd'actualité au prisme des fake news (L'Harmattan, 2018). Il se forme ainsi des « tribus » partageant des opinions qui, même si elles ne sont fondées sur aucun fait réel, deviennent des « vérités », tout simplement parce que « les opinions ou attitudes exprimées dans ces circonstances sont jugées valides à la seule lumière du consensus intra groupe, qui donne à chacun l'illusion de l'objectivité, a minima le sentiment que l'opinion partagée n'est pas infondée ». Mais le danger est peut-être plus général encore : « Le plus grand risque pour l'avenir, opine Jean-Gabriel Ganascia, est qu'on délègue aux machines la responsabilité des décisions et qu'on laisse aux hommes les automatismes. » Hors l'hypothèse de singularité, laisser l'IA prendre le pouvoir serait donc un choix des humains. « Pour l'instant, les algorithmes gouvernent tout sauf ce qu'il y aurait à gouverner, parce qu'on ne les investit pas de cette mission-là, dit Antoinette Rouvroy, philosophe, chercheuse au Centre de recherche information, droit et société de l'université de Namur. Il ne faut pas avoir peur des algorithmes, il faut avoir peur de notre propre paresse, de notre renonciation à nous gouverner nous-mêmes. » Renoncer, par confort, à prendre des décisions, s'en tenir aux choix des machines sans plus explorer, inventer ni prendre de risques, tel est peut-être le danger le plus immédiat que l'IA fait courir à l'humanité.

Un progrès infini ?

La « loi de Moore » découle d’une observation formulée dès 1965 par Gordon Moore, cofondateur d’Intel : depuis plusieurs années, le nombre de transistors sur les circuits doublait tous les dix-huit mois à deux ans. Cette loi de croissance exponentielle s’est confirmée jusqu’à aujourd’hui pour de nombreux paramètres de l’industrie informatique. Pour certains, c’est une loi « naturelle » du progrès technologique qui devrait continuer à se vérifier ; pour d’autres, ce n’est qu’une convention sur le rythme du progrès technologique que les industriels ont pris l’habitude de suivre, mais qui n’a aucune raison de perdurer.

Un article de ROMAN IKONICOFF



Commentaires :

LAISSER VOTRE COMMENTAIRE


Articles Similaires