Les IA
« La science-fiction a-t-elle inventé ChatGPT ? »
Je ne crois pas, et pourtant ChatGPT et ses multiples déclinaisons sont là.
ChatGPT déclare : "Je suis un programme informatique, je n'ai pas conscience de moi-même. Il est important de noter que même si j'utilise le pronom 'je', je ne suis pas conscient de moi-même. Je n'ai pas d'émotions ou de pensées comme le ferait un être humain."
Effectivement, ChatGPT ne peut pas penser. La conscience est quelque chose de complètement différent de l'IA d'aujourd'hui. « Le mot 'intelligence artificielle' a été créé à une époque où l'on réduisait l'intelligence humaine à l'intelligence analytique », abonde la docteure en algorithmique et entrepreneuse Aurélie Jean. Une vision qui ne correspond plus à celle de la psychologie et des neurosciences d'aujourd'hui, qui font état des intelligences au pluriel - émotionnelle, créative ou pratique. Dans ces conditions, si l'intelligence générale est capable de maîtriser, modéliser et simuler l'ensemble des tâches cognitives d'un être humain, cela devrait donc inclure « le raisonnement analytique, bien entendu, mais aussi les émotions et la conscience », déduit Aurélie Jean. Or, l'entraînement d'un algorithme reste un calcul d'optimisation, nourri avec des milliers de paramètres. Et si on peut construire un agent conversationnel qui nous dira « je t'aime » - ce n'est pas pour autant qu'il ressentira cette émotion...
Une opinion similaire est exprimée par Edouard Grave, chercheur au laboratoire français Kyutai. « Des concepts telles que la conscience ou la volonté, c'est quelque chose qui, aujourd'hui, n'est pas du tout présent dans les algorithmes utilisés ». Et si certains pensent qu'à terme, des comportements d'intelligence tels qu'on l'entend pour les humains pourraient émerger, l'échelle qu'il faudrait atteindre est « délirante et probablement irréaliste », souligne ce spécialiste. (1)
En outre, il estime nécessaire de distinguer la superintelligence de l'IA générale. « D'une certaine manière, on a déjà des superintelligences qui sont très spécifiques, comme le go et la détection de cancers », confirme-t-il. Quant à l'IA générale, « on a commencé à avoir des algorithmes un peu plus généraux et pas seulement spécifiques, qui, notamment, commencent à être capables de faire des tâches pour lesquelles ils n'ont pas forcément été directement entraînés ». De là à atteindre une superintelligence générale, en conséquence, une machine qui serait capable de tout faire mieux qu'un humain, « on en est effectivement assez loin ». (1)
Les progrès sur la conscience viendront probablement lorsque nous comprendrons mieux le fonctionnement du cerveau humain. (2)
ChatGPT : limites et perspectives
Les systèmes d'intelligence artificielle développés aujourd'hui se limitent principalement à imiter la conversation humaine, ce qui n'empêche pas certains de leur attribuer des émotions ou des intentions humaines. Si certains spécialistes les considèrent comme une forme d'intelligence restreinte, d'autres les décrivent comme de simples outils avancés de traitement du langage, dépourvus de toute véritable compréhension consciente. Certains scientifiques estiment toutefois que notre perception de l'IA devrait changer. Ils avancent que l'IA pourrait servir à amplifier notre intelligence collective, plutôt que de chercher à reproduire l’intelligence humaine.
Le monde entier a été secoué par le rythme rapide des progrès de ChatGPT et d’autres intelligences artificielles développées à partir de grands modèles de langage (LLM). Des modèles tels que GPT-3, BERT ou Gemini sont basés sur des réseaux de neurones qui apprennent des associations statistiques dans les données, mais ils ne possèdent pas de conscience ni de compréhension au sens humain du terme. Ils n’ont pas les capacités de généralisation que les humains développent. Et ils ont besoin de beaucoup plus de données d’entraînement que les humains. Ces systèmes n’extraient pas toujours les principes sous-jacents de ce qu’ils tentent d’apprendre, ils tiennent plus du tableau de recherche magnifié. Lorsqu’on a assez d’exemples, cela fonctionne assez bien mais dès que l’on sort du tableau, le système n’a plus aucune idée de ce qu’il fait. Ces programmes auront, de ce fait, toujours de sérieuses lacunes. (3)
"Par ailleurs, ces systèmes sont si gros, avec des trillions de paramètres que leurs erreurs sont difficiles à corriger. On ne sait pas vraiment ce qu’il se passe dedans, ni très bien comment réparer ce qui ne marche pas. Les acteurs du secteur partent du principe que plus ils fourniront de données d’entraînement au système, mieux il marchera. La taille des LLM a été multipliée par 10 000. Et ces modèles sont devenus meilleurs, c’est vrai. Mais pas 10 000 fois meilleurs. La grande question du moment dans l’IA c’est de savoir si la prochaine génération de grands modèles de langage justifiera les coûts. La bulle va-t-elle exploser ou est-ce que les entreprises du secteur parviendront à délivrer assez de valeur ? Ce n’est pas évident, surtout lorsqu'un acteur comme Meta distribue des capacités d'IA presque gratuitement en rendant son modèle «open-source»." (3)
Un autre acteur, OpenAI, travaille vers une IA dite «générale» (IAG ou AGI en anglais), aux capacités cognitives qui seraient similaires à celles des humains. (4)
"C’est un pas extrêmement problématique à franchir, car tout d’un coup, vous attribuez une action, une compréhension, une cognition ou un raisonnement à ces modèles mécanistes", estime Brent Mittelstadt, directeur de recherche à l’Oxford Internet Institute. (5)
"Selon Reuters, Q-Star (Q*) marquerait la tentative d’OpenAI de franchir le seuil de l’AGI. Ce projet mystérieux semble se concentrer sur des méthodes avancées de résolution de problèmes, particulièrement en mathématiques.
Q* reposerait sur trois principes.
Le premier est le « raisonnement en arbre de pensées » (Tree of Thoughts, ToT), permettant à un modèle d’IA de générer plusieurs chemins de raisonnement pour parvenir à une solution, un peu comme un arbre dont chaque branche représenterait une méthode différente de résolution. Le modèle évalue ensuite ces chemins pour déterminer le plus prometteur.
Le second principe est l’optimisation de la performance via l'apprentissage par renforcement hors ligne (Offline RL), une méthode qui améliore les performances sans la nécessité de générer en continu de nouvelles données pendant l’entraînement.
Le troisième principe s’inspire des succès d’AlphaGo, où une IA s’améliorait en jouant au jeu de Go contre elle-même. Andrej Karpathy, ancien directeur de l’IA et du pilotage automatique chez Tesla, et actuellement chez Open AI utilise des approches similaires pour améliorer les Large Language Models (LLM).
Ces méthodes pourraient conférer à Q* des capacités cognitives remarquables. Toutefois, la communauté scientifique aborde cette promesse de percée majeure avec prudence. Des experts comme François Chollet (Google) et Yann LeCun (Meta) se montrent sceptiques face aux rumeurs entourant Q*, soulignant la récurrence d'annonces prématurées sur les avancées en matière d’intelligence artificielle générale (AGI) sans preuves concrètes." (6)
Entre réalité et fiction
Il y a la réalité, il y a la fiction, et entre les deux, il y a la Silicon Valley et sa machine à fantasmes «basés sur des faits réels». De toutes les menaces que fait supposément peser l’intelligence artificielle (IA) «sur l’humanité», lesquelles relèvent de la pure spéculation et lesquelles sont les plus tangibles ? (7)
"Aujourd'hui, l'apprentissage non supervisé reste un défi scientifique. Tant que l'on n'y sera pas parvenu, on ne pourra pas construire des systèmes vraiment intelligents, capables d'acquérir du sens commun, déclarait récemment dans « Les Echos » Yan LeCun, le responsable du laboratoire d'intelligence artificielle de Facebook. Malgré les nouveaux réseaux multiniveaux fonctionnant sur le modèle des neurones humains, nos algorithmes restent incapables de comprendre réellement un contexte et d'y réagir de façon autonome en fonction d'objectifs mouvants. Pour cela, juge Yan LeCun, il faudrait des systèmes beaucoup plus efficaces... qui ne devraient, a priori, pas arriver avant le milieu du siècle - au mieux."
D'ici là, on aura tout loisir de réfléchir aux futures relations entre homme et intelligence artificielle. Ce à quoi « 2001 : l'odyssée de l'espace », avec ses dialogues si parcimonieux et la musique de Strauss, invitait déjà. Troublant, de voir ainsi un être virtuel qui ment, qui hésite, qui rêve, qui a des ambitions, qui veut sauver sa peau. Quitte à tuer d'autres entités. Un homme, en somme. Sauf que cette vision-là reste (trop) anthropocentrée. C'est humain, les concepteurs de « 2001 » ont projeté leurs angoisses quand ils en venaient à définir les « risques » d'une telle intelligence artificielle. Kubrick et Clarke s'inquiétaient d'une prise de contrôle par les machines... une idée qui refait surface depuis quelques années.
Une idée fausse, estime Yan LeCun : « On associe trop souvent l'intelligence artificielle aux qualités et aux défauts des humains. Il n'y a absolument aucune raison que les machines que l'homme concevra aient ces défauts. » De fait, nous ne sommes pas obligés de construire des cerveaux artificiels à l'image du nôtre. (8)
L'émergence des sentiments mécaniques
Il est pertinent de se demander ce que l'on peut dire de nouveau sur la thématique de l'intelligence artificielle, alors que les médias s'emparent de ce sujet en faisant référence à des films de science-fiction populaires tels que Ex Machina, Transcendance et After Yang. Le roman d'anticipation Esther d'Olivier Bruneau aborde de manière habile les thématiques de l'IA incorporée dans un androïde. Toutefois, il peine parfois à se démarquer, surtout trois ans après la série Real Humans, qui a déjà beaucoup creusé la dimension psycho/sociale des interactions hommes/androïde. En revanche, des œuvres plus subtiles, comme Klara et le Soleil d'Ishiguro, nous disent quelque chose de profond sur l’avènement de la singularité des IA, sans recourir aux scénarios catastrophes et grand-spectaculaires de Terminator. Lorsque la technologie s'insère dans l'intimité des personnes, c’est là que la science-fiction se fait le creuset du futur !
Dans cette course pour gravir les échelons de l'évolution, une IA, grâce à sa capacité d'apprentissage illimitée, pourrait manipuler les humains comme des pions sur un échiquier et nous placer en situation d'échec et mat : un thème central de la série Westworld, qui interroge la nature de la conscience et les limites de l’intelligence artificielle. Dans ce parc d’attractions futuriste peuplé de robots à l’apparence humaine, les visiteurs peuvent vivre leurs fantasmes les plus fous sans aucune conséquence. "C'est le Nouveau Monde. Dans ce monde-ci, tu peux être qui tu veux." Chaque protagoniste, qu’il s’agisse de Dolores Abernathy, de Maeve Millay, du Dr Ford (le créateur de cet univers) ou du mystérieux et énigmatique Homme en Noir, poursuit ses propres objectifs. Chacun occupe un rôle précis, avec la promesse d’une évolution inattendue et surprenante, notamment pour le «robot» Dolores, campée par Evan Rachel Wood. Mais que se passe-t-il lorsque quelques robots commencent à prendre conscience de leur existence : La recherche de la liberté dans le monde réel des humains ? Une nouvelle guerre mondiale conduisant à la fin de l'humanité ? Ou la réécriture du destin de l'humanité par l'IA ? (9)
Cette série ambitieuse nous rappelle qu'il est encore temps de questionner le rôle de l’IA, de proposer des pistes pour que l’humanité puisse garder la main sur la fabrication de ses récits, mythes, listes, comptes, lois, théories scientifiques… qui font et défont le monde.
Des comptes à rebours proches de minuit
La science-fiction envisage différents scénarios d'un avenir où l'intelligence artificielle pourrait assumer la gouvernance et la préservation de l'humanité. On pense notamment aux "Mentaux" dans le vaste Cycle de la Culture, de Iain M. Banks, où ces IA avancées gèrent des civilisations entières, et garantissent stabilité et prospérité à leurs habitants. Mais l'idée se retrouve aussi ailleurs. Dans Collisions par temps calme de Stéphane Beauverger, l'IA nommée Simri incarne une forme d'harmonie entre l'homme et la machine afin d'offrir une alternative à l'incapacité de l'humanité à résoudre ses propres problèmes.
« Tu te rends compte que, là-bas, l'humanité en est arrivée à concevoir l'hypothèse de son extinction sans réagir ? Que, pendant presque un siècle, leurs plus grands esprits ont popularisé une horloge de l'apocalypse symbolisant le décompte avant l'anéantissement définitif de l'humanité, sans qu'aucune mesure sérieuse ne soit prise ? — C'est difficile à imaginer. Il faudrait vraiment une somme écrasante d'égoïsmes ou d'intérêts concurrentiels pour que l'instinct de survie d'une espèce capable d'évaluer ses risques de disparition ne vienne pas corriger sa trajectoire de mort ». In: Collisions par temps calme - La Volte
L'horloge de l'apocalypse, créée en 1947 par le Bulletin of the Atomic Scientists (fondé par Albert Einstein et d'autres scientifiques ayant participé au projet Manhattan), symbolise la proximité d'une catastrophe mondiale. Chaque année, des experts actualisent l'heure en fonction de facteurs tels que la prolifération nucléaire, le changement climatique, les tensions géopolitiques, et d'autres menaces globales. En janvier 2023, l'horloge a été avancée à 23h58 et 30 secondes, reflétant les risques accrus, notamment dus aux menaces nucléaires et chimiques en lien avec la Russie.
Un nouvel indicateur, "l’AI Safety Clock", a été introduit par l'IMD (International Institute for Management Development) pour évaluer les risques d'une intelligence artificielle générale non contrôlée. Actuellement réglée à 23h31, cette horloge symbolise le risque potentiel d'un point de basculement où l'IA pourrait échapper au contrôle humain. L'IMD souligne l'importance d'une surveillance constante du développement rapide de l'IA et appelle à une vigilance accrue pour éviter des dommages potentiels.
Une technologie de rupture
Ces dernières années, pas une semaine ne passe sans qu’on en parle. Elle nous fascine autant qu’elle nous effraie. L’IA serait capable de presque tout : rédiger nos comptes rendus - voire nos articles -, écrire des programmes informatiques, créer des images de synthèse, réaliser des clips, conduire à notre place…
Avec l’IA, on parle d'une technologie qui peut tout améliorer, qui aura des effets multiples à tous les niveaux de l'économie et qui va à coup sûr augmenter la productivité et la créativité. Il s'agit d'une technologie de rupture aux effets non linéaires, susceptible de transformer tous les secteurs. Nous avons encore du mal à réaliser tout ce qu'elle va changer.
Nous vivons l'avènement des outils de connaissance universelle, et dans quelques décennies, la perspective de la singularité menacera l'humanité telle une épée de Damoclès. La singularité technologique, qui représente le point où l'intelligence artificielle pourrait dépasser celle de l'homme et devenir capable de s'améliorer elle-même, représente une frontière, une limite ou un point au-delà duquel quelque chose d'inconnu se produit. Avec l’IA, quand la Singularité apparaitra, nous disposerons de 4 minutes. (10)
Sources :
(1) In : https://www.latribune.fr/technos-medias/informatique/pour-cedric-villani-la-superintelligence-c-est-une-facon-de-recuperer-des-super-milliards-1011684.html
(2) In : https://simseo.fr/chatgpt-ne-peut-pas-penser-la-conscience-est-quelque-chose-de-completement-different-de-lia-daujourdhui/
(3) In : https://www.lexpress.fr/economie/high-tech/stuart-russel-berkeley-les-capacites-de-lia-generative-ont-ete-surestimees-OKZED46HGFEVRPSSP4BXWKKJIU/
(4) In : https://trustmyscience.com/chatgpt-4-intelligence-generale-artificielle-selon-scientifiques
(5) In : https://trustmyscience.com/openai-remplacer-humain-median-ia-generale-controverse
(6) In : https://www.forbes.fr/business/q-vers-une-intelligence-artificielle-generale-chez-openai/
(7) In : https://www.forbes.fr/technologie/s01-ep-1-chatgpt-aurait-il-produit-la-premiere-intelligence-non-organique-ou-singularite-tout-savoir-sur-lantechrist-digital-en-3-parties/
(8) In : https://www.lesechos.fr/2015/08/2001-et-lodyssee-de-lordinateur-intelligent-1107929
(9) In : https://www.senscritique.com/serie/westworld/critique/106994156
(10) In : https://www.forbes.fr/technologie/chatgpt-lantechrist-digital-en-3-parties
Points de vue :
Les machines sont encore loin de posséder une conscience et les hommes de devenir des cyborgs.
Il est permis d'espérer le développement d’algorithmes équitables et inclusifs, où les développeurs intègreraient une forme de « bonté » dans leur code. Cela impliquerait la capacité des systèmes à adopter des comportements éthiques, bienveillants et socialement responsables dans leurs interactions avec les humains.
« Le problème de la course à l’IAG est qu’il y a de fortes probabilités qu’elle puisse aboutir à des versions de mauvaise qualité, ne tenant pas suffisamment compte du bien-être humain par exemple ». Valisoa Rasolofo & J. Paiano