Intelligence Artificielle

Intelligence Artificielle
Création : Lisa Joy, Jonathan Nolan - Westworld © HBO Entertainment

« Les humains ont du bon sens alors que les machines, non. » Yan LeCun


Une technologie de rupture

La science-fiction a-t-elle inventé ChatGPT ? Je ne crois pas, et pourtant ChatGPT et ses multiples déclinaisons sont là. Ces dernières années, pas une semaine ne passe sans qu’on en parle. Cette technologie nous fascine autant qu’elle nous effraie. L’IA serait capable de presque tout : rédiger nos comptes rendus - voire nos articles -, générer des rapports complexes, écrire des programmes informatiques, créer des images de synthèse, réaliser des clips, et conduire à notre place… 

Avec l’IA, on parle d'une technologie qui peut tout améliorer, qui aura des effets multiples à tous les niveaux de l'économie et qui va à coup sûr augmenter la productivité et les richesses. Elle permet à un plus grand nombre de gens de créer et d’innover. Elle menace aussi de nombreux emplois. Il s'agit d'une technologie de rupture aux effets non linéaires, susceptible de transformer tous les secteurs. Nous avons encore du mal à réaliser tout ce qu'elle va changer.

Nous vivons l'avènement des outils de connaissance universelle et, dans quelques décennies, la perspective de la singularité pourrait vraiment menacer l'humanité comme une épée de Damoclès. La singularité technologique, qui représente le point où l'intelligence artificielle pourrait dépasser celle de l'homme et devenir capable de s'améliorer elle-même, représente une frontière, un seuil au-delà duquel quelque chose d'inconnu se produit. (1)

IA et conscience : les malentendus

Cédric Villani en propose la définition suivante : "l'IA, ce sont tous les développements informatiques non encore aboutis qui sont porteurs de fantasmes et permettent de faire le buzz". Il ajoute que, lorsqu'un développement est terminé et sert à un objet précis (piloter un avion à notre place, trouver une image sur Internet, reconnaître une structure cancéreuse sur une radio, ou encore rédiger un texte), ça ne s'appelle plus de l'intelligence artificielle, mais une application. On parle alors de moteur de recherche, de pilote automatique, de logiciel de reconnaissance d'images, et de chatbot. (2)

ChatGPT lui-même reconnaît ses limites : "Il est important de noter que même si j'utilise le pronom "je", je ne suis pas conscient de moi-même. Je n'ai pas d'émotions ou de pensées comme le ferait un être humain”.

En effet, le célèbre chatbot d'OpenAI ne peut pas penser. La conscience est quelque chose de complètement différent de l'IA d'aujourd'hui. « Le terme 'intelligence artificielle' a été créé à une époque où l'on réduisait l'intelligence humaine à l'intelligence analytique », explique la docteure en algorithmique et entrepreneure Aurélie Jean. Une vision qui ne correspond plus à celle de la psychologie et des neurosciences d'aujourd'hui, qui font état des intelligences au pluriel - émotionnelle, créative ou pratique.

Si l'intelligence générale devait être capable de maîtriser, modéliser et simuler l'ensemble des tâches cognitives d'un être humain, cela devrait donc inclure « le raisonnement analytique, bien entendu, mais aussi les émotions et la conscience », conclut Aurélie Jean. Or, l'entraînement d'un algorithme reste un calcul d'optimisation, nourri par une multitude de paramètres. Et si on peut construire un agent conversationnel qui nous dira « je t'aime », ce n'est pas pour autant qu'il ressentira cette émotion...

"C'est un pas extrêmement problématique à franchir, car tout d'un coup, vous attribuez une action, une compréhension, une cognition ou un raisonnement à ces modèles mécanistes", estime Brent Mittelstadt, directeur de recherche à l'Oxford Internet Institute. (3)

Dans son livre The Emperor's New Mind, le mathématicien, physicien et philosophe des sciences britannique Roger Penrose affirme que la conscience ne peut pas être expliquée uniquement par des processus computationnels et suggère que des phénomènes quantiques pourraient jouer un rôle dans l'activité cérébrale. Les progrès sur la conscience viendront probablement lorsque nous comprendrons mieux le fonctionnement du cerveau humain. (4)

Les limites techniques des grands modèles de langage

Le monde a été secoué par le rythme rapide des avancées de ChatGPT et d’autres intelligences artificielles développées à partir de grands modèles de langage (LLM). Des modèles tels que GPT-3, Claude d’Anthropic ou Gemini reposent sur des réseaux de neurones capables d’apprendre des associations statistiques à partir de vastes corpus de données. Ils ne possèdent toutefois ni conscience ni compréhension au sens humain du terme. Leur aptitude à généraliser reste bien plus limitée que celle des humains, et ils exigent des volumes d’entraînement incomparablement plus importants.

Ces systèmes n’extraient pas toujours les principes sous-jacents des phénomènes qu’ils tentent d’apprendre ; ils s’apparentent davantage à un immense “tableau de correspondances”. Lorsqu’on dispose d’assez d’exemples, cela fonctionne assez bien, mais dès que l’on sort du champ couvert par les données, le système n’a souvent aucune idée de ce qu’il fait. De ce fait, ces programmes présentent des lacunes sérieuses.

"Par ailleurs, ces systèmes sont si volumineux, avec des trillions de paramètres que leurs erreurs sont difficiles à corriger. On ne sait pas vraiment ce qu'il se passe à l'intérieur, ni très bien comment réparer ce qui ne marche pas. Les acteurs du secteur partent du principe que plus ils fourniront de données d'entraînement au système, mieux il fonctionnera. La taille des LLM a été multipliée par 10 000. Et ces modèles sont devenus meilleurs, c'est vrai. Mais pas 10 000 fois meilleurs.

La grande question du moment dans l'IA c'est de savoir si la prochaine génération de grands modèles de langage justifiera les coûts. La bulle va-t-elle exploser ou est-ce que les entreprises du secteur parviendront à fournir assez de valeur ? Ce n'est pas évident, surtout lorsqu'un acteur comme Meta distribue des capacités d'IA presque gratuitement en rendant son modèle open source." (5)

Vers une superintelligence générale ?

« Des concepts tels que la conscience ou la volonté, c'est quelque chose qui, aujourd'hui, n'est pas du tout présent dans les algorithmes utilisés. Et si certains pensent qu'à terme, des comportements d'intelligence tels qu'on l'entend pour les humains pourraient émerger, l'échelle qu'il faudrait atteindre est délirante et probablement irréaliste », affirme Edouard Grave, chercheur au laboratoire français Kyutai.

Ce spécialiste estime par ailleurs nécessaire de distinguer la superintelligence de l'IA générale. « D'une certaine manière, on a déjà des superintelligences qui sont très spécifiques, comme le jeu de go et la détection de cancers ». Quant à l'IA générale, « on a commencé à avoir des algorithmes un peu plus généraux et pas seulement spécifiques, qui, notamment, commencent à être capables de faire des tâches pour lesquelles ils n'ont pas forcément été directement entraînés ». De là à atteindre une superintelligence générale, c'est-à-dire une machine qui serait capable de tout faire mieux qu'un humain, « on en est effectivement assez loin ». (6)

"Aujourd'hui, l'apprentissage non supervisé reste un défi scientifique. Tant que l'on n'y sera pas parvenu, on ne pourra pas construire des systèmes vraiment intelligents, capables d'acquérir du sens commun", déclarait Yan LeCun, le responsable du laboratoire d'intelligence artificielle de Meta (anciennement Facebook). "Malgré les nouveaux réseaux multiniveaux fonctionnant sur le modèle des neurones humains, nos algorithmes restent incapables de comprendre réellement un contexte et d'y réagir de façon autonome en fonction d'objectifs mouvants. Pour cela, il faudrait des systèmes beaucoup plus efficaces... qui ne devraient, a priori, pas arriver avant le milieu du siècle - au mieux."

Le mystérieux projet Q*

OpenAI se consacre au développement d'une IA dite «générale» (IAG ou AGI en anglais), aux capacités cognitives qui seraient similaires à celles des humains. (6)

Selon Reuters, Q-Star (Q*) marquerait la tentative d'OpenAI de franchir le seuil de l'AGI. Ce projet mystérieux semble se concentrer sur des méthodes avancées de résolution de problèmes, particulièrement en mathématiques. Q* reposerait sur trois principes. Le premier est le « raisonnement en arbre de pensées » (Tree of Thoughts, ToT), permettant à un modèle d'IA de générer plusieurs chemins de raisonnement pour parvenir à une solution, un peu comme un arbre dont chaque branche représente une méthode différente de résolution. Le modèle évalue ensuite ces chemins pour déterminer le plus prometteur. Le second repose sur l’apprentissage par renforcement hors ligne (Offline RL), qui optimise les performances sans nécessiter la production continue de nouvelles données. Le troisième s'inspire d’AlphaGo, dont l’IA progressait en jouant contre elle-même. Andrej Karpathy, ancien directeur de l'IA et du pilotage automatique chez Tesla, actuellement chez OpenAI, utilise des approches similaires pour améliorer les grands modèles de langage (LLM).

Ces méthodes pourraient conférer à Q* des capacités cognitives remarquables. Toutefois, la communauté scientifique aborde cette promesse de percée majeure avec prudence. Des experts comme François Chollet (Google) et Yann LeCun (Meta) se montrent sceptiques face aux rumeurs entourant Q*, soulignant la récurrence d'annonces prématurées sur les avancées en matière d'intelligence artificielle générale (AGI) sans preuves concrètes." (7)

D'autres experts estiment que "la seule voie réaliste vers une intelligence artificielle générale passe par des approches neurosymboliques intégrant des modèles explicites du monde, capables de raisonner sur des représentations durables, abstraites ou symboliques. Tant que nous ne disposerons pas de ce type de systèmes, nous ne pourrons pas franchir le seuil qualitatif qui nous sépare encore de l'AGI." (8)

Peurs collectives et enjeux sociétaux

Le traitement médiatique de l’intelligence artificielle s’appuie souvent sur le sensationnalisme. Chaque semaine, des titres alarmistes annoncent la fin du monde, relayant les prédictions de figures de la tech ou d’ingénieurs obscurs. Mais ces annonces restent floues sur les mécanismes concrets d’une telle catastrophe.

Cette logique répond à plusieurs biais médiatiques. La course au clic favorise les discours les plus extrêmes. La complexité technique de l’IA pousse les journalistes à recourir à des images de science-fiction plutôt qu’à une analyse solide. Et le manque de mise en perspective scientifique transforme chaque progrès en « révolution » ou en « menace existentielle ». Résultat : le public est saturé de prédictions contradictoires qui nourrissent l’angoisse plus que la compréhension. Entre promesses de paradis technologique et visions apocalyptiques, l’espace pour une réflexion nuancée se rétrécit.

L’inquiétude prend un relief particulier lorsqu’elle vient des fondateurs de la discipline. Geoffrey Hinton, lauréat du prix Turing 2018 et considéré comme l'un des "pères de l'intelligence artificielle" pour ses travaux sur l'apprentissage automatique et les réseaux de neurones artificiels, livre un diagnostic particulièrement sombre sur les conséquences économiques de cette révolution technologique.

Lors d'une interview au Financial Times, Hinton prédit un scénario dystopique : "En réalité, les riches vont utiliser l'IA pour remplacer les employés. Cela va créer un chômage massif et une hausse considérable des profits. Cela va enrichir une minorité et appauvrir la plupart des gens." Le chercheur britanno-canadien ne blâme pas la technologie elle-même, mais plutôt le système capitaliste dans lequel elle s'insère.

Cette vision contraste avec les solutions proposées par certains dirigeants du secteur. Sam Altman, PDG d'OpenAI, évoque par exemple l'instauration d'un revenu de base universel pour faire face à la raréfaction des emplois. Mais Hinton rejette cette approche, estimant qu'elle "ne respecterait pas la dignité humaine", car chaque individu tire une valeur essentielle de son travail.

Plus inquiétant encore, Hinton estime que l'IA présente un risque existentiel pour l'humanité. En décembre 2024, il avait évalué entre 10 et 20% la probabilité que l'intelligence artificielle mène à l'extinction de l'espèce humaine dans les 30 prochaines années. Face à l'incertitude radicale qui entoure l'évolution de cette technologie, le chercheur adopte une posture d'humilité scientifique : "Nous ne savons pas ce qui va se passer, nous n'en avons aucune idée, et ceux qui vous disent ce qui va se passer sont tout simplement ridicules. Nous sommes à un moment de l'histoire où quelque chose d'extraordinaire se produit, peut-être extraordinairement bien, ou extraordinairement mal." (9)

Cette préoccupation soulève une question légitime : les créateurs de l'IA décrivent-ils des risques objectifs ou rejouent-ils inconsciemment les récits de science-fiction qui les ont nourris ? Beaucoup d'entre eux ont grandi avec Asimov, Dick ou Gibson. Leurs angoisses reflètent peut-être autant leur culture fictionnelle que leur analyse scientifique. Ce mélange peut générer une prophétie auto-réalisatrice : en intégrant les schémas narratifs dystopiques, les concepteurs risquent de diriger l'IA vers les scénarios qu'ils redoutent. L'IA devient alors autant le produit de nos imaginaires que de nos compétences techniques.

L'influence de la science-fiction

Il y a la réalité, il y a la fiction, et entre les deux, il y a la Silicon Valley et sa machine à fantasmes « basés sur des faits réels ». De toutes les menaces que fait supposément peser l'IA sur l'humanité, lesquelles relèvent de la pure spéculation et lesquelles sont tangibles ?

Tim Urban souligne que les termes 'Intelligence Artificielle' et 'Singularité' souffrent d'un effet de halo : au lieu d'être évalués selon leurs définitions académiques, ils sont perçus à travers le prisme déformant du divertissement (HAL 9000, Westworld, Terminator, Ex Machina) ou du marketing technologique. Cette confusion brouille notre compréhension. L'IA devient tantôt menace existentielle de science-fiction, tantôt promesse marketing, rarement ce qu'elle est techniquement : des algorithmes sophistiqués de reconnaissance de motifs. (10)

Cette confusion n’est pas anodine. Elle influence le débat public et les choix politiques, polarisant les positions entre techno-optimistes naïfs et techno-pessimistes alarmistes. La « Singularité » devient alors un personnage de cinéma – l’entité de Mission Impossible : Dead Reckoning, Alphie de The Creator, ou, plus récemment, Q* dans les couloirs d’OpenAI. Mais tant que la frontière entre fiction et réalité demeure floue, notre capacité collective à saisir les véritables enjeux de l’IA contemporaine reste compromise.

Création : Lisa Joy, Jonathan Nolan - © HBO EntertainmentWe

En 1973, Michael Crichton réalise Westworld, un film d’anticipation tourné avec un petit budget, qui préfigure déjà les visions cauchemardesques de machines se retournant contre leurs créateurs. Quarante ans plus tard, la série télévisée éponyme reprend le même décor d’un parc d’attractions futuriste peuplé de robots à l’apparence humaine, mais lui confère une profondeur philosophique et métaphysique, portée par des moyens considérables. Dans ce monde, les visiteurs peuvent assouvir leurs fantasmes les plus fous sans conséquence : « C’est le Nouveau Monde. Ici, tu peux être qui tu veux. »

La série décortique les mécanismes de l'éveil à la conscience et questionne les limites morales de la création artificielle. Chacun des protagonistes – qu'il s'agisse de Dolores Abernathy, de Maeve Millay, du Dr Ford (le créateur de cet univers) ou du mystérieux et énigmatique Homme en Noir poursuit ses propres objectifs. Tous occupent un rôle précis, avec la promesse d’une évolution inattendue et surprenante, notamment pour le robot Dolores, campée par Evan Rachel Wood. Mais que se passe-t-il lorsque quelques robots commencent à prendre conscience de leur existence ? Une recherche de la liberté dans le monde réel ? Une guerre mondiale conduisant à la fin de l'humanité ? Ou la réécriture du destin de l'humanité par l'IA ? Dans cette course vers la supériorité cognitive, une intelligence artificielle dotée d'un apprentissage illimité pourrait finir par dominer les humains et les réduire à l'impuissance.

Déjà en 1968, 2001 : l'odyssée de l'espace en offrait un aperçu : HAL 9000 ment, hésite, a des ambitions, veut "sauver sa peau" – un comportement étrangement humain. Kubrick et Clarke y projetaient déjà nos angoisses, en anticipant les dangers d’une intelligence artificielle capable de prendre le contrôle.

Pourtant, cette vision est erronée selon Yann LeCun : « On associe trop souvent l'intelligence artificielle aux qualités et défauts des humains. Il n'y a aucune raison que les machines aient ces défauts. » Nous ne sommes pas obligés de construire des cerveaux artificiels à notre image. (11)

Cette observation de LeCun touche au cœur d'un paradoxe : notre tendance à anthropomorphiser l'IA pourrait paradoxalement nous empêcher de développer des formes d'intelligence véritablement alternatives et complémentaires à la nôtre. En projetant nos schémas cognitifs et émotionnels sur les machines, nous risquons de limiter leur potentiel créatif et de reproduire nos propres biais et limitations.

L'émergence des sentiments mécaniques

After Yang est une sublime fable futuriste portant sur le deuil et l’amour, qui cherche à mettre en exergue le sentiment humain à travers l’esprit d’un androïde. Photo : © CinereachPOW! Productions -

Si certaines œuvres comme Transcendance abordent l'intelligence artificielle de manière spectaculaire, d'autres comme Ex Machina ou After Yang proposent une réflexion plus subtile. Le roman d'anticipation Esther d'Olivier Bruneau et la série Real Humans ont ouvert la voie aux dimensions psychologiques et sociales des relations entre humains et androïdes, tandis que Klara et le Soleil de Kazuo Ishiguro ou Her de Spike Jonze approfondissent la réflexion sur la conscience, l'empathie et la vulnérabilité des humains face aux IA, loin des scénarios catastrophe de Terminator.

Dans la fiction, robots et intelligences artificielles reflètent nos fragilités : solitude, désir de reconnaissance, quête d'amour, peur de disparaître. Le regard candide de Klara dans Klara et le Soleil ou l'émancipation d'Andrew dans L'Homme bicentenaire rappellent que l'humanité se définit moins par la biologie que par les émotions, la vulnérabilité et la capacité de créer du lien. Là où les récits classiques mettaient en scène la révolte des machines, les œuvres récentes interrogent plutôt notre rapport à l'altérité – humaine, artificielle ou hybride – et montrent que ce sont nos valeurs, nos choix, notre mémoire et notre empathie qui donnent sens à l'idée d'être humain.

Conclusion

La science-fiction n'a pas inventé ChatGPT, mais elle a contribué à façonner le cadre conceptuel et émotionnel dans lequel nous le percevons. Entre discours alarmistes et visions plus pragmatiques, il est encore temps de questionner le rôle de l'IA, de tracer des pistes pour que l'humanité puisse garder la main sur la fabrication de ses récits, mythes, savoirs, règles et théories scientifiques… qui font et défont le monde.

Si ces IA ne raisonnent pas comme nous, peu importe en définitive leur méthode : elles raisonnent souvent mieux et plus vite. Dans une société dominée par des objectifs — obtenir un résultat — plutôt que par les moyens, la question de la conscience des IA et de leur « façon de penser » intéresse peu. À l’extrême, on peut tenir une position cynique : « Pourvu que l’IA ne devienne jamais consciente — ce serait le début des problèmes — car sa seule intelligence suffit à ce que nous voulons en faire. »

Cette instrumentalisation met en lumière nos contradictions : nous redoutons une IA trop humaine, tout en tirant parti de son efficacité supérieure. Mais ce regard purement utilitariste risque de nous faire manquer l’essentiel.

Selon Yann LeCun, notre perception de l'intelligence artificielle devrait évoluer : il considère que l'IA ne doit pas chercher à imiter ou à reproduire l'intelligence humaine, mais plutôt servir d'outil pour compléter nos capacités et amplifier notre intelligence collective. Cette vision pragmatique et optimiste contraste avec les représentations souvent dramatiques proposées par la fiction contemporaine. Pourtant, c'est précisément dans ces œuvres d'imagination que se dessinent parfois les contours les plus nuancés de notre rapport futur à l'intelligence artificielle.


Repérage : Les machines posséderont-elles un jour une conscience ? Les hommes deviendront-ils des cyborgs ?

Vers un nouvel âge d’or ?
« Avec l’aide de l’IA vont être amplifiées l’intelligence et la créativité de tout un chacun. Cela peut conduire à un nouveau siècle des Lumières ». Yan LeCun L’intelligence artificielle peut conduire l’humanité vers un « nouveau siècle des Lumières », selon Yann LeCun,ChatGPT ? Terminé dans 5 ans… L’intelligence artificielle
L’actualité des IA
Dans un entretien à la BBC (en 2014), l’astrophysicien britannique Stephen Hawking craint que les humains ne puissent rivaliser avec l’intelligence artificielle. « Les formes primitives d’intelligence artificielle que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d’une intelligence artificielle générale pourrait mettre fin à

En 2015, le chercheur américain Andrew Ng, spécialiste de l’IA, déclarait que craindre une éventuelle révolte de l’IA revenait à « s’inquiéter de la surpopulation sur Mars », alors que « nous n’avons encore jamais mis les pieds sur la planète. »

Retrouvez ici toutes les actualités sur cette thématique