L’Intelligence Artificielle, arme de paix ou de guerre ?

lundi 22 mai 2023, par Karel Vereycken

[sommaire]

Salle de guerre IA de l’armée américaine avec des cliqueurs de guerre.

Avec l’arrivée en masse du logiciel conversationnel ChatGPT (déjà plus de 100 millions de comptes enregistrés), l’Intelligence artificielle (IA) n’est plus « à nos portes ». Après avoir avalé le monde de la finance et de la guerre, la bête ne s’est pas seulement posée sur le canapé de notre salon mais s’empare de nos cerveaux, de nos esprits, et, si rien n’est fait pour la domestiquer, de nos âmes, c’est-à-dire ce qui nous anime.

Notre enquête se portera sur l’origine du phénomène et surtout sur la catastrophique révolution militaire qu’elle implique.

Pour une fois, le philosophe Yuval Noah Harari n’a pas tort lorsqu’il s’alarme, dans The Economist du 28 avril :

L’Intelligence artificielle (IA) a piraté le système de fonctionnement même de la civilisation : le langage.

Avons-nous, en tant que civilisation humaine, atteint un niveau de spiritualité suffisamment élevé pour dominer un tel monstre ? Pour l’instant, c’est clairement non. Au niveau mondial, sur les centaines de milliers de personnes travaillant sur l’IA, à peine 200 travaillent sur sa sécurité au sens large.

Déjà, en 1956, Martin Luther King, dans sa Lettre de Saint-Paul aux chrétiens d’Amérique imaginait l’apôtre leur disant :

Amérique, (…) Il m’apparaît que ton progrès moral et spirituel ne suit pas ton progrès scientifique. Et qu’il est même à la traîne.

Ainsi, le « grand alignement » que certains réclament, entre, d’une part, éthique, droit, morale et respect du potentiel créateur de chacun et de l’environnement, et d’autre part, technologie, finance et pouvoir, reste un immense chantier à défricher.

On a beau faire miroiter à nos entreprises des gains de productivité faramineux grâce à ces « stagiaires gratuits et corvéables à merci, capable de compulser des données nuit et jour pour créer de nouveaux contenus » (Les Echos), dans un monde sous l’emprise croissante d’une finance spéculative et prédatrice, affolée par ses propres échecs et encline à s’engouffrer dans des guerres suicidaires, l’IA a été instrumentalisée et militarisée pour le pire.

Intelligence ou stupidité ?

La vérité sur l’intelligence artificielle, c’est qu’elle n’est pas intelligente du tout ! Mais avant de parler d’intelligence, tentons de voir à quoi se résume la stupidité :

  • La stupidité est l’adhésion persistante aux procédures, habitudes, modes de pensée et de comportement existants, combinée à une incapacité à reconnaître les signes montrant clairement qu’ils sont inappropriés, voire désastreux, dans un cas concret (par exemple la réforme des retraites) ;
  • Confucius disait que « l’expérience est une lanterne que l’on porte sur le dos et qui n’éclaire jamais que le chemin parcouru ». Stupide est donc l’adhésion rigide à l’expérience passée et à l’apprentissage par cœur, face à des situations qui exigent une réflexion nouvelle ;
  • Alors que la créativité caractérise la nature humaine, la stupidité en est la négation. C’est l’incapacité à sortir des sentiers battus, à avoir une vue d’ensemble, à sortir mentalement du processus dans lequel on est engagé et à poser des questions d’une portée plus vaste, telles que « cela va servir à quoi ? » ou « on est dans quoi, là ? »

L’erreur fondamentale de concepteurs de l’IA, c’est la dangereuse illusion que l’on puisse réduire le fonctionnement de l’esprit humain et le comportement biologique du cerveau à des algorithmes mathématiques faisant appel à des jeux de probabilités.

Voyons l’exemple des logiciels de traduction, exploitant à très grande vitesse les bases de données tirées de l’ensemble des textes déjà traduits par l’ONU, l’UE, l’OMS, etc. Structurellement incapable de comprendre le sens (la pensée, les idées, le fil conducteur derrière les mots), un robot vous compilera, avec virtuosité certes, des formulations de plus en plus plausibles mais dont il ignore tout. Il a une intelligence, mais pas de conscience. Si votre texte reste descriptif et évoque ce dont on a déjà parlé, cela vous semblera souvent acceptable. Cependant, s’il s’agit de plaisanteries nouvelles, de métaphores, de poésie ou simplement de phénomènes nouveaux, il échouera lamentablement.

C’est là que l’intelligence artificielle « générative » inquiète au plus haut point, car, au lieu de dire : « je ne sais pas » (à la base de tout progrès dans la connaissance humaine), le robot donnera soit une réponse totalement erronée (dite « cygne noir ») ou, pire encore, d’une façon totalement imprévisible, à partir de ce que certains appellent une « boîte noire », il « inventera » quelque chose d’apparence très plausible et donc de nature à nous induire en erreur.

Si le dernier rapport de la banque d’affaires Goldman Sachs affirme que l’IA supprimera 300 millions d’emplois dans la zone transatlantique, le data scientist Marc Rameaux démontre, dans une série d’articles publiés dans The European Scientist, que l’IA remplacera plus facilement le travail des traders, des notaires et des avocats, confrontés à des abstractions, que celui d’un artisan, d’un ouvrier soudeur ou d’un installateur de cuisine, confronté au concret et à des contextes sans cesse différents. « Il est bien plus difficile à une IA de s’en sortir correctement pour conduire une voiture dans un embouteillage porte Maillot que de battre le champion du monde d’échecs ou de go », ironise le scientifique.

John Von Neumann et la cybernétique

John Von Neumann, le Dr Folamour dans le film éponyme de Stanley Kubrick.

La « cybernétique » (du mot grec pilotage) fut le sujet des conférences Macy de 1942 et 1947. Parmi les participants les plus illustres, on trouve le neurophysiologiste Arturo Rosenblueth, les mathématiciens John Von Neumann et Norbert Wiener, l’ingénieur Julian Bigelow, le neurophysiologiste Warren McCulloch, le logicien Walter Pitts, le psychanalyste Lawrence Kubie et les anthropologues Gregory Bateson et Margaret Mead.

Physicien et mathématicien d’origine hongroise, John Von Neumann est un personnage cynique. Travaillant pour le projet Manhattan, c’est lui qui calcula la trajectoire de la bombe atomique lancée sur Nagasaki afin d’optimaliser les dommages et les morts.

Anticommuniste virulent, il plaidera, tout comme Bertrand Russell, auprès de Truman pour une attaque nucléaire préventive contre l’URSS, se basant sur sa théorie des jeux. Von Neumann, auquel le penseur américain Lyndon LaRouche s’est opposé durant toute sa vie, est le fameux Docteur Folamour du film éponyme de Stanley Kubrick.

Ce qui rapproche les participants aux conférences Macy est une volonté d’unifier les domaines naissants de l’automatique, de l’électronique et de la théorie mathématique de l’information, en tant que « théorie entière de la commande et de la communication, aussi bien chez l’animal que dans la machine ». Les conclusions de ce vaste projet interdisciplinaire sont alors résumées en 1948 par Norbert Wiener dans Cybernetics : Or Control and Communication in the Animal and the Machine.

Les frères Huxley et le Transhumanisme

Marvin Minsky du MIT.

Les fruits potentiels de ces recherches font rêver aussi bien la finance, l’industrie, l’armée, le monde géopolitique que des sectes eugénistes et pseudo-religieuses.

Avec la création, par Marvin Minsky, d’un département d’études sur l’intelligence artificielle au MIT (Massachusetts Institute of Technology), c’est la secte transhumaniste qui s’empare de l’IA. En tant que mouvement de pensée, le transhumanisme est apparu il y a un demi-siècle.

Il se réfère à la définition du biologiste Julian Huxley, premier directeur-général de l’UNESCO et farouche partisan de l’eugénisme, pour qui

une fois pleinement saisies les conséquences qu’impliquent la biologie évolutionniste, l’eugénisme deviendra inévitablement une partie intégrante de la religion de l’avenir, ou du complexe de sentiments, quel qu’il soit, qui pourra, dans l’avenir, prendre la place de la religion organisée. [1]

Julian Huxley, un eugéniste à la tête de l’UNESCO.

En 1932, dans Le meilleur des mondes, roman présenté comme une dystopie, son frère Aldous Huxley avait imaginé le binôme technoscience/plaisir comme instrument idéal d’un régime totalitaire.

Dans sa nouvelle préface de 1946, le romancier se dit étonné de la vitesse à laquelle sa vision se réalise :

A mesure que diminue la liberté économique et politique, la liberté sexuelle a tendance à s’accroître en compensation. Et le dictateur (…) fera bien d’encourager cette liberté-là. Conjointement avec la liberté de se livrer aux songes en plein jour sous l’influence des drogues, du cinéma et de la radio, elle contribuera à réconcilier ses sujets avec la servitude qui sera leur sort.

Bien que les transhumanistes affirment vouloir conduire l’humanité au bonheur universel grâce à la science et la technologie, dans son livre The Society of Mind, Minsky n’hésite pas à désigner le corps humain comme « de la viande ».

Or, comme le note le professeur de sociologie David Le Breton, les transhumanistes considèrent l’incarnation, c’est-à-dire le fait que chaque être humain dispose d’un corps,

comme un obstacle majeur à l’épanouissement de soi (…) une limite tragique qui alimente la vulnérabilité inhérente à la condition humaine. Sans le corps, pensent-ils, ils seraient immortels, imperméables à toute maladie, sans limites, invulnérables, étrangers au vieillissement, uniquement sous l’égide de leurs propres pensées. [2]

Un monde post-humain

Le corps devenu une entrave anachronique, certains transhumanistes appellent directement les hommes à s’en débarrasser, revendication d’un univers post-biologique, post-organique, post-évolutionniste et, bien entendu, « post-humain ». Aldous Huxley s’intéressait à la drogue et à l’hypnose car elles permettaient, selon lui, des « sorties de corps » délibérées.

Le transhumaniste Ray Kurzweil, pdg d’un fond spéculatif et conseiller de Bill Gates.

Postulant que l’être humain, comme le reste de l’univers, n’est qu’un « flux infini d’informations se cristallisant en formes provisoires », les post-humanistes annulent la distinction entre les différentes formes de vie et ce qui relève de l’inerte.

La mouvance transhumaniste, conclut Le Breton, s’inscrit dans le droit fil de la cybernétique et du paradigme informationnel, elle dissout toute morale en réduisant l’humain à une somme de données manipulables, elle élimine des notions comme celles d’égalité ou de dignité.

La vie éternelle ne s’obtient plus par la prière, mais, en attendant de pouvoir « télécharger » le cerveau, l’esprit, voire la personnalité d’un individu, par la « cryogénisation », c’est-à-dire la conservation du corps, ou du moins du cerveau humain dans des congélateurs prévus à cet effet.

Aussi bien Minsky que son élève, le millionnaire Ray Kurzweil, conseiller de Bill Gates et patron d’un fonds spéculatif, ont été ou sont des conseillers scientifiques de la Alcor Life Extension Foundation, une entreprise qui gère, contre une sympathique rémunération, quelque 350 cadavres et cerveaux congelés en vue d’une réincarnation future.

De transgenre à transhumain

Martine Rothblatt, promeut la transition du genre pour faire de nos enfants des transhumanistes.

Autre conseiller scientifique de la même institution, Martine Rothblatt. Transgenre depuis 1994, il dirige l’entreprise United Therapeutics, vouée à prolonger la vie de patients atteints de maladies pulmonaires. Dans De transgenre à transhumain (2011), il affirme que le mouvement transgenre, dont il est l’une des figures de proue, n’est qu’un stratagème pour faire évoluer les mentalités et s’habituer à la nouvelle révolution, celle de la « liberté de forme ».

Car dans un futur proche, selon lui,

des programmes aussi faciles et accessibles qu’iTunes, par exemple, permettront de faire revivre une personne d’une autre façon.

Les humains seront alors en mesure d’interagir avec une version numérique d’eux-mêmes, téléchargée dans leur esprit, qui serait « leur ami, leur guide, leur enseignant et leur moteur de recherche… »

ChatGPT et OpenAI

Elon Musk et Sam Altman, les fondateurs de OpenAI.

Comme nous l’avons dit en tête de cet article, l’arrivée, en novembre 2022, de ChatGPT a donné un énorme coup d’accélérateur en direction de ce « moment de singularité » théorisé par Ray Kurzweil, c’est-à-dire « le moment hypothétique à partir duquel les machines deviendront seules responsables du progrès technologique, ayant dépassé en intelligence les êtres humains ».

ChatGPT (Chat Generative Pre-trained Transformer), un prototype d’agent conversationnel utilisant l’intelligence artificielle (IA), a été développé par l’entreprise américaine OpenAI basée à San Francisco.

Fondée en 2015 en tant qu’association à but non lucratif, elle a pour présidents Elon Musk et Sam Altman. On retrouve dans l’équipée le fameux Peter Thiel, fondateur de Palantir, Amazon Web Services et d’autres acteurs qui se sont connus à l’époque de PayPal.

En 2019, Musk, en désaccord avec la direction, quitte la société. En mars 2019, pour attirer les investisseurs, OpenAI devient une entreprise à but lucratif et Microsoft y investit un milliard de dollars en échange d’un partenariat privilégié. Début 2023, vu l’engouement mondial pour ChatGPT, Microsoft injecte 10 milliards de dollars en échange de 75 % des bénéfices d’OpenAI.

Cauchemar militaire

Peter Thiel, fondateur de Palantir. Ici avec Trump dont il a financé la campagne.

Sur le plan militaire, c’est surtout l’annonce de Palantir qui fait froid dans le dos. Fondé avec des capitaux de la CIA par Peter Thiel, un des rares milliardaires de la Silicon Valley ayant soutenu Trump et un des pionniers de l’investissement massif dans le « cannabis légal », l’entreprise Palantir, spécialiste de l’IA, continue son ascension.

Le 27 mars, la société a présenté sa vidéo de démonstration de Palantir Artificial Intelligence Platform (AIP), un système dont la fonction première est d’intégrer de grands modèles de langage (LLM) tels que GPT-4 d’OpenAI ou ses alternatives dans des réseaux privés.

Cela ne surprend que les dupes, car Palantir ne fait que révéler ainsi son véritable ADN et sa raison d’être : équiper le complexe militaro-industriel anglo-américain pour qu’il puisse dominer le monde, en le dotant des meilleures armes conçues pour vaincre celui qu’il désigne comme son ennemi, sur le champ de bataille suprême, celui de l’esprit humain.

En février, le PDG de Palantir, Alex Karp, expliqua au Washington Post comment les capacités d’IA de Palantir fournies à l’armée ukrainienne allaient lui offrir la victoire.

Pour démontrer l’efficacité de sa nouvelle offre, Palantir publia une vidéo, montrant un commandant militaire en pleine action qui cherche à savoir quelles sont les unités ennemies présentes et demande à l’IA de prendre des photos. Le logiciel répond en lançant un drone Reaper MQ-9 pour les photographier et l’opérateur constate la présence d’un char T-80, un véhicule russe de l’ère soviétique, à proximité des forces amies.

L’opérateur utilise AIP pour générer trois plans d’action possibles afin de cibler l’équipement ennemi, comprenant l’attaque du char avec un F-16, de l’artillerie à longue portée ou des missiles Javelin. Il utilise ensuite le logiciel pour communiquer automatiquement à la chaîne de commandement. AIP indiquera même à chacun si les troupes à proximité disposent de suffisamment de Javelin pour mener à bien la mission et automatisera les systèmes de brouillage.

AIP prétend offrir des garde-fous. Cependant, bien qu’il y ait un être humain dans la boucle pour empêcher que le système ne prenne des mesures non autorisées, il semble que l’individu ne fasse guère plus que demander au chatbot ce qu’il doit faire avant d’approuver ses actions.

Comme le dit Bill Fassinou sur Developpez.com :

La guerre des drones a déjà rendu la guerre abstraite, permettant aux gens de tuer plus facilement à de vastes distances en appuyant sur un bouton. Les conséquences de ces systèmes sont bien documentées (…) Dans le monde de Palantir, les forces d’élite américaines partagent le même surnom que les cow-boys du clavier qui demandent à un robot ce qu’il faut faire au sujet d’un char russe à la frontière.

Les algorithmes « ont tendance à halluciner, c’est-à-dire inventer des faits et tenter de les faire passer pour des faits réels aux yeux de l’utilisateur ». Les systèmes d’IA disponibles sur le marché s’avèrent donc déjà des cauchemars en zone de guerre. Mais loin de s’arrêter là, ils font des victimes sur d’autres terrains, poursuit l’auteur :

GPT-NeoX-20B en particulier est une alternative open source à GPT-3 créée par une startup appelée EleutherAI. L’un des modèles libres d’EleutherAI, affiné par une autre entreprise appelée Chai, a récemment convaincu un Belge, qui lui avait parlé pendant six semaines, de se suicider.

« Ce que Palantir offre », ce n’est pas la sécurité mais « l’illusion de la sécurité et du contrôle pour le Pentagone qui commence à adopter l’IA », lance un critique.

Outre l’absence d’approches de solution pour gérer le problème d’hallucination des LLM, Palantir n’explique pas comment il envisage de traiter les autres problèmes pernicieux des LLM et quelles pourraient en être les conséquences dans un contexte militaire. L’AIP ne semble pas proposer de solutions à ces problèmes au-delà des « cadres » et des « garde-fous » dont elle promet qu’ils rendront l’utilisation « éthique » et « légale » de l’IA militaire. Pour l’instant, ce ne sont que des mots, et « des mots qui n’offrent aucune garantie de sécurité à l’humanité », conclut Bill Fassinou.

L’Ukraine, laboratoire en temps réel de la course à l’arme IA

« L’Ukraine, un laboratoire pour l’IA en temps réel » est le titre d’un article publié le 24 mars dans National Defense, le magazine américain des affaires et de la technologie de la National Defense Industrial Association, écrit par l’ancien général de division de l’armée américaine Robin Fontes (retraité), ancien commandant général adjoint des opérations du Army Cyber Command, et Jorrit Kamminga, directeur de RAIN Ethics, une division de RAIN Defense + AI.

L’Ukraine marque-t-elle un changement dans le caractère de la guerre ?

 Nous pensons que l’Ukraine est un laboratoire dans lequel la prochaine forme de guerre est en train d’être créée. (…) Palantir Technologies, par exemple, a fourni son logiciel d’IA pour analyser le déroulement de la guerre, comprendre les mouvements de troupes et évaluer les dégâts sur le champ de bataille. D’autres entreprises telles que Planet Labs, BlackSky Technology et Maxar Technologies produisent également en permanence des images satellite sur le conflit. A la demande de l’Ukraine, certaines de ces données sont partagées presque instantanément avec le gouvernement et les forces de défense ukrainiens. (…) En tant que laboratoire pour l’IA, le conflit est unique : il bénéficie d’un financement sans précédent, d’un engagement international et d’un soutien technologique de la part des secteurs public et privé, dans un contexte qui pourrait durer encore plusieurs années

(…) Tel est le paradoxe tragique. Chaque jour que le conflit se poursuit et que des êtres humains perdent la vie de manière horrible, des systèmes d’IA sont entraînés avec de vraies données provenant d’un vrai champ de bataille - non pas pour mettre fin à la souffrance et à la guerre, mais pour devenir plus efficaces dans la prochaine guerre : celle qui sera menée par l’IA.

Un réalité parfaitement comprise par le président russe Vladimir Poutine, pour qui

Celui qui contrôlera l’intelligence artificielle, contrôlera le monde

Le Dr Frankenstein inquiet de sa créature ?

Steve Wosniak, co-fondateur d’Apple.

Les qualités de ChatGPT sont survalorisées. Il ne s’agit pas vraiment de progrès dans la robotique au service de la création humaine. Si le gain de temps, l’écriture de textes, la précision, la langue fluide, le tout commandé par la voix humaine, semblent offrir des avantages, bien des sites technologiques mettent en garde contre les bugs gigantesques, les vols ou les fuites de données personnelles, le détournement des droits d’auteur, la désinformation généralisée, les erreurs fatales, les instrumentalisations en tout genre, le risque sécuritaire et militaire, la déshumanisation, et la liste est encore longue.

Ainsi, le 29 mars, plus de 27 000 chercheurs, dont certains réputés dans le domaine de l’intelligence artificielle (y compris Elon Musk et le cofondateur d’Apple Steve Wozniak) ont publié sur le site de l’institut américain Future of Life (pourtant une plateforme transhumaniste) une lettre ouverte appelant « tous les laboratoires d’IA à suspendre immédiatement, pendant au moins six mois, la formation des systèmes d’IA plus puissants que GPT-4 ».

Les laboratoires, affirme la lettre, se sont lancés dans

une course incontrôlée pour développer et déployer des systèmes d’IA toujours plus puissants, que personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable.

Ces systèmes qui entrent en compétition avec les humains amènent à se demander :

Doit-on automatiser toutes les tâches, y compris celles qui sont épanouissantes ? Doit-on développer des cerveaux non humains qui pourraient éventuellement être plus nombreux, plus intelligents, (…) et nous remplacer ? Doit-on risquer de perdre le contrôle de notre civilisation ?

Eliezer Wudkowsky.

Eliezer Yudkowsky, largement considéré comme l’un des fondateurs de l’IA, va beaucoup plus loin dans un article du Time intitulé Faire une pause dans le développement de l’IA n’est pas suffisant. Il faut tout arrêter :

Ce moratoire de six mois serait préférable à l’absence de moratoire (…) Je me suis abstenu de signer cette lettre car je pense qu’elle sous-estime la gravité de la situation. De nombreux chercheurs spécialisés dans ces questions, dont je fais partie, estiment que le résultat le plus probable de la construction d’une IA surhumainement intelligente, dans des circonstances qui ressemblent de près ou de loin aux circonstances actuelles, est la mort de tous les habitants de la Terre. Non pas au sens de ‘peut-être une chance infime’, mais dans le sens de ‘c’est la chose la plus évidente qui puisse arriver’.

Tohu-bohu politique aux States

Bien que l’on ignore s’il s’agit d’une réaction directe à l’annonce de Palantir, un groupe de trois démocrates et un républicain s’est senti obligé de déposer un projet de loi à la Chambre des représentants, visant à empêcher les systèmes d’intelligence artificielle de progresser au point de pouvoir lancer une attaque nucléaire de manière autonome…

Ken Buck, un député républicain du Colorado à l’origine de l’initiative a déclaré le 28 avril 2023 :

Si l’IA peut être appropriée pour la sécurité nationale, l’utiliser pour déployer des armes nucléaires sans chaîne humaine de commandement et de contrôle, est imprudent, dangereux et doit être interdit.

Avec cette lettre ouverte, le débat sur l’IA se retrouve d’office au cœur du débat pour la présidentielle américaine de 2024.

Vivek Ramaswamy, candidat à l’investiture républicaine, clame déjà haut et fort que tout moratoire sur la recherche dans ce domaine confèrerait un avantage à la Chine et serait donc fatal à la sécurité des Etats-Unis.

ChatGPT est déjà accusé de puiser prioritairement dans des bases de données dites « woke ». Lorsqu’un électeur américain a demandé début février à ChatGPT de composer un poème admiratif de Donald Trump, le bot a refusé de le faire, alléguant que Trump « est associé à des discours de haine, à la discrimination ou à des atteintes à des individus ou à des groupes ». Cependant, lorsqu’on lui a demandé d’écrire un poème admiratif de Joe Biden, le bot a produit un élogieux couplet...

Démissionner pour pouvoir alerter

Geoffrey Hinton, l’ingénieur-en-chef de Google qui vient de démissionner pour pouvoir parler des dangers de l’IA.

Enfin, le 1er mai, dans un entretien avec le New York Times, Geoffrey Hinton annonçait son départ de Google où il occupait depuis 2013 le poste d’ingénieur en chef. Professeur émérite à l’université de Toronto, ce chercheur de 75 ans passe pour « le père fondateur de l’intelligence artificielle », car ses travaux sur les réseaux de neurones et l’apprentissage automatique profond (deep learning) ont révolutionné la discipline à partir des années 2000.

Cinq ans après avoir été récompensé par le prestigieux prix Turing (équivalent du Nobel pour l’informatique), aux côtés de deux de ses confrères, le français Yann Le Cun et le canadien Yoshua Bengio, Hinton ne cache plus ses inquiétudes face aux derniers progrès de l’intelligence artificielle. « Je suis parti pour pouvoir parler des dangers de l’IA sans que cela ait un impact pour Google », a précisé le chercheur dans un tweet après l’annonce de son départ.

Conclusion

Le danger n’est pas que les systèmes d’IA deviennent plus intelligents que les humains, mais plutôt que les gens deviennent stupides au point de ne plus reconnaître la différence…

Dans le célèbre film de science-fiction de Stanley Kubrick « 2001 : l’Odyssée de l’espace », l’astronaute survivant intervient au dernier moment pour désactiver le système d’intelligence artificielle.

Mais aurait-il agi de la sorte si le système d’IA l’avait préalablement conditionné psychologiquement à ne pas le faire ? Seriez-vous l’astronaute ou seriez-vous la personne hypnotisée par les ombres sur la paroi de la caverne décrite par Platon, confondant l’écran avec la réalité ?

IA : deux petites lettres pour une « Illusion Artificielle » ?

Message à ceux qui redoutent que leur science soit volée, qui craignent d’être mentalement manipulés ou qui ont peur d’un jour être cocufiés, tous, par un seul coupable : l’ordinateur…

Quand les armes sont des hologrammes, la peur qu’on en avait disparaît au rythme du recul de l’ignorance. De premier abord complexe, le secret de fabrication vous sera livré avec un peu de concentration : tout n’est que logique et superposition de calculs.

Deux youtubeurs ont décrypté les ficelles de l’épouvante des « agents conversationnels » ou encore des « générateurs d’images ».

  • Dans « De quoi ChatGPT est-il VRAIMENT capable ? », Monsieur Phi vous explique que les grands modèles de langage (LLM) ne font que « prédire le prochain mot d’un texte ». Exactement comme lorsque vous écrivez un SMS : dès que vous tapez un mot, la machine essaie de deviner le mot suivant. Des propositions apparaissent automatiquement sur votre écran. Dans les LLM, c’est 175 milliards de paramètres qui sont compilés, avec le contenu de tout Wikipédia, entre autres.
  • Quant à ScienceEtonnante, il démystifie la créativité artistique informatique dans « Comment ces IA inventent-elles des images ? » A partir d’images faites uniquement de pixels aléatoirement définis (du « bruit »), on fait appel à la reconnaissance d’images (« y a-t-il un chat dans la photo ? »). Demandez à l’ordinateur de dessiner un mouton, il va fantasmer un mouton dans une masse de pixels. Longuement éduquée par l’apprentissage profond (deep learning), la machine peut maintenant choisir d’elle-même, parmi un milliard de possibilités d’assemblages de pixels, celle qui se rapproche le plus d’un mouton. Répétée et répétée encore, l’opération va vous offrir, virtuellement, le mouton de vos rêves.

Chérine Sultan


[1J. Huxley, L’homme, cet être unique, 1941.

[2David Le Breton, « Le transhumanisme ou l’adieu au corps », dans Ecologie & politique, 2017/2 (N° 55)