Qu’est-ce qui se cache derrière le battage médiatique autour de l’IA ?

L’intelligence artificielle (IA) est actuellement à la mode. Il ne se passe pas une semaine sans que nous lisions des articles sur le sujet, écoutions des informations à la radio ou figurions dans des séries. Sous différents angles, où prédominent très souvent la dystopie ou le techno-optimisme acritique, on nous parle de l’impact que l’IA a et aura sur notre présent et notre avenir, sur notre vie personnelle, professionnelle ou même sur nos moments de loisirs. Dans ce contexte, nous pensons qu’il est intéressant de rassembler des textes qui évitent ce faux débat de gros titres et qui, à partir de positions antagonistes, tentent d’analyser ce sujet en profondeur. C’est pourquoi nous avons traduit une partie d’un article très détaillé publié l’automne dernier dans le numéro 112 du magazine allemand  Wildcat . L’article complet est à retrouver sur leur site Internet, en allemand, ou en anglais sur le site du  collectif Angry Workers of The World.

Le 30 novembre 2022,  ChatGPT , une IA conversationnelle ou, comme on l’appelle, un « grand modèle de langage », a été lancée. Pour la première fois, une IA générative capable de créer des textes indépendants et de prétendre comprendre les questions qui lui sont posées est devenue accessible au public gratuitement. En cinq jours, un million de personnes s’étaient inscrites sur le site  chat.openai.com . En janvier 2023, ce chiffre était passé à cent millions. Ce fut un coup de génie pour  OpenAI  ( Microsoft ) de rendre son chatbot accessible au public. Aucun service marketing n’aurait pu mieux en faire la publicité que le débat hystérique qui a suivi. Tous les concurrents devaient faire de même et publier également leurs chatbots.

Qu’est-ce qui se cache derrière le battage médiatique autour de l’IA ?

Pourquoi assistons-nous aujourd’hui à un tel boom de l’IA ? Et pourquoi les chatbots, justement, l’ont-ils déclenché ? D’une part, les entreprises technologiques avaient un besoin urgent d’un nouveau modèle économique. À cela s’ajoute que le langage est considéré comme un signe d’intelligence et qu’il existe clairement un grand besoin social d’interlocuteurs pour dialoguer. Et troisièmement, même s’il y a de moins en moins d’innovations fondamentales, les attentes à leur égard augmentent.

Crise technologique

Les générateurs de texte, de voix et d’images (« IA générative ») sont les moteurs avec lesquels les cinq grandes entreprises technologiques Apple,  Amazon ,  Facebook , Google et Microsoft tentent de sortir de la crise des « big tech » de 2021 et 2022, au cours de laquelle 200 000 salariés ont été licenciés. Les cinq grands dominent plus de 90 % du marché de l’IA. Une sixième société, Nvidia, prend la plus grosse part du gâteau en fournissant le matériel. Nvidia fabriquait des cartes graphiques, et le fait toujours, mais il y a un peu plus de dix ans, on a découvert que les unités de traitement graphique (GPU) disposaient d’une énorme puissance de calcul parallèle. Le premier boom a été celui des jeux, le second celui du minage de crypto-monnaie, et maintenant c’est l’IA générative. Les GPU sont connus pour consommer de grandes quantités d’électricité.

Après des années de pertes, la hausse des marchés boursiers américains en 2023 ne dépend que de sept entreprises (en plus de celles mentionnées ci-dessus, Tesla est la septième). À la mi-juillet 2023, ces sept sociétés représentaient 60 % du Nasdaq 100, un indice majeur des valeurs technologiques. Cette montée en puissance repose sur une seule attente : « l’IA va tout changer ». Pourtant, sur le plan économique, la croissance n’a pas encore été suffisante pour compenser le ralentissement de l’industrie des puces, dont le volume des ventes et les bénéfices sont en chute libre.

Il existe un besoin social pour les chatbots

Joseph Weizenbaum a construit le premier chatbot en 1966. Son ELIZA pouvait déjà simuler l’être humain dans de courtes conversations écrites. Weizenbaum a été surpris que de nombreuses personnes confient leurs secrets les plus intimes à ce programme relativement simple. Ils étaient convaincus que le « partenaire de dialogue » comprenait réellement leurs problèmes, car les réponses à leurs questions semblaient « humaines ». Aujourd’hui, de nombreux chatbots profitent de ce que l’on appelle « l’effet Eliza ». Un sous-produit indésirable est devenu un best-seller et un modèle économique.

Les chatbots sont formés avec de grandes quantités de données de dialogue humain et peuvent donc également répéter l’expression d’émotions. Ils semblent tous être conçus comme une sorte d’escroc romantique. Pour feindre de comprendre ou pour raconter une bonne histoire, ces modèles aiment inventer spontanément des sources et des faits supposés. Ces « hallucinations sociales » (Emily Bender) sont désirables et servent à fidéliser la clientèle.

Ce que de nombreux utilisateurs ne comprennent pas, c’est qu’ils alimentent et entraînent également l’IA avec de nouvelles données à travers leurs questions. Début 2023, Samsung a découvert que le code du programme de ses développeurs avait été téléchargé sur ChatGTP. Au milieu de l’année, Samsung, Morgan Chase Bank, Verizon, Amazon, Walmart et d’autres ont officiellement interdit à leurs employés d’utiliser des chatbots sur les ordinateurs de l’entreprise. Ils ne sont pas non plus autorisés à saisir des informations relatives à l’entreprise ou des données personnelles dans l’IA générative de leurs appareils personnels.

Peu de vraies innovations

Presque personne ne croit encore que le monde deviendra un endroit agréable dans un avenir proche. Les crises écologiques s’accumulent de plus en plus, les guerres se rapprochent et les problèmes sociaux s’accentuent.

C’est peut-être la raison pour laquelle les énergies utopiques sont de plus en plus liées à la technologie, qu’il s’agisse de la fusion nucléaire, des voitures électriques ou de l’intelligence artificielle. Cependant, les technologies capitalistes ne créent pas un nouveau monde, elles préservent l’ancien. Weizenbaum a déclaré dans une interview en 1985 que l’invention de l’ordinateur avait essentiellement sauvé le statu quo. Son exemple : alors que le système financier et bancaire continuait de croître, il était à peine contrôlable par des virements manuels et des chèques. L’ordinateur a résolu ce problème. Tout a continué comme avant, seulement numérisé et donc plus rapide.

Début 2023, la revue  Nature  a publié une étude selon laquelle les « découvertes révolutionnaires » sont devenues moins fréquentes. Des études antérieures l’avaient déjà montré, par exemple dans le domaine du développement des semi-conducteurs et des médicaments. Beaucoup de choses ne sont que des améliorations apportées à une invention déjà réalisée, et non de « véritables innovations ». Le progrès scientifique et technologique a ralenti malgré l’augmentation continue des dépenses scientifiques et technologiques et une augmentation significative du nombre de travailleurs du savoir. L’article  de Nature  considère que la cause en est un excès de connaissances et une trop grande spécialisation. La quantité de connaissances scientifiques et techniques a augmenté à pas de géant au cours des dernières décennies, et la littérature scientifique a doublé tous les 17 ans. Il existe cependant une grande différence entre la disponibilité des connaissances et leur utilisation réelle. Les scientifiques se concentrent de plus en plus sur des sujets précis et, surtout, se citent eux-mêmes (financement par des tiers, publier ou périr).

« L’IA me semble stupide et rassurante  « (le comédien allemand Helge Schneider).

L’IA est partout. Surtout dans la publicité. Smartphones et tablettes classent les photographies par sujet, déverrouillent grâce à la reconnaissance faciale, les chemins de fer utilisent la reconnaissance d’images pour la maintenance, les prestataires de services financiers utilisent des machines pour évaluer le risque des emprunteurs…

Mais ces exemples n’ont rien à voir avec l’IA générative. Ce sont simplement des algorithmes pour l’analyse du Big Data. Pour des raisons marketing, tout ce qui touche au Big Data est actuellement appelé IA. Après tout, même la boucle de programmation la plus simple pour l’analyse des données peut être vendue plus efficacement de cette façon.

En 1959, l’ingénieur électricien Arthur Samuel a écrit un programme pour le jeu de dames, qui, pour la première fois, pouvait être joué mieux que les humains. La percée a été que Samuel a appris à un ordinateur central IBM à jouer contre lui-même et à enregistrer quel mouvement augmentait les chances de gagner dans chaque situation de jeu. Le jeu des machines contre les machines et l’apprentissage au cours du processus sont le début de « l’intelligence artificielle » ; artificielle certes, mais pourquoi « intelligence » ?

Le terme « intelligence artificielle » avait été inventé quatre ans plus tôt par l’informaticien américain John McCarthy. Avec bien d’autres, il faisait des recherches sur le traitement des données. Mais McCarthy ne voulait pas seulement suivre les traces des autres. Il voulait récolter les fruits de quelque chose qui lui était propre. Ainsi, au lieu de « cybernétique », il a écrit « intelligence artificielle » sur sa demande de financement adressée à la Fondation Rockefeller pour le projet de recherche d’été de Dartmouth.

McCarthy a écrit plus tard qu’il voulait utiliser le terme pour « clouer le drapeau au mât ». Mais il remplaçait l’intelligence par autre chose. Le mot latin intellegere signifie « réaliser, comprendre, saisir ». « L’intelligence » naît dans l’interaction avec l’environnement (il n’y a pas de cognition sans corps) et dans l’interaction sociale. Les gens ont développé un langage pour pouvoir cuisiner ensemble. Le goût du chocolat et l’odeur du romarin sont des expériences qualitatives qui ne peuvent être stockées sous forme de « données ». Mais McCarthy avait montré la voie : une « simulation de ces processus », c’est-à-dire une simulation de la compréhension.

L’utilisation par McCarthy du terme « réseaux de neurones » dans sa proposition était une stratégie publicitaire tout aussi intelligente. Le terme évoque des images d’un cerveau artificiel simulé avec des puces informatiques. Mais les « réseaux de neurones de l’IA » n’ont rien à voir avec le réseau de neurones du cerveau. Il s’agit d’un processus statistique utilisé pour organiser ce que l’on appelle les « nœuds » en plusieurs couches. En règle générale, un nœud est connecté à un sous-ensemble de nœuds de la couche inférieure. Pour qu’un ordinateur particulier puisse reconnaître des chevaux, il doit recevoir de nombreuses photographies de chevaux. Le système en extrait un « ensemble de caractéristiques » : oreilles, yeux, sabots, poil court, etc. Si une nouvelle image doit ensuite être évaluée, le programme procède de manière hiérarchique : la première couche analyse uniquement les valeurs de luminosité, la couche suivante analyse les lignes horizontales et verticales, la troisième les formes circulaires, la quatrième les yeux, etc. Seule la dernière couche constitue un modèle général.

L’ajustement ultérieur consiste à féliciter le système lorsqu’il a correctement reconnu une image (les connexions entre les nœuds sont renforcées) ou à le critiquer lorsqu’il reconnaît un chien comme un cheval (les connexions entre les nœuds sont réarrangées). De cette façon, le système devient plus rapide et plus précis, mais sans jamais « comprendre » ce qu’est un cheval.

Les chatbots créent le langage de cette façon. Ce n’est ni le type d’IA le plus élevé ni le plus important, ni le plus puissant ni le plus dangereux. Lorsqu’il s’agit de multiplier de grands nombres, elles sont inférieures à n’importe quelle calculatrice de poche des années 70. La technologie derrière ce que l’on appelle « l’IA générative » est essentiellement basée sur des inférences statistiques à partir d’énormes quantités de données. La statistique est une science auxiliaire. Économistes, épidémiologistes, sociologues, etc. Ils appliquent les statistiques « intuitivement » pour obtenir des indications approximatives dans certains contextes. Ils sont conscients que les prévisions statistiques sont rarement exactes. Ils font des erreurs et conduisent parfois à des impasses. En conséquence, l’IA générative présente des prédictions statistiques. C’est la base de sa performance. Par définition, les modèles ne peuvent pas dériver ou justifier leurs résultats. Ils sont formés jusqu’à ce que les résultats soient satisfaisants.

Big Data

Un chatbot fait correspondre des séquences de formes linguistiques à partir de ses données de formation sans aucune référence à la signification des mots. Lorsqu’on demande à ChatGPT ce qu’est Berlin, il répond que Berlin est la capitale de l’Allemagne. Non pas parce que j’ai la moindre idée de ce qu’est Berlin, de quelle ville il s’agit ou où se trouve l’Allemagne, mais parce que c’est la réponse statistiquement la plus probable.

C’est assez fou de générer un langage par une machine, en se basant non pas sur des règles de logique et de sens, mais sur la probabilité qu’un mot ou un module de texte en suive un autre, car le processus nécessite d’énormes capacités de calcul, une énorme consommation d’énergie et beaucoup de retouches. Mais c’est précisément cette folie qui est au centre du modèle économique. Parce que seules les grandes entreprises technologiques disposent de centres de données aussi gigantesques et ont accumulé les volumes de données et l’argent nécessaires au cours des deux dernières décennies. Les grands modèles linguistiques constituent donc un modèle économique dans lequel personne ne peut rivaliser avec eux. Même les instituts de recherche publics ou les meilleures universités internationales ne disposent pas des ordinateurs nécessaires, encore moins des données !

Source : todoporhacer