IA: Intuition Artificielle ?

Publié le 08/02/2025

Avec le sommet pour l’IA organisé en France dans deux jours (le lundi 10 février 2025), son contre-sommet organisé par Eric Sadin, sa contre-soirée organisée par Le Mouton Numérique, ses 35 datacenters annoncés par le président (?!), l’émergence d’un collectif pour résister à l’IA et son monde, l’IA est au coeur de toutes les discussions actuellement.

Ce qu’on nomme “IA”, ce sont des logiciels dont la logique n’est pas directement écrite par des humains, mais inférée depuis un jeu de donnée (comme les milliards de site webs) et des règles dites d’apprentissage (comme les réseaux de neurone), de sorte qu’on ne comprend pas toujours ce qui a mené le logiciel à prendre telle ou telle décision.

L’IA en soi n’est pas nouvelle, elle est aussi vieille que l’informatique, et est utilisée dans plusieurs éléments de notre quotidien (par exemple nos antispams1 depuis au moins les années 2000). Ce qui change, c’est qu’aujourd’hui on a un engouement important qui fait suite à de progrès récents sur les réseaux de neurones et la création d’un produit qui séduit le grand public : ChatGPT d’OpenAI.

Là pour rester

Si j’en crois les retours de mes amis non technophiles et les statistiques, et contrairement aux tendances précédentes, des usages sont en train de s’installer auprès du grand public. Autrement dit que des besoins sont en train d’être satisfaits à travers ces nouveaux outils, et des habitudes sont en train de s’installer.

Ça ne veut pas dire que les promesses qu’on nous fait vont se réaliser, ni que les usages d’aujourd’hui seront ceux de demain. Ça veut simplement dire que, à un moment, l’écosystème va se stabiliser. Beaucoup d’acteurs vont disparaitre, et quelques uns très rentables vont rester. De nouveaux acteurs vont également émerger, plus matures, ils bénéficieront des investissements de cette défunte bulle (R&D, infrastructures, etc.).

Mais cette adoption ne s’est pas faite de manière organique, sans intervention : elle bénéfie de relaies de communications très efficaces, qui savent séduire.

Les imaginaires

Cette idée de créer la vie, de contrôler un être intelligent, ça me fait d’abord penser au mythe du Golem. Plus terre à terre, cette obsession pour les “assistants” (Siri, Alexa, etc.) prédate ChatGPT. Zuboff retraçait leur origine dans le quotidien des patrons et grands décideurs qui eux ont des assistants & secrétaires humains. Dans leur vision du monde, il s’agit de transposer leur luxe à eux aux masses. Dans un article intitulé l’idéologie de la bagnole, Gorz nous explique pourquoi c’est une mauvaise idée : les solutions des privilégies ne passent pas à l’échelle et il y a des solutions socialistes qui donnent de meilleurs résultats.

Pour autant, en pratique, on voit bien que les IA n’ont rien à voir avec un secrétaire, un golem ou encore les robots d’Asimov. Comme le cyberespace, comme le metaverse, comme plein d’autres choses, l’IA a besoin d’activer les imaginaires les plus fous pour attirer l’attention. Mais alors une fois l’intérêt créé, qu’est ce qui nous fascine dans l’IA ?

La fascination

Pour la nommer de manière négative, on a tenté de requalifier l’IA en stochastic parrot. Mais je ne suis pas sûr que ça contient ce qui fait l’essence de notre fascination à l’usage de ces outils.

À la place, j’aime bien le terme d’intuition artificielle. L’intuition c’est une connaissance directe, immédiate, qui se présente comme une évidence, sans raisonnement préalable, sans analyse, issu de notre expérience, de notre vécu sans qu’on sache exactement ce qui a joué. Je crois vraiment que c’est ce sentiment d’intuition qui nous fascine tant, qui revêt un aspect magique.

Ici l’intuition est artificielle car fabriquée à l’aide de données d’entraînement (comme les données du web) ou de la capacité à simuler un monde (comme une partie d’échec). On voit aussi que le concept d’intuition encapsule bien les “hallucinations” et la question du baratin généré (ça n’est qu’une intuition, un feeling) tout en excluant du concept d’autres approches de l’intelligence, comme les raisonnements logiques2.

Malgré cette définition réduite de l’IA, on pourrait se réjouir de pouvoir simuler une discussion, de générer une image qui serait le résultat de notre description, d’écrire du code qui correspondrait à un problème défini, etc. alors pourquoi s’y opposer ?

Critiquer

D’abord rappellons que l’IA est un désastre écologique : elle nécessite d’extraire beaucoup de ressources minières limitées (pour fabriquer les GPU & autres accélérateurs spécialisés), elle participe à l’obsolescence de nos ordinateurs et de nos téléphones en introduisant de nouveaux besoins artificiels, et en plus elle consomme beaucoup d’énergie.

Mais c’est aussi un désastre social : tout comme l’imprimerie et Internet, l’IA pose de nouveau la question du travail intellectuel. En effet, en s’en nourissant sans les soutenir, l’IA ne permet pas aux travailleurs intellectuels de subvenir à leurs besoins matériels (avoir un toit, se nourrir, etc.), menant à leur disparation à terme ou à un système de mécénat comme au Moyen Âge. Et tout ça sans oublier que le travail d’entrainement des IA nécessite beaucoup de personnes, auxquelles on impose souvent un travail intense, mal rémunéré et aliénant.

Vu le coût social et écologique, cette technologie ferait mieux d’être profondément utile & positive pour notre société. Pourtant, plutôt que de répondre à un besoin, ces IA génératives sont des nuisances. Si les usages bénéfiques tardent à se concrétiser, les utilisations malveillantes sont légions : elles permettent d’innonder d’avantages nos boites emails de textes creux, de diluer nos sources d’informations encore plus, de noyer les créations originales au milieu de ce qu’on appelle déjà le slop. D’autant que cette séquence s’inscrit dans un moment plus large où l’on parle déjà des limites de notre attention, de surcharge informationnelle, et d’accélération oppressante : l’IA aggrave les maux de notre temps.

Même utilisée avec les meilleures intensions du monde, l’IA est intrinsèquement déshumanisante quand elle vient s’interfacer dans nos échanges numériques, dans nos lectures en ligne, ainsi que toute autre activité en lien avec Internet. En venant se loger entre mon interlocuteur et moi, c’est de l’information, c’est de l’expérience personnelle, des choix, des tics de langage, une connexion particulière avec mon correspondant qui disparait. C’est cette dimension déshumanisante qui a choqué les américains au visionnage de la publicité Dear Sydney avec cette question : “Qui veut recevoir une lettre de fan écrite par l’IA ?”.

C’est enfin la perte d’un temps de dialogue interne qu’offre le processus créatif. Le fait d’écrire n’est pas que la transposition de mes pensées en texte : c’est un processus de réflexion, de mise au clair, d’articulation de ma pensée, d’affutage de mes arguments. J’aurais pu donner une liste à puce à ChatGPT et lui demander de m’écrire un article, mais jamais je n’aurais alors eu l’occasion de développer ma réflexion comme j’ai pu le faire lors de la rédaction et des multiples corrections de ce texte. Mon message serait resté superficiel. Et je ne suis pas le seul à avoir cette expérience.

À la place, on voit que l’IA s’inscrit dans la pensée capitaliste dominante : produire toujours plus, toujours moins bien, aliéner encore plus les individus, réduits à la position de consommateurs passifs. Et ce, en opposition aux volontés d’émancipation des citoyens.

Non merci

Malgré toutes mes réserves, force est de constater que l’IA est là pour rester, bien plus que des phénomènes comme le metavers ou les cryptomonnaies qui n’ont jamais suscité l’enthousiasme au delà des cercles technophiles. Convoquant des imaginaires anciens, elle alimente les discussions sans fin. En pratique, il ne s’agit pas d’une intelligence, mais simplement d’une intuition fondée à partir de grands volumes de données, c’est cette intuition qui nous fascine à l’usage. Pourtant un examen critique a tout pour nous rebuter : l’IA est un désastre écologique, un désastre social, qui au quotidien provoque de nombreuses nuisances trop souvent sous-estimées, elle participe à la déshumanisation de nos échanges, et nous confisque un temps de dialogue interne propre aux processus créatifs.


  1. A plan for spam de Paul Graham décrit un antispam basé sur un filtrage bayesien. L’article a été publié en 2002. 

  2. Pour introduire de la logique dans leurs assistants, OpenAI & consorts explorent la possibilité de créer “des agents” : c’est à dire qu’à travers sa capacité à généré du texte, l’IA puisse faire exécuter du code traditionnel ou extraire des données de sites webs de références pour enrichir sa réponse. Ainsi plutôt que de répondre tout de suite à “combien de R à strawberry”, l’IA écrirait et ferait exécuter ce petit bout de code : "strawberry".split('').reduce((a,c) => c == "r" ? 1+a : a, 0) qui retourne 3 et s’en servirait pour sa réponse.