Le curseur clignote

Je tape ce texte le plus vite possible. Pourquoi ? Je ne sais pas. L’IA attend. Le curseur clignote. Quelque chose dans ce dispositif m’encourage à aller vite, à ne pas m’arrêter, à ne pas réfléchir. C’est peut-être la première chose à noter.
La langue n’est pas neutre. La pensée non plus.
Anne Alombert, philosophe, dit : utiliser Grok — l’IA d’Elon Musk — ou utiliser Claude — l’IA d’Anthropic — ou ChatGPT — l’IA d’OpenAI de Sam Altman — ou encore une autre, ce n’est pas la même chose. Les modèles ont été entrainés différemment, selon des critères différents, portés par des visions du monde différentes. Elle va même plus loin : quand ces outils transforment notre façon d’écrire, ils transforment nos catégories de mots. Et quand nos catégories de mots changent, nos catégories de pensée changent aussi. Ce qu’on est capable d’imaginer, de nommer, de concevoir — tout ça évolue.
En s’appuyant sur ces dispositifs, on risque d’abandonner sa mémoire, son imagination à des automatismes. On cesse de produire des expressions singulières — issues de son propre passé, de ses désirs, de ses expériences. On devient, peu à peu, la moyenne des textes du monde. Plat. Sans saveur.
Anne Alombert nomme les effets : élimination des singularités, délégation de l’expression, défiance généralisée. Des simulacres de relation à la place de vraies relations. Une capacité diminuée à se relier collectivement. Et une habitude qui s’installe : donner des ordres à une machine pour un résultat immédiat. C’est efficace. Mais ce n’est pas une façon de se rapporter à ses semblables.
Je retiens que c’est le vocabulaire qui structure la pensée. Moins on dispose de mots pour nommer ce que l’on ressent, moins on est capable de le penser. Et moins on est capable de le penser, moins on peut gérer la divergence, l’incompréhension, le conflit. On sait ce que ça donne. Quand les mots manquent, la violence prend la place.
Anne Alombert - Finirons-nous par écrire, parler et penser comme ChatGPT ?
C’est aussi un autre GAFAM… avec la même promesse
Les GAFAM (ou GAMAM si tu préfères) — Google, Apple, Facebook / Meta, Amazon et Microsoft — deviennent OGMAXM — OpenAI, Google, Microsoft, Anthropic, XAI (Grok), Mistral. Même promesse. Certains et certaines d’entre nous ont appris à se méfier de la collecte de données, du profilage, de la monétisation mais la majorité s’en fiche… ou ne peut pas faire autrement.
L’IA générative s’accompagne d’une amnésie collective. OpenAI, Anthropic, Mistral sont présentées comme autre chose. Elles sont portées par un « intérêt pour l’humanité ». L’IA va résoudre tous nos problèmes (sic).
LOL. Don’t be evil comme dirait Maman diabolique.
Choisir son agent IA, c’est confier des données personnelles à un nouvel acteur dont on ne connait ni les véritables intentions ni les pratiques réelles de collecte. Quelles données ? En quelle quantité ? Pour combien de temps ? On ne sait pas.
Mais l’interface est fluide, et le résultat impressionnant, le texte convaincant. Très convaincant. Alors, on n’insiste pas trop.
Une puissance de conviction surhumaine
Les IA sont des GAFAM comme les autres
De toute façon, on n’a rien à cacher, alors.
Tiens et si vous appreniez que la Poste ouvre toutes vos lettres, en lit le contenu, en garde une copie, puis referme l’enveloppe avant de les distribuer ?
Ça choquerait, non ? Ah ben non. On était choqués, maintenant, on est résignés.
Puis, on ne voit pas la lettre s’ouvrir. Alors on fait comme si elle ne s’ouvrait pas.
Rudy Demotte — j’aime beaucoup son style d’écriture — dans un billet sur les nouvelles pratiques de surveillance aux frontières américaines, décrit le même vertige à une autre échelle. Ce qui se met en place là-bas, ce n’est pas une surveillance brutale et visible. C’est une agrégation patiente, automatisée, cumulative. Des fragments de vie transformés en profil durable. L’individu ne disparait pas — il est converti en entité calculable, anticipable, classable. Sa famille y passe aussi : les noms, les dates de naissance, les adresses. La frontière ne contrôle plus une personne. Elle ausculte une constellation entière.
C’est la même logique, à domicile. On nous répète que la technologie est neutre, on nous rabache — et on l’accepte — que ceux qui n’ont rien à se reprocher n’ont rien à cacher. Ça amène une docilité nouvelle — pas fondée sur la peur, mais sur le consentement organisé. Ce système-là, écrit Rudy Demotte, ne dit pas obéis. Il dit optimise. Il ne dit pas soumets-toi. Il dit sois transparent.
Pour rappel, tout le monde sait ce que tu fais dans les toilettes. Tu fermes quand même la porte. Pas parce que tu as quelque chose à cacher. Parce que c’est intime.
Quelle est l’intimité que j’entretiens avec une IA à qui je confie mes questions, mes doutes, mes textes en cours, mes projets ?
Et pourtant, je rédige ce billet à l’aide de l’IA. Je suis pris dans ce que je décris. Et j’assume — à moitié. En me justifiant que c’est pour tester l’outil.
Mais c’est trop facile.
Ça nous appauvrit.
En informatique, on parle de dette technique : le coût à long terme d’une solution rapide et temporaire — on fera mieux plus tard. C’est pareil avec notre cerveau. La dette cognitive, c’est aller trop vite pour comprendre. C’est ingurgiter sans digérer. J’observe des étudiants qui soumettent une question à une IA, reçoivent une réponse en quelques secondes, et passent à autre chose sans l’avoir lue. Comme si le fait que la réponse existe suffisait. Comme si la vitesse de génération imposait une vitesse identique de lecture.
On ne doit pas traiter l’information aussi vite qu’elle a été générée. Si l’IA écrit en quelques secondes, je dois prendre le temps de lire. De comprendre. D’ingérer. De me laisser le temps de faire ce travail lent, nocturne, invisible qu’on appelle apprendre. Ce que décrit Anne Alombert va dans le même sens : déléguer l’expression de ses idées à une machine, c’est risquer, à terme, de ne plus savoir les formuler soi-même. Pas en une fois. Pas brutalement. Par petites doses, au rythme des habitudes qui s’installent.
Un poisson rouge dans son bocal.
La technologie devrait nous aider et elle nous aide lorsqu’elle n’est pas imposée. Elle est ici imposée partout. Gratuitement… sauf après la première dose ou dans ton entreprise.
C’est toujours le même schéma. Des sociétés privées lancent des outils pour leur profit. Elles créent des usages, des dépendances, des marchés. Puis quand les effets indésirables apparaissent — sur la santé mentale, sur l’attention, sur la vie privée, sur la démocratie —, c’est la collectivité qui prend en charge la réparation.
Les bénéfices sont privés. Les coûts sont publics.
Il faut lutter contre les sociétés privées
Le smartphone est un bon exemple du cycle. On a mis ces appareils dans les mains de tout le monde — y compris des enfants — avant de comprendre les effets réels. On observe des problèmes d’attention, des difficultés à socialiser, une incapacité à s’ennuyer sans écran. Les effets sont documentés.
Et pourtant un smartphone, c’est pratique. Très pratique.
Ce n’est jamais noir ou blanc. Toujours gris.
Qui répare les dégâts ? La société. Les familles. Les écoles. Les fonds publics. Pas les actionnaires des GAMAM.
L’IA générative répète ce schéma à une vitesse et une échelle inédites. Les usages se diffusent avant qu’on comprenne les effets. Les investissements sont colossaux. Les questions restent sans réponse : que collecte-t-on exactement ? qui décide des valeurs encodées dans les modèles ? qui est responsable quand ça dérape ? quels sont les effets sur nos cerveaux ? sur nos interactions sociales ?
Je fixe le curseur qui clignote. Le texte est là. Je l’ai écrit vite — trop vite, sans doute. Je vais le relire lentement. Pas parce que j’ai le temps. Parce que c’est la seule façon de ne pas rembourser demain une dette que je ne sais même pas que j’ai contractée.
Crédits : Anne Alombert, interviewée par la RTBF à l’occasion de la parution de De la bêtise artificielle (La Découverte, 2024) — Rudy Demotte, billet « États-Unis : mise à nu » (2025) — Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task
Crédit photo perso, mon laptop, un terminal, vim, etc.