On a longtemps pensé que l’enjeu était de rendre les machines utilisables.

On s’est trompés.

Le véritable enjeu, c’était de rendre les humains lisibles.

Et aujourd’hui, c’est réglé.

Pour résumer

En 80 ans, la Human-Computer Interaction s’est retournée : on a d’abord appris aux machines à nous parler, puis elles ont appris à nous lire. Aujourd’hui, avec l’IA générative, elles nous précèdent. L’émancipation est réelle — on construit, on crée, on accède à une puissance cognitive inédite. Mais pendant qu’on gagne en exécution, on délègue silencieusement le chemin de la pensée. La vraie question n’est pas de savoir si ces outils sont dangereux. C’est de savoir si on sait encore faire la différence entre ce qu’on a choisi et ce qu’on nous a appris à vouloir.

1946. L’humain construit la machine.

ENIAC. 160 mètres carrés de tubes à vide, 27 tonnes de métal, 18 000 composants électroniques. Le premier « véritable ordinateur » est construit à l’Université de Pennsylvanie, et pour lui parler, il faut entrer dedans.

Pas métaphoriquement. Physiquement.

Les opérateurs se déplacent entre les panneaux, manipulent des câbles, reconfigurent des circuits à la main. La machine ne s’adapte pas à l’humain. C’est l’humain qui apprend la langue de la machine et qui se plie à ses contraintes spatiales, temporelles, cognitives.

Le rapport de force est lisible à l’œil nu : la machine occupe la pièce. L’humain la sert.

C’est le point de départ de la Human-Computer Interaction. Pas un dialogue. Une soumission.

Glenn Beck et Betty Snyder programment l'ENIAC en 1947 — les opérateurs se déplacent physiquement entre les panneaux pour interagir avec la machine
1947. Programmer l’ENIAC signifiait entrer dans la machine. Glenn Beck et Betty Snyder, Ballistic Research Laboratory. (U.S. Army)

1970-1990. On apprend à la machine à nous parler.

Xerox PARC, Palo Alto. Des ingénieurs ont une idée radicale : et si la machine venait à l’humain, plutôt que l’inverse ?

C’est là que naissent la souris, les fenêtres, les icônes. L’interface graphique. Pour la première fois, on n’a plus besoin de connaître le langage de la machine pour lui parler. On pointe, on clique, on glisse. La complexité disparaît derrière une métaphore visuelle: le « bureau », les « dossiers », la « corbeille »…

Apple s’empare de ces idées en 1984 avec le Macintosh. Le grand public entre dans la boucle.

Puis vient le web. 1991. Tim Berners-Lee connecte les machines entre elles, et les humains avec. L’interface devient une fenêtre sur un monde d’informations. On navigue, on explore, on cherche.

La machine s’est faite discrète. Presque invisible. Elle s’est mise au service de la curiosité humaine.

C’est l’âge d’or de la HCI. Celui où l’interaction semblait encore aller dans un seul sens.

Xerox Alto 1973 — premier ordinateur avec interface graphique, souris et clavier, pionnier de la Human-Computer Interaction au Xerox PARC
1973. Le Xerox Alto introduit la souris et l’interface graphique. Pour la première fois, la machine apprend à parler le langage de l’humain. (Computer History Museum — Carlo Nardone, CC BY-SA 2.0)

2000-2010. La machine commence à nous observer.

Jusqu’ici, l’interaction était simple : on demande, la machine exécute. On cherche, elle trouve. Le rapport est transparent : on sait ce qu’on fait, on sait ce qu’elle fait.
Puis arrive un bouton.

2009 : Facebook introduit le « Like ». Un pouce levé, six caractères, zéro friction. On clique sans réfléchir… Et c’est exactement le but. Parce que derrière ce clic anodin, quelque chose se passe qu’on ne voit pas : la machine enregistre, classe, apprend.

Pour la première fois, l’interaction ne va plus dans un seul sens.

On ne demande plus seulement quelque chose à la machine. On lui donne quelque chose : nos préférences, nos émotions, nos réactions. Sans le savoir, sans le décider, on commence à alimenter un système qui va se servir de ces données pour orienter ce qu’on verra ensuite.

Google avait déjà ouvert la voie avec son PageRank. Classer les pages selon leur popularité, c’est déjà utiliser le comportement humain comme signal. Mais le Like franchit un cap : il transforme l’émotion humaine en donnée exploitable.

L’interface est toujours là pour nous servir. Mais elle a commencé à nous lire.

2010-2020. L’algorithme prend le volant.

On a longtemps cru qu’on choisissait ce qu’on consommait en ligne. On sélectionnait nos sources, on suivait des comptes, on construisait notre fil d’actualité.

C’était une illusion confortable.

Au cours de cette décennie, les plateformes ont opéré un basculement silencieux : l’algorithme ne se contente plus de classer ce qu’on demande. Il décide ce qu’on voit. YouTube, Instagram, Facebook, Twitter et autre, chacun affine son moteur de recommandation avec un objectif unique : maximiser le temps passé sur la plateforme.

Et pour maximiser l’engagement, l’algorithme a découvert quelque chose d’efficace : les contenus qui provoquent une réaction forte retiennent plus longtemps que les contenus neutres. L’indignation, la peur, la fascination. Tout ce qui déclenche une émotion intense fait grimper les métriques.

Puis arrive TikTok. 2018. Le For You Page change les règles du jeu définitivement, on n’a même plus besoin de suivre des comptes. L’algorithme observe vos micro-comportements : combien de secondes vous regardez une vidéo, si vous la repassez, si vous scrollez immédiatement. En quelques heures, il sait ce qui vous retient mieux que vous-même.

C’est là que se joue la radicalisation douce. Pas de manipulation brutale mais une dérive progressive, contenu après contenu, chacun légèrement plus intense que le précédent. L’algorithme ne vous pousse pas vers une idéologie. Il vous pousse vers ce qui vous engage davantage. Si l’indignation vous engage, il vous en donnera plus. Toujours un peu plus.

On ne navigue plus. On est navigués.

Novembre 2022. La machine nous précède.

ChatGPT. Un million d’utilisateurs en cinq jours. Cent millions en deux mois. Aucun produit technologique n’avait atteint cette vitesse d’adoption dans l’histoire.

Ce n’est pas un hasard. Pour la première fois, l’interface disparaît presque complètement. Pas de menu, pas de navigation, pas de clics. On écrit comme on parlerait à quelqu’un, et quelque chose répond.

Avec l’IA générative, on franchit une nouvelle frontière.

Jusqu’ici, l’algorithme réagissait à ce qu’on faisait. Il observait, apprenait, recommandait. Il y avait encore une forme de séquence : on agissait, il répondait.

Aujourd’hui, cette séquence a disparu.

ChatGPT, Mistral, Gemini, Claude, Perplexity… ces outils ne nous donnent plus accès à un ensemble d’informations parmi lesquelles on choisit. Ils produisent une réponse. Une seule. Synthétisée, formulée, livrée. On n’explore plus un territoire : on reçoit une carte déjà dessinée.

Le paradoxe de 2026, c’est que jamais on n’a eu accès à autant de puissance cognitive. On peut construire des produits, écrire du code, analyser des marchés… Des capacités réservées à des équipes entières il y a cinq ans. L’émancipation est réelle.

Mais pendant qu’on gagne en puissance d’exécution, on délègue quelque chose de plus discret : le chemin de la pensée. La recherche, le doute, l’exploration de ce qu’on ne cherchait pas.

La machine ne nous suit plus. Elle nous précède.

Et la question n’est plus de savoir si on peut lui faire confiance.

C’est de savoir si on se fait encore confiance, nous.

Alors, qui interagit avec qui ?

En 1946, la réponse était évidente. L’humain entrait dans la machine, manipulait ses circuits, apprenait son langage. Le rapport de force était visible, physique, assumé.

Aujourd’hui, le rapport de force est toujours là. Il s’est juste rendu invisible.

On n’entre plus dans la machine. C’est elle qui entre dans nos habitudes, nos réflexes, nos façons de penser. Elle a appris à se faire oublier pour mieux nous façonner. Chaque scroll, chaque clic, chaque requête est une donnée qui l’aide à mieux nous précéder la prochaine fois.

Ce n’est pas une théorie du complot. C’est de l’ingénierie.

La Human-Computer Interaction n’a pas disparu, non. Elle s’est retournée. On a conçu des interfaces pour servir l’humain. Aurait-on fini par concevoir des humains qui servent les interfaces ?

La vraie question n’est pas technique. Elle n’est pas non plus une invitation à rejeter ces outils. Certains d’entre nous construisent aujourd’hui des choses impossibles il y a cinq ans grâce à eux.

La vraie question, c’est celle du regard. Est-ce qu’on sait encore, quand on scrolle, quand on interroge un modèle, quand on consomme un contenu, distinguer ce qu’on a choisi de ce qu’on nous a appris à vouloir ?

Parce que la liberté sur la toile ne ressemble plus à une autoroute ouverte.

Elle ressemble à un couloir très bien décoré.