Et si la pensée libre n’était plus l’enjeu de la censure, mais celui de l’algorithme ?

I. La fin de la censure classique ?

Nous avons longtemps pensé la liberté d’expression sous le prisme de la censure. Celle d’un pouvoir politique, d’un régime autoritaire, d’une force coercitive capable d’interdire, de supprimer, de faire taire. Le Web a été pendant des années un espace de débordement, de contournement, de libération. La pensée libre s’y exerçait parfois maladroitement, souvent bruyamment, mais toujours avec une forme de vivacité.

Mais si aujourd’hui, ce n’était plus la censure qui menaçait la liberté de penser ?

Et si la menace était plus douce, plus invisible, plus technique ?


II. Le règne de la suggestion : penser dans les marges du prévisible

Les moteurs de recherche, les réseaux sociaux, les IA génératives n’interdisent rien (ou pas grand chose) . Mais ils orientent tout. Chaque réponse proposée, chaque lien suggéré, chaque résumé pré-mâché vient modéliser, à bas bruit, notre façon de chercher, de comprendre, de croire.

Quand je pose une question à ChatGPT, je ne cherche plus vraiment. Je reçois. Je consomme. Et je fais confiance.

 Que se passe-t-il si je laisse l’IA me guider systématiquement ? Suis-je encore l’auteur de mes explorations intellectuelles, ou un simple lecteur passif d’un monde généré pour moi ?

Ce glissement est pernicieux : il ne repose pas sur l’entrave, mais sur le confort. Il me soulage de l’effort cognitif. Il m’épargne le doute, le conflit, la nuance. Il présume ce que je veux savoir. Il prédit ma curiosité. Et parfois, il la court-circuite.

« Lorsque les filtres deviennent invisibles, nous cessons de les remettre en question. » — Eli Pariser, « The Filter Bubble »

La bulle de filtres selon Eli Pariser

Selon Pariser, la « bulle de filtres » désigne à la fois le filtrage de l’information qui parvient à l’internaute par différents filtres ; et l’état d’« isolement intellectuel » et culturel dans lequel il se retrouve quand les informations qu’il recherche sur Internet résultent d’une personnalisation mise en place à son insu.

III. Le web était un labyrinthe. Il devient un tunnel.

Là où nous naviguions dans l’hypertexte, nous empruntons désormais des chemins fléchés. L’algorithme ne me bloque pas l’accès à une idée : il me propose autre chose avant même que j’en ai le besoin. Il m’entraîne vers le contenu le plus engageant, le plus lisse, le plus conformément utile.

Exemple : en 2024, Google SGE commence à afficher directement les réponses générées par IA avant même les résultats classiques. Sur certaines requêtes, plus aucun lien organique n’apparaît au-dessus de la ligne de flottaison. L’utilisateur n’est plus dirigé vers des sources, mais vers des synthèses automatisées.

Nous n’explorons plus. Nous validons. Nous approuvons. Nous poursuivons des réponses que quelqu’un d’autre — ou quelque chose d’autre — a décidé de nous afficher.

« Ce qui est appelé transparence numérique ne signifie pas que le caché est rendu visible. Elle met simplement à disposition ce qui est déjà visible. Elle n’offre donc pas une plus grande liberté, mais une plus grande efficacité. »

Byung-Chul Han, Dans la nuée, Actes Sud, 2015, p. 51

La critique de la transparence par Byung-Chul Han

Pour Han, la promesse d’un monde numérique transparent est une illusion. Ce qui est présenté comme un gain de liberté est en réalité un nouveau système de contrôle : fluide, auto-imposé, optimisé. La transparence algorithmique ne révèle pas, elle sélectionne. Et ce qu’elle rend visible est souvent ce que le système juge pertinent, non ce qui est nécessaire à penser.


IV. Ce que les algorithmes nous empêchent de rencontrer

De par un contexte façonné par l’hyperlibéralisme

Il serait naïf de croire que l’évolution actuelle des moteurs de recommandation et des IA génératives est neutre ou purement technique.

Ces dispositifs se sont développés dans un écosystème profondément marqué par l’hyperlibéralisme : un régime économique et culturel où l’individu est considéré comme un entrepreneur de soi, où toute interaction devient transaction, et où l’information est avant tout un produit à rentabiliser.

Qui considère l’audience comme valeur marchande

Dans un tel système, la visibilité devient une valeur marchande. Ce qui est mis en avant n’est pas ce qui est le plus vrai, mais ce qui est le plus cliquable, le plus engageant, le plus rentable. L’attention humaine, ressource rare, devient l’objet d’une captation systématique : elle est comptée, monétisée, exploitée. Le moteur de recherche ou l’IA ne sont pas des bibliothécaires neutres : ce sont des acteurs économiques insérés dans une logique de marché, où la donnée, l’audience et le temps de cerveau disponible sont les nouvelles devises.

Et l’attention comme ressource capturée

Cette logique de rendement permanent affaiblit ce que Bernard Stiegler appelait des dispositifs de transindividuation, ces milieux symboliques où la pensée collective s’élabore lentement, dans la contradiction, le détour, le conflit. L’hyperlibéralisme ne censure pas. Il submerge. Il rend les contre-pouvoirs inaudibles, non pas parce qu’ils sont interdits, mais parce qu’ils sont dilués dans un flux continu de contenus plus compatibles avec la logique de performance.

Avec comme résultante la disparition des « marginaux »

Dans un monde indexé sur la pertinence supposée, les contenus dits marginaux, complexes, non alignés, disparaissent des radars. Pas parce qu’ils sont interdits, mais parce qu’ils sont ignorés — jugés trop faibles statistiquement pour être détectés, repris ou diffusés dans l’espace numérique dominant.

Les IA génératives ne sont pas neutres. Elles sont formées sur du contenu dominant, synthétisent ce qu’elles connaissent et répètent ce qui a déjà été pensé. Cela produit un effet d’écrasement : ce qui n’a pas de trace statistique dans le corpus d’apprentissage… n’existe tout simplement pas.

« Ce qui est numériquement faible devient symboliquement nul. »

Bernard Stiegler, « Pharmacologie du numérique »

Exemple :

Un article universitaire inédit ou une thèse peu relayée a peu de chances d’être “comprise” par une IA générative non fine-tunée. À l’échelle de la connaissance, cela produit un effet d’écrasement : ce qui n’a pas de trace statistique dans le corpus d’apprentissage… n’existe tout simplement pas.


V. L’entre-soi algorithmique : quand la diversité s’efface

Les algorithmes nous montrent ce qu’ils estiment pertinent. Mais cette pertinence est calculée à partir de nos historiques, de nos préférences passées, de nos habitudes. Ainsi se forme une boucle : plus nous consommons un certain type de contenu, plus ce même type nous est proposé. Le résultat ? Un entre-soi cognitif.

Nous sommes progressivement enfermés dans des environnements informationnels homogènes, où la diversité des idées, des voix, des approches, tend à disparaître. Ce phénomène n’est pas nouveau — les réseaux sociaux l’ont initié — mais les IA génératives, par leur capacité à synthétiser “ce que tout le monde pense”, l’amplifient.

Réflexion :

Que se passe-t-il quand on ne lit plus que ce qui nous ressemble ? On s’éloigne du débat. On se prive de la contradiction. Et on finit par croire que notre vision du monde est universelle.

« Une démocratie qui élimine le dissensus cesse d’être pleinement démocratique. »

Chantal Mouffe, Agonistics: Thinking the World Politically, 2013

Les IA ne filtrent pas par idéologie, mais par optimisation. Ce qu’elles proposent n’est pas neutre : c’est calculé pour plaire. Et ce qui ne plaît pas, ce qui dérange ou déplace, est naturellement écarté. L’entre-soi devient un standard algorithmique.

Étude à l’appui : phénomène documenté par l’UCL et l’ASCL

En 2023, une étude conjointe de l’University College London (UCL) et de l’Association of School and College Leaders (ASCL) menée auprès de plus de 1 000 adolescents de 13 à 17 ans révèle que les algorithmes de plateformes comme TikTok exposent les jeunes (déterminés masc.) à des contenus misogynes en moins de 15 minutes de navigation passive. Ce mécanisme d’amplification, qui part souvent d’interactions banales, enferme progressivement les utilisateurs dans des bulles idéologiques homogènes — sans qu’ils en aient conscience.

Source : Safer Scrolling – ASCL/UCL, 2023


VI. La nouvelle forme de la pensée libre

Peut-être que désormais, penser librement ne consiste plus à parler fort. Mais à résister à la prédiction. À cultiver le décalage. À s’entraîner à la dissonance.

Réflexion :

Comment rester curieux, curieuses dans un monde où l’on ne vous propose que ce que vous êtes censé vouloir ?

Chercher autrement. Lire ce qui n’est pas suggéré. Explorer ce qui ne semble pas “optimisé”. Penser librement, c’est refuser que son cheminement intellectuel soit balisé d’avance. C’est se méfier de la fluidité. C’est cultiver l’inconfort.

Qu’est-ce que la disruption ?

La « disruption » est un concept popularisé par Clayton Christensen pour désigner un changement radical de paradigme, souvent technologique, qui bouleverse un marché établi. Dans le contexte des algorithmes et de l’IA, la disruption ne concerne pas seulement des modèles économiques, mais aussi notre manière d’accéder à l’information, de penser, de débattre. Elle transforme les conditions mêmes du dialogue social et intellectuel, en imposant de nouvelles logiques de visibilité, de vitesse et de simplification.


Ouverture

La pensée libre ne s’oppose plus à la censure. Elle s’oppose à l’anticipation. Et si la plus grande forme de liberté, aujourd’hui, était de penser ce que l’algorithme n’avait pas vu venir ?

4 réponses sur “Et si la pensée libre n’était plus l’enjeu de la censure, mais celui de l’algorithme ?”

  1. Bravo pour cet article et surtout merci pour ce partage que je partagerai . Cela mérite vraiment réflexion sur la disruption concernant notre façon de débattre et d’accéder à l’information ! Encore merci 🙏

Répondre à Elsa Courtin Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *