Nous le sentons toutes et tous, aujourd’hui, la frontière entre vérité et manipulation semble particulièrement ténue. L’intelligence artificielle, loin d’être un simple outil d’innovation, s’impose comme une technologie stratégique dans l’élaboration et la diffusion de l’information.
Des deepfakes (vous avez peut-être entraperçu le faux discours de Barack Obama en 2018, ou encore Volodymyr Zelensky appelant à la reddition en 2022…) aux algorithmes de recommandation, les technologies numériques ne se contentent plus d’influencer l’opinion : elles façonnent activement les discours, exacerbent les tensions sociétales et redéfinissent le paysage politique et idéologique.
Dans un monde où la viralité prime sur la véracité, l’IA devient une arme redoutable, capable de structurer des récits et d’accélérer la radicalisation des idées. Ce phénomène, déjà bien implanté, interroge nos démocraties et nous oblige à repenser les fondements mêmes du débat public.
IA et deepfakes : un enjeu majeur dans la guerre de l’information
L’intelligence artificielle n’est plus seulement un outil d’optimisation marketing ou d’automatisation des tâches, elle est aussi une arme redoutable dans le champ de la désinformation. Les deepfakes, ces vidéos truquées capables de faire dire ou faire faire n’importe quoi à n’importe qui, se perfectionnent à une vitesse inquiétante. Leur diffusion massive peut altérer la perception du réel et manipuler l’opinion publique.
Les campagnes de désinformation exploitent ces technologies pour créer des narratifs trompeurs – qu’il s’agisse de diffamer une personnalité publique, de manipuler une élection ou de façonner des idéologies à des fins stratégiques. Une étude menée par le MIT, intitulée « The Spread of True and False News Online » (2018), a démontré que les fake news se propagent six fois plus rapidement que les informations vérifiées, exacerbant la polarisation de l’opinion publique.
Source : media.mit.edu
Comment les algorithmes peuvent manipuler l’opinion (et comment s’en prémunir)
Les algorithmes jouent un rôle crucial dans la diffusion de l’information, mais aussi dans sa manipulation. Ils favorisent l’engagement au détriment de la véracité, amplifiant parfois involontairement les contenus polémiques ou trompeurs. Cela pose un dilemme aux sociétés démocratiques : comment contrer ces logiques algorithmiques sans basculer dans la censure ?
Quelques bonnes pratiques pour limiter les risques :
- Surveiller la propagation des narratifs trompeurs* : développer des outils de fact-checking basés sur l’IA pour contrer les fake news en temps réel. Des initiatives comme celles de l’Observatoire Européen des Médias Numériques permettent déjà d’identifier ces dérives.
- Renforcer la littératie numérique : sensibiliser les citoyens aux mécanismes de manipulation digitale. L’UNESCO a lancé plusieurs programmes éducatifs pour lutter contre la désinformation en ligne, détaillés dans leur rapport « L’UNESCO travaille pour réduire la désinformation ».
- Réguler les plateformes sans entraver la liberté d’expression : un équilibre difficile mais essentiel à trouver. Des propositions comme le Digital Services Act de l’Union Européenne visent à responsabiliser les géants du numérique.
*Un narratif trompeur est un récit ou une présentation des faits délibérément construits pour induire en erreur, manipuler l’opinion publique ou servir des intérêts spécifiques. Ces narratifs peuvent prendre la forme de fausses informations, de théories du complot ou de récits biaisés qui déforment la réalité. Ils exploitent souvent des émotions fortes, des préjugés ou des lacunes dans les connaissances du public pour se propager efficacement.
L’exemple du pape en doudoune est un cas emblématique de narratif trompeur alimenté par l’intelligence artificielle. En mars 2023, une image hyperréaliste du pape François vêtu d’une énorme doudoune blanche de style « streetwear » a circulé massivement sur les réseaux sociaux. Beaucoup d’internautes ont cru à une vraie photo, alors qu’il s’agissait en réalité d’une image générée par Midjourney, un outil d’IA générative spécialisé dans la création d’images ultra-réalistes.
L’IA et la radicalisation des discours : un levier pour les courants masculinistes et identitaires
Les mutations culturelles actuelles ne sont pas épargnées par la désinformation algorithmique. Les mouvances masculinistes, par exemple, exploitent les dynamiques des réseaux sociaux pour diffuser des discours victimaires et politiser les tensions de genre.
Une enquête menée par France Inter en avril 2024 a révélé que YouTube, via son algorithme de recommandations, expose progressivement les jeunes hommes à des contenus de plus en plus extrêmes liés aux mouvances masculinistes. Ce phénomène, documenté dans le podcast Le Zoom de la rédaction, met en lumière comment la plateforme peut jouer un rôle actif dans la radicalisation des discours en orientant les utilisateurs vers des vidéos aux thématiques toujours plus polarisées et controversées.
L’IA (ou plutôt les processus déterminés par des humains qui utilisent l’IA) alimente ainsi des bulles idéologiques où les discours racistes, antiféministes et identitaires trouvent un terreau fertile, renforçant les divisions sociétales.
L’étude Computational Propaganda and Misinformation: AI Technologies as Tools of Media Manipulation (2023) met en lumière la manière dont ces phénomènes sont amplifiés par les algorithmes des grandes plateformes.
Les plateformes doivent-elles intervenir pour limiter cette influence, au risque d’être accusées de censure ? C’est tout l’enjeu des régulations en cours, qui tentent de limiter la manipulation algorithmique tout en respectant les principes de liberté d’expression.
Biais algorithmiques et reflet de la société
Les intelligences artificielles qui alimentent les plateformes numériques ne sont pas neutres : elles apprennent à partir de vastes ensembles de données, souvent marqués par les biais inhérents à la société qui les produit. Le machine learning et le deep learning reposent sur des modèles d’apprentissage statistique qui, s’ils ne sont pas correctement encadrés, peuvent amplifier des inégalités existantes et favoriser la diffusion de contenus polarisants.
Les biais algorithmiques sont visibles dans plusieurs aspects du numérique : des résultats de recherche qui renforcent des stéréotypes aux recommandations de contenu qui enferment les utilisateurs dans des bulles idéologiques. Par exemple, les algorithmes de recommandation des réseaux sociaux ont tendance à proposer des contenus qui suscitent le plus d’engagement, favorisant ainsi les contenus émotionnellement chargés et polarisants, souvent au détriment de la nuance et de la véracité.
Ce phénomène est amplifié par le principe du renforcement algorithmique : plus un utilisateur interagit avec un certain type de contenu, plus l’algorithme lui en proposera de similaires, créant ainsi une boucle d’exposition qui peut mener à la radicalisation des opinions. C’est ainsi que des individus peuvent être exposés progressivement à des idées extrêmes sans recherche active de leur part.
La prise de conscience de ces biais est essentielle pour développer des IA plus transparentes et éthiques. Des initiatives telles que la mise en place de régulations sur la transparence des algorithmes ou l’intégration de garde-fous dans les modèles d’apprentissage sont en cours, mais elles se heurtent à des intérêts économiques et à la complexité de la gouvernance numérique à l’échelle mondiale.
L’IA est un formidable levier d’innovation, mais elle ouvre également la porte à des dérives sans précédent. Dans ce nouvel échiquier digital où la vérité est malléable, les sociétés, ou plutôt les humains, doivent redoubler de vigilance et s’adapter pour ne pas devenir les victimes de cette guerre invisible.