La dictature des algorithmes

Fourquet Jean-Lou, Hoang Lê Nguyên. La Dictature des Algorithmes, Une transition numérique démocratique est possible. Tallandier, 2024.

Entre liberté d'expression et censure centralisée, entre chaos décentralisé et dystopie autoritaire, le chemin est (très) étroit. Nous devons pourtant l'emprunter.

p. 132

L'essai de Hoang et Fourquet a des allures de manifeste. Il encourage à reprendre le contrôle de ses sources d'information alors que l'environnement digital, sous couvert d'ergonomie voire de convivialité, tend à proposer les contenus qui paraissent les plus lucratifs plutôt que les plus pertinents.
Les auteurs, militants d'un monde numérique démocratique, critiquent la promotion de contenus dommageables à la cohésion sociale. De même que la rédaction en chef d'une publication met en exergue l'article ou la photo qui appâtera le lectorat, les algorithmes poussent les contenus qui capteront le plus l'attention. Soutenus par l'intelligence artificielle, les algorithmes de recommandation ont une capacité de travail illimitée qui les rend pernicieux.

[…] ce qui semble être un journal tout droit sorti de l'univers d'Harry Potter, chacun en ayant une version entièrement personnalisée, n'a aujourd'hui rien de magique, c'est précisément ce dont sont capables les réseaux sociaux numériques. Leurs rédacteurs en chef surhumains qui ne connaissent pas le burn-out, ce sont les IA de recommandation. Elles sont indispensables pour toute plateforme Web sur laquelle sont uploadés chaque jour davantage de contenus qu'un humain ne peut en visionner.

p. 41


La capsule des Enjeux internationaux du 18 octobre 2023 consacrée au refus de reconnaissance des droits spécifiques des Aborigènes australiens montre le poids des médias dans la formation de l'opinion. Capables d'inverser un vote malgré un large consensus sur la situation réelle, les algorithmes génératifs entravent les processus démocratiques.


De formation scientifique – Hoang est docteur en mathématiques et Fourquet ingénieur – leurs propos se veulent rationnels : s'ils dénoncent les manipulations de l'opinion par la plateforme TikTok ou les usines à trolls russes, ils relèvent que ces manœuvres tendent davantage à divertir (cnrtl.fr : détourner de la vue de l'essentiel) qu'à endoctriner. En clivant l'opinion sur des thèmes de société – notamment wokisme et LGBTQIA+ –, ces algorithmes douteux arrivent à mettre au second plan les enjeux géostratégiques actuels tout en donnant une vision rassurante des régimes autoritaires : en traitant de la transidentité, on peut susciter une vague émotionnelle qui submerge les réflexions concernant les défis posés par un climat déréglé. Concrètement, les auteurs notent que les cibles des fermes à trolls ne sont ni de droite, ni de gauche; il suffit qu'elles rompent le dialogue démocratique. Concernant l'influence chinoise, ils ajoutent que le fonctionnement différencié de TikTok et de son pendant national Douyin met particulièrement en évidence le rôle stratégique de ces plateformes.
En hiérarchisant les contenus de manière à générer les profits maximaux, les IA de recommandation nuisent à la liberté d'expression qu'elle se targue pourtant de défendre. En favorisant les articles les plus passionnels, elles soustraient l'accès à la diversité des opinions. L'amplification des contenus étant déléguée, pour l'essentiel, aux algorithmes, elle ignore trop souvent de simples informations qualitatives car elles n'engendrent pas la controverse.

Cependant, différentes études constatent au contraire que les citoyens sont davantage confrontés à des avis contraires sur Internet que dans leur quotidien physique.
Peut-on en conclure que les réseaux sociaux réduisent la polarisation plutôt qu'ils ne l'augmentent ? Non, car, en creusant davantage, on se rend compte que l'exposition aux voix discordantes peut en fait aggraver la polarisation, par exemple en nous soumettant constamment aux caricatures les plus agaçantes du clan opposé.

p. 83

Lê Nguyên Hoang et Jean-Louis Fourquet saluent les tentatives de régulation de l'Internet qui encouragent la transparence et le consentement des utilisateurs ou qui tendent à débusquer les comptes usurpés. Ils regrettent cependant que l'application des législations reste timide et que les sanctions soient dérisoires en regard des profits engrangés par les multinationales.
Dans un élan utopique, ils proposent quelques outils pour rendre les processus plus transparents et démocratiques. Ils rappellent néanmoins qu'en limitant notre addiction aux réseaux sociaux, qu'en préférant le recours aux moteurs de recherche plutôt qu'aux recommandations algorithmiques et qu'en résistant à l'immédiateté, il est possible de vivre une expérience plus saine du web.

De la même manière que l'argent n'a pas d'odeur pour l'investisseur néolibéral, la radicalisation des positions politiques aux États-Unis n'avait pas d'odeur pour l'agence de propagande russe [Internet Research Agency, cf. Revue européenne des médias]. Peu importe le côté politique qui finit par gagner, le but est ici d'orienter stratégiquement le discours de manière à « tuer la possibilité d'un débat et d'une politique basée sur la réalité ».
L'utilisation d'armes cognitives pour déstabiliser et influencer le devenir de nations n'est pas l'apanage du gouvernement chinois ou des agences de désinformation russes. Ces dernières années, de nombreuses unités de propagande en ligne ont été dévoilées dans presque tous les pays du monde, y compris les plus grandes démocraties : Cambridge Analytica, au Royaume-Uni, […]

p. 61-62



Huma Khamis pour RTS – microsciences
Site de l'éditeur
Le Collimateur : Présentation du service français de vigilance et de protection contre les ingérences numériques étrangères (VIGINUM)
Interview de Lê Nguyên Hoang par Grégoire Barbey pour Le Temps