IA génératives et résilience démocratique : 2024, une année sous tensions électorales

L’année 2024 sera caractérisée par une concentration inédite d’échéances électorales à travers le monde. Une année sonnant comme autant de défis pour les pouvoirs publics et les plateformes numériques, à l’heure des guerres de l’information et des IA génératives.

L’année 2024 sera celle des défis. Selon le cabinet américain de technologie civique Anchor Change, 83 élections auront lieu dans le courant de l’année, soit la plus grande concentration électorale à l’échelle mondiale depuis 24 ans. Elles incluent des élections majeures pour de nombreux pays : élections législatives indiennes en mai 2024, élections européennes en juin prochain et, bien sûr, l’élection présidentielle américaine au mois de novembre. Des élections dans des zones qui tiennent l’attention du monde depuis plusieurs mois ont eu lieu, ou vont avoir lieu, comme à Taiwan, qui a tenu son élection présidentielle en janvier dernier et, peut-être, en Ukraine, au mois de mars prochain.

Autant d’éléments couplés à la multiplication de campagnes de guerres de l’information menées par des États comme la Russie, la Chine, ou, de façon plus modeste mais bien réelle, de l’Azerbaïdjan contre la France dans le contexte de l’organisation des Jeux Olympiques de 2024 ou de la Turquie, met au défi pouvoirs publics et acteurs privés.

Réseaux sociaux et attrition de la ressource humaine

Ces dernières années auront été marquées par le rachat, en avril 2022, de Twitter, rebaptisé X, par Elon Musk. Il aura coïncidé avec des licenciements et des départs massifs de salariés, en particulier au sein de la branche « confiance et sécurité », chargée de la modération des contenus. Les effets de ces départs soulèvent de nombreux questionnements sur la capacité de la plateforme à garantir un environnement informationnel sain (suppression efficace des contenus violents ou appelant à la violence, détection des campagnes de guerres informationnelles par des acteurs étatiques, de diffusion de contenus frauduleux et autres deepfakes…).

X continue donc de représenter un enjeu majeur. Les offres concurrentes de micro-blogging Bluesky (fondé par le fondateur et ancien CEO de Twitter, Jack Dorsey) et Threads (Meta) n’ont, pour le moment, pas atteint une masse critique d’utilisateurs comparable à celle que conserve X.. Threads compte 130 millions d’utilisateurs mensuels à travers le monde, Bluesky entre 4 à près de 5 millions, quand X en compte 556 millions.

Par ailleurs, l’attrition de ressources humaines ne frappe pas seulement X. Meta a licencié 20 000 salariés en novembre 2022, tandis que les effectifs de l’équipe « sécurité et confiance » de YouTube auraient elles aussi été affectées, selon le New York Times*, par la suppression de 12 000 postes par la maison mère Alphabet, en janvier 2023.

Cette attrition en ressources humaines au sein des principales plateformes de l’agora numérique mondiale renforce les inquiétudes au moment de l’entrée en service des chatbots d’IA générative.

IA et désinformation : les plateformes se veulent rassurantes

La mise en service auprès du public du chatbot ChatGPT de la société OpenAI, suivie des services concurrents Copilot (Microsoft) et BARD (Google) suscite une nouvelle source de questionnements sur les risques d’exposition des opinions publiques à la diffusion de fausses informations et aux manoeuvres coordonnées de manipulations. Lors des élections législatives slovaques de septembre 2023, le candidat d’opposition avait été la cible d’un deepfake audio suggérant que les élections allaient être truquées. Pour l’opération « Döppelganger », l’entreprise américaine de cybersécurité Recorded Future estime « probable » l’utilisation d’IA génératives pour alimenter en contenu les pages web du dispositif informationnel russe. Sur un autre registre, la diffusion massive d’un fake pornographique ciblant la chanteuse Taylor Swift sur X a démontré le potentiel de diffusion de ce type de contenu – quoique rapidement détecté.

De leur côté, les plateformes se veulent rassurantes quant à leurs capacités de détection de contenus générés par IA. Dans son rapport de transparence d’avril – juin 2023, YouTube affirme avoir été en mesure de supprimer 93 % des vidéos violant ses conditions d’utilisation. Un chiffre de 62 % est avancé par TikTok, tandis que Meta affirme être en mesure de pouvoir en détecter 90 %**.

La semaine dernière, Meta a annoncé travailler à la mise en place, dans les prochains mois, d’un module de labellisation des images et vidéos générées par IA diffusées sur Facebook, Instagram et Threads. Le même jour, OpenAI annonçait la mise en place d’un dispositif similaire pour les contenus générés par son service de génération d’images DALL-E.

Miser sur la résilience des sociétés ?

Bien sûr, les opérateurs privés ne peuvent être tenus pour seuls responsables de la garantie d’un accès équilibré à une information de qualité, de la transparence et l’équité du débat public. Garantir l’exercice de ces droits fondamentaux demeure l’apanage des pouvoirs publics ; l’entrée en vigueur du règlement européen sur les services numériques est une des pièces du dispositif.

L’efficacité relative des grandes manœuvres de désinformation a également pu montrer ses limites. Le relatif échec, dès les premières semaines de l’invasion de l’Ukraine, du dispositif de guerre informationnelle mis en place par la Russie avait été analysé dans ces mêmes colonnes dès le mois de mars 2022. L’intense campagne informationnelle menée par la Chine à Taiwan pour influer sur les résultats de l’élection présidentielle n’a pas empêché l’élection du candidat indépendantiste Lai Ching-te.

Espérons, pour reprendre l’expression du cofondateur d’OpenAI Sam Altman, que les sociétés libres auront développé suffisamment d’« anticorps sociétaux », pour faire face à leurs défis à venir.

*https://www.nytimes.com/2024/01/09/business/media/election-disinformation-2024.html

** Ibid