Analyse – « Facebook veut se dépolitiser : requiem pour la démocratie en ligne ? » par Guillaume Alévêque

Facebook a annoncé dans les derniers jours l’introduction d’une nouvelle politique de gestion des contenus et des suggestions qui va rendre plus difficile la présence de sujets liés à la politique sur sa plateforme et sur les murs des utilisateurs. Cette mesure est instruite par le développement massif de contenus politiques et de groupes militants viraux ainsi que par les fortes critiques formulées contre Facebook lors des dernières années face à son incapacité supposée à contrôler les messages politiques et les fausses informations qui y sont publiées. Elle mettra quelques mois à être affinée mais devrait avoir des conséquences très concrètes pour les utilisateurs.

L’objectif est assumé : limiter le nombre de messages politiques visibles à l’écran des utilisateurs. Facebook va donc cesser les recommandations de groupes « politiques et civiques » (pouvant donc réunir des militants ou sympathisants et s’identifiant comme liés à une cause politique particulière). La plateforme de Mark Zuckerberg souhaite mettre fin aux abus des dernières années et empêcher le développement de groupes de plusieurs millions de membres en mesure de déstabiliser des processus électoraux entiers et de diffuser massivement des fausses informations. Naturellement, les détails de cette évolution ne sont pas tous connus, notamment concernant les groupes de discussion locaux (bien qu’ils aient parfois eux aussi servi de champs de bataille d’une particulière violence entre militants) utiles à une échelle plus proche du citoyen.

Une telle décision est à mettre en parallèle avec une autre série d’actions à destination des entreprises. Il sera désormais possible aux gestionnaires de campagnes de publicité de bloquer certains sujets pour la publicité qu’ils préparent, évitant ainsi que des thèmes problématiques soient associés visuellement à leur campagne sur Facebook. Et parmi ces thèmes larges considérés comme répulsifs et négatifs : « crime et tragédie », ainsi que « politique et actualités ». Une nouvelle preuve de la faible popularité de ces sujets pour les entreprises et de leur caractère toxique, dans un contexte où la plateforme (comme Twitter, YouTube et d’autres acteurs du secteur) a été largement critiquée pour son incapacité à réguler les discours de haine et la radicalisation introduite par ses fonctionnalités.

Ces décisions de Facebook, dont la mise en œuvre pourrait prendre plusieurs mois et dont les détails techniques sont encore incertains, indique en tout cas clairement la prise de conscience par l’entreprise du caractère de plus en plus brutal, radical et contre-productif de la présence de contenus politiques sur ses plateformes. On peut aussi voir dans ces mesures, derrière leur caractère relativement discret, la mort d’un rêve déjà ancien de création en ligne d’une véritable société d’échanges et de partage, ou en tout cas de débat serein, qui complèterait utilement le débat public « physique ». La volonté de grandes plateformes de limiter massivement ces sujets témoigne au contraire bien davantage d’un aveu d’échec : la politique partagée en ligne a entraîné radicalisation, fausses informations et a même été accusée d’être responsable – de façon parfois abusive –  de certains des résultats électoraux les plus choquants des dernières années (Facebook avec la victoire surprise du Brexit en 2016, les groupes de désinformation sur What’s App dans celle de Jair Bolsonaro en 2018 au Brésil, ou naturellement la violence et le caractère parfois « sur »-réel des campagnes Trump de 2016 à 2020). On peut bien entendu considérer que le modèle des principales plateformes de réseaux sociaux est bien plus en cause que la « digitalisation » plus générale de la démocratie, mais force est de constater que la puissance des GAFAM en fait les lieux de débat public les plus visibles et les plus influents, et donc les principaux moteurs des tendances inquiétantes à l’œuvre actuellement.

Le régulateur, dans la plupart des démocraties, pousse déjà les acteurs du numérique à mieux contrôler les contenus terroristes ou criminels publiés sur leurs plateformes. C’était l’un des grands combats de Theresa May dès 2017 après les attentats de Londres, dans une action internationale menée notamment avec Emmanuel Macron, puis avec Jacinda Ardern suite aux attentats de Christchurch. La question désormais posée aux pouvoirs publics aux Etats-Unis comme en Europe est la suivante : sont-ils prêts à assumer de demander ou d’imposer un contrôle strict et un recul de la place de la politique (au sens large) en ligne, associée à la violence, à la radicalisation, aux mensonges de campagne et à l’affaissement latent de la démocratie libérale ? Et à affirmer donc l’inverse de l’avènement d’un espace politique numérique à l’échelle internationale : l’amaigrissement de ses possibilités d’expression dans un champ technologique déjà épuisé par sa présence.

La conclusion tirée par Facebook semble en tout cas inviter à une réflexion sur ce sujet. Elle doit aussi nous pousser à envisager de nouvelles stratégies pour sortir le débat politique démocratique du piège que deux décennies de digitalisation – par ses effets de groupe, de renforcement des positions les plus dures et de facilitation des attaques de tous types – ont participé à construire : la radicalisation et l’exacerbation des tensions sociales. Au risque sinon de laisser les acteurs privés décider eux-mêmes totalement du niveau de contrôle du débat politique dans les démocraties.

Par Guillaume Alévêque, consultant senior chez Antidox