« L’avènement de l’audio sur les réseaux, à quel prix ? », par Marie Bertrand

La modération des réseaux sociaux constitue un sujet sensible.  Il s’agit d’éviter deux écueils contradictoires : une modération excessive s’apparente à une atteinte à la liberté d’expression, mais son insuffisance ouvre la voie à des propos conspirationnistes, injurieux ou menaçants qui soulèvent de graves problèmes ou tombent sous le coup de la loi. Face à ces difficultés, les principales plateformes sociales tentent de rester sur une fragile ligne de crête censée respecter un équilibre satisfaisant. Tout en gardant à l’esprit que confier les limites de la liberté d’expression aux plateformes et à leur vision nécessairement subjective et hétérogène de la question reste imparfait.

L’engouement pour l’audio

Cette question se fait plus aigüe encore avec le développement éclair de l’audio ces dernières années. Saturés d’images et de textes, les internautes se tournent effectivement de plus en plus vers des formats faisant la part belle à la voix (du podcast aux « rooms » audio). Entre 2010 et 2021, la part de personnes de 12 ans ou plus ayant écouté un podcast au cours du dernier mois est passée de 12 % à 41 % aux Etats-Unis, selon le Pew Research Center. Des réseaux sociaux entièrement consacrés à ce format voient le jour et connaissent un succès immédiat : c’est le cas de l’application Clubhouse, qui offre des chats en direct sur des thématiques variés, ou bien encore de Discord ou de Stereo. Héritières des radios libres, elles se comptent par dizaines sur différentes thématiques.

Même si toutes ne survivront pas, elles témoignent du succès d’un format qui apparait simple d’utilisation et permet des nuances d’intonation plus difficiles à traduire par l’écrit. Il ne tient d’ailleurs pas au hasard si, dans le même temps, des fonctionnalités audio sont proposées sur les plateformes traditionnelles : Twitter a développé une interface dédiée avec les Spaces, Telegram dispose de salons vocaux qui fonctionnent maintenant sur le modèle de Clubhouse, LinkedIn introduit une toute nouvelle plateforme audio, Reddit a inauguré Reddit Talk et Facebook dispose de ses Live Audio Rooms depuis juin 2021. Enfin Spotify s’est doté de Greenroom et a massivement investi dans le marché du podcast.

La difficulté de modérer des échanges audio

Mais comment modérer l’expression lorsqu’elle est orale, et ainsi encore plus spontanée et directe que l’écrit ? Sur le principe, il n’y a pas lieu de changer de paradigme : les propos outranciers, mensongers, menaçants, racistes ne doivent pas trouver leur place sur les réseaux sociaux. Mais énoncer de telles règles peut se heurter à la difficulté de les faire respecter dans les faits. En effet, prévenir de telles paroles s’avère extrêmement difficile, quand bien même une véritable volonté modératrice serait à l’œuvre. Pour les messages écrits, les algorithmes permettent de supprimer les mots ou phrases sensibles, ou de les mettre en suspens avant une intervention humaine.

Aucun outil similaire ne permet véritablement modérer des échanges vocaux, a fortiori en direct. La plupart des plateformes ont défini des « Community Guidelines » et mis en place un système de modérateurs qui témoigne de l’attention qu’elle prête à ce sujet. Sur Clubhouse, par exemple, chaque intervenant ne peut s’exprimer dans une « chat room » que sur autorisation d’un modérateur, lequel peut gérer l’expression des participants les plus virulents et leur couper le micro. Il est aussi possible de devenir soi-même modérateur à condition d’être installé par un autre modérateur. Un principe similaire est mis en place sur Twitter.

La multiplication des polémiques

Ce système d’auto-contrôle fonctionne assez bien en temps normal. Mais il présente une faille majeure : il ne semble pas très compliqué de devenir modérateur, et d’introduire ainsi le loup dans la bergerie si celui-ci se révèle porteur d’une parole extrémiste. Il est tout à fait possible d’imaginer des chats rooms dominés par de tels individus. De fait la plateforme devient le porte-voix de groupes anti-vaccins, de complotistes, ou d’extrémistes en tout genre. Certes, alertés, les responsables et modérateurs des plateformes peuvent intervenir, supprimer la chat room et désactiver des comptes, mais leur délai de réaction se fera très tardivement et laissera prospérer des échanges en dehors de toute régulation.

De nouvelles fonctionnalités sont supposées prévenir de telles dérives : le blocage, la mise en sourdine, la création de rapports dans la salle et même de rapports d’incidents produits en temps réel. Autant d’outils importants qui témoignent que les responsables du réseau se préoccupent des questions de modération. Mais avec un principe d’auto-régulation qui reste problématique et ne permet pas de réagir avec efficacité en cas de manquements aux règles. Une situation qui vaut également pour les autres plateformes : Discord est soupçonnée d’avoir été utilisée par les personnes ayant participées à l’attaque sur le Capitole. Spotify est aujourd’hui mis en cause pour laisser prospérer des discours complotistes et racistes : la star américaine du podcast Joe Rogan a tenu des propos qui ont déclenché une vive polémique dans son émission « The Joe Rogan Experience », laquelle totalise 190 millions de téléchargements par semaine ! Cette modération laissée au bon vouloir des plateformes peut conduire à des traitements différenciés. Ainsi, Spotify a banni la chaîne de podcasts de l’essayiste d’extrême droite Alain Soral, ce mercredi 9 février, évoquant le fait que l’ensemble des podcasts contreviennent aux conditions d’utilisation de la plateforme. Les chaines de l’essayiste avaient déjà été supprimées de YouTube en 2021. Le temps de réaction en matière de modération et la gestion a posteriori posent des défis de taille aux plateformes devant la complexité d’une modération automatique.

Des techniques de modération peu satisfaisantes

Evidemment aucune de ces plateformes, qui entendent bien prospérer grâce à la publicité ou à la monétisation de leurs services, ne souhaite être polluée par des propos susceptibles de ternir leur image, voire qui se révèlent passibles de poursuites judiciaires. Le réflexe partagé est double : doter d’une part leurs applications de fonctions susceptibles d’assurer une auto-modération des espaces de chat. Ces outils sont nécessaires mais insuffisants : ils supposent que se reposer sur la sagesse du groupe, qui évacuerait de son corps les éléments perturbateurs, apporte une réponse satisfaisante. Un procédé qui rencontre pourtant rapidement ses limites et peut laisser prospérer des espaces de dialogue à la main de personnalités peu recommandables.

D’autre part faire confiance à l’intelligence artificielle et aux algorithmes pour modérer automatiquement les forums. Un vrai défi quand il s’agit d’échanges en direct, la technologie disponible ne semblant pas totalement au point pour assurer cette prouesse. Soit elle se montre excessivement tatillonne, voire opère des censures sans fondement : en 2020 une vidéo d’ Antonio Radić sur YouTube a ainsi été censurée alors qu’il interviewait un maître international d’échecs. Une faille des algorithmes qui ont provoqué une interruption automatique de la diffusion à la suite des mots « noir », « blanc » et « attaque ». Soit au contraire elle laisse passer des échanges qui auraient dû être modérés. Il y aurait bien une troisième solution, mais son coût la rend difficile à mettre en œuvre : doter de chaque espace de discussion de modérateurs internes au réseau qui interviendraient à chaque dérapage. C’est pourtant la seule solution à peu près satisfaisante, même si l’appréciation humaine est également porteuse de ses propres failles.

Une modération a posteriori plus que préventive

En attendant, les plateformes réagissent au cas par cas en fonction de l’ampleur des polémiques. Joe Rogan a finalement décidé, en concertation avec Spotify, de retirer plusieurs épisodes de son émission. Le numéro un mondial du streaming vidéo n’a pas pour autant sacrifié son émission culte, mais a annoncé des mesures pour combattre la désinformation en ligne.  Une réaction peut être à relier au boycott #DeleteSpotify qui est apparu ces derniers jours. En attendant des technologies plus abouties de modération, il y a fort à parier que les plateformes continueront à réagir à postériori aux dérapages les plus visibles plus qu’elles ne chercheront à les prévenir, en dépit de conditions d’utilisation restrictives. Un équilibre quoi qu’il en soit toujours délicat à définir, entre liberté d’expression illimitée et censure excessive, entre responsabilisation des individus et innovations technologiques, ces défis imprègnent la société toute entière et nécessiteront  des réponses différentes suivant les pays et leurs cultures, pour préserver précieusement la richesse démocratique offerte par les réseaux sociaux.

Par Marie Bertrand, Directrice Conseil chez Antidox