Modération en ligne : ce que nous apprennent les rapports de transparence de Facebook, Instagram, TikTok…

0 Shares
0
0
0

Au début du mois de novembre, ceux des grands réseaux sociaux qui ne l’avaient pas encore fait ont rendu leur rapport de transparence pour 2023, exigé pour la première fois par l’Union européenne (UE) en vertu du règlement sur les services numériques (Digital Services Act, DSA) entré en vigueur à la fin du mois d’août. Outre des statistiques générales concernant leurs services, comme le nombre d’utilisateurs, ces documents donnent un aperçu inédit des moyens consacrés par Facebook, Snapchat ou encore TikTok à la modération des contenus illégaux, haineux, ou frauduleux.

Ces rapports doivent être pris avec circonspection et comparés avec prudence, car les différences méthodologiques entre les réseaux sociaux sont nombreuses et les périodes observées ne correspondent pas toujours aux six mois demandés par l’UE. Et, surtout, beaucoup d’informations manquent, la palme des omissions revenant aux rapports de Snapchat et YouTube, extrêmement pauvres.

Des effectifs de modérateurs allant du simple au double

Ces dossiers lèvent toutefois une partie du voile sur les effectifs des modérateurs, chargés notamment de supprimer les publications problématiques. Si l’on compare les chiffres, c’est TikTok, réseau social contrôlé par une entreprise chinoise, qui en revendique le plus grand nombre : quatre fois plus que Meta, la maison mère de Facebook et Instagram, qui s’enorgueillit pourtant du plus grand nombre d’usagers en Europe.

Comment expliquer ce décalage ? Dans son rapport de transparence, le groupe américain précise que ses effectifs hors de l’UE comprennent d’autres modérateurs capables, en cas de pic d’activité dans la région, d’intervenir sur les publications en anglais, en français ou en espagnol.

Surtout, Meta vante l’efficacité de ses outils de modération par intelligence artificielle (IA), que TikTok se garde de mettre en avant. Le taux d’automatisation des actions de modération est très élevé chez Meta : chez Facebook et chez Instagram, respectivement 94 % et 98 % des décisions sont prises par des machines. Loin devant les 45 % affichés par TikTok.

L’IA n’est pourtant pas toujours efficace lorsqu’on la compare à la modération humaine, comme ont pu le démontrer les révélations issues des « Facebook Files », des fichiers internes de Meta diffusés en 2021 par la lanceuse d’alerte Frances Haugen. Dans son rapport de transparence, LinkedIn est d’ailleurs l’une des rares plates-formes à rendre public le taux d’erreur de ses outils automatiques de suppression de contenu : le réseau social l’évalue à 10 % pour les publications en langue anglaise, 30 % pour l’allemand, 37 % pour le français, et 80 % pour l’espagnol.

Il vous reste 50% de cet article à lire. La suite est réservée aux abonnés.

source

0 Shares
Leave a Reply

Your email address will not be published. Required fields are marked *

You May Also Like