Retour

La modération sous pression

Les règles se durcissent pour les géants des médias sociaux. Meta, Snapchat, TikTok, Twitch, YouTube et X ont été convoqués par le gouvernement français début juin pour une réunion stratégique. Sous la houlette d'Aurore Bergé, ministre déléguée à l'égalité entre les femmes et les hommes et à la lutte contre les discriminations, et en présence de l'ARCOM, de la DGPN (Direction générale de la police nationale) et de Clara Chappaz, ministre déléguée à l'intelligence artificielle et au numérique, les plateformes doivent expliquer la montée des contenus haineux en ligne et rendre compte de leurs efforts de modération. En 2024, la haine en ligne a augmenté de 16%, ce qui a poussé le gouvernement à agir. Ces nouvelles mesures marquent un tournant et introduisent de nouveaux défis pour les acteurs de la modération.

| Contexte juridique

Depuis l'adoption de la loi sur les services numériques (LSN) en 2022 au niveau européen, les grandes plateformes numériques opérant en Europe sont soumises à des obligations renforcées en matière de lutte contre les contenus illicites (discours de haine, harcèlement, désinformation). La solution clé pour limiter ces contenus ? La modération. Dans ce cadre, le GDPR régit le traitement des données personnelles. En conséquence, les plateformes de médias sociaux sont tenues de mettre en œuvre des systèmes efficaces pour détecter et supprimer les contenus illicites - tout en respectant la liberté d'expression.

| Répartition des obligations de modération

La DSA impose des sanctions si une plateforme ne retire pas un contenu manifestement illégal dans un délai raisonnable (généralement 24 heures après avoir été signalée). Ces sanctions peuvent aller jusqu'à 6% de les du chiffre d'affaires global de la plateforme.

Mais aujourd'hui, les enjeux vont au-delà de la conformité légale : les ministres exigent une transparence totale sur les pratiques internes des plateformes :

  • Combien de modérateurs francophones sont employés ?
  • Combien de violations sont tolérées avant qu'un compte ne soit suspendu ?
  • Quelle proportion de la modération est effectuée par les humains ?
  • Comment fonctionnent les algorithmes de recommandation ?

Les plateformes ont jusqu'au 14 juillet pour fournir des réponses écrites claires à ces questions. Une autre audition est d'ores et déjà prévue pour évaluer les progrès accomplis et orienter les actions futures.

Au-delà des sanctions financières, le véritable risque est désormais celui de la réputation : un manque de transparence ou de réactivité peut gravement nuire à la crédibilité d'une marque, qu'il s'agisse d'une plateforme ou d'un annonceur.

| Implications pour les professionnels de la modération

Ce durcissement réglementaire modifie les attentes et les pratiques en matière de modération :

  • La réglementation accrue en matière de contenu exige des processus robustes et conformes.
  • Pour les marques, la modération est désormais une question de réputation et de conformité légale.
  • Le secteur requiert des compétences hybrides : juridiques, linguistiques et techniques.
  • Les systèmes de modération doivent fonctionner 24 heures sur 24, 7 jours sur 7 et dans plusieurs langues.
  • Une double approche est essentielle : Technologie de l'IA + supervision humaine.

En conséquence, les plateformes ne peuvent plus tout gérer en interne : l'externalisation spécialisée devient indispensable.


| Et c'est exactement là que Netino de Concentrix intervient...

Alors que la pression gouvernementale s'intensifie, Netino by Concentrix reste votre partenaire de confiance pour le déploiement de solutions de modération humaines et hybrides à grande échelle.

Dans un monde numérique soumis à une surveillance intense, la modération n'est plus un “avantage”, c'est une condition préalable à l'existence en ligne.

Netino
Netino