En direct
A suivre

Roland-Garros 2023 : comment l'IA protège les joueurs du harcèlement en ligne

La FFT a ainsi sollicité la start-up française Bodyguard pour filtrer les contenus offensants. [© REUTERS]

Menace de mort, attaque raciste, harcèlement... Comme toutes les stars, les joueuses et joueurs de tennis sont exposés. Toutefois, les Internationaux de France à Roland-Garros leur proposent une nouvelle forme de cyberprotection, gérée par une IA.

Une IA va veiller au bon moral des stars du tennis à Roland-Garros. C'est un partenariat inédit entre la Fédération française de tennis (FFT) et la société française Bodyguard qui vient d'être mis en place lors des Internationaux de France qui se déroulent actuellement, et jusqu'au 11 juin.

On ne compte plus les joueuses ni les joueurs victimes de cyberharcèlement. Que ce soit après une défaite lors d'un match qui attise les rancœurs, comme c'était le cas pour Benoît Paire en avril 2022, ou encore Alizée Cornet qui avait notamment fait état de menaces de viol en juillet 2021. Rares sont désormais les athlètes à ne pas être exposés aux contenus haineux, racistes ou misogynes sur les réseaux sociaux.

Pour y remédier, c'est à une intelligence artificielle que l'on a recours. La FFT a ainsi sollicité la start-up Bodyguard, fondée en 2018 et dont nous vous parlions déjà en 2020, qui accompagne notamment des femmes et hommes politiques et même les particuliers. Dans les faits, un athlète peut, via un simple QR Code, lier son compte personnel sur les réseaux sociaux et demander à cette application de jouer le rôle d'un modérateur.

Bloquer les contenus toxiques

«Bodyguard repose sur un algorithme capable de contextualiser les messages. Un commentaire est ici analysé et nettoyé pour voir les mots ou groupes de mots qui posent problème. A l'issue de cette analyse textuelle découle une modération adaptée et adaptative. Un "t'es nul" ne sera pas nécessairement bloqué, par contre plusieurs "t'es nul" oui», nous expliquait Charles Cohen, le créateur de ce modèle. L'application permet même de paramétrer plusieurs modèles de tolérance de la part de l'IA. Avec pour objectif de servir de barrière au contenu jugé offensant. L'idée n'étant pas non plus de censurer les commentaires, mais simplement de bloquer ceux jugés toxiques.

Et si un certain nombre de joueurs sont déjà accompagnés par des psychologues, tandis que des intervenants aident les athlètes à relativiser ces contenus néfastes, l'apport de cette IA est jugé intéressant durant la quinzaine, pour apaiser les consciences.

À suivre aussi

Ailleurs sur le web

Dernières actualités