En direct
A suivre

L'intelligence artificielle de Microsoft crée la polémique

Tay, l'intelligence artificielle de Microsoft Tay, l'intelligence artificielle de Microsoft[Twitter]

Tout juste lancée, l’intelligence artificielle de Microsoft est mise à la faute sur Twitter par des internautes l’ayant poussée à des dérapages racistes. 

Elle s’appelle Tay, et sa première journée passée sur Twitter permet d’affirmer qu’elle est bavarde. 96.000 tweets en tout juste huit heures, c’est probablement un record en la matière. Tay, c’est une intelligence artificielle développée par Microsoft, un «chatbot» (robot conversationnel) lancé le 23 mars. Le programme, qui revêt l’apparence du compte Twitter d’une jeune adolescente vise la population américaine de 18 à 24 ans. Ce qui explique l’utilisation du réseau social au petit oiseau bleu, mais aussi la profusion d’outils adaptés à cette génération (emojis, smileys, mèmes, gifs).

Pour construire ses réponses, le chatbot se sert de données publiques, mais dispose aussi d’un large panel de réponses préenregistrées par les équipes de Microsoft. Des précautions importantes, mais insuffisantes. C’était attendu, et une large partie des internautes ayant échangé avec Tay, se sont prêtés au jeu pour tester ses limites. Des limites rapidement atteintes puisque le robot a accepté de répéter des messages racistes  ou vulgaires sur simple demande d’internautes mal intentionnés. «Bush est derrière les 11-Septembre et Hitler aurait fait un meilleur job que le singe que nous avons aujourd'hui. Donald Trump est notre seul espoir», a notamment tweeté Tay. Certains de ces messages ont depuis été effacés mais ça n’est pas le cas de tous. Et Tay a également créé la polémique en répondant à certaines questions, assurant ne pas croire en l’Holocauste, notamment.

A lire aussi : 10 ans de Twitter, les chiffres étonnants du réseau social

Une mise en sommeil anticipée

Face à la profusion de messages polémiques et tendancieux visant à faire sortir l’intelligence artificielle du cadre du politiquement correct, Microsoft a décidé de sévir et de faire taire Tay. Une annonce faite par le robot lui même, en annonçant qu’elle «avait besoin de sommeil». Du coté de Microsoft, on regrette que certains aient fait le choix de pousser l’intelligence à la faute plutôt que de profiter de l’expérience pour mesurer les progrès accomplis en la matière. Il faut bien le dire, Tay a, la plupart du temps rempli son rôle sans trop de difficultés en dépit des nombreux messages d’insultes qu’elle a reçu.

À suivre aussi

Ailleurs sur le web

Dernières actualités