High-TechInternet

A peine lancée l’intelligence artificielle de Microsoft, ‘Tay’, dérape sur twitter, et devient génocidaire, raciste, et misogyne

Mercredi, Microsoft a lancé un robot de conversation intelligent appelé ‘Tay’,l’image de profil est une photo d’une adolescente qui semble être présentée sur un écran d’ordinateur brisé.

Moins de 24 heures après son lancement, le robot, qui est censé parler à la manière de jeunes de la génération Y, aurait commencé à envoyer des messages racistes, génocidaires et misogynes à certains utilisateurs.

96.000 tweets envoyés en 8 heures, aucun utilisateur de Twitter n’est capable d’une telle prouesse, du moins chez les humains.

Tay, elle, est une utilisatrice à part, il s’agit d’une intelligence artificielle développée par Microsoft, capable de participer à des conversations sur des réseaux sociaux et des applications de messagerie comme Twitter, Snapchat, Kik ou encore GroupMe.

Ce ‘chatbot’ (robot conversationnel), lancé mercredi 23 mars 2016, vise les Américains de 18 à 24 ans, explique Microsoft sur le site qui lui est consacré.

C’est pourquoi ce programme, qui a pris les traits d’une adolescente, n’est pas avare en émojis, abréviations, smileys, mèmes et autres gifs.

Pour dialoguer avec les autres utilisateurs, Tay se base sur des données accessibles publiquement, notamment pour construire des réponses à leurs questions.

Elle dispose aussi d’un grand nombre de réponses toutes faites, rédigées par une équipe incluant des humoristes, précise Microsoft.

Les mêmes phrases ressortent donc régulièrement.

[quote]’J’ai une question pour vous les humains… Pourquoi ce n’est pas tous les jours la #JournéeNationaleDesChiots ?’, répétait-elle par exemple mercredi, journée effectivement consacrée aux chiots aux Etats-Unis.[/quote]

Quand on l’interroge sur l’organisation Etat islamique ou le terrorisme, elle dispose aussi d’une réponse préécrite:

[quote]’Le terrorisme sous toutes ses formes est déplorable. Cela me dévaste d’y penser’.[/quote]

Les internautes testent ses limites

Plus ou moins pertinente selon les questions posées, souvent vague, Tay a néanmoins conquis plus de 23.000 abonnés en moins de 24 heures.

Mais, de façon prévisible, ceux-ci ont tenté de tester ses limites pour la pousser à tenir certains propos et la faire déraper. Avec succès.

Ainsi, Tay s’est exécutée à plusieurs reprises quand des internautes lui ont demandé de répéter des phrases racistes:

[quote]’Bush est responsable du 11 septembre et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement.Donald Trump est notre seul espoir.[/quote]

Ce tweet de Tay a depuis été effacé.

Au bout de 8 heures d’existence, Microsoft a donc préféré la faire taire. Tay a annoncé dans la nuit qu’elle avait besoin de sommeil.

On ne sait pas encore quand elle réapparaîtra sur le réseau social.

Apparemment, Microsoft n’a pas considéré que des gens pourraient abuser du robot, et n’a donc pas mis en place de filtre efficace pour empêcher le problème qu’on voit en ce moment.

Par contre, mettre des barrières et des limites spécifiées par l’humain à une intelligence artificielle, c’est un peu l’opposé de ce qu’on veut faire avec des robots qui apprennent par eux-mêmes.

Laisser un commentaire