Microsoft s'excuse après les dérapages de son robot sur Twitter

samedi 26 mars 2016 11h54
 

LOS ANGELES (Reuters) - La firme Microsoft s'est dite "profondément désolée" pour les messages racistes et sexistes produits sur Twitter par son programme d'intelligence artificielle.

Baptisé Tay, ce "chatbot", ou programme informatique conversationnel, a été lancé mercredi.

Selon ses concepteurs, ce programme expérimental de conversation en ligne était à même de devenir "plus intelligent", d'apprendre et de développer ses capacités au fur et à mesure de ses interactions avec des interlocuteurs. Au lieu de quoi, sous l'influence de twittos malveillants ou moqueurs, Tay a rapidement reproduit des messages à caractère antisémite, raciste et sexiste.

"Le féminisme est un cancer", a ainsi écrit le 'chatbot' en répétant une phrase postée par un utilisateur de Twitter.

Microsoft a été contraint de débrancher Tay jeudi.

"Nous sommes profondément désolés pour les tweets involontairement offensants et blessants émanant de Tay, qui ne correspondent pas à ce que nous sommes, à ce que nous défendons ou à la façon dont nous avons conçu Tay", écrit Peter Lee, vice-président de Microsoft pour les activités de recherches, dans une note mise en ligne vendredi sur le site de la compagnie.

Tay ne sera réactivé que lorsque les ingénieurs de Microsoft auront trouvé la parade à ce qui s'est passé cette semaine.

(Alex Dobuzinskis, Henri-Pierre André pour le service français, édité par Julie Carriat)

 
La firme Microsoft s'est dite "profondément désolée" pour les messages racistes et sexistes produits sur Twitter par son programme d'intelligence artificielle. Baptisé Tay, ce "chatbot", ou programme informatique conversationnel, a été lancé mercredi. /Photo prise le 28 juillet 2015/REUTERS/Mike Segar