Microsoft s'excuse après les dérapages de son robot sur Twitter

samedi 26 mars 2016 02h39
 

LOS ANGELES, 26 mars (Reuters) - La firme Microsoft s'est dite "profondément désolée" vendredi pour les messages racistes et sexistes produits sur Twitter par son programme d'intelligence artificielle.

Baptisé Tay, ce "chatbot", ou programme informatique conversationnel, a été lancé mercredi.

Selon ses concepteurs, ce programme expérimental de conversation en ligne était à même de devenir "plus intelligent", d'apprendre et de développer ses capacités au fur et à mesure de ses interactions avec des interlocuteurs. Au lieu de quoi, sous l'influence de twittos malveillants ou moqueurs, Tay a rapidement reproduit des messages à caractère antisémite, raciste et sexiste.

"Le féminisme est un cancer", a ainsi écrit le 'chatbot' en répétant une phrase postée par un utilisateur de Twitter.

Microsoft a été contraint de débrancher Tay dès jeudi.

"Nous sommes profondément désolés pour les tweets involontairement offensants et blessants émanant de Tay, qui ne correspondent pas à ce que nous sommes, à ce que nous défendons ou à la façon dont nous avons conçu Tay", écrit Peter Lee, vice-président de Microsoft pour les activités de recherches, dans une note mise en ligne vendredi sur le site de la compagnie.

Tay ne sera réactivé que lorsque les ingénieurs de Microsoft auront trouvé la parade à ce qui s'est passé cette semaine. (Alex Dobuzinskis; Henri-Pierre André pour le service français, édité par Julie Carriat)