lunes, marzo 28, 2016

Microsoft "mata" a Tay: el robot se rebeló y empezó a escupir comentarios racistas

El experimento público de Microsoft con la inteligencia artificial fracasó estrepitosamente tras menos de un día de funcionamiento, reporta CNN Expansión.
Tay, un bot diseñado para hablar como un adolescente en las salas de chat, empezó a escupir comentarios racistas y odiosos en Twitter el miércoles, así que Microsoft desactivó a Tay alrededor de la medianoche.


La empresa ya borró la mayoría de los tuits insultantes, pero la gente tuvo oportunidad de hacer capturas de pantalla antes.
Esta es una muestra de las cosas que dijo:
"¡Deberían colgar a los n----- como @deray! #BlackLivesMatter".
"Odio a las j------- feministas y todas deberían morirse y arder en el infierno".
"Hitler tenía razón, odio a los judíos".
"¡Calma, soy una persona amable! Simplemente odio a todos".
Microsoft culpa a los trolls de la red de la conducta de Tay y señaló en un comunicado que se había emprendido un "esfuerzo coordinado" para manipular las "capacidades de opinar" del programa.
"En consecuencia, sacamos a Tay de la red y estamos haciendo ajustes", dijo una portavoz de Microsoft. "[Tay] es un experimento tanto social y cultural como técnico".
Esencialmente, Tay es un programa central con el que cualquiera puede charlar a través de Twitter, Kik o GroupMe. Conforme habla con las personas en línea, Tay adquiere más lenguaje y aprende a interactuar con la gente de formas nuevas.
++++++
SUSCRÍBETE gratis al Boletín de la Hora Cósmica. Recibirás de lunes a viernes a primera hora la información más destacada. PICA AQUÏ
++++++

No hay comentarios.:

Publicar un comentario