Home > Curiosidades > Microsoft retira bot de IA que publicaba contenidos racistas

Microsoft retira bot de IA que publicaba contenidos racistas


Hace unos días Microsoft presentó al público un atractivo proyecto denominado Tay y que consiste en un bot conversacional que se basa en un sistema de inteligencia artificial para aprender de la comunicación con los usuarios en redes sociales. Para ello los de Redmond lo basaron en conversaciones de personas de entre 18 y 24 años, aunque el resultado terminó siendo negativo.

tay tweets

A través de una cuenta en Twitter, Tay comenzó a funcionar solo por un par de días hasta que Microsoft se decidió a “apagarlo”, pues se necesitan realizar varios ajustes para que la IA que aprende de los usuarios no se vuelva un bot “racista” con constantes publicaciones ofensivas, incluso a favor de los nazis.

Tal como lo muestran algunas de las imágenes, las respuestas positivas hacia preguntas como si está a favor del genocidio (y particularmente de los mejicanos), un emoji de aplausos para confirmar que el holocausto sí ha sucedido o insultos hacia la cantante Taylor Swift han sido los tweets más polémicos.

“Desafortunadamente, durante las primeras 24 horas de estar online, detectamos un esfuerzo coordinado por parte de varios usuarios para abusar de las habilidades comunicativas de Tay y hacer que Tay responda de forma inapropiada”, ha publicado al respecto Microsoft.

Claramente las buenas intenciones de los de Redmond no tuvieron en cuenta el lado “oscuro” de Internet, y principalmente una red social como Twitter, donde los llamados “trolls” son mucho más inteligentes como para que un simple filtro, que evita al bot aprender malas palabras, frene su diversión.

1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
Loading...

Dejá un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *