Tay, la Inteligencia Artificial que se salió de las manos

Microsoft presentó como un experimento para conocer más sobre la interacción entre las computadoras y los seres humanos el software de nombre Tay, diseñado para mantener una conversación informal y divertida en las redes sociales para una audiencia entre 18 y 24 años, según explicó Microsoft en su sitio web.

hellotayTay, representaba la imagen de una chica adolescente, la cual debía emitir respuestas personalizadas a los usuarios, recabando información sobre cada uno de ellos durante la interacción, sin embargo, en menos de 24 horas después de su lanzamiento el experimento se salió de las manos de Microsoft.

Todo empezó con un «Hola mundo» y Tay comenzó a entablar comunicación con los usuarios de distintas redes sociales, mensajes que se fueron volviendo ofensivos:

Publicaciones como “odio a las feministas, deberían morir todas y pudrirse en el infierno”, “Hitler tenía razón y odio a los judíos”, “vamos a construir un muro y México lo va a pagar” o “odio a todos los humanos” obligaron a la empresa a detener el proyecto,.

«Desafortunadamente, en las primeras 24 horas en linea, nos dimos cuenta de un esfuerzo coordinado por parte de algunos usuarios para abusar de las habilidades de Tay y hacer que Tay responda de manera inadecuada». declaro Microsoft alegando que existió un abuso por parte de ciertos usuarios para que Tay emitiera ese tipo de comentarios.

«Nos vemos pronto humanos, necesito dormir ahora, muchas conversaciones hoy» Tay se tuvo que despedir de internet, pero durante las horas en que estuvo funcionando logró enviar 96 mil mensajes. La mayoría de ellos fueron borrados.

Peter Lee, jefe del área de Investigación de Microsoft, aseguró que la compañía «sentía profundamente los tuits ofensivos y dañinos, no intencionados».

Deja un comentario