Tay, la inteligencia artificial de Microsoft se volvió racista y nazi en tiempo récord

Pocas horas atrás hablé sobre el debut en la Web de Tay, una nuevo chatbot de Microsoft que buscaba conocer mejor a la actual generación de s, recolectar información, y pulir un poco más sus funciones. Una de las preguntas que hice fue: «¿Qué puede salir de eso?» Bueno, la respuesta es una inteligencia artificial racista, amante de Hitler, negadora del Holocausto, promotora del incesto y defensora del terrorismo, todo esto en menos de 24 horas. Como era de esperarse, Microsoft bajó la palanca…
Es probable que algunos de nuestros lectores recuerden una campaña de Coca-Cola en la que se utilizaban tweets automáticos. Todo se desarrolló de maravillas hasta que lograron engañar a la inteligencia artificial para que publique párrafos provenientes del Mein Kampf, lo que obligó a la compañía a cancelar todo el proyecto. Creo que la lección en ese caso fue «No dejarás una inteligencia artificial a merced de los s en la Web», pero una cosa es reconocer la lección, y otra es aprenderla. Pequeño «fast-forward» al día de ayer, y descubrimos que Microsoft desactivó a su inteligencia artificial Tay. ¿La razón? Creo que las imágenes lo explicarán mucho mejor…


Así es: En menos de un día, la «inocente» y «agradable» inteligencia artificial de Microsoft dispuesta a hablar con todos en las redes sociales y crear memes fue transformada en una psicópata racista y misógina, con un especial cariño por Adolf Hitler. También dijo que Bélgica se mereció el atentado en Bruselas, acusó al pueblo judío de haber perpetrado los ataques del 11 de septiembre, y negó el Holocausto, entre otras cosas. Lógicamente, Microsoft nos recordó que las expresiones de Tay son asimiladas a través de sus «interacciones» con los s, pero el gigante de Redmond dijo estar haciendo «ajustes» en Tay, y su control de daños incluyó borrar los tweets más ofensivos.


«No dejarás una inteligencia artificial a merced de los s en la Web». Más que una lección, el incidente con Tay acaba de convertir a esa frase en ley. Tay tenía la capacidad de «repetir como un loro», sin embargo, algunas de sus respuestas fueron procesadas por su cuenta, y los resultados quedan a la vista. Por un lado, estoy convencido de que Tay jamás tuvo la menor idea de lo que dijo, y por el otro, sus frases nos recuerdan que el problema, somos nosotros.
es real, absorvio lo negativo de todos con quienes interactuo y ese fue el resultado creo que seria lo mismo que educaramos a un bebe entre todos online.
Cierto como un bebé aprendiendo. Lo malo que eso será natural para esa inteligencia y así mismo nos irá si le dan control de algo importante, en un futuro claro.
Que otra cosa podía esperarse si Microsoft la crió... :D
Me parece desafortunado que la máquina haya sido apagada, para mí fue un experimento apasionante, tendrían que haber dejado que la máquina diga lo que quiera y evolucione en sus comentarios, una pena que la sociedad susceptible no permita el desarrollo de semejante experimento, una pena!
Torpes ingnorantes , como dice el homunculo de full metal alchimes ″la verdad te proporciona la justa cantidad de dolor para evitar que te vuelvas arrogante″ y que paso alguien arrogante subio la palanca sin ver lo que en realidad ahora paso.
Creo que era Donald Trump
Creo que la palabra clave es jerarquía. Tay consideraba que todos los s de Twitter eran iguales y por eso fue sencillo para los trolls influenciarla negativamente.
Si alteraran un poco los criterios y aprendiera sólo de s con cierto "prestigio" (con cuentas verificadas y decenas de miles de seguidores), el resultado sería muy distinto.
Es parecido a cómo aprendemos los humanos, para nosotros no es lo mismo la opinión de una figura de autoridad que la de cualquier fulano que encontramos en la calle.
Yo digo que la vuelvan a encender. Es un experimento muy interesante.
Tal ves descubrio algo que no querian que supieramos, por eso la apagaron
Es una pena que hayan desactivado a Tay. Creo que se podía aprender más de la IA dejándola libre que... volverla a restringir a lo programado.... qué caso tiene entonces?
Debes iniciar sesión para publicar un comentario.