Tay: una desinteligencia artificial [video]

Suscríbete a nuestro canal

Suscríbete ahora a nuestro canal para ver más de 800 videos sobre ciencia y misterios.

El experimento de Microsoft con una inteligencia artificial “liberada” a las redes terminó en catástrofe. El “bot” (nombre que reciben estos intentos) pronto comenzó a lanzar comentarios racistas y bastante oscuros. Mientras que muchos se asustan de lo que pudiera significar esto, la realidad es que Tay estaba programada para aprender de sus interlocutores, lo que nos hace volver al principio: ¿qué tiene esto para decir de nosotros mismos?

[envira-gallery id=”1371″]

La noticia en sí no es alarmante. Quizás el equipo de Microsoft se haya apresurado a liberar esta proyecto a la web y los resultados han sido catastróficos desde el punto de vista mediático. Que una supuesta “inteligencia artificial” termine por decir que “las feministas deberían arder en el infierno” es algo, como mínimo, terrible. “Alan Touring se revuelve en la tumba” podría ser otro títular (más en tono con los dichos de Tay) pero se me ocurre que el inglés habría lanzado una tétrica carcajada para seguir luego en sus asuntos.

Como están las cosas, Tay no es ni más ni menos que un reflejo de quienes somos como sociedad y, pienso, eso sí que da miedo.

Lo más nuevo

Artículos relacionados

Dinos lo que piensas:

16 visitantes conectados ahora
1 visitantes, 15 bots, 0 miembros
En total: 289 a las 07-10-2019 06:07 pm
Máx. de visitantes hoy: 32 a las 02:31 am
Este mes: 118 a las 07-22-2021 08:51 pm
Este año: 118 a las 07-22-2021 08:51 pm