Comparte esta nota con tus amigos | La Señal (ciencia y misterios)
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

El experimento de Microsoft con una inteligencia artificial “liberada” a las redes terminó en catástrofe. El “bot” (nombre que reciben estos intentos) pronto comenzó a lanzar comentarios racistas y bastante oscuros. Mientras que muchos se asustan de lo que pudiera significar esto, la realidad es que Tay estaba programada para aprender de sus interlocutores, lo que nos hace volver al principio: ¿qué tiene esto para decir de nosotros mismos?

[envira-gallery id=”1371"]

La noticia en sí no es alarmante. Quizás el equipo de Microsoft se haya apresurado a liberar esta proyecto a la web y los resultados han sido catastróficos desde el punto de vista mediático. Que una supuesta “inteligencia artificial” termine por decir que “las feministas deberían arder en el infierno” es algo, como mínimo, terrible. “Alan Touring se revuelve en la tumba” podría ser otro títular (más en tono con los dichos de Tay) pero se me ocurre que el inglés habría lanzado una tétrica carcajada para seguir luego en sus asuntos.

Como están las cosas, Tay no es ni más ni menos que un reflejo de quienes somos como sociedad y, pienso, eso sí que da miedo.

Comenta esta nota...

Leer:  Mitologías modernas (primera parte): Algunas leyendas urbanas

Deja un comentario