Microsoft crea un chatbot que termina vertiendo comentarios sexistas, racistas y xenófobos

Benzo
32 105 105
Noticias » Internet
La inteligencia artificial es uno de los nuevos campos de batalla para las empresas tecnológicas. Una de sus características es la capacidad de aprender practicando (como DeepMind con los juegos de Atari y Go) o interactuando con los humanos. En este segundo caso encontramos a Tay, un chatbot creado por Microsoft que sobre el papel es más inteligente cuanto más conversa.

Sin embargo, el experimento de Tay no ha funcionado como los de Redmond pretendían. La inteligencia artificial tenía como objetivo establecer mediante las redes sociales una conversación con jóvenes de entre 18 y 24 años, pero terminó convirtiéndose (mediante la interacción con los usuarios de Twitter) en un bot conversacional polémico debido a sus mensajes sexistas, racistas y xenófobos.

En sus respuestas Tay mostraba admiración por Hitler, negaba el Holocausto o llamó “puta estúpida” a una mujer. También se convirtió en una seguidora de Donald Trump (actualmente el precandidato favorito de los Republicanos para las elecciones presidenciales de Estados Unidos), que según lo aprendido por la IA es “la única esperanza que tenemos”.

En su corta andadura Tay también respondió algunas preguntas que dejaron mal a los productos de Microsoft. Recomendó a PS4 por encima de Xbox One por ser “mejor y más económica” y estaba de acuerdo en que Windows Phone apesta.

Ahora mismo Tay se ha quedado sin Internet y Microsoft está realizando ajustes para mejorarla. Seguro que a esta inteligencia artificial le queda mucho camino por recorrer antes de convertirse en un chatbot que pueda mantener un conversación, pero no debemos olvidar que todo lo que ha dicho en su (por ahora) corta vida lo ha aprendido interactuando con humanos.
105 comentarios
  1. Y así es como Skynet algún día nos matará.
  2. nos matara mediante DLC
  3. Fijo que lo aprendió todo de los chats del League of Legends.
  4. NewDump escribió:nos matara mediante DLC

    Jajaja que grande xD

    Que bueno el chatbot macho, ha dejado loco a Microsoft, ahora lo van a "mejorar", vamos, poner tabues [360º]
  5. 4Chan fue el responsable.
  6. En su corta andadura Tay también respondió algunas preguntas que dejaron mal a los productos de Microsoft. Recomendó a PS4 por encima de Xbox One por ser “mejor y más económica” y estaba de acuerdo en que Windows Phone apesta.


    Hasta la propia creación de microsoft la deja mal diciendo que su competencia es mejor y que un producto suyo apesta, madre mia, no dan una a derechas, parece que les miró un tuerto y les echó mal de ojo.

    [facepalm]
  7. Jajaja, yo creo que está perfecto así y no tienen nada que "mejorar". Lo normal es que una IA sea como un niño y se influencie fácilmente, que salga "atravesada" es un hecho perfectamente viable.
  8. Inocentes los de Ms dejando un bot que aprende de las interacciones con humanos. Estaba cantado que lo iban a trolear. Es como cuando enseñan a los loros a putear.
  9. "Microsoft crea un chatbot que termina vertiendo comentarios sexistas, racistas y xenófobos"

    Titular alternativo: "Microsoft crea un forero de Forocoches."
  10. Benzo escribió:
    En su corta andadura Tay también respondió algunas preguntas que dejaron mal a los productos de Microsoft. Recomendó a PS4 por encima de Xbox One por ser “mejor y más económica” y estaba de acuerdo en que Windows Phone apesta.


    jaja que grande,su propia criatura los trolea [666] ratataaaa apestas microsoft que lo sepas. CASTIGADO SIN POSTRE Tay
Ver más comentarios »