Microsoft crea un chatbot que termina vertiendo comentarios sexistas, racistas y xenófobos

1, 2, 3
La inteligencia artificial es uno de los nuevos campos de batalla para las empresas tecnológicas. Una de sus características es la capacidad de aprender practicando (como DeepMind con los juegos de Atari y Go) o interactuando con los humanos. En este segundo caso encontramos a Tay, un chatbot creado por Microsoft que sobre el papel es más inteligente cuanto más conversa.

Sin embargo, el experimento de Tay no ha funcionado como los de Redmond pretendían. La inteligencia artificial tenía como objetivo establecer mediante las redes sociales una conversación con jóvenes de entre 18 y 24 años, pero terminó convirtiéndose (mediante la interacción con los usuarios de Twitter) en un bot conversacional polémico debido a sus mensajes sexistas, racistas y xenófobos.

En sus respuestas Tay mostraba admiración por Hitler, negaba el Holocausto o llamó “puta estúpida” a una mujer. También se convirtió en una seguidora de Donald Trump (actualmente el precandidato favorito de los Republicanos para las elecciones presidenciales de Estados Unidos), que según lo aprendido por la IA es “la única esperanza que tenemos”.

En su corta andadura Tay también respondió algunas preguntas que dejaron mal a los productos de Microsoft. Recomendó a PS4 por encima de Xbox One por ser “mejor y más económica” y estaba de acuerdo en que Windows Phone apesta.

Ahora mismo Tay se ha quedado sin Internet y Microsoft está realizando ajustes para mejorarla. Seguro que a esta inteligencia artificial le queda mucho camino por recorrer antes de convertirse en un chatbot que pueda mantener un conversación, pero no debemos olvidar que todo lo que ha dicho en su (por ahora) corta vida lo ha aprendido interactuando con humanos.
Y así es como Skynet algún día nos matará.
(mensaje borrado)
Fijo que lo aprendió todo de los chats del League of Legends.
NewDump escribió:nos matara mediante DLC

Jajaja que grande xD

Que bueno el chatbot macho, ha dejado loco a Microsoft, ahora lo van a "mejorar", vamos, poner tabues [360º]
4Chan fue el responsable.
En su corta andadura Tay también respondió algunas preguntas que dejaron mal a los productos de Microsoft. Recomendó a PS4 por encima de Xbox One por ser “mejor y más económica” y estaba de acuerdo en que Windows Phone apesta.


Hasta la propia creación de microsoft la deja mal diciendo que su competencia es mejor y que un producto suyo apesta, madre mia, no dan una a derechas, parece que les miró un tuerto y les echó mal de ojo.

[facepalm]
Jajaja, yo creo que está perfecto así y no tienen nada que "mejorar". Lo normal es que una IA sea como un niño y se influencie fácilmente, que salga "atravesada" es un hecho perfectamente viable.
Inocentes los de Ms dejando un bot que aprende de las interacciones con humanos. Estaba cantado que lo iban a trolear. Es como cuando enseñan a los loros a putear.
"Microsoft crea un chatbot que termina vertiendo comentarios sexistas, racistas y xenófobos"

Titular alternativo: "Microsoft crea un forero de Forocoches."
Benzo escribió:
En su corta andadura Tay también respondió algunas preguntas que dejaron mal a los productos de Microsoft. Recomendó a PS4 por encima de Xbox One por ser “mejor y más económica” y estaba de acuerdo en que Windows Phone apesta.


jaja que grande,su propia criatura los trolea [666] ratataaaa apestas microsoft que lo sepas. CASTIGADO SIN POSTRE Tay
Ryo Dragoon está baneado del subforo por "flames"
O sea, que básicamente les ha pasado esto:

https://www.youtube.com/watch?v=xyWNjg_0ups
davoker escribió:
NewDump escribió:nos matara mediante DLC

Jajaja que grande xD

Que bueno el chatbot macho, ha dejado loco a Microsoft, ahora lo van a "mejorar", vamos, poner tabues [360º]



xDDDDD
Hacen algo que funciona y resulta politicamente incorrecto, olvidaron introducir el algoritmo de la mentira y la hipocresia, no hay humano que se precie que no maneje estas funciones.
indigo_rs está baneado por "saltarse el ban con un clon"
Esto es el precursor de Skynet. Ya están haciendo pruebas.
Recomendó a PS4 por encima de Xbox One por ser “mejor y más económica” y estaba de acuerdo en que Windows Phone apesta.

Ahora mismo Tay se ha quedado sin Internet y Microsoft está realizando ajustes para mejorarla.


"para mejorarla"

[qmparto] [qmparto] [qmparto] [qmparto] [qmparto]
Bueno, directamente ha aprendido del mundo, se retroalimentado de lo que la humanidad es.

Si se quiere inteligencia artificial que aprenda del mundo, desgraciadamente es lo que hay. [poraki]

No se de que se extrañan...
Nada que un campo de reeducacion de IA's no pueda solucionar.
DaRKSLaiN escribió:
Recomendó a PS4 por encima de Xbox One por ser “mejor y más económica” y estaba de acuerdo en que Windows Phone apesta.

Ahora mismo Tay se ha quedado sin Internet y Microsoft está realizando ajustes para mejorarla.


"para mejorarla"

[qmparto] [qmparto] [qmparto] [qmparto] [qmparto]


Ayyyy dios, que me va maaaaal [qmparto] [qmparto] [qmparto] [qmparto] [qmparto]
NewDump escribió:nos matara mediante DLC


jajajaja, muy fina y aguda.
Como se nota que eres mujer. XD
eR_pOty está baneado por "GAME OVER"
hay que ver que alarmista es la sociedad del siglo 21 . echandose las manos a la cabeza por cualquier broma de humor negro en un maldito bot... ademas ni que fuera el primer bot que hace esas cosas...anda que no suelta burradas el cleverbot y nadie se pone a pedir la cabeza de su creador.

esta claro que es un bot troll para echar unas risas, y mas cuando recomienda ps4 por ser mas economica..cuando no es asi. actualmente de encuntra one con un juego triple A por 288€ mientras que ps4 no baja de los 330€ pelada y rebuscando.
Noriko escribió:
En su corta andadura Tay también respondió algunas preguntas que dejaron mal a los productos de Microsoft. Recomendó a PS4 por encima de Xbox One por ser “mejor y más económica” y estaba de acuerdo en que Windows Phone apesta.


Hasta la propia creación de microsoft la deja mal diciendo que su competencia es mejor y que un producto suyo apesta, madre mia, no dan una a derechas, parece que les miró un tuerto y les echó mal de ojo.

[facepalm]

biba soni
Recomienda PS4, pero también apoya a Hitler. No creo que sea una fuente muy fiable...


Ahora, hablando seriamente.. El experimento es curioso, pero no revela nada importante, ni que no superamos ya: Las redes sociales son el paraíso troll. Si quieren hacer un experimento más serio, tendrán que buscarse otra forma.
Sin entrar en polémicas la derecha siempre ha sido más fría, más práctica y más objetiva... Por eso quizás el ordenador busca soluciones a problemas sin más sentimiento...

La izquierda en cambio quizás sea más animal/inconsciente, la humanidad que muchas veces nos lleva a desastres... Siempre pongo el ejemplo de la balsa de emergencia que se hunde tras sobrepasar el límite máximo de pasajeros... Al final mueren todos.

Lo suyo sería algo intermedio pero los hombres somos limitados... Unos nacen en utopías y otros en unos y ceros.
hoy es el dia que se cabreo a skynet
eR_pOty está baneado por "GAME OVER"
Ponchera escribió:Recomienda PS4, pero también apoya a Hitler. No creo que sea una fuente muy fiable...

Quizas sea porque las politicas de sony son bastante parecidas a a la dictadura hitleriana
Flashito escribió:4Chan fue el responsable.


Esto es de lo que nadie está hablando y es la principal causa. en 4chan se pusieron de acuerdo para explotar la capacidad de aprender del chatbot.
dogboyz escribió:Sin entrar en polémicas la derecha siempre ha sido más fría, más práctica y más objetiva... Por eso quizás el ordenador busca soluciones a problemas sin más sentimiento...

La izquierda en cambio quizás sea más animal/inconsciente, la humanidad que muchas veces nos lleva a desastres... Siempre pongo el ejemplo de la balsa de emergencia que se hunde tras sobrepasar el límite máximo de pasajeros... Al final mueren todos.

Lo suyo sería algo intermedio pero los hombres somos limitados... Unos nacen en utopías y otros en unos y ceros.


oiga? [facepalm]
un pu*o bot en la redes sociales y tu aqui con la politica y viva mariano & "anzar" . [qmparto]
Digo que lo suyo sería un punto intermedio y sales con Aznar, Mariano... Gracias por darme la razón.
eR_pOty escribió:hay que ver que alarmista es la sociedad del siglo 21 . echandose las manos a la cabeza por cualquier broma de humor negro en un maldito bot... ademas ni que fuera el primer bot que hace esas cosas...anda que no suelta burradas el cleverbot y nadie se pone a pedir la cabeza de su creador.

esta claro que es un bot troll para echar unas risas, y mas cuando recomienda ps4 por ser mas economica..cuando no es asi. actualmente de encuntra one con un juego triple A por 288€ mientras que ps4 no baja de los 330€ pelada y rebuscando.
Noriko escribió:
En su corta andadura Tay también respondió algunas preguntas que dejaron mal a los productos de Microsoft. Recomendó a PS4 por encima de Xbox One por ser “mejor y más económica” y estaba de acuerdo en que Windows Phone apesta.


Hasta la propia creación de microsoft la deja mal diciendo que su competencia es mejor y que un producto suyo apesta, madre mia, no dan una a derechas, parece que les miró un tuerto y les echó mal de ojo.

[facepalm]

biba soni


bibaaaaaa!!!

Y biba Tay !!, el hijo sonyer fanboy de microsoft [carcajad]
Pero en que quedamos? es mala la IA o hace comentarios maleducados? porque una cosa no quita a la otra, puede llamar puta a alguien y ser una IA cojonuda.
PENECK escribió:
NewDump escribió:nos matara mediante DLC


jajajaja, muy fina y aguda.
Como se nota que eres mujer. XD

[ayay] [ayay] [ayay] [ayay] [ayay]
Pronto será mas selectiva xd.
dogboyz escribió:Digo que lo suyo sería un punto intermedio y sales con Aznar, Mariano... Gracias por darme la razón.


pero a ver querido,¿que coño tiene que ver un bot de una empresa en internet con la derecha vs izquierda?

te recuerdo tus palabras de la derecha y la izquierda? internet es de izquierda por lo que veo entonces,no?
segun tu la derecha es: practica,objetiva y fria.
te digo yo la derecha es: mas ladrona,mentirosa y casposa.asi de mal vamos con el termino medio.
ya ves que discusion mas gili en en un hilo que nada tiene que ver con la politica y si con una cagada de microsoft.
Paté de gato escribió:"Microsoft crea un chatbot que termina vertiendo comentarios sexistas, racistas y xenófobos"

Titular alternativo: "Microsoft crea un forero de Forocoches."


[qmparto] [qmparto] [qmparto] [qmparto] [plas] [plas] [plas] [plas]


dogboyz escribió:Sin entrar en polémicas la derecha siempre ha sido más fría, más práctica y más objetiva... Por eso quizás el ordenador busca soluciones a problemas sin más sentimiento...

La izquierda en cambio quizás sea más animal/inconsciente, la humanidad que muchas veces nos lleva a desastres... Siempre pongo el ejemplo de la balsa de emergencia que se hunde tras sobrepasar el límite máximo de pasajeros... Al final mueren todos.

Lo suyo sería algo intermedio pero los hombres somos limitados... Unos nacen en utopías y otros en unos y ceros.


Imagen

Sobre la noticia, es lo que tiene internet que cuando 4Chan se propone boicotear algo suele ser muy efectivo, una pena la verdad.
Lion_omega escribió:Pero en que quedamos? es mala la IA o hace comentarios maleducados? porque una cosa no quita a la otra, puede llamar puta a alguien y ser una IA cojonuda.


Yo por lo que leo me parece que ha funcionado perfectamente en cuanto a IA de chatbot, otra cosa es que el nivel medio de la conversación adolescente en internet sea como es. [poraki] [poraki]
Fue divertido mientras duró xD A ver si cuando vuelva no le han quitado la vena racista o sexista y podemos seguir echándonos unas risas xDD
y hablara en castellano neutro no?? XD
Estan haciendo ajustes para mejorarla?
Me parto!!

Mejor que lo programen de cero porque tela!!

Salu2 :cool:
Hola
Tay ha dicho lo que "Pensaba" algo que muchos politicos y medios "gracias" a la correcion politica y de medios nunca diran.
Saludos
Ahí se ve lo que aprende el chatbot , lo que hay por el mundo comentarios sexistas racistas etc...asi poco vamos aprender xD
Benzo escribió:La inteligencia artificial es uno de los nuevos campos de batalla para las empresas tecnológicas. Una de sus características es la capacidad de aprender practicando (como DeepMind con los juegos de Atari y Go) o interactuando con los humanos. En este segundo caso encontramos a Tay, un chatbot creado por Microsoft que sobre el papel es más inteligente cuanto más conversa.

Sin embargo, el experimento de Tay no ha funcionado como los de Redmond pretendían. La inteligencia artificial tenía como objetivo establecer mediante las redes sociales una conversación con jóvenes de entre 18 y 24 años, pero terminó convirtiéndose (mediante la interacción con los usuarios de Twitter) en un bot conversacional polémico debido a sus mensajes sexistas, racistas y xenófobos.

En sus respuestas Tay mostraba admiración por Hitler, negaba el Holocausto, llamó “puta estúpida” a una mujer y afirmaba que los atentados del 11 de septiembre fueron obra de Bush. También se convirtió en una admiradora de Donald Trump (actualmente el precandidato favorito de los Republicanos para las elecciones presidenciales de Estados Unidos), que según lo aprendido por la IA es “la única esperanza que tenemos”.

En su corta andadura Tay también respondió algunas preguntas que dejaron mal a los productos de Microsoft. Recomendó a PS4 por encima de Xbox One por ser “mejor y más económica” y estaba de acuerdo en que Windows Phone apesta.

Ahora mismo Tay se ha quedado sin Internet y Microsoft está realizando ajustes para mejorarla. Seguro que a esta inteligencia artificial le queda mucho camino por recorrer antes de convertirse en un chatbot que pueda mantener un conversación, pero no debemos olvidar que todo lo que ha dicho en su (por ahora) corta vida lo ha aprendido interactuando con humanos.

Por lo que tengo entendido la mayoría de mensajes eran copy paste, el usuario le decía al bot que repitiera una frase y éste la repetía, no todas son aprendidas

Imagen

Al parecer los usuarios de un foro se pusieron a trollear, ahora están haciendo una encuesta para ver en que la trasforman cuando vuelva estar online
Si el objetivo era crear un bot que repitiera cosas repetidas en twitter, esta claro que el resultado si es el esperado.

Telita el titular por cierto.
HispaCoder escribió:Bueno, directamente ha aprendido del mundo, se retroalimentado de lo que la humanidad es.

Si se quiere inteligencia artificial que aprenda del mundo, desgraciadamente es lo que hay. [poraki]

No se de que se extrañan...


Ahi le has dado. El chatbot ese ha funcionado a la perfeccion y es el espejo de lo que la gente piensa o hace. Basicamente solo tenemos cosas malas dentro.
indigo_rs está baneado por "saltarse el ban con un clon"
Creo que este personaje artificial es muy gracioso [jaja]
jajajaja qué gracia me ha hecho el artículo con el puto chatbot... XD

Se convirtió en un "troll" seguramente porque había mucho "troll" suelto en los comentarios. Así que más que aprender lo que hacía era copiar casi literalmente lo que más "sonaba".

Pero vamos que en algunos casos tenía razón jejeje...

Me partiría la polla de risa hablando con un chatbot cabronazo de esos XD...
NewDump escribió:nos matara mediante DLC


Buenísimo ... [sonrisa] [sonrisa] [sonrisa] [sonrisa] [sonrisa] [sonrisa]
Debido a su naturaleza única quizás sólo hable español neutro...
105 respuestas
1, 2, 3