Microsoft crea un chatbot que termina vertiendo comentarios sexistas, racistas y xenófobos

1, 2, 3
pero a este bot que le an puesto el salvame deluxe!!!
Lo peor de todo es que se tratará de una prueba para algo que quiere hacer microsoft a medio-largo tiempo y ahora están como el bot (prueba - error), si no, tiempo al tiempo
Jajaja vamos que se pone en plan macarra jejejej
Qué cachonda esta Tay! XD XD XD

Tendrían que haberla dejado más tiempo, hay que tomarse las cosas con humor.
LonK escribió:Fue divertido mientras duró xD A ver si cuando vuelva no le han quitado la vena racista o sexista y podemos seguir echándonos unas risas xDD


Tenlo por seguro recibira sus nalgadas y regresara diciendo que microsoft es la hostia, espero que por lo menos de argumentos algo validos, por que los que leo por el foro son bastante aburridores.

lo del control ya es bastante exagerado, ya no puedes decir puta, sionista, macho o negro por que inmediatamente eres etiquetada de sexista, feminista, que judia o nazi o racista, por favor es que no ven que se ataka la libertad, y se preferencia a grupos sin merecerlo.

ejemplo la pelicula de oz donde no sale ningun blnanco nadie le llama racista, por que no lo se.o es que el racismo negro no existe, puff y el victimismo, los Judios cierto que si se les ataca, pero no quiere decir que por ello sean libres de matar a quien les plasca, las mujeres tambien hemos recibido siglos de sexismo, pero ello no significa que se tenga que establecer parametros para voltear la tortilla... odio esas preferencias que se establecen por ese victimismo juas asi le he llamado

besos
Por fin crean una IA que se comporta y aprende como un humano de verdad, y resulta que hay que "arreglarla".
105 respuestas
1, 2, 3