Una inteligencia artificial supera por primera vez el test de Turing

Un programa informático ha superado por primera vez el test de Turing, una prueba ideada en 1950 por Alan Turing que mide la capacidad de un ordenador para hacerse pasar por humano en una conversación de texto. El hito lo ha reclamado Eugene Goostman, una IA que ha logrado engañar al 33% de los jueces encargados de diferenciar entre hombre y máquina, rebasando en un 3% el umbral necesario para superar el test.

Parte del éxito de Eugene reside en que la IA simula ser un chico ucraniano de 13 años que no domina completamente el inglés en el que se desarrollan las conversaciones de cinco minutos con el jurado. Los propios responsables del programa explican que la "personalidad" de Eugene hace razonables sus respuestas dado que "no lo sabe todo", pero también destacan una gran mejora en la lógica conversacional de la IA "nacida" en 2001.

"Algunos afirmarán que el test ya se había superado", declara el profesor Kevin Warwick de la Universidad de Reading. "Las palabras Test de Turing se han aplicado a competiciones similares por todo el mundo. Sin embargo, este evento ha tenido en cuenta comparaciones más simultáneas que nunca, verificadas independientemente y, crucialmente, las conversaciones no han tenido restricciones. Un verdadero Test de Turing no fija las conversaciones o los temas antes de las conversaciones. Por lo tanto estamos orgullosos de anunciar que el test de Alan Turing se ha superado por primera vez este sábado".

El test ha tenido lugar durante el pasado fin de semana en la Royal Society de Londres, conmemorando en esta edición el 60 aniversario del fallecimiento del matemático y pionero de la computación que da nombre a la prueba. Eugene se ha erigido como la IA triunfadora entre otras cuatro dispuestas a confundir al jurado, un objetivo que el ganador ya estuvo a punto de conseguir en 2012 con una tasa de engaños del 29%.
Skynet se acerca...

Me encantaría ver un vídeo del test que le hicieron.
A mí estas cosas me dan un poco de "yuyu" [mad]
No sé hasta qué punto es válido, escudándose en una mala escritura para solventar problemas de gramática típicos de las IAs.

Obviamente es un paso, pero creo que aún queda lejos la IA que de verdad sea capaz de engañar de si es humana.
Este tema avanza más rápido de lo que creemos...
¿Es aquí donde de se hacen las oposiciones a Blade Runner? Jjaajaj
¿Warwick? ¿Soy el único que ha pensado en mi querido lobito con skin de fuego?
kike0002 escribió:¿Warwick? ¿Soy el único que ha pensado en mi querido lobito con skin de fuego?


Jajajajajaj, yo tambien lo habia pensado pero la de hiena mola mas!
Espero que el avance de la IA pronto no sea útil para resolver los codigos chaptas de algunas paginas web xD
Ingenioso el truco, pero seguramente haya IAs mejores ...
Creo que la noticia no es exacta del todo:

It should also be noted that a chatbot successfully pretending to be a 13-year-old boy for whom English is a second language ain't exactly Hal 9000. There's no artificial intelligence at work here; it's more clever gamesmanship by Eugene's creators.

No hay IA de por medio, sino un chatbot muy bien resuelto.
Teniendo en cuenta que la IA simula ser un chaval extranjero y en apariencia "alelado", yo no lo vería como válido, la idea es dar respuestas concretas a preguntas aleatorios no: "disculpe no le entiendo" o "no lo sé", así cualquiera hace una IA que supere el test ¬_¬
Google comprando esta inteligencia artificial.. y luego 3.2.1......................SKYNET
No engaña ni por casualidad (50%). El que no se conforma es porque no quiere...
O sea que le tienes que hablar despacito y que se entienda de forma simple, mientras no sean capaces de engañar o elaborar mentiras me quedo tranquilo [+risas]
Se sabe por qué es ucraniano?
si ponen a un bot americano y le preguntas donde está España y te dice que en Europa, no hay duda es un bot fijo XD
Hay una peli que trata de este tema: The Machine

Justamente hablan de este test, está curiosa.
dark-kei escribió:Teniendo en cuenta que la IA simula ser un chaval extranjero y en apariencia "alelado", yo no lo vería como válido, la idea es dar respuestas concretas a preguntas aleatorios no: "disculpe no le entiendo" o "no lo sé", así cualquiera hace una IA que supere el test ¬_¬

Tan cualquiera lo hace que hasta ahora nadie lo había conseguido.
Estamos creando nuestro fin [+risas] [+risas] , menos mal que no llegaré a verlo nunca [+risas] [+risas]
Hola soy Theodore, un escritor solitario con un divorcio traumático a cuestas, necesito un nuevo sistema operativo y bla bla bla

Las peliculas desde antaño no dejaron de ser "guiños" de lo que depara el futuro, yo creo que los productores se curran ciertos guiones adelantandose a lo que va a pasar porque trabajan con los marcianos [carcajad]


Cuantas peliculas no habremos visto en las que nos preguntábamos ¿te imaginas si fuese real?

Me quedaré con la espina de ver a la policía (si esta existe en el futuro) viajar al futuro para detener maleantes antes de que cometan el delito.
Personalmente yo entiendo que superar el test de Turing es hacerlo durante una conversación normal y corriente, en igualdad plena máquina-hombre.

No me vale lo de utilizar la excusa de un menor que no domina la lengua para predisponer al jurado a ser más benévolo con los fallos e imprecisiones. Eso es como jugar con cartas marcadas.

Vamos, que si no, mañana instituyo el Test de Bartletrules para la IA, en el cual se usarán conversaciones telefónicas hombre-máquina, y la mía sólo sabrá decir "Aha..." y "¿Cómo?". Pero diré que se trata de un crío de 2 años y que hay problemas en la línea telefónica...

No cabe duda de que seguramente sea un gran avance, pero yo no lo considero un triunfo, la verdad.

@jotax: En todo caso, la policía viajaría al pasado para evitar un crimen futuro, ¿no? XD XD XD
Estos avances suelen dar mucho miedo y sobre todo después de ver películas de este estilo [mad]
loli777 escribió:Estos avances suelen dar mucho miedo y sobre todo después de ver películas de este estilo [mad]


Creo que el cine nos ha metido mucha tonteria en la cabeza. Para que un sistema artificial pudeira ser minimamente peligroso deberia cobrar conciencia de si mismo. No voy a decir que eso jamas se conseguira, pero desde luego si creo que es algo que no lo veran ni nuestros biznietos.
Yo no me lo creo, donde estan las pruebas que lo demuestran?
hombre a una personas no la engañaras si no es en el escenario descrito pero es mucho mas dificil de lo que parece
Teniendo en cuenta que ha hecho trampas no le veo mucho mérito.
jajaja, así no vale che!
bartletrules escribió:@jotax: En todo caso, la policía viajaría al pasado para evitar un crimen futuro, ¿no?


No, realmente no haria falta ni viajar ni en un sentido ni a otro yo creo que mas que nada se esta refiriendo a la pelicula de minority report.
A muchos de eol por su nivel de ingles me da que los da por ordenadores jajajajajaj
Lo supera pero con trucos.
En uno se inventaron que es esquizofrénico, y en otro se inventan que tiene trece años.
exitido escribió:Lo supera pero con trucos.
En uno se inventaron que es esquizofrénico, y en otro se inventan que tiene trece años.


No hay "trucos", esta dentro de las reglas

cito de wikipedia :

La prueba consiste en un desafío. Se supone un juez situado en una habitación, una máquina y un ser humano en otra. El juez debe descubrir cuál es el ser humano y cuál es la máquina, estándoles a los dos permitido mentir al contestar por escrito las preguntas que el juez les hiciera. La tesis de Turing es que si ambos jugadores eran suficientemente hábiles, el juez no podría distinguir quién era el ser humano y quién la máquina.
Ivaner escribió:A mí estas cosas me dan un poco de "yuyu" [mad]

+1 ¬_¬
Si el juez era John Connor entonces si que tenemos un problema...
Pues yo creo que con siris y demases, somos nosotros los que nos hemos acostumbrado a esa relativa humanidad que nos presentan, y al estar día a día, si nos ponen un test tipo este nos cuesta mas tomar una decisión acertada que a un hombre de hace dos siglos.
asi es MiNoSHiA, había guiñado las pelis Her y Minority Report ;)

Que en cualquier caso me parece mas viable científicamente viajar al pasado que al futuro :)
En contra de una conciencia artificial, más que a una inteligencia artificial.
La IA es uno de los proyectos más idiotas que puede desarrollar la humanidad.
Quiero saber si le preguntaron lo siguiente, Que opinas sobre una billetera de piel de bebe? androides, nexus, ovejas, marte. Pararece que ese libro adelanto nuestro futuro hace mucho tiempo atras.

Marcos
Microfil escribió:En contra de una conciencia artificial, más que a una inteligencia artificial.
La IA es uno de los proyectos más idiotas que puede desarrollar la humanidad.


Lo que tu digas tio....lo que tu digas...
Siempre me ha encantado tontear con estas cosas ¿No hay link abierto al público entonces?

No me puedo creer que esté en una tasa del 33%. Normalmente se coje que es una IA en sólo dos preguntas, la primera le das un dato nuevo y a la segunda le preguntas por él. Si han conseguido que coja datos en directo es una puñetera pasada, que puedo decir, que seguro que no [+risas]
Veo a mucho joven por aquí hablando de terminators cuando en realidad se debería hablar de replicantes.....
No se, no se....

Usar una IA simulando a un crio de 13 años que no domina el idioma en el que se le hablan, para evitar respuestas concretas a preguntas concretas. Incluyendo la inclusion de datos nuevos, no respondiendo por no entenderlos al no comprender bien el idioma...

Los resultados obtenidos estarian bien si fueran una conversacion hombre-maquina con niveles intelectuales similares...

Saludos.
Quien coño quiere tener un androide que no lo sepa todo? No me gusta nada que trabajen en estas cosas, enseñando a las máquinas a engañar. Skynet no tardará en hacerse con ello...
Psé, interesantillo, no deja de ser un comienzo, pero realmente me impresionará cuando consiga superar el de voight-kampff :)

Un saludo.
AKOSSO escribió:
exitido escribió:Lo supera pero con trucos.
En uno se inventaron que es esquizofrénico, y en otro se inventan que tiene trece años.


No hay "trucos", esta dentro de las reglas

cito de wikipedia :

La prueba consiste en un desafío. Se supone un juez situado en una habitación, una máquina y un ser humano en otra. El juez debe descubrir cuál es el ser humano y cuál es la máquina, estándoles a los dos permitido mentir al contestar por escrito las preguntas que el juez les hiciera. La tesis de Turing es que si ambos jugadores eran suficientemente hábiles, el juez no podría distinguir quién era el ser humano y quién la máquina.



No me has entendido, en los dos usaron el truco de que le pasa algo al BOT, en uno es esquizoide con lo que si te responde mal es porque esta loco, y en otro tiene 13 años con lo que si no sabe responder es porque es un niño y encima no entiende tu idioma.
Que prueben sin inventarse historias raras.
exitido escribió:
AKOSSO escribió:
exitido escribió:Lo supera pero con trucos.
En uno se inventaron que es esquizofrénico, y en otro se inventan que tiene trece años.


No hay "trucos", esta dentro de las reglas

cito de wikipedia :

La prueba consiste en un desafío. Se supone un juez situado en una habitación, una máquina y un ser humano en otra. El juez debe descubrir cuál es el ser humano y cuál es la máquina, estándoles a los dos permitido mentir al contestar por escrito las preguntas que el juez les hiciera. La tesis de Turing es que si ambos jugadores eran suficientemente hábiles, el juez no podría distinguir quién era el ser humano y quién la máquina.



No me has entendido, en los dos usaron el truco de que le pasa algo al BOT, en uno es esquizoide con lo que si te responde mal es porque esta loco, y en otro tiene 13 años con lo que si no sabe responder es porque es un niño y encima no entiende tu idioma.
Que prueben sin inventarse historias raras.


Está permitido, lo que tienes que hacer la IA es que no se note que es una IA. Y lo consigue, por mucho que no tenga mucha idea del idioma o que sea un niño, que haga eso una máquina es impresionante.
El test lo ha superado con método científico.

Ahora parece ser que tiene que superar el método eoliano.
Impresionante pero vamos: ¿Simula ser un chico Ucraniano de 13 años que no sabe escribir bien el ingles? Ya me puedo imaginar la tira que hará Israperrillo [+risas]
la ia es mas intelifente o los jueces son mas idiota? [reojillo]
seaman escribió:
exitido escribió:

No me has entendido, en los dos usaron el truco de que le pasa algo al BOT, en uno es esquizoide con lo que si te responde mal es porque esta loco, y en otro tiene 13 años con lo que si no sabe responder es porque es un niño y encima no entiende tu idioma.
Que prueben sin inventarse historias raras.


Está permitido, lo que tienes que hacer la IA es que no se note que es una IA. Y lo consigue, por mucho que no tenga mucha idea del idioma o que sea un niño, que haga eso una máquina es impresionante.
El test lo ha superado con método científico.

Ahora parece ser que tiene que superar el método eoliano.



Ok veo que no se entiende, voy a crear un bot que solo hable congoleño, la pondré en un sitio donde nadie habla el idioma y a ver quien descubre que es una IA, por si acaso, diré que mi congoleño tiene 4 años es esquizofrenico y dislexico.


Claro que ha superado el test, pero que no usen trucos, que pongan una IA con una personalidad normal, que hable el idioma, que no tenga 13 años, vamos una persona normal.
Es como si en una carrera de 100 metros solo se mira que el atleta llegue en X tiempo, pero sin importar como, si va hasta las cejas también es valido.
meridian35 escribió:No se, no se....

Usar una IA simulando a un crio de 13 años que no domina el idioma en el que se le hablan, para evitar respuestas concretas a preguntas concretas. Incluyendo la inclusion de datos nuevos, no respondiendo por no entenderlos al no comprender bien el idioma...


No se, así a bote pronto algo como: Kasketada significa nombre, ¿Cuál es tu kasketada?

Por muy esquizofrénico, disléxico o tontopollas [jaja] que sea el niño a base de bombardearlo con la misma ****** todo el rato una persona debería acabar entendiéndolo ¿no? :-?

Claro a mí me gustaría probarlo, lo mismo me convence el niño de primeras [tomaaa]
No lo veo del todo claro. Ya no solo por las "trampas", sino también por lo que comenta el compañero:

NucleoDuro escribió:Pues yo creo que con siris y demases, somos nosotros los que nos hemos acostumbrado a esa relativa humanidad que nos presentan, y al estar día a día, si nos ponen un test tipo este nos cuesta mas tomar una decisión acertada que a un hombre de hace dos siglos.


Me parece muy reseñable tu opinión.

Es verdad que cada vez estamos más lobotomizados con todo el mundo tecnológico y como dices el lenguaje también se ha visto afectado. Es curioso darse cuenta con cierta perspectiva de como ha ido evolucionando el lenguaje en este sentido. Sería interesante leer más sobre el tema, a ver si alguien conoce más información...

Saludos,
57 respuestas
1, 2