Google crea una red Neuronal con muchos procesadores...

....Y lo primero que hace es reconocer millones de imágenes de gatos.


El estudio fue realizado en conjunto por el laboratorio de Google y la Universidad de Stanford. La red neuronal cuenta con 1.000 computadoras y 16 mil cores de procesamiento.
Share on email

El X lab de Google se despachó con un proyecto increíble: unió 1000 computadoras en una red neuronal con mil millones de conexiones y un total de 16 mil núcleos y mandó a este cerebro electrónico a YouTube a buscar gatos. Si, así de raro y fascinante.

La visita a YouTube no fue para perder tiempo, sino que, luego de ubicar muchas imágenes (10 millones, para ser más precisos) tomadas de videos aleatorios, la máquina neuronal pudo aprender por sí misma cómo eran los gatos. La importancia científica radica en que, en experimentos similares, la idea de “aprendizaje” se guía y supervisa externamente por humanos, cosa que no fue necesaria en este caso.

El objetivo era que la computadora pudiera llevar adelante una detección de rostro sin imágenes de referencia, simplemente buscando videos y generando los patrones de reconocimiento por sí misma. Por eso los gatos: internet está repleto de imágenes de ellos. Una vez aprendidos estos patrones, el reconocimiento de la figura felina se dio con un 15.8% de precisión sobre 20 mil categorías de objetos, lo que, de acuerdo a los investigadores, representa un 70% más que en estudios previos.
Esta fue la imagen que el "cerebro" de Google se autogeneró sobre los gatos

“La idea es que, en lugar de tener un grupo de investigadores tratando de encontrar la forma de establecer límites, uno pueda tirar un montón de datos al algoritmo, permitir que los datos hablen, y dejar que el software aprenda automáticamente de esos datos” decía uno de los investigadores de la Universidad de Stanford.

La investigación se enmarca en un nuevo enfoque dentro de las ciencias de la computación, que se asocia al desarrollo de enormes computadoras ubicadas en data centers. Este tipo de trabajos avanza en tópicos tales como la percepción y visión de las máquinas, reconocimiento de voz o traducción de idiomas.

Los detalles completos de esta investigación serán revelados en un par de días durante una conferencia en Edimburgo.


Fuente
http://www.redusers.com/noticias/google-armo-un-simulador-cerebral-con-mil-computadoras-y-16-mil-nucleos-y-lo-uso-para-reconocer-gatos/


Skynet is comming, la creación de sintéticos está a punto de realizarse y empezará el ciclo de destrucción de los orgánicos....


SO BE IT!
Imagen
No falta mucho para que se rebelen los Nexus 6 (que apropiado el nombre que escogió Google para sus aparatos xD), esto es solo el principio. Esperad al 2019


Saludos
Lo verdaderamente interesante es que se haya formado una imagen del animal y tengamos acceso a la imagen "mental" de una máquina:

Imagen

[boing] [boing]

Supongo que el reconocimiento funcionará sobre la idea de prototipo, todo ello expresado en unos y ceros... esto es fascinante para un lingüista. Es la primera imagen de un "significado" generado por aprendizaje que tenemos. Lo que me ha dejado frío es que "el reconocimiento de la figura felina se dio con un 15.8% de precisión". Si necesitamos tantos núcleos para crear una "inteligencia" lingüística tan pobre lo de la traducción automática no basada en memorias de traducción (y por tanto mínimamente decente) está bastante lejos.
Había leído: Rajoy crea una red Neuronal con muchos procesadores.

Maldita lectura diagonal [+risas] [+risas] [+risas]
Es el comienzo del finnnnnnnn
Esto...


Con 1000 ordenadores y 16,000 nucleos consiguen un porcentaje de exito del 15,8% en la identificacion de gatos, ¿Y hablais ya de maquinas rebelandose?

Igual sus pasais un poco [+risas] .. Pero vamos, es un 70% mas que en estudios anteriores, asi que en estudios anteriores era un un 9,3%... Se ha pasado de un 9,3% a un 15,8%, y tal como lo ponen es posible que haya sido simplemente a base de fuerza bruta.
[_-+-_] escribió:Con 1000 ordenadores y 16,000 nucleos consiguen un porcentaje de exito del 15,8% en la identificacion de gatos, ¿Y hablais ya de maquinas rebelandose?

Tenía que decirlo xD.

La verdad, yo pensaba que las redes neuronales eran mucho más eficientes. Muy bajo me parece el porcentaje.


Saludos
Es que se ve que tanta computadora y tanto nucleo, pero a ninguno se le ocurrio pensar que podia haber gatos con formas ligeramente diferentes xD...

Seguro que si en vez de intentar crear una imagen de gato hubiesen intentado crear 100 imagenes de gato e identificar un objeto como gato si guarda una cierta cantidad de parecido con al menos 30-70 de ellas en distintos grados (o algo asi) aciertan casi siempre.

Pero claro, eso seria una guia externa,,, a no ser que decidan hacerlo por si mismos xD
dark_hunter escribió:
[_-+-_] escribió:Con 1000 ordenadores y 16,000 nucleos consiguen un porcentaje de exito del 15,8% en la identificacion de gatos, ¿Y hablais ya de maquinas rebelandose?

Tenía que decirlo xD.

La verdad, yo pensaba que las redes neuronales eran mucho más eficientes. Muy bajo me parece el porcentaje.


Saludos

Si consideras eficiencia como "cuanto acierta", el porcentaje es bueno para ese problema concreto. Con un aprendizaje automático (sin supervisión) en este tipo de problemas me parece que nunca se había llegado a tanto.

Para quien le interese el tema del aprendizaje automático, el artículo de google donde exponen esto está bastante bien:
http://googleblog.blogspot.com.es/2012/06/using-large-scale-brain-simulations-for.html
En el mismo artículo está el enlace al paper completo.
zaragozano escribió:Skynet


seguramente nos gobernaria mejor que los inutiles que hemos tenido y tenemos
[_-+-_] escribió:Es que se ve que tanta computadora y tanto nucleo, pero a ninguno se le ocurrio pensar que podia haber gatos con formas ligeramente diferentes xD...

Seguro que si en vez de intentar crear una imagen de gato hubiesen intentado crear 100 imagenes de gato e identificar un objeto como gato si guarda una cierta cantidad de parecido con al menos 30-70 de ellas en distintos grados (o algo asi) aciertan casi siempre.

Pero claro, eso seria una guia externa, a no ser que decidan hacerlo por si mismos xD


Y esta, amigos míos, es la teoría del prototipo aplicada de una forma concreta en la que la máquina no "pensó". Supongo que lo que debería haber hecho la máquina es generar un modelo tridimensional prototípico y buscar parecidos suficientes con imágenes bidimensionales. El problema es que me da la sensación de que este experimento se ha hecho con un par de órdenes muy simples para ver lo que la máquina podía hacer por sí misma. Sin embargo, lo que yo creo es que todos tenemos unos genes de partida que condicionan nuestro conocimiento del mundo, y no veo porque las máquinas no pueden partir de una serie de órdenes complejas para llegar a "conocer" por sí mismas. Vamos, yo creo que del mismo modo que nosotros necesitamos unos instintos y tenemos unos patrones de pensamiento adaptados a nuestra realidad, las máquinas deberían contar con ciertos patrones también que sin darles todo hecho les guíen, y con ello me refiero a la diferencia entre bidimensionalidad y tridimensionalidad, por ejemplo. Lo que le están pidiendo a la máquina básicamente no es que reconozca a un gato sin más. Le están pidiendo que evolucione desde la ameba al primate en un par de horas. Por eso ahora veo el porcentaje de acierto incluso positivo.

resakosix escribió:
dark_hunter escribió:
[_-+-_] escribió:Con 1000 ordenadores y 16,000 nucleos consiguen un porcentaje de exito del 15,8% en la identificacion de gatos, ¿Y hablais ya de maquinas rebelandose?

Tenía que decirlo xD.

La verdad, yo pensaba que las redes neuronales eran mucho más eficientes. Muy bajo me parece el porcentaje.


Saludos

Si consideramos eficiencia como "cuanto acierta", el porcentaje es bueno para ese problema concreto. Con un aprendizaje automático (sin supervisión) en este tipo de problemas me parece que nunca se había llegado a tanto.

Para quien le interese el tema del aprendizaje automático, el artículo de google donde exponen esto está bastante bien:
http://googleblog.blogspot.com.es/2012/06/using-large-scale-brain-simulations-for.html
En el mismo artículo está el enlace al paper completo.


Gracias por la info. :)
[_-+-_] escribió:Esto...


Con 1000 ordenadores y 16,000 nucleos consiguen un porcentaje de exito del 15,8% en la identificacion de gatos, ¿Y hablais ya de maquinas rebelandose?

Igual sus pasais un poco [+risas] .. Pero vamos, es un 70% mas que en estudios anteriores, asi que en estudios anteriores era un un 9,3%... Se ha pasado de un 9,3% a un 15,8%, y tal como lo ponen es posible que haya sido simplemente a base de fuerza bruta.


Si, como del primer ordenador para descifrar enigma con valvulas de vacio y tarjetas perforadas al PC de hoy en dia xD.
12 respuestas