KiloCore es el primer procesador de 1.000 núcleos

1, 2, 3
La llegada de los procesadores multinúcleos supuso en el mundo de la informática un gran avance. Con ello se conseguía que los equipos funcionarán a través de pequeños procesadores que permitían compartir el trabajo, lo que repercutía favorablemente en el rendimiento bajo consumos más bajos que los que contaban hasta entonces con un solo núcleo. Bien, hace unas horas se ha presentado el primer procesador con nada menos que mil núcleos.

Lo cierto es que con el tiempo y la guerra de números y especificaciones de hardware en los equipos, al usuario medio le queda la sensación de que quizá no es tan importante o determinante los números como la experiencia anterior de uso en uno u otro producto. No así para el profesional que necesita de potencia para desempeñar tareas complejas como el mismo cifrado, donde evidentemente buscará lo más potente.

Para ellos la noticia de hoy sí puede tener gran importancia en un futuro cercano. Un trabajo desarrollado por un equipo de investigadores de la Universidad de California, quienes han diseñado nada menos que un microchip de 1.000 núcleos, procesadores que además pueden ejecutarse de forma independiente. Su nombre: KiloCore.

Según explican, el chip es capaz de hacer frente a 1,78 billones de instrucciones por segundo, además contiene 621 millones de transistores y ha sido fabricado bajo la tecnología CMOS de 32 nanómetros de la casa IBM, tecnología que la compañía utiliza actualmente para los chips más modernos.

Su velocidad media es de 1,78 GHz y debido a que cada procesador puede ejecutarse individualmente y apagarse cuando no esté en uso, KiloCore puede hacer uso de la energía de manera tan eficiente que podría ser alimentado por una sola batería AA (consigue procesar 115.000 millones de instrucciones por segundo con sólo 0,7 vatios). Todo un logro que abre nuevos horizontes en la informática, y es que los propios investigadores dicen que también es capaz de ejecutar instrucciones de forma hasta 100 veces más eficiente que cualquier procesador de un equipo actual.
eR_pOty está baneado por "GAME OVER"
este es el que montara neo [hallow]

la verdad que mucha guerra de nucleos pero el usuario normal pagando 300€ por un intel del 8 nucleos con las aplicaciones optimizadas para mononucleos. esto esta años luz en todos los sentidos
Y esto puede tirar con Crysis en detalle Ultra?

¿Podré jugar a 4k?

¿Mi iPhone 8 podrá montar este tipo de micros?


Aún seguimos disfrutando de software que no son capaces de sacar provecho de los 4 núcleos.... esto me parece un logro, pero poco aplicable, si acaso en tareas científicas, con un software hecho a la medida para sacar provecho de tantos núcleos....
Pero es que eso es lo normal.
Primero hay que desarrollar el hardware y luego vendrá el software optimizado para ese hard....sería bastante más complicado hacerlo al revés.
Lo qye habría que sabes es que potencia, capacidad de proceso, instrucciones, etc,etc tiene cada nucleo de estos, porque no creo yo que sean compatibles x86 precisamente.....supongo que se aproximarán más a los CUDA o algo por el estilo.
Ya han anunciado el procesador que llevará la xbox pone scorpio.
[bad]
Miguel Jorge escribió:el chip es capaz de hacer frente a 1,78 billones de instrucciones por segundo

O sea, unas 10 veces un i7 6700.
¿A cuánto está el Kilonúcleo? Pues ponme cuarto y mitad que esté fresquito. [looco]
¡Qué barbaridad! ¿Cuánto ocupará el microchip? Me alegro de que lo hayan sacado tan eficiente y no que se hayan dedicado a sacar potencia a base de suministrar más electricidad. ¿Lo siguiente será 2000 núcleos?
Gran noticia...con repercusion a medio plazo para el usuario.

Y tranquilos abuelos cebolleta esto es asi, no os rasgueis las vestiduras primero se presentan bichos de estos pasando por varias fases presentacion, uso industrial, empresarial, i+d hasta poder ser aplicado a nuestra vida real ;-)
Con esto no hay excusa para que en MAME pueda mover desde Model 1,2 y 3 hasta Lindberg a puro software y se dejen de tonterías.
Prefiero un G3258, mejor relación potencia/precio.
eR_pOty está baneado por "GAME OVER"
Pesequis escribió:Pero es que eso es lo normal.
Primero hay que desarrollar el hardware y luego vendrá el software optimizado para ese hard....sería bastante más complicado hacerlo al revés.
Lo qye habría que sabes es que potencia, capacidad de proceso, instrucciones, etc,etc tiene cada nucleo de estos, porque no creo yo que sean compatibles x86 precisamente.....supongo que se aproximarán más a los CUDA o algo por el estilo.

no es por nada pero llevamos 10 años con los 6 nucleos de AMD y aun no se ha aprovechado practicamente la tecnologia multihilo.

esta claro que para exprimir el software primero hay que crear el hardware pero si el software no lo exprimen los desarrolladores de poco vale tanto hardware.
Me está tardando en aparecer alguien diciendo que es idóneo para un móvil Android XD
mxmax escribió:Me está tardando en aparecer alguien diciendo que es idóneo para un móvil Android XD


Acto para mi lavadora, nevera y el collar del gato.

Ahora en serio. Me gusta ver como la tecnología no para, avanza día a día pero si me da la sensación que lo que es ofrecer algo realmente nuevo, no lo hay, todo son mejoras sobre productos existentes.

Saludos
Pues es un gran avance para supercomputadores, la verdad. Una de las pegas mas grandes de los super computadores es la comparticion de la memoria entre ordenadores. De esta forma, la memoria esta toda el en mismo ordenador, siendo de acceso rápido y sencillo.

De hecho, si el procesador valiera, pongamos 1000 o 2000 euros, yo me lo compraba para mi trabajo.
eR_pOty está baneado por "GAME OVER"
lovechii5 escribió:Pues es un gran avance para supercomputadores, la verdad. Una de las pegas mas grandes de los super computadores es la comparticion de la memoria entre ordenadores. De esta forma, la memoria esta toda el en mismo ordenador, siendo de acceso rápido y sencillo.

De hecho, si el procesador valiera, pongamos 1000 o 2000 euros, yo me lo compraba para mi trabajo.

trabajas para la NASA?
eR_pOty escribió:
lovechii5 escribió:Pues es un gran avance para supercomputadores, la verdad. Una de las pegas mas grandes de los super computadores es la comparticion de la memoria entre ordenadores. De esta forma, la memoria esta toda el en mismo ordenador, siendo de acceso rápido y sencillo.

De hecho, si el procesador valiera, pongamos 1000 o 2000 euros, yo me lo compraba para mi trabajo.

trabajas para la NASA?

No, no solo la NASA hace calculos así [+risas]
Duda ¿32nm no es ya un poco anticuado? Hay varias empresas bajando a 14nm y en la noticia pone "tecnología que la compañía usa para los chips mas modernos"
Esto lo venden a 10000€ y algunos se lo pillan para su SLI y 3dmark [qmparto] [qmparto] [qmparto] y diran que sale barato, 100 veces más por 10 veces más dinero [plas] [plas]
FoxFurius escribió:Duda ¿32nm no es ya un poco anticuado? Hay varias empresas bajando a 14nm y en la noticia pone "tecnología que la compañía usa para los chips mas modernos"


sólo hay dos opciones:
- el autor ha patinado
- el autor ha sido irónico

32 nanometros es muy barato de producir, eso sí.

sin entrar a leer la fuente de la noticia, seguramente tienen caches no coherentes y probablemente la arquitectura se asemeja más a una de GPU que no de CPU "tradicional".
UN GRITÓN DE NÚCLEOS!
Dredok escribió:
FoxFurius escribió:Duda ¿32nm no es ya un poco anticuado? Hay varias empresas bajando a 14nm y en la noticia pone "tecnología que la compañía usa para los chips mas modernos"


sólo hay dos opciones:
- el autor ha patinado
- el autor ha sido irónico

32 nanometros es muy barato de producir, eso sí.

sin entrar a leer la fuente de la noticia, seguramente tienen caches no coherentes y probablemente la arquitectura se asemeja más a una de GPU que no de CPU "tradicional".


Por no hablar de la temperatura, si usa esa arquitectura de 32nm y con tal cantidad de transistores conmutando debe tener una buena refiregeración.
Tanto trabajo e investigación para que luego se use para buscar porno en internet [sonrisa]
Tiene toda la pinta de ser ideal para minar bitcoins. Y por lo poco que se, diría que se asemeja mucho más a una GPU que a una CPU
cercata escribió:
Miguel Jorge escribió:el chip es capaz de hacer frente a 1,78 billones de instrucciones por segundo

O sea, unas 10 veces un i7 6700.


En lo que parece la web de quienes lo crearon, y en otras..pone 1,78 trillones no billones, y que serían 100 veces un procesador moderno de portátil.

Esta es la URL, al parecer creado por un equipo en la universidad Davis:
https://www.ucdavis.edu/news/worlds-first-1000-processor-chip
Está claro que la tecnología del silicio ha pasado de los Gygaherzios a a los GygaCores, esto ya está a otro nivel! :O
Para trabajos que se pueden dividir en partes mediante programación concurrente optimizada es un gran avance....sin embargo para el uso normal no sirva para mucho. Pensad que los procesadores actuales se han estancado en 8 núcleos desde hace mucho tiempo (al menos los de propósito general).......

Las nuevas consolas, sobre todo la Scorpio seguirá el modelo i386 de los procesadores AMD, al final es un pc con arquitectura cerrada, algo similar a lo que proponía Valve con las Steam Machine [fumando]
ArkFantasy escribió:En lo que parece la web de quienes lo crearon, y en otras..pone 1,78 trillones no billones, y que serían 100 veces un procesador moderno de portátil.

Eso es pq los trillones americanos son billones españoles, alli un billon son 1000 millones, aqui es un millon de millones.
Podrá mover Whatsapp a 4k 60fps?
estamos perdiendo el norte con los nucleos XD XD XD XD a ver quien los tiene más numerosos [360º]
Veremos que aparatos montaran este hardware
Nirgail escribió:
Dredok escribió:
FoxFurius escribió:Duda ¿32nm no es ya un poco anticuado? Hay varias empresas bajando a 14nm y en la noticia pone "tecnología que la compañía usa para los chips mas modernos"


sólo hay dos opciones:
- el autor ha patinado
- el autor ha sido irónico

32 nanometros es muy barato de producir, eso sí.

sin entrar a leer la fuente de la noticia, seguramente tienen caches no coherentes y probablemente la arquitectura se asemeja más a una de GPU que no de CPU "tradicional".


Por no hablar de la temperatura, si usa esa arquitectura de 32nm y con tal cantidad de transistores conmutando debe tener una buena refiregeración.

Si funciona con una pila AA, no puede generar mucho calor. Los nm da igual en este caso si no es capaz de producir tanto calor.
Para renderizar vídeos y subirlos a youtube me irá bien?supongo que si.
Pero ni con eso y la 1080 podra conseguir que Batman de PC se pueda jugar a 1080 a 60 fps estables....
pitipitrekus está baneado por "Usar clon para continuar actividad en CV"
no si al final....
Imagen [qmparto] [qmparto] [qmparto]
Sisi, pero tiene el sello de RVReady? XD XD XD XD
Entonces con este procesador podremos comprimir mas rápido video a 1440p en h.265 a 12 bits y usando submuestreo de croma 4:4:4 frente a los i7 actuales.

Ya que pegarse una hora por minuto de video para 1440p o mas... siguen siendo muy lento para un 2700k.
Awesome, el nuevo lumia lo llevara dentro... [bye]
Habia oido hablar del séptimo nucleo pero 1000? [+risas]
Que se dejen de rollos y se pongan a trabajar en un crecepelo decente. [+risas] [+risas]
menudo nivelazo de comentarios
Con este procesador ya podré mover el "Hig Resolution Pack" del Duke Nukem sin lags [qmparto] [qmparto] [por lo visto su creador estaba en el futuro y lo porgramó con esto, ya que ni con un Octacore Actualo lomueve bien XD]

Buena notica sin duda, a ver que nuesvos Software y aplicaciones logran sacarle provecho cuando llegue al gran público... [oki]
Cuentan las leyendas de eol que este chip esta oculto dentro de cada xbox one y que direct x12 destara todo su poder de procesamiento.
Y esto para que sirve?? para vender no??? :)
Pillo sitio! Este hilo va tomando forma para convertirse en épico. [qmparto] [qmparto]
eR_pOty escribió:
Pesequis escribió:Pero es que eso es lo normal.
Primero hay que desarrollar el hardware y luego vendrá el software optimizado para ese hard....sería bastante más complicado hacerlo al revés.
Lo qye habría que sabes es que potencia, capacidad de proceso, instrucciones, etc,etc tiene cada nucleo de estos, porque no creo yo que sean compatibles x86 precisamente.....supongo que se aproximarán más a los CUDA o algo por el estilo.

no es por nada pero llevamos 10 años con los 6 nucleos de AMD y aun no se ha aprovechado practicamente la tecnologia multihilo.

esta claro que para exprimir el software primero hay que crear el hardware pero si el software no lo exprimen los desarrolladores de poco vale tanto hardware.


En ordenadores de sobremesa o mejor dicho, en programas compatibles PC, vamos a decirlo así, llevas razón....pero ¿a que los drivers de las tarjetas graficas si que aprovechan todos los procesadores de las tarjetas?...idem de idem en telefonos moviles o consolas.
ArkFantasy escribió:
En lo que parece la web de quienes lo crearon, y en otras..pone 1,78 trillones no billones, y que serían 100 veces un procesador moderno de portátil.

Esta es la URL, al parecer creado por un equipo en la universidad Davis:
https://www.ucdavis.edu/news/worlds-first-1000-processor-chip

Si está escrito en inglés americano, el que lo ha traducido lo ha hecho bien. Es decir, trillón americano corresponde a un billón europeo. En EE.UU. un billón son mil millones (10^9) y un trillón un millón de millones (10^12). En europa un billón es un millón de millones (10^12; trillón americano) y un trillón europeo sería 10^18.
Y mientras las GPUs se están descojonando de las CPUs al ver esta noticia xD (CHISTACO, sorry)
Para el que no entienda el chiste, las gráficas tienen muchísimos núcleos, por ejemplo, mi gráfica tiene 960 núcleos (CUDA), las gráficas mas potentes superan los 2000 núcleos, pero no son lo mismo que el procesador, el procesador los núcleos hacen cálculos complejos mientras que las gráficas cada núcleo ejecuta una determinada acción simple. Como decir que un señor tiene que rellenar 2 impresos al dia y le lleva 3 a 5 horas rellenar todos los datos (CPU) y un chaval que ha entrado nuevo hace poco solo pone sellos a unos 10.000 impresos por día de toda la oficina y le lleva unos segundos poner el sello a cada hoja (GPU). (ejemplo malo pero se entiende)


Bueno, la verdad es que para renders seria genial..


Pesequis escribió:En ordenadores de sobremesa o mejor dicho, en programas compatibles PC, vamos a decirlo así, llevas razón....pero ¿a que los drivers de las tarjetas graficas si que aprovechan todos los procesadores de las tarjetas?...idem de idem en telefonos moviles o consolas.


Básicamente seria el SO el responsable, porque por ejemplo Intel creo el HyperTread que permite usar la parte que no se usa de un núcleo para otro proceso, eso esta genial pero aun asi los 2 procesos pueden estar desperdiciando mucho procesador igualmente.

Las gráficas tienen muchos cudas pero yo me quede en el driver de Nvidia (353.62) porque si pongo drivers mas actualizados la gráfica no usa todos los núcleos, por poner un ejemplo con el 353.62 puedo jugar al NFS MW 2012 (invita la casa) de origin en ULTRA en 1440x900 a 60 FPs sin caídas, mientras que con el ultimo driver 361.xx o algo incluso en LOW en 1280x720P no alcanzo los 30 Frames y solo son los drivers. En el tema de las consolas son sistemas cerrados y usan todo el potencial disponible para el juego y los juegos tragan bastante HW, no es como un proceso que solo usa 0.3% de CPU ahora que tampoco dan todo su rendimiento, por ejemplo la PS3 tiene CELL de 8 núcleos de los cuales 6 son funcionales y cuando salio a la venta solo se usaban 2 núcleos y ahora se usan los 6. Y en la parte del Smartphone de todos esos núcleos que tienen creo que ningún smartphone utiliza mas que 1 solo, porque yo tengo una mierda de BQ de cuatro nucelares a 1.2GHz y solo utiliza 1 núcleo, los otros 3 siempre marca "durmiendo/apagado" lo cual la batería me dura lo suyo, es que ni los juegos usan los otros núcleos, la GPU si, a tope pero el procesador que va (Modo debug "desarrollador" puedes poner que te marque uso de CPU y GPU en pantalla). Con lo que me pregunto porque me gaste una pasta en Quad si no los usa nunca o casi nunca?. Porque si le meto un programa de Test de HW como Atutu si que los usa pero lo demás na... Por eso pienso que comprar Smartphone de 300 Leuros o más es tirar el dinero.



zantzue escribió:
ArkFantasy escribió:
En lo que parece la web de quienes lo crearon, y en otras..pone 1,78 trillones no billones, y que serían 100 veces un procesador moderno de portátil.

Esta es la URL, al parecer creado por un equipo en la universidad Davis:
https://www.ucdavis.edu/news/worlds-first-1000-processor-chip

Si está escrito en inglés americano, el que lo ha traducido lo ha hecho bien. Es decir, trillón americano corresponde a un billón europeo. En EE.UU. un billón son mil millones (10^9) y un trillón un millón de millones (10^12). En europa un billón es un millón de millones (10^12; trillón americano) y un trillón europeo sería 10^18.



La de veces que he discutido con algún Americano por esto xD.... Pero claro que pienso que ellos lo tienen bien y nosotros mal, prefiero usar Billón que no Mil Millones, al menos para no liarme me va mejor.
demasiado específico este hardware!...excesivamente lejos del usuario domestico y de su software...
no montan ya las gráficas 2000 y 3000 procesadores?
101 respuestas
1, 2, 3