Nvidia muestra la GPU Tesla 100, la más potente jamás creada

Hace unas horas y en el marco de la conferencia GPU Technology 2016, Nvidia ha anunciado la que probablemente sea la GPU más potente de cuantas existen en el mercado bajo la nueva generación de chips Pascal, la Nvidia Tesla P100.

Como ellos mismos han indicado, P100 es la primera gran actualización de la familia Tesla para ordenadores de alto rendimiento desde el lanzamiento de las primeras con la arquitectura Kepler a finales del 2012. Según explicó Jen-Hsun Huang, CEO de Nvidia, las unidades gráficas no sólo sirven para poder jugar a los últimos juegos en PC, también a grandes estaciones de trabajo donde se requieran operaciones complejas y grandes cálculos, tales como ordenadores en automóviles o servidores.

Para ello han construido Tesla P100, ya que representa un aumento de rendimiento muy importante gracias a la combinación del proceso de fabricación de 16 nm junto a la arquitectura de chips Pascal (sucesor de la generación Maxwell). Veamos pues algunas de sus características junto a una tabla comparativa del Tesla P100:

Imagen

  • Está basado en un nuevo proceso de fabricación FinFET de 16 nm
  • Multiplica por dos la densidad de transistores
  • En comparación con Maxwell el rendimiento por vatio se multiplica por dos
  • 4 MB de memoria caché L2
  • 16 GB de memoria compatible con HBM2
  • Alcanza un ancho de banda de 1 TB/S
  • Rendimiento de precisión doble de 5.3 TFLOPs
  • Rendimiento de precisión simple de 10,6 TFLOPs
  • Arquitectura Pascal

Y hasta aquí anunciaron. Nvidia también presentó un pequeño superordenador, el DGX-1 (rendimiento de 170 TFLOPS), con el que demostrarán las capacidades de Tesla P100 (disponible por 129.000 dólares).
4096 bit de ancho de banda!?!
Miguel Jorge escribió:Y hasta aquí anunciaron. Nvidia también presentó un pequeño superordenador, el DGX-1 (rendimiento de 170 TFLOPS), con el que demostrarán las capacidades de Tesla P100 (disponible por 129.000 dólares).


¿Por 129.000 dólares el superordenador o la gráfica? Porque si es la gráfica, menuda master race [mad]

Ya, ya sé que no es para el público.
Vaya bicho y vaya precio que tendrá, no se si serán los 129.000$ el superordenador completo o sola la gráfica,
De todas formas envuélvanme una con no comer 8 años pillo uno.

Un saludo
Wow, quizá esto quiere decir que pascal vendrá con un aumento considerable en el rendimiento de las nuevas graficas (para juegos) como se vio en gtx 770 vs gtx 970, viendo lo que han conseguido en esta serie de T.graficas de trabajo.
Son todo cifras brutales, nuevo proceso aunque ya usado bastante en chips pequeños, pero no tan enormes. Nueva memoria, etc. Su precio en solitario debiera ser 2000 euros.

Pero creo como dije hace tiempo que veremos el rendimiento de una 970 por 180 euros..
Menuda relacion frames/dolares. Los mas caros de la historia.

Saludos eolianos.
Puf.. Los pelos como escarpias.
Lo interesante de esto, es que la nueva Titan X o 1080 Ti contará con especificaciones parecidas.
Visto con la perspectiva que requieren estas noticias, parece que la tecnología de 16nm es operativa y nos esperan grandes cosas.

Me llama la atención el tema de la refrigeración, que no se especifica, pero con esa densidad de transistores supongo que necesitará algo ad-hoc.
Es la que montará Ps4K
y quien coño se va a comprar dicho monstruo? se sabe el precio? es que aunque sea una empresa, no creo que me merezca la pena si necesito un super ordenador para no generar cuello de botella.
Para que luego sea un 10% más rápidas que las actuales y más caras.

Marketing
Joer, cada x tiempo, naturalmente, sale nvidia o amd con la mejor gráfica hasta la fecha...

Las noticias de este tipo y a me aburren...
Una verdadera maravilla para máquinas dedicadas, a ver elprecio final para el consumo de masas
Menudo bicharraco, y todavía tiene una parte desactivada (56 de 60 SMs activados). A ver qué llega de esto al mercado de a pie.

Huelga decirlo pero, si alguien quiere leer comentarios interesantes, que lea los de Anandtech.
Hunder escribió:Es la que montará Ps4K

Es verdad [hallow]
Aun asi no podra con el Crysis
modez escribió:4096 bit de ancho de banda!?!

Bueno por fin han superado en capacidades teóricas a SONY con su PS2 (del 2001) con un bus de datos del "GS" de 2560-bit [+risas]
josesoria escribió:Vaya bicho y vaya precio que tendrá, no se si serán los 129.000$ el superordenador completo o sola la gráfica,
De todas formas envuélvanme una con no comer 8 años pillo uno.

Un saludo


acabas de decirnos tu salario :P 1300$ al mes... 1151$ si son 14 pagas
jajaja
Yo no recuerdo un tiempo donde las tarjetas de video quedaran tan estancadas, estas tarjetas salieron mas o menos en Septiembre del 2014!!!!

No ha habido progreso alguno desde entonces, hablamos ya de 18 meses sin ninguna nueva tarjeta.

Antes teniamos un refresh cada 12 meses mas o menos.

No se si esto es algo bueno o malo, pero me sorprende lo que estan tardando.
Hevydevy está baneado por "Crearse un clon para saltarse un baneo"
Ains, luego cuando saquen la 1080 sólo será un 20% más potente que la 980Ti, verás.

Me da un poco de rabia el tema gráficas, porque la tecnología la tienen ya, pero nos van a ir sacando gráficas que van a ir escalando de potencia gradualmente para sacar más pasta revendiendo lo mismo, pudiendo sacarte una gráfica potente YA.

Al menos antes había más de 100% de mejora entre generación. Debieron darse cuenta que vendían lo mismo dando saltos del 20% que al 100%, y cada vez nos la van colando porque sólo 2 empresas tienen ese monopolio.
Volvamos a 2007.

Y con esto podré correr el Crysis???
sanamarcar escribió:Pero creo como dije hace tiempo que veremos el rendimiento de una 970 por 180 euros..

Ojala, pero pinta mal, van a consumir mucho menos, y disipar menos calor, pero el coste por puerta logica esta subiendo ahora, no es como antes:

Imagen
shinobi128 escribió:Volvamos a 2007.

Y con esto podré correr el Crysis???


No XD
SangReal está baneado del subforo por "flamer"
pochi escribió:
shinobi128 escribió:Volvamos a 2007.

Y con esto podré correr el Crysis???


No XD


Volvamos a 2016, y esto correra oculus?
Hevydevy escribió:Me da un poco de rabia el tema gráficas, porque la tecnología la tienen ya...

Pues no se yo ehhh, alomejor NVIDIA si que tiene la tecnologia ya, pero lo que se dice AMD mas bien parece que van a remolque todo el rato, es mas tiene que meter refrigeracion líquida en las GPU de alta gama por que sino se le queman, alomejor si AMD pusiera un poco de competencia sobre la mesa no estaríamos tan "estancados".
Hevydevy está baneado por "Crearse un clon para saltarse un baneo"
Netacrawler escribió:
Hevydevy escribió:Me da un poco de rabia el tema gráficas, porque la tecnología la tienen ya...

Pues no se yo ehhh, alomejor NVIDIA si que tiene la tecnologia ya, pero lo que se dice AMD mas bien parece que van a remolque todo el rato, es mas tiene que meter refrigeracion líquida en las GPU de alta gama por que sino se le queman, alomejor si AMD pusiera un poco de competencia sobre la mesa no estaríamos tan "estancados".


No se qué pensar realmente. Algunas generaciones de chips sólo suben los Hz, velocidad de memoria etc, pero en esencia son la misma tecnología. Podrían haberse saltado unas generaciones de gráficas y sacar directamente la última, en vez de hacer chips con limitaciones y luego irle incrementando la potencia gradualmente.

Vamos, es la sensación que me da, que por ejemplo (sin tener en cuentra el tipo de chip, sino que solo es un ejemplo) cuando Nvidia iba por la 680 ya estaban lo suficientemente avanzados para sacar la 980, pero decidieron pasar por la 780, 880 y demás para ir sacando más dinero por el camino, porque si vendieran la 980 directamente no les compensaría tanto.

Ojalá hubiera competencia real en el mundo de las gráficas.
Esta noticia me viene a decir que la top para ULTRA de los juegos no sera la 980/980Ti que piden ahora, que la VR pedira una grafica mucho mas potente. Esta claro que si quieres ganar dinero te pones a fabricar HW de PC aunque no tenga utilidad o mejora y lanzas una version nueva cada medio año o año por un precio considerable y a forrarse, ahora entiendo la cara de expresion de la meme Master Race.

SangReal escribió:Volvamos a 2016, y esto correra oculus?

Correra VR de 2016 pero no de 2017, para el de 2017 necesitaras una grafica superior, encima la mas cara. Igual que en 2015 VR valia para todas las graficas, ahora solo vale para las altas gamas.
Y la tesla esta.... Cuantos km recorre con una carga??
[ModeRat: ON]

Ola hamijos, esta grafisca para el maincra y caloduty funsiona verda?

[ModeRat: OFF]

Menudo bicharraco, imagino que este tipo de gráficas se deben utilizar en la producción de escenas 3D para las películas tipo superproducciones y estas cosas, no? Para estudios 3D y demas?

Que mas utilidad pueden tener? Hablo desde el total desconocimiento.
Menuda pasada de aparato , lo malo como siempre su precio ...
Hevydevy escribió:...Vamos, es la sensación que me da, que por ejemplo (sin tener en cuentra el tipo de chip, sino que solo es un ejemplo) cuando Nvidia iba por la 680 ya estaban lo suficientemente avanzados para sacar la 980, pero decidieron pasar por la 780, 880 y demás para ir sacando más dinero por el camino, porque si vendieran la 980 directamente no les compensaría tanto.

Ojalá hubiera competencia real en el mundo de las gráficas.

Entiendo lo que dices, yo sólo digo que si AMD se hubiera sacado una gráfica de la ostia de repente y hubiese plantado los cojones NVIDIA no podría haberse permitido hacer eso, el problema es que la competencia va a refubo, si hubiese competencia de verdad verías tu que rápido iba a avanzar todo.
U_Saks está baneado por "Saltarse un ban con un clon"
Ciencia ficción ... :-|
Ponga me dos de esas por favor [+risas]
Hevydevy escribió:
Netacrawler escribió:
Hevydevy escribió:Me da un poco de rabia el tema gráficas, porque la tecnología la tienen ya...

Pues no se yo ehhh, alomejor NVIDIA si que tiene la tecnologia ya, pero lo que se dice AMD mas bien parece que van a remolque todo el rato, es mas tiene que meter refrigeracion líquida en las GPU de alta gama por que sino se le queman, alomejor si AMD pusiera un poco de competencia sobre la mesa no estaríamos tan "estancados".


No se qué pensar realmente. Algunas generaciones de chips sólo suben los Hz, velocidad de memoria etc, pero en esencia son la misma tecnología. Podrían haberse saltado unas generaciones de gráficas y sacar directamente la última, en vez de hacer chips con limitaciones y luego irle incrementando la potencia gradualmente.

Vamos, es la sensación que me da, que por ejemplo (sin tener en cuentra el tipo de chip, sino que solo es un ejemplo) cuando Nvidia iba por la 680 ya estaban lo suficientemente avanzados para sacar la 980, pero decidieron pasar por la 780, 880 y demás para ir sacando más dinero por el camino, porque si vendieran la 980 directamente no les compensaría tanto.

Ojalá hubiera competencia real en el mundo de las gráficas.


Y prou...
Debe salir al mercado a un precio económico.. La One.5 montará dos de estas en Sli [fumando]
tiene soporte nativo de DX12?
DJSyNcRo escribió:Menudo bicharraco, imagino que este tipo de gráficas se deben utilizar en la producción de escenas 3D para las películas tipo superproducciones y estas cosas, no? Para estudios 3D y demas?

Que mas utilidad pueden tener? Hablo desde el total desconocimiento.


https://www.nvidia.com/object/gpu-applications.html
Pero una pregunta que me ronda, me va a tirar el Crysis a 60fps?
Las 2000 primeras veces de la coña del Crysis aún tenían su aquel...
alfax está baneado por "troll"
todo magnífico y muy bonito, pero estas cosas nosotros jamás las oleremos... Por lo tanto al margen de comentarlo, todo resulta una pérdida de tiempo..
-Angel- escribió:Las 2000 primeras veces de la coña del Crysis aún tenían su aquel...

No es coña es enserio :)
(mensaje borrado)
Teniendo en cuenta que el ordenador de 129000€ llevara unas 15 o 16 de estas, hagan numeros.
Por fín podré jugar a ARK, Assassins Creed: Unity y Batman: Arkham Knight tal y como fueron creados para jugar a 1080P en low y además lo que ahorras en calefacción salen bien de precio [poraki]
Pedazo bicho... Ese superordenador tiene que ser eficiente de cojones, por lo que seguro que hasta salen baratas.



P.D: Sí vais a jugar con eso sí:
Imagen


Más que gráficas, son tarjetas aceleradoras de cálculo.
En un par de décadas, por dos euros/dolares en los rastrillos, no hay que preocuparse [Ooooo]
93 respuestas
1, 2