Nvidia muestra la GPU Tesla 100, la más potente jamás creada

Las graficas no solo sirven para los juegos. Muchos calculos cientificos requieren de gran capacidad de computo, en eso las graficas aumentan mucho el rendimiento y con la paralelizacion de codigo que permiten hoy en dia...
GPU Tesla, .... repito, GPU "TESLA", .... voy a puntualizar mas, TESLA.

Si os informais un poco, vereis que la gama TESLA no tiene absolutamente nada que ver con la gama GEFORCE, y cuando digo nada ... es nada.

Si, es una grafica y realiza determinados puntos que tienen relacion, pero es como querer comparar un camion con una furgoneta, ambos llevan carga, pero nada que ver entre ambos casos.

La gama Tesla (que ni tan siquiera es la gama QUADRO, OJO) esta directamente relacionada con la capacidad de calculo paralelizado en operaciones de precision con inicio y final. Dicho de otro modo, cuando realizas un render en un programa como 3DStudio, le dices en que pixel tiene que comenzar y en cual tiene que terminar. Pero cuando ejecutas un render en tiempo real, esa tarea no tiene limite y depende de la optimizacion del motor con el hardware que lo ejecuta.

Este tipo de soluciones estan pensadas para simulaciones, precision en calculos de fuerzas, colisiones, impactos de particulas o incluso comportamientos de liquidos o fluidos. Todo ello puede representar un ahorro en tiempo bestial, pero en ningun caso ejecutan algo "grafico" que sea visible de algun modo. De hecho, es como si a un PC le pasas el test de SuperPI y solo ves el resultado y el tiempo que ha tardado en realizarlo ... aqui es lo mismo, solo que no trabaja una "cpu" trabajan miles de motores de calculo simultaneamente y en paramelo para conseguir el resultado.

Pero lamentablemente el problema no lo tiene la gente, lo tiene NVIDIA por llamar a este encapsulado GPU, cuando en realidad deberia llamarse de otro modo.
cercata escribió:
sanamarcar escribió:Pero creo como dije hace tiempo que veremos el rendimiento de una 970 por 180 euros..

Ojala, pero pinta mal, van a consumir mucho menos, y disipar menos calor, pero el coste por puerta logica esta subiendo ahora, no es como antes:

Imagen


Una grafica con 250 mm2 y gddr5x con 4 GB y bus 128 bits se venderia como rosquillas por 200 euros. Es que en nada las gtx 970 se veran por 250 euros nuevas y segundamano por 200.
sanamarcar escribió:Una grafica con 250 mm2 y gddr5x con 4 GB y bus 128 bits se venderia como rosquillas por 200 euros. Es que en nada las gtx 970 se veran por 250 euros nuevas y segundamano por 200.

Ojala.

El tema es cuanto les cuesta a ellos fabricarlas. Antes con la reducción de la tecnología de fabricación, se reducían mazo los costes, pero ahora ya ves que hasta suben ...

Al menos por el lado memorias si que está habiando avances gordos con las memorias 3D, esperemos que por ahí venga la rebaja, pero yo no estoy tan seguro.

Edy escribió: pero es como querer comparar un camion con una furgoneta

Claro, pero si VW saca furgonetas con motores que tienen un 40% mas de rendimiento, no tardara mucho en aplicar esas mejoras a los coches ;)
La patada en los huevos que habrá sido para los del esperar las gráficas estas.
[angelito]

Me acuerdo cuando me decían que no me comprara las GTX980Ti, que esperase esas gráficas del Pascual ese.
[qmparto]
Pues ya podéis esperar 2 años mas a que el precio baje de 500€ o 1000€.

Por cierto, y otro año para que los drivers estén depurados o maduros.
AlbertX escribió:Yo no recuerdo un tiempo donde las tarjetas de video quedaran tan estancadas, estas tarjetas salieron mas o menos en Septiembre del 2014!!!!

No ha habido progreso alguno desde entonces, hablamos ya de 18 meses sin ninguna nueva tarjeta.

Antes teniamos un refresh cada 12 meses mas o menos.

No se si esto es algo bueno o malo, pero me sorprende lo que estan tardando.


Ten en cuenta que esta tarjeta no es para un PC de casa ni gamer, suelen utilizarse para centros de cálculo como dice la noticia.

Pero si no hay avance en las otras supongo que estarán teniendo los mismos problemas que tuvieron los PC's en su día. Como meter más transistores e incrementar la velocidad de cálculo en esa placa tan pequeña consiguiendo disipar la calor que genera. Supongo que lo próximo serán tarjetas multi-nucleo o algún invento similar (ya se empezó con el SLI o CrossFire), pero aún así siguen calentándose y consumiendo su potencia.
TeTBCN escribió:Me acuerdo cuando me decían que no me comprara las GTX980Ti, que esperase esas gráficas del Pascual ese.
[qmparto]
Pues ya podéis esperar 2 años mas a que el precio baje de 500€ o 1000€.

Por cierto, y otro año para que los drivers estén depurados o maduros.

Pues igual que hiciste tu respecto a las 780ti, y estos respecto a los anteriores... Ya ves tu que novedades.
mxmax escribió:
Miguel Jorge escribió:Y hasta aquí anunciaron. Nvidia también presentó un pequeño superordenador, el DGX-1 (rendimiento de 170 TFLOPS), con el que demostrarán las capacidades de Tesla P100 (disponible por 129.000 dólares).


¿Por 129.000 dólares el superordenador o la gráfica? Porque si es la gráfica, menuda master race [mad]

Ya, ya sé que no es para el público.


Eso es la workstation entera con sus 8 tarjetas.

"NVIDIA anunció el DGX-1, una supercomputadora dedicada a aprendizaje automático que integra dos procesadores Xeon y ocho Tesla P100, cada una con 16 GB de memoria HBM2. El precio: 129.000 dólares."
Ya van 3 veces que oigo la palabra "Tesla":

1: Fallout 4, revista Ciencia Tesla
2: El nuevo automovil no se si hibrido o electrico solo de Tesla
3: Aqui

Hay un complot para que Tesla domine el mundo [mad]

Coñas a parte, esto quiere decir que ahora los "ordenadores de automoviles" que requieren tantisima potencia, se convertiran en KITTs?? a no, que sigo de coña XD
Edy escribió:GPU Tesla, .... repito, GPU "TESLA", .... voy a puntualizar mas, TESLA.

Si os informais un poco, vereis que la gama TESLA no tiene absolutamente nada que ver con la gama GEFORCE, y cuando digo nada ... es nada.

Si, es una grafica y realiza determinados puntos que tienen relacion, pero es como querer comparar un camion con una furgoneta, ambos llevan carga, pero nada que ver entre ambos casos.

La gama Tesla (que ni tan siquiera es la gama QUADRO, OJO) esta directamente relacionada con la capacidad de calculo paralelizado en operaciones de precision con inicio y final. Dicho de otro modo, cuando realizas un render en un programa como 3DStudio, le dices en que pixel tiene que comenzar y en cual tiene que terminar. Pero cuando ejecutas un render en tiempo real, esa tarea no tiene limite y depende de la optimizacion del motor con el hardware que lo ejecuta.

Este tipo de soluciones estan pensadas para simulaciones, precision en calculos de fuerzas, colisiones, impactos de particulas o incluso comportamientos de liquidos o fluidos. Todo ello puede representar un ahorro en tiempo bestial, pero en ningun caso ejecutan algo "grafico" que sea visible de algun modo. De hecho, es como si a un PC le pasas el test de SuperPI y solo ves el resultado y el tiempo que ha tardado en realizarlo ... aqui es lo mismo, solo que no trabaja una "cpu" trabajan miles de motores de calculo simultaneamente y en paramelo para conseguir el resultado.

Pero lamentablemente el problema no lo tiene la gente, lo tiene NVIDIA por llamar a este encapsulado GPU, cuando en realidad deberia llamarse de otro modo.

POR FIN
Ya me estaba entrando cierto mosqueo al leer los comentarios.
NADIE de vosotros va a comprar para uso personal una GPU tesla, son para empresas o centros científicos.
NeCLaRT escribió:
TeTBCN escribió:Me acuerdo cuando me decían que no me comprara las GTX980Ti, que esperase esas gráficas del Pascual ese.
[qmparto]
Pues ya podéis esperar 2 años mas a que el precio baje de 500€ o 1000€.

Por cierto, y otro año para que los drivers estén depurados o maduros.

Pues igual que hiciste tu respecto a las 780ti, y estos respecto a los anteriores... Ya ves tu que novedades.


Igual que hice yo?
Lo siento, pero no espere nada.
Yo en diciembre ya estaba harto de la XBO (la "O" no es de "One", es de "Obsoleta") y me compre un PC Gamer.
Y no es la ultima, estan las Titan y mejores que esa. La gtx980ti me parece que ya es una gráfica madura, no?

Si habláramos de las Titan, entonces sí que hablamos de una generación muerta. Calidad/Precio más absurdo que una SLI GTX980Ti que supera en ese baremo a las Titan y ahi si que ya es mejor pillar las Pascal (cuando salgan, ya que esta no es para jugar) si se tiene la pasta para una Titan.
Hevydevy escribió:Ains, luego cuando saquen la 1080 sólo será un 20% más potente que la 980Ti, verás.


querras decir el 20% de la 1080 ti no de la 1080 jjejeje
mmiiqquueell escribió:Esta noticia me viene a decir que la top para ULTRA de los juegos no sera la 980/980Ti que piden ahora, que la VR pedira una grafica mucho mas potente. Esta claro que si quieres ganar dinero te pones a fabricar HW de PC aunque no tenga utilidad o mejora y lanzas una version nueva cada medio año o año por un precio considerable y a forrarse, ahora entiendo la cara de expresion de la meme Master Race.

SangReal escribió:Volvamos a 2016, y esto correra oculus?

Correra VR de 2016 pero no de 2017, para el de 2017 necesitaras una grafica superior, encima la mas cara. Igual que en 2015 VR valia para todas las graficas, ahora solo vale para las altas gamas.


Vamos tio, hazte un favor... vete a leer...

Primero busca para que son la GPU Tesla... y despues borras tu comentario rápidamente para no seguir haciendo el ridiculo.

Bueno y como referencia te dejo, con una Sapphire HD 7970 3GB(Gráfica de hace 3 años) seguía jugando TODOS los juegos actuales a 1080p y en Ultra con todos los filtros al maximo (Hasta que la vendí hace 1 mes)... ahí queda hecho añicos todo lo que escribiste...
En serio una grafica de 3 años que se lanzo como la grafica mas potente del mercado a 550$ te seguia funcionando bien? WOW

Eso si todo a tope pero hay que cambiarla, no sea que no acabe de ser tan verdad.
Póngame dos superordenadores, por favor.
modez escribió:4096 bit de ancho de banda!?!


si, es el ancho de banda de la memoria hbm, como las fury de amd
Espero que este cambio sea similar al de la 7800 GTX a la 8800 GTX, eso si fue un cambio bastante brutal.
No olvidemos que los procesadores y demas parafernalia que tiene que ver con procesos no es principalmente para videojuegos, en la facultad de computacion tenia un profesor que era cientifico activo de un centro de investigacion, el desarrollaba chips para muchos ramos, hacia calculos para empresas etc.
Nos decia que el para hacer sus prototipos exactos, el tenia que hacer una ecuacion matematica que muchas veces era compleja, tan compleja que humanamente era imposible saber resultados a corto plazo, entonces dice que era cosa cotidiana poner a los ordenadores del centro de investigacion a resolver las ecuaciones, pero dice que era de llegar, introducir la ecuacion y dejar al ordenador procesandola, que normalmente era dejar 2 semanas a las maquinas 24/7, incluso habian calculos que demoraban casi el mes...
Eso hablando de maquinas de centros de investigacion, ya ni hablar lo que tardaria en maquinas caseras por muy de alta gama que sean...
SangReal escribió:
pochi escribió:
shinobi128 escribió:Volvamos a 2007.

Y con esto podré correr el Crysis???


No XD


Volvamos a 2016, y esto correra oculus?


Supongo que endras que comprar el pack , una para cada ojo [fumando]
Alguien me explica que tiene de impresionante este procesador si solo va a 1300mhz? que no desde hace siglos cualquier sujeto podia overclockear los procesadores a mas de 4 ghz? disculpen si es tonto lo que pregunto solo se me hace extraño ver tanta emocion ya que el de mi laptop que es mas obsoleta que un reloj de sol va 1 660 mhz No querran decir que eso va a 1300 ghz?
Pervélez está baneado por "troll sin gracia"
¿Podré jugar al buscaminas con éso?
Imagen
si luego la sacan a 3000 pavetes como la titanz cuando la sacaron se la pueden meter por el orto.

salu2
Tirará en Minecraft o habrá que conectar 2 por SLI?
he encargado un Sli, pero tengo dudas si me tirará er Cs go, er maincra y er happywheels =????? [poraki]

Bromas aparte no puedo entender como una puta tarjeta gráfica puede costar 21 millones de las antiguas pesetas, no lo entiendo, que está bañada y forjada con oro de 24k con engarzados de gema y esmeralda ? y aun asi no costaria 129.000 dolares.

Según explicó Jen-Hsun Huang, CEO de Nvidia, las unidades gráficas no sólo sirven para poder jugar a los últimos juegos en PC

Gracias Jen-Hsun Huang, mas arreglado la vida
Cada vez qe veo el nombre Tesla al lado de algo puntero me sale una sonrisa... :) El genio mas grande de todos los tiempos
Gendo_hikari escribió:Cada vez qe veo el nombre Tesla al lado de algo puntero me sale una sonrisa... :) El genio mas grande de todos los tiempos


Que razon tienes compañero. Tesla saca esta tarjeta, y la pone a 200 Geuros, funcionando a pleno rendimiento sin fundir los reactores de una central atomica para hacerla funcionar. O hubiera explotado, vete a saber porque estaba como una berenjena, pero era un puto genio.
minish97 escribió:Alguien me explica que tiene de impresionante este procesador si solo va a 1300mhz? que no desde hace siglos cualquier sujeto podia overclockear los procesadores a mas de 4 ghz? disculpen si es tonto lo que pregunto solo se me hace extraño ver tanta emocion ya que el de mi laptop que es mas obsoleta que un reloj de sol va 1 660 mhz No querran decir que eso va a 1300 ghz?

A estos procesadores no les importa la frecuencia porque no trabajan por velocidad, si no por paralelización de taréas. Un procesador de 4GHZ es un tocho impresionantemente grande que consumia una barbaridad para unos resultados infinitamente inferiores.
Las tarjetas gráficas funcionan con muchos cores (CUDA cores), es decir, son una cantidad bestial (por ejemplo, en la GTX 980 son 2048 cores) de pequeños procesadores que se encargan cada uno de una taréa. Así que en realidad tu procesador pentium 4 iría a 4GHZ, pero esta tarjeta va a 1300 x 2048 cores, por lo que es del orden de 1000 veces más rápida (aunque s unjusto comparar una GPU con una CPU)

¿Cual es el problema? que los procesadores cuanta más frecuencia, más se calientan. Teniendo tantos procesadores juntos a una frecuencia muy alta generaría tanto calor que se derretirían los componentes. Por ello funcionan a frecuencias mucho más bajas. En tarjetas gráficas siempre se oscila entre los 600 y los 1000 MHz debido a que mayores frecuencias pueden aumentar la temperatura. Si overclockeas la gráfica puedes subir a 1300 o 1500, pero con un aumento de consumo y de calor.

Lo que sucede con esta tarjeta es que han reducido el tamaño de los transistores del procesador de 28 nanometros a 16 nanometros. Lo cual significa que, al ser más pequeños, consumen menos y se calientan menos, con lo cual se pueden poner muchos más transistores en el mismo espacio (tiene el doble de transistores que el procesador de la titan x) y consumiendo lo mismo. Eso implica que aun con la misma frecuencia se pueden realizar más operaciones y se pueden tener más procesadores en menos espacio.

Así que por ejemplo, mientras que titan X (la tarjeta más potente del mercado) pueden procesar hasta 7 Tera FLOPS (floating operations per second), la nueva puede llegar a los 10.6 TFLOPs.

Pero además la nueva tarjeta viene con una nueva arquitectura que multiplica por mucho el ancho de banda (los datos se mueven más deprisa) y cuadruplica la memoria.
¿En cuanto estimaban los TFLOPS para conseguir un aimagen real en un mundo abierto?.

Porque 170 TFLOPS es una burrada, pero no son de la gráfica.
129.000 dólares ? ... espera que tengo suelto ;)
Reakl escribió:
minish97 escribió:Alguien me explica que tiene de impresionante este procesador si solo va a 1300mhz? que no desde hace siglos cualquier sujeto podia overclockear los procesadores a mas de 4 ghz? disculpen si es tonto lo que pregunto solo se me hace extraño ver tanta emocion ya que el de mi laptop que es mas obsoleta que un reloj de sol va 1 660 mhz No querran decir que eso va a 1300 ghz?

A estos procesadores no les importa la frecuencia porque no trabajan por velocidad, si no por paralelización de taréas. Un procesador de 4GHZ es un tocho impresionantemente grande que consumia una barbaridad para unos resultados infinitamente inferiores.
Las tarjetas gráficas funcionan con muchos cores (CUDA cores), es decir, son una cantidad bestial (por ejemplo, en la GTX 980 son 2048 cores) de pequeños procesadores que se encargan cada uno de una taréa. Así que en realidad tu procesador pentium 4 iría a 4GHZ, pero esta tarjeta va a 1300 x 2048 cores, por lo que es del orden de 1000 veces más rápida (aunque s unjusto comparar una GPU con una CPU)

¿Cual es el problema? que los procesadores cuanta más frecuencia, más se calientan. Teniendo tantos procesadores juntos a una frecuencia muy alta generaría tanto calor que se derretirían los componentes. Por ello funcionan a frecuencias mucho más bajas. En tarjetas gráficas siempre se oscila entre los 600 y los 1000 MHz debido a que mayores frecuencias pueden aumentar la temperatura. Si overclockeas la gráfica puedes subir a 1300 o 1500, pero con un aumento de consumo y de calor.

Lo que sucede con esta tarjeta es que han reducido el tamaño de los transistores del procesador de 28 nanometros a 16 nanometros. Lo cual significa que, al ser más pequeños, consumen menos y se calientan menos, con lo cual se pueden poner muchos más transistores en el mismo espacio (tiene el doble de transistores que el procesador de la titan x) y consumiendo lo mismo. Eso implica que aun con la misma frecuencia se pueden realizar más operaciones y se pueden tener más procesadores en menos espacio.

Así que por ejemplo, mientras que titan X (la tarjeta más potente del mercado) pueden procesar hasta 7 Tera FLOPS (floating operations per second), la nueva puede llegar a los 10.6 TFLOPs.

Pero además la nueva tarjeta viene con una nueva arquitectura que multiplica por mucho el ancho de banda (los datos se mueven más deprisa) y cuadruplica la memoria.


Muy buena la explicacion asi que era por los cores y por la reduccion de consumo gracias sabia que me estaba perdiendo de algo [+risas] Saludos y gracias otra vez
silentdoc escribió:129.000 dólares ? ... espera que tengo suelto ;)


Eso es la workstation con 8 Teslas, no una sola
Esperando la nueva Shield P1 con núcleo de fisión incluido.
si no sirve para jugar no me interesa. ni bajada de precios para las otras ni nada, a seguir esperando.
Sarggent escribió:Vamos tio, hazte un favor... vete a leer...

Primero busca para que son la GPU Tesla... y despues borras tu comentario rápidamente para no seguir haciendo el ridiculo.

Bueno y como referencia te dejo, con una Sapphire HD 7970 3GB(Gráfica de hace 3 años) seguía jugando TODOS los juegos actuales a 1080p y en Ultra con todos los filtros al maximo (Hasta que la vendí hace 1 mes)... ahí queda hecho añicos todo lo que escribiste...



El ridículo lo harás tu, se de sobra para que son las Tesla y eso no impiden que puedas usarlas para juegos y con muy buenos resultados debo decir, así que no voy a borrar nada ni mi comentario a quedado hecho añicos.
mmiiqquueell escribió:
Sarggent escribió:Vamos tio, hazte un favor... vete a leer...

Primero busca para que son la GPU Tesla... y despues borras tu comentario rápidamente para no seguir haciendo el ridiculo.

Bueno y como referencia te dejo, con una Sapphire HD 7970 3GB(Gráfica de hace 3 años) seguía jugando TODOS los juegos actuales a 1080p y en Ultra con todos los filtros al maximo (Hasta que la vendí hace 1 mes)... ahí queda hecho añicos todo lo que escribiste...



El ridículo lo harás tu, se de sobra para que son las Tesla y eso no impiden que puedas usarlas para juegos y con muy buenos resultados debo decir, así que no voy a borrar nada ni mi comentario a quedado hecho añicos.

Claro, y puedes usar una calculadora gráfica solo para hacer sumas y restas, obviamente las hará, pero su propósito va mucho más allá, no le comprarías una calculadora gráfica a tu hijo de primaria, ¿verdad?
kosmos224 escribió:
silentdoc escribió:129.000 dólares ? ... espera que tengo suelto ;)


Eso es la workstation con 8 Teslas, no una sola


Sí, yo también he leído el artículo gracias.

Si quieres la broma para una sola Tesla tb te la puedo hacer :

129/8 = 16.125 dólares ? ... espera que tengo suelto ;)

La intención era echar unas risas. Aunque ahora sea totalmente infumable a nivel usuario comprar una, la cuestión es que la tecnología ha vuelto a dar un salto cualitativo. Eso es lo importante. En unos años las tendremos en equipos domésticos :)
Buenas.

TSMC esta dando en el clavo con el FinFet, con lo que vamos a ver productos de otros fabricantes a el mismo nivel que este procesador de computo paralelo.

Entiendo que el salto productivo no sea así ya que TSMC fabrica para varios killers del consumo y esto lastra los tiempos de diseño de NVIDIA cual se ve supeditado a dicho fabricante, lo extraño en si, es que no hayan sacado un prototipo en 14nm y/o 7nm, cuando ya la anunciaron en su roadmap (TSMC) para este año.

Por si las dudas, este tipo de procesador, es usado para calculo computacional, pero puede funcionar con gráficas como si fuese un coprocesador matemático. Eso si, con la limitación que imponga en northbridge entre gráfica, procesador computacional y CPU. Como ejemplo practico, la tecnología Physics de NVIDIA mantiene el calculo de las físicas en los juegos, así liberando la carga de la misma a la CPU, cual ya tiene bastante haciendo de profesor en el patio del colegio con tanta tecnología incompatible entre si ( USB, T sonido, T grafica, T red, etc )

Sea como fuere, bienvenida sea.

Gracias por el articulo.

Saludos
troon95 escribió:Claro, y puedes usar una calculadora gráfica solo para hacer sumas y restas, obviamente las hará, pero su propósito va mucho más allá, no le comprarías una calculadora gráfica a tu hijo de primaria, ¿verdad?



Como la mayoría que se compra un ordenador Gamer de 2000€ (i7, 32GB RAM, GTX980Ti SLi) con pantalla 4K3D cuyo propósito es para jugar en su máximo esplendor y luego se ponen a jugar a juegos como Undertale, LoL, Dota, WoW, HeartStorm, CSGO, TF2, etc.... y la mayoría son niños rata en el Minecraft los que tienen estos ordenadores. Mismo ejemplo desde otro punto de vista.

Si la gráfica esta diseñada para un propósito lógicamente se usara para ese propósito pero si le puedes sacar provecho de otro uso le darás dicho uso y si vale para los juegos pues a jugar.

Mi gráfica es para juegos y sin embargo le doy más uso para el diseño 3D y cálculos de los renders y ese no es su propósito ya que no esta preparada para ello y ralentiza considerablemente los tiempos de render pero eso no significa que no pueda usarla para ello.

Como los Smartphones, la gente se gasta 700 a 1000€ en un smartphone solo para jugar al Candy Crash y usar el Instagram o Watchapp, selfies pato y poco mas, tiene mucho potencial pero la gente no le da uso para el que esta diseñado.

El ejemplo de la calculadora gráfica esta genial, esta diseñado para un propósito pero tiene la opción de sumar y restar, a caso no puedo usarlo porque no es para eso? entonces me estas diciendo que los botones sumar y restas están decorativos? puede que un niño de primaria no le vea utilidad a la calculadora con todos esos botones y solo usara sumar y restar pero en un futuro que llegue a la ESO/BAT le sera de utilidad y no tendrá que comprar otra solo porque la que tenia antes era de los chinos normal que incluso tiene números repetidos y no le valía para cálculos científicos.
troon95 escribió:
Edy escribió:GPU Tesla, .... repito, GPU "TESLA", .... voy a puntualizar mas, TESLA.

Si os informais un poco, vereis que la gama TESLA no tiene absolutamente nada que ver con la gama GEFORCE, y cuando digo nada ... es nada.

Si, es una grafica y realiza determinados puntos que tienen relacion, pero es como querer comparar un camion con una furgoneta, ambos llevan carga, pero nada que ver entre ambos casos.

La gama Tesla (que ni tan siquiera es la gama QUADRO, OJO) esta directamente relacionada con la capacidad de calculo paralelizado en operaciones de precision con inicio y final. Dicho de otro modo, cuando realizas un render en un programa como 3DStudio, le dices en que pixel tiene que comenzar y en cual tiene que terminar. Pero cuando ejecutas un render en tiempo real, esa tarea no tiene limite y depende de la optimizacion del motor con el hardware que lo ejecuta.

Este tipo de soluciones estan pensadas para simulaciones, precision en calculos de fuerzas, colisiones, impactos de particulas o incluso comportamientos de liquidos o fluidos. Todo ello puede representar un ahorro en tiempo bestial, pero en ningun caso ejecutan algo "grafico" que sea visible de algun modo. De hecho, es como si a un PC le pasas el test de SuperPI y solo ves el resultado y el tiempo que ha tardado en realizarlo ... aqui es lo mismo, solo que no trabaja una "cpu" trabajan miles de motores de calculo simultaneamente y en paramelo para conseguir el resultado.

Pero lamentablemente el problema no lo tiene la gente, lo tiene NVIDIA por llamar a este encapsulado GPU, cuando en realidad deberia llamarse de otro modo.

POR FIN
Ya me estaba entrando cierto mosqueo al leer los comentarios.
NADIE de vosotros va a comprar para uso personal una GPU tesla, son para empresas o centros científicos.



Osea que al final el Crysis no lo mueve¿?
Netacrawler escribió:
Hevydevy escribió:Me da un poco de rabia el tema gráficas, porque la tecnología la tienen ya...

Pues no se yo ehhh, alomejor NVIDIA si que tiene la tecnologia ya, pero lo que se dice AMD mas bien parece que van a remolque todo el rato, es mas tiene que meter refrigeracion líquida en las GPU de alta gama por que sino se le queman, alomejor si AMD pusiera un poco de competencia sobre la mesa no estaríamos tan "estancados".

Hevydevy escribió:...Vamos, es la sensación que me da, que por ejemplo (sin tener en cuentra el tipo de chip, sino que solo es un ejemplo) cuando Nvidia iba por la 680 ya estaban lo suficientemente avanzados para sacar la 980, pero decidieron pasar por la 780, 880 y demás para ir sacando más dinero por el camino, porque si vendieran la 980 directamente no les compensaría tanto.

Ojalá hubiera competencia real en el mundo de las gráficas.


Esta es la pura realidad. Y no digo que casi toda la culpa no sea de AMD, pero también buena parte la tenemos los usuarios. De un tiempo a esta parte ha habido un injustificado fanboyismo hacia NVIDIA, incluso en momentos en los que AMD ofrecía una relación potencia/precio bastante mejor. La gente no se da cuenta de lo importante que es que la guerra no la gane nadie, en términos de corporaciones y mercado, y se ha hecho mucha campaña gratis.
buffff... y con esto ejecuto GTA IV bien? jajaja :P
zerank escribió:Esta es la pura realidad. Y no digo que casi toda la culpa no sea de AMD, pero también buena parte la tenemos los usuarios. De un tiempo a esta parte ha habido un injustificado fanboyismo hacia NVIDIA, incluso en momentos en los que AMD ofrecía una relación potencia/precio bastante mejor. La gente no se da cuenta de lo importante que es que la guerra no la gane nadie, en términos de corporaciones y mercado, y se ha hecho mucha campaña gratis.

Yo no creo que sea fanyobismo injustificado, es simplemente que si AMD no se pone las pilas y les pasa de calle NVIDIA no va a sacar el arsenal, simple y llanamante, en mi opinión lo que tiene que hacer AMD es ponerse las pilas, y lo digo por que sería mejor para todos nosotros...

PD: Relación potencia/precio pero los Wattios se disparaban...
PD2: Lo que sería ya la reostia es que entrase un 3er competidor en el juego, lo cual veo entre improbable e imposible...
eR_pOty está baneado por "GAME OVER"
hasta al siguiente semana que saquen otra mas potente xddd
Ya estoy viendo a los tipicos "youtubers" con esta grafica y jugando al minecraft..
93 respuestas
1, 2