[Debate] Gráficas... viable dual core - GPU?

Bienvenid@s!

Bueno en principio tenía interés en abrir un hilo así para amenizar esta sección del foro ya que hay mucho en plan fuentes de alimentación, micros, ayuda en general etc... y me gustaría ver de que conocimientos disponemos y abrir un debate sobre el que podría ser el siguiente paso en cuanto a una gráfica dual core y no dos procesadores (como hace ATI) o un sli interno sandwitch como hace nVIDIA.

Aquí no valoramos ni buscamos ni perseguimos a los fanboys de ninguna clase, se buscan opiniones imparciales sujetos al tema, y en fin, si os parece correcto y os animais aquí soys bienvenidos y a opinar! jeje.


---------

E aquí mi humilde opinión.

En vista de que cada vez la reducción en el tamaño de fabricación (40Nm), inclusión de memorias mucho más rápidas (GDDR5) evitando así aumentar el bus de memoria (recordemos que hace que el tamaño del PCB engorde exponencialmente...) yo si veo viable una gráfica dual core, que no 2 GPUs,... pero, mi duda es, pueden trabajar paralelamente o semi independiente como una cpu?
No tiene sentido hablar de multicore en una GPU por que ya tienen paralelismo propio.
Por ejemplo una GTX280 tiene 240 shaders (que son unidades de punto flotante) 10 grupos de 24
una HD4890 unos 800 (creo que en realidad son 160 que ejecutan 5 instrucciones por ciclo)
más luego unidades de texturas , rops, etc ...
Vamos si quieres puedes considerar que cada grupo de shaders es un core o incluso cada shader,
¿pero que seria para ti añadir dos cores?
¿distribuir dichas unidades en dos grupos con buses y control independientes?
Eso vendría a ser lo mismo que el SLI/Crossfire y teniendo en cuenta que esas tecnologías
escalan peor (por decir algo 2 tarjetas de 64 shaders iran peor que una sola de 128)
Seria un desperdicio de chips, otra cosa es que se les ocurre meter las dos GPU's en un solo encapsulado
(al estilo de los Pentium Duales) pero eso seria igual que una tarjeta X2 ahorrando soldaduras en la placa (y más chunga de refrigerar)
Es decir, que una gpu dual core (supongamos) le entra la información a procesar desde el PCI y no podría digamos hacer que la información entre a dos cores independientes que compartan una cantidad de memoria (mayor en este caso) mediante un ring bus similar como el que tenía ATI antaño?

Es que en el sli y el crossfire se pierde mucha información y no escala demasiado bien sobre todo porque depende mucho de la cpu para que escale, por eso quiero debatir si sería o no viable.
djohny24 escribió:Es decir, que una gpu dual core (supongamos) le entra la información a procesar desde el PCI y no podría digamos hacer que la información entre a dos cores independientes que compartan una cantidad de memoria (mayor en este caso) mediante un ring bus similar como el que tenía ATI antaño?

Es que en el sli y el crossfire se pierde mucha información y no escala demasiado bien sobre todo porque depende mucho de la cpu para que escale, por eso quiero debatir si sería o no viable.


Es que para eso duplicas el número de shaders RPS, etc ... como hacen hasta ahora, necesitas el mismo número de transistores
y escala mejor que dos GPU's
como bien dice @Harl, una GPU ya es de por si un procesador multicore, cada uno de los shaders que compone una GPU ya es de por si un core físico (en la propia arquitectura nvidia GT200 ya se denomina a los shaders "Processor Cores")...

la explicación es fácil, el renderizado es un proceso muy paralelizable que ha permitido la multiplicación de los núcleos de una GPU de manera exponencial (al menos las arquitecturas nvidia suelen ir duplicando el número de shaders en cada generación - más o menos-) y su utilización inmediata (no como las CPU multicore que no encuentran su espaldarazo definitivo fuera los programas típicos) por parte de los juegos (más shaders, mejor rendimiento)...
Entonces las especulaciones que tuvo hace un año ATI sobre lo que se rumoreaba de una GPU dual core, es.... 2 x gpu en un mismo encapsulado? Como bien dijiste al estilo pentium D.

Eso lo desconocía, que cada GPU sus "streams" o "processor cores" fueran ya de por si mini micros dentro de la GPU. Si que se que se encargan de prácticamente todo, programables etc, pero no se por qué me hice a la idea de que se podría hacer algo como lo que dije.
yo lo veria que el futuro posiblemente sea especializar algunas secciones en el GPU quiza para el uso de la fisica o inteligencia artificial o reconocimiento de imagenes para interfaces mas intuitivas y manejadas por ademanes o en programas de video o fotograficos, no solo en juegos sin o en todo programa con su propio juego de instrucciones.
Claro, además de eso, de que 2 cores no tienen porque hacer lo mismo ambos, sino uno a unas tareas y otro a otras dejando libre tamaño para procesar o meter más shaders, etc... tanto física, como una "ayudita" puente a la CPU.

Por cierto, los PCI exp 2.0 son suficientes para las gráficas más potentes del mercado estilo 4870x2 o GTX295? quiero decir, en cuanto a ancho de banda general nos referimos.
EL problema al final no es tanto de que tengas una GPU con sopotocientas unidades, sino de que los drivers y el SO sean capaces de usarlo en condiciones.

Estamos desde hace mucho con la paradoja de que el software en la mayoria de las ocasiones usa apenas una fracción de la potencia real del hardware, y lo que se hace es un "overkill" de hardware de manera que incluso con cuellos de botella la potencia disponible sea brutal.

Pondré un ejemplo TONTO... Windows XP y Vista en 2d (ojo... 2D nada menos) tienen una pila de acceso a la GPU de manera que en muchas ocasiones se te ralentiza la pantalla al tener muchos programas activos...ha tenido que ser en una actualización de W7 cuando a alguien se le ha ocurrido la "genial idea" de permitir que varios programas accedan simultaneamente a la GPU

Vamos, que usando XP, con memoria para parar un camión, un CoreI7, una grafica "quetecagas" y tienes cuellos de botella por un software diseñado con el culo
djohny24 escribió:Por cierto, los PCI exp 2.0 son suficientes para las gráficas más potentes del mercado estilo 4870x2 o GTX295? quiero decir, en cuanto a ancho de banda general nos referimos.


los PCIe 2.0 apenas se aprovechan, ni la mitad de su ancho de banda... no tienes más que ver que las gráficas actuales son compatibles con los slots PCIe 1.1 (la mitad de ancho de banda) y los resultados son prácticamente calcados...

los efectos de la retrocompatibilidad... hay demasiado parque de placas relativamente modernas (por ejemplo todas las P35) que únicamente disponen de slot PCIe 1.1... van a pasar por lo menos 3 años hasta que el PCIe 2.0 se pueda aprovechar en todo su esplendor...

y a todo ésto rumores de PCIe 3.0 para 2010-2011...
Menos PCI express de superanchodebanda "quetecagas" y mas optimizar los accesos.

EL problema es que los drivers actuales, salvo quizás alguna nueva hornada muy puntual para W7 no permiten que varios hilos accedan simultaneamente a la gráfica, de manera que tienes un ancho de banda potencial brutal y un SO y unos programas que meten los procesos en una cola, y hasta que uno no termina el siguiente se come los mocos.

Una grafica tocha MODERNA tiene potencial para mover autenticas cafradas, tema diferente es que por tema de S.O., programación, API´s y demas no se aproveche
Dx11 va a suponer un antes y un despues en cuanto a aprovechamiento global de la VGA? o es una mera actualización para obtener otros detalles de mayor calidad?.
optimización para multihilo, tesselation, computing shaders...

del dicho al hecho ya se sabe, pero por lo menos parece algo más (o por lo menos parece tener más chicha, algo) que lo que fue DX10, que mucho por aquí, mucho por allá y ¿realmente que coño aporta DX10? ¿iluminación? ¿algo?...
Bueno... veremos a ver, aun no me ha dado por probar el Win7. Tiene la version de prueba metida también el Dx11?

Pues si soporta mejor los shaders, multi-hilo, etc... Si que puede ser un salto cualitativo pero la que dices, a ver el programador final (desarrolladores) si le sacan partido como Dios manda. Porque almenos en DX10 no hay un salto exagerado como lo fue del DX8 al 9 jeje.

Para cuando se espera la 1º hornada de tarjetas DX11? como siempre después de verano?
es que el salto de DX8 a DX9 supuso el cambio de la antigua arquitectura a la de shaders unificados... vamos un antes y un después en la evolución del API que hasta ese momento sería el más utilizado, pero como API caía vapuleado por OpenGL... desde entonces se ha podido ver un gran cambio...

DX10 es a DX9 lo que Vista a XP... algo más bonito pero no demasiado necesario ni útil...

y por lo que parece DX11 será a DX10 lo que W7 a Vista... lo realmente tuvo que haber sido desde un principio...

por ahora sin haber hardware ni software compatible, aunque W7 lleve el runtime DX11 incluido no se puede ver nada funcionando... las primeras gráficas serán las GT300 (esta confirmada por nvidia) y RV870 (no tan claro por parte de ATI)... de fechas, ¿navidades?...
Pues veremos a ver, es decir que no hay nada visible de un juego o algo así en cuanto a rendimientos se refiere?

Quiero decir, si el S.O tiene DX11, la gráfica lo soportara... Los juegos basados en DX9 y 10 mejorarían el rendimiento dadas las características del api?

Mmm creí que el RV870 si correría Dx11.
16 respuestas