Ahora resulta: Con mantle y direct3D_12 se podra sumar la VRAM del CFX/SLI

paconan escribió:
TRASTARO escribió:Eso es porque Mantle/Vulkan/Direct3D12 usan los mismos principios que para funcionar requieren ciertas caracteristicas de la arquitectura del GPU, caracteristicas que esos GPUs radeon anteriores no reunen y por ello es que no pueden usar Mantle/Vulkan/Direct3D12.


y como puede ser que nvidia si pueda dar soporte a generaciones anteriores (como las fermi?)?


No hagas preguntas impertinentes, paconan... XD

Lo que te dice Trastaro es la "historia oficial", pero en realidad estamos hablando de algo más simple:

A AMD no le sale de la polla dar el soporte para DX12 en esas generaciones.

De la misma forma que también le gusta quedar muy bien diciendo que va a abrir sus APIs 3D propietarias (Mantle) para después no hacerlo e inventarse excusas como que si Vulkan ya es mantle pero free (disculpas de mal pagador, aunque fuera cierto, que no).

PD: NO se ha dado ninguna explicación TECNICA, concreta, de porqué no habrá soporte para DX12 en gpus preGCN, más cuando el soporte DX12 que lucen todas las gráficas tipo Kepler, Fermi maxwell 1.0 y GCN 1.x actuales son puramente a nivel de soft, no usando características hardware realmente nuevas. Ni siquiera algo tan a alto nivel (del driver) como los tiled resources son una excusa inválida (no está a nivel del "metal" controlar algo así, es irrelevante que AMD lo mencione como uno de los puntos). Más teniendo en cuenta que GCN en macroarquitectura no es demasiado distinta a las VLIW anteriores (sí cambia bastante a nivel de SIMD/MIMD, pero eso no es relevante para este tema).

Pero nada, tranquilo que como la prensa "técnica" no tiene ni una gota de puñetera, a la pregunta impertinente no le van a exigir respuestas más claras y concisas, vale con la "versión oficial" sin entrar en detalles, y ya está. [ok]
wwwendingo, ya no es ser impertinente, simplemente que no cuela

que me dijeran: "por falta de presupuesto", lo entendería, o "por falta de programadores" también, ya que parece que "habían ofertas interesantes" de trabajo en ese sector.
pero que venga con cuentos cuando la competencia (nvidia) si puede?
cuentos a otros [+furioso]

pero si, mejor dejar la "versión oficial" y tengamos el hilo tranquilo.

respecto al tema éste del hilo... ahora que parece que han soltado algo más de info... como lo ves? si esto es cierto... ya me estoy viendo a mi fx 9590 junto a mi r9 290 acomañados de una gtx 980 + gtx 750 para physx (y una fuente de 1100w XD [facepalm] )
Por lo menos una cosa es segura. Vulkan permitirá configuraciones multiGPU y si no lo permiten los drivers privativos lo permitirán los drivers libres. Y ya dijeron el otro día los de Valve que están haciendo el driver de Vulkan para Intel que con Vulkan es mucho más fácil que los drivers libres alcancen en rendimiento a los privativos al haber reducido tanto el papel del driver.
Probotector escribió:Si quieren revivir (mas aun) el gaming en PC mas vale que Windows 10 rinda sin problemas en los primeros meses de su lanzamiento y cumplan con la comida de polla que tienen entre ellos por las supuestas maravillas de DX12 XD



Yo llevo ya un tiempo con la preview y no volveria a win8.1, ni a win7 ni de coña, y si me viera obligado, volvería a win7 por no aguantar las chorradas del 8.
paconan escribió:wwwendingo, ya no es ser impertinente, simplemente que no cuela

que me dijeran: "por falta de presupuesto", lo entendería, o "por falta de programadores" también, ya que parece que "habían ofertas interesantes" de trabajo en ese sector.
pero que venga con cuentos cuando la competencia (nvidia) si puede?
cuentos a otros [+furioso]

pero si, mejor dejar la "versión oficial" y tengamos el hilo tranquilo.

respecto al tema éste del hilo... ahora que parece que han soltado algo más de info... como lo ves? si esto es cierto... ya me estoy viendo a mi fx 9590 junto a mi r9 290 acomañados de una gtx 980 + gtx 750 para physx (y una fuente de 1100w XD [facepalm] )


La suma de la VRAM no sirve para nada, si la gente se queja cuando se usa algo la memoria de sistema vía pci-e (mejor) o zonas lentas de gráficas de nvidia (mucho mejor que compartir memoria entre gráficas via pci-e), eso no va a ser útil ni ahora ni mañana para juegos 3D, no con los buses actuales, ni con los futuros vistos la evolución de la VRAM y de los buses.

Sobre si se podrá hacer "multigpu" a gusto directamente usando DX12, yo tendría mucho cuidado, la gente se olvida que no es que nvidia bloquee sus productos, es que TAMBIEN los bloquea AMD, no es algo de si tal o cual empresa lo hace, lo hacen todas. AMD no permite hacer crossfire con gráficas muy distintas, sino sólo con modelos "parecidos", sólo un poco más flexible que la propia nvidia. NO se mezclan siquiera gpus de arquitecturas "cercanas" del mismo fabricante aunque tengan potencia similar (yo qué sé, digamos 5870 y una 6850). Por algo será.

El método preferido de multigpu, de renderizado, era y es el AFR, y este método implica para funcionar correctamente que ambas gráficas (o las que sean) tengan una potencia muy parecida para que se pueda trabajar con frames alternativos sin grandes diferencias de latencia final y así, aunque haya un retardo extra en mostrar los frames en pantalla (lo que se tarda en renderizar X frames siendo X el resultado de número de tarjetas menos uno), y eso sólo se puede controlar bien usando el mismo driver (donde literalmente hasta podría meterse "esperas" si con esto se mejora la distribución de frames, no es cuestión de producir los máximos fps sin orden como bien demostró FCAT, AMD con su antiguo microstuttering, y el hard incorporado en las nvidia para monitorizar estos temas desde como mínimo fermi).

Los métodos alternativos que dividían la carga de un mismo frame entre gpus llevan tiempo existiendo, pero nunca han sido muy exitosos incluso funcionando, es más difícil alcanzar 100% de capacidad.

Fuera de esto, además me parece que estas funcionalidades lo que harán es complicar la vida al programador, ya que sería éste el que tiene que planificar la distribución del trabajo entre gpus, evaluar y crear los sistemas de control que le permitan analizar dicha carga, etc. Vamos, un coñazo, no creo que se vea esto en funcionamiento.

Eso sí, si alguien le echa huevos y no hace una chapuza (alta posibilidad), hasta podría obtener resultados interesantes incluso mezclando gpus de distinto fabricante. Pero a ver quién es el guapo que lo hace... :-|
josemurcia escribió:Por lo menos una cosa es segura. Vulkan permitirá configuraciones multiGPU y si no lo permiten los drivers privativos lo permitirán los drivers libres. Y ya dijeron el otro día los de Valve que están haciendo el driver de Vulkan para Intel que con Vulkan es mucho más fácil que los drivers libres alcancen en rendimiento a los privativos al haber reducido tanto el papel del driver.


hilo_valve-libera-primer-controlador-para-gnu-linux-para-vulkan_2081595
hilo_khronos-presenta-vulkan-antes-glnext-opengl-next_2080654
Si lo se. Por eso he dicho lo que he dicho xD.
Lo que tienen que hacer es módulos independientes de GDDR5 o de la memoria que sea en su momento, via PCI Express y fin de muchos quebraderos de cabeza.

Que se me queda corta de vram ? le meto un modulo y fiesta, sin necesidad de añadir otra tarjeta.
Mr_Bones escribió:Lo que tienen que hacer es módulos independientes de GDDR5 o de la memoria que sea en su momento, via PCI Express y fin de muchos quebraderos de cabeza.

Que se me queda corta de vram ? le meto un modulo y fiesta, sin necesidad de añadir otra tarjeta.

El problema es que no tendrían fiesta los fabricantes así que eso es un sueño lejano, si no que se lo digan a mis ex gtx680 que no veas que gusto me dio medio regalarlas.
No es mala idea de que la tarjeta de video tuviera sus bancos para montar la memoria de video [GDDR5 o GDDR3], el problema seria el costo de la memoria, compatibilidad, disponibilidad, etc. Y sumemosle que con HBM tenemos mucho mejor ancho de banda por la disposicion apilada.
paconan escribió:mantle vs dx12 con el test sintético del thief
max settings a 2k (todo, hasta los filtros)

equipo de pruebas:
Intel core i7 2600k @ 5 (v1.41)
16 gigas ddr3 @ 2133 cl 11
xfire R9 290 @ 1000 / 1300

dx11
Imagen

mantle
Imagen



Y dentro de poco poder hacerlo con 3Dmark, excelente.
Ya esta disponible el 3Dmark con prueba para D3D12 y Mantle sobre windows 10, que es el unico sistema operativo que soportara d3d12 [y las demas apis de dx12].

3DMark API Overhead Feature Test

Imagen
Imagen

Incluso ya ha salido una copmparativa entre una GPU AMD vs NVIDIA.

http://www.pcper.com/reviews/Graphics-C ... erformance

Intel Core i7-5960X
ASUS X99-Deluxe
16GB Corsair DDR4-2400
ADATA SP910 120GB SSD

Vemos que escala muy bien a mas nucleos del CPU, siendo que apartir de 6 nucleos el escalamiento disminuye, pero vamos, de que se aprovechan las arquitecturas modernas de los CPU, si que lo hace esta nueva APi D3D_12.

Imagen

Imagen


Se nota la diferencia entre modelos de gama media a gama alta, pro los ROPS y demas chunches.

Imagen

Imagen


Y la diferencia mantle/d3d12, al menos en un APU Kaveri con iGP de arquitectura GCN 1.1/1.2 ya no es tan marcada, asi que D3D12 a mejorado bastante, he de suponer.

Imagen



Otra comparativa, igual AMD, NVIDIA e INTEL usando estenuevo test de 3dMark.
http://www.pcworld.com/article/2900814/ ... nsane.html

Nuevamente vemos lo bien que escala con el # de nucleos del CPU.
Imagen

Rendimiento con diferentes procesadores, de gama baja a gama alta
Imagen

Con distintos GPUs mantle vs d3d12
Imagen

Imagen

Imagen





.
http://community.amd.com/community/amd- ... directx-12

En el blog oficial de AMD, Robert Hallock, quien es director de mercadotecnia de la empresa hablo sobre las principales caracteristicas de la API D3D12, destacando los Shaders Asincronos, que permiten realizar calculos del renderizado en los tiempos muertos [espera del GPU], y el Multi-threaded command buffer recording, que se encarga de acomodar las tareas [instrucciones] por el CPU para ser enviadas a su ejecucion en el GPU, optimizando el rendimiento y aprovechando todos los nucleos del procesador.

Imagen

Imagen
Tengo ganas de ver como avanza este tema, me suscribo. Aunque con mi 7950 me parece que no voy a tener todos los beneficios que prometen...
Salu2
Como esa mejora de x6 en drawcalls se traduzca aunque sea a la mitad en mejora de frames ya no me cambio de gráfica en años. :D

Soñar es gratis sí... :Ð
UNa explicacion grafica de los Shaders asincronicos

AMD Simplified: Asynchronous Shaders
https://www.youtube.com/watch?v=v3dUhep0rBs

Y un primer analisis de este sistema
https://www.youtube.com/watch?v=T9BYZ61Tfkw



.
Y seguimos a oscuras de como funcionara esto ya en la realidad y si sera igual en sistemas HBM, que yo deduzco que si... de funcionar.
66 respuestas
1, 2