DirectX 12 son malas noticias para Nvidia

1, 2, 3, 4, 58

Copy & paste de la web "elchapuzasinformatico"

La decisión de Microsoft en dar el salto a DirectX 12 podría haber ayudado a AMD en lugar de Nvidia. Tras las primeras pruebas de rendimiento del primer juego con DirectX 12, Ashes of the Singularity, las pruebas corroboran que AMD se encuentra mucho más cómoda moviendo juegos DX12 que Nvidia.

Las ultimas pruebas vinieron por parte de PC Perspective, la cual comparó el rendimiento gráfico de una AMD Radeon R9 390X frente a una GeForce GTX 980. El resultado es bastante simple de interpretar, Nvidia se encuentra como pez fuera del agua bajo la API DirectX 12. Mientras que en DirectX 11 Nvidia sigue dominando, con la llegada de DX12 cambiarán mucho las cosas.

Si tienes una CPU con muchos núcleos son buenas noticias, porque cuanto más núcleos tenga la CPU mayor es la ganancia de rendimiento de AMD, mientras que Nvidia se ha limitado a decir oficialmente que “Ashes of the Singularity no es un buen indicador del desempeño de un juego bajo DirectX 12“, y es normal, la diferencia de la GPU de Nvidia en DX11 vs DX12 es mínima, mientras que AMD ve como consigue hasta duplicar su rendimiento.

Imagen

Imagen

Imagen

Imagen

Imagen

El motivo detrás de que AMD aproveche mejor la API DirectX 12 no es magia, por si no lo sabías AMD ya había adelantado todo ese trabajo con el desarrollo y apoyo de todo aquello que estuviera basado en las API Mantle y Vulkan, es por ello que los primeros juegos dotados de un motor gráfico compatible con Mantle/Vulkna serán los mismos que ahora llegarán con DirectX 12 bajo el brazo, como es el ejemplo de Oxide con su motor gráfico Nitrous Engine usado por Ashes.

https://www.youtube.com/watch?v=AFBtGYV ... tion=share





El debate esta abierto, ¿que pensáis vosotros?
No soy muy entendido pero personalmente las gráficas ya hace tiempo que me gustan más las AMD, creo que son más fluidas en general y me gusta más cómo trabajan.
Es el primer software en mostrar algo en DX12 se saldrá de dudas si la historia se repite más adelante. Eso sí, hay una cosa que es seguro y es que haber quitado capas a la hora de comunicarse en SO<->DRIVER<->TARJETA le ha sentado bastante bien a AMD.

Ya veremos como avanza el tema. Se supone que el primero en llegar será el nuevo Fable.
Pues mira genial. La competencia siempre es buena para el consumidor XD
madh escribió:Pues mira genial. La competencia siempre es buena para el consumidor XD


Tengo una ligera curiosidad por ver como rinden las Fury y una curiosidad HENORME por ver como rinden las 290/x
El juego esta patrocinado por AMD, ademas creo que el Oxide engine ya habian trabajado con Mantle antes, supongo que eso en algo beneficiara a las GCN.

En cualquier caso son buenas noticias que las Fury X o las 390X pongan en aprietos a sus competidoras.
Indudablemente los números presentados favorecen a AMD, pero creo que es pronto para sacar conclusiones.

Tal vez NVIDIA se tenga que poner las pilas con los drivers y la optimización. De todas formas que Amd gane terreno respecto a Nvidia creo que es positivo para todos. No es bueno que una de las dos tome tanta ventaja como la que Nvidia ha logrado en DX11.

loco_desk escribió:Tengo una ligera curiosidad por ver como rinden las Fury y una curiosidadHENORME por ver como rinden las 290/x


Por favor corrige eso, duele a los ojos.
RaulKO escribió:Indudablemente los números presentados favorecen a AMD, pero creo que es pronto para sacar conclusiones.

Tal vez NVIDIA se tenga que poner las pilas con los drivers y la optimización. De todas formas que Amd gane terreno respecto a Nvidia creo que es positivo para todos. No es bueno que una de las dos tome tanta ventaja como la que Nvidia ha logrado en DX11.

loco_desk escribió:Tengo una ligera curiosidad por ver como rinden las Fury y una curiosidadHENORME por ver como rinden las 290/x


Por favor corrige eso, duele a los ojos.



Esta puesto asi a posta .....
Matar a un perro no te hace motoperro.

Es un juego y aparte se habla de una tarjeta que espera su reemplazo... Visto como va este mundo yo me esperaría a ver mas juegos.
con solo ver la 1º tabla y notar que la 980 rinde menos en dx12 que en 11 me basta para ver que hay algo que falla
asi que prefiero esperar a otras pruebas con otros juegos
Desde la pagina del desarollador del juego, y cuyo benchmark estan hablando:

El cofundador de la empresa hace referencia a controladores inmaduros, el estado beta del juego, y el como se deben de entender los datos arrojados en el benchmark integrado en el juego. Tambien menciona sobre el error que encontro nVidia sobre el uso de MSAA, y de como con Direct3D12 deberia deshabilitarlo hasta que se tengan controladores del GPU depurados y corregidos.

http://www.oxidegames.com/2015/08/16/th ... a-new-api/
Dan Baker, Co-Founder Oxide Games escribió:
The Birth of a new API

Posted on August 16, 2015 by Dan Baker
The Coming of DirectX 12
By Dan Baker, Co-Founder, Oxide Games

This past week we made available a pre-beta of Ashes of the Singularity, our upcoming massive-scale real-time strategy game. Amongst other firsts, it utilizes DirectX 12 which became available as part of the Windows 10 launch last month. Our game also includes a 3D benchmark for users to play with.

Unfortunately, we have to make some corrections because as always there is misinformation. There are incorrect statements regarding issues with MSAA. Specifically, that the application has a bug in it which precludes the validity of the test. We assure everyone that is absolutely not the case. Our code has been reviewed by Nvidia, Microsoft, AMD and Intel. It has passed the very thorough D3D12 validation system provided by Microsoft specifically designed to validate against incorrect usages. All IHVs have had access to our source code for over year, and we can confirm that both Nvidia and AMD compile our very latest changes on a daily basis and have been running our application in their labs for months. Fundamentally, the MSAA path is essentially unchanged in DX11 and DX12. Any statement which says there is a bug in the application should be disregarded as inaccurate information.

So what is going on then? Our analysis indicates that any D3D12 problems are quite mundane. New API, new drivers. Some optimizations that the drivers are doing in DX11 just aren’t working in DX12 yet. Oxide believes it has identified some of the issues with MSAA and is working to implement workarounds on our code. This in no way affects the validity of a DX12 to DX12 test, as the same exact workload gets sent to everyone’s GPUs. This type of optimization is just the nature of brand new APIs with immature drivers.

Immature drivers are nothing to be concerned about. This is the simple fact that DirectX 12 is brand-new and it will take time for developers and graphics vendors to optimize their use of it. We remember the first days of DX11. Nothing worked, it was slower then DX9, buggy and so forth. It took years for it to be solidly better then previous technology. DirectX12, by contrast, is in far better shape then DX11 was at launch. Regardless of the hardware, DirectX 12 is a big win for PC gamers. It allows games to make full use of their graphics and CPU by eliminating the serialization of graphics commands between the processor and the graphics card.

I don’t think anyone will be surprised when I say that DirectX 12 performance, on your hardware, will get better and better as drivers mature.


[..]

What should you expect out of a non-synthetic benchmark?

[..]

Our benchmark run is going to dump a huge amount of data which we caution may take time and analysis to interpret correctly. For example, though we felt obligated to put an overall FPS average, we don’t feel that it’s a very useful number. As a practical matter, PC gamers tend to be more interested the minimum performance they can expect.

People want a single number to point to, but the reality is that things just aren’t that simple. Real world test and data are like that. Our benchmark mode of Ashes isn’t actually a specific benchmark application, rather it’s simply a 3 minute game script executing with a few adjustments to increase consistency from run to run.

What makes it not a specific benchmark application? By that,we mean that every part of the game is running and executing. This means AI scripts, audio processing, physics, firing solutions, etc. It’s what we use to measure the impact of gameplay changes so that we can better optimize our code.

Because games have different draw call needs, we’ve divided the benchmark into different subsections, trying to give equal weight to each one. Under the normal scenario, the driver overhead differences between D3D11 and D3D12 will not be huge on a fast CPU. However, under medium and heavy the differences will start to show up until we can see massive performance differences. Keep in mind that these are entire app performance numbers, not just graphics.

Understanding the numbers

Some of the fields might need a little explaining, since they are new information that was not possible to calculate under D3D11. The first new number is the percent GPU bound. Under D3D12 it is possible with a high degree of accuracy to calculate whether we are GPU or CPU bound. For the technical savvy, what we are doing is tracking the status of the GPU fence to see if the GPU has completed the work before we are about to submit the next frame. If it hasn’t, then the CPU must wait for the GPU. There will sometimes be a few frames for a run where the CPU isn’t waiting on the GPU but the GPU is still mostly full. Therefore, generally if you see this number above 99%, it’s within the margin of error. Also keep in mind that any windows system events could cause some spike here – things like Skype or Steam notifications can actually block us. These are not indicative of driver performance.

The second interesting number is the CPU framerate. This calculation is an estimate of what the FPS framerate would be if the GPU could keep up with the CPU. It is a very accurate estimate of what would happen if you put in an infinitely fast GPU. Likewise, we have another mode which instead of blocking on the GPU, will do all the work but throw away the frame. This can be useful for measuring CPU performance. However, if you do this then be sure that you use the same video card and driver for a different CPU, as some of the measurement will be driver related.

What is fascinating about the CPU framerate is it demonstrates how much more potential D3D12 has over D3D11. D3D12 will not show its true CPU benefits in average frame rates while the GPU is full. One thing to consider is that we are often pairing 28nm GPUs with 14nm CPUs. Next year, when the GPUs move to a higher process, you’re going to see a huge jump in GPU performance. This means that the gap between D3D11 and D3D12 will not only grow, but D3D12 may well become essential to achieving performance on the coming GPU architectures.

[..]







.
ciclito está baneado por "saltarse el ban con clon"
NVIDIA tiene controladores DX11 muy superiores en comparación con AMD. DX11 es una API que requiere una gran cantidad de optimización para los juegos y para multi-threading y parece que el equipo de ingeniería de NVIDIA ha pasado mucho tiempo y recursos asegurándose de que sea la plataforma más rápida y de mejor rendimiento. Esto tiene sentido - DX11 ha estado durante mucho tiempo y es probable que este por aquí un buen tiempo todavia. Pero con el paso a DX12, y una gpu como la 390x menos costosa que la 980 de nvidia ha sido capaz de igualar el rendimiento( una tarjeta que era hasta un 90% más rápido en la vieja API) . Se ha convertido AMD repentinamente en genios de codificación de la API y ajustar su driver para un diferente comportamiento (DX12 vs DX11)? Lo dudo. En cambio, estamos viendo una combinación del trabajo AMD hizo en APIs Mantle / Vulkan y la generalización de los motores de juego que está obligado a pasar cuando un motor tiene un acceso más directo al hardware GPU de lo que nunca han tenido. Y no hace daño que AMD haya estado trabajando con Oxide and the Nitrous engine durante muchos años, ya que era uno de los pocos motores de juego que alguna vez realmente implementaba Mantle.



De lo que podria decirse en el futuro seria que va a haber un nuevo tipo de batalla para la optimización en el mundo de DX12. Si un desarrollador motor de juego quiere aprovechar de forma óptima las GPUs de AMD, NVIDIA o incluso Intel, los desarrolladores tienen que ser muy hardware conscientes o cada IHV va a tener que pasar más tiempo y la ingeniería enseñando a aplicar a los desarrolladores sobre la implementacion acerca de cada nueva Radeon o GeForce que vaya saliendo.

Lo mismo ocurre con Ashes of the Singularity Benchmark, nos dan las respuestas sobre qué esperar en el futuro para la nueva API? Sólo a partir de un cierto punto de vista, esto de momento es sólo un juego y un solo motor. No se puede predecir como Unreal, Unity y otros, en última instancia van a hacer y cómo van a rendir. Pero sí nos da una ventana muy interesante para lo que podría suceder. AMD le encantaría ver una nivelación del campo de juego o incluso una ventaja de hardware gracias a DX12 y el trabajo que puso en las API de bajo nivel hace tantos años.

Por cierto os acordais de Star Swarm benchmark? que fue el primero en implementar mantle, en donde se veia que las gpus amd eran superiores a nvida? pues bien, pocos dias despues nvidia se saco de la manga unos "drivers magicos" los 337.88 si no recuerdo mal, que hacian que las gpus nvidia se pasaran por el arco del triunfo a las amd y su querido mantle. Se ganaba entre un 15 y un 20% de rendimiento en nvidia con ese driver, el cual introducia optimizaciones importantes de DirectX que se traducen en menos tiempo de carga de los juegos y una mejora sustancial del rendimiento en numerosos títulos. Además, una considerable reducción de la carga de trabajo de la CPU da como resultado otras mejoras del rendimiento que evitan cuellos de botella en el procesador. Como de costumbre, los resultados varían en función de la GPU utilizada, la configuración del sistema y la configuración del juego. Yo mismo hice los testeos personalamente y nvidia superaba a amd solo con ese driver sacado en dias.

Obviamente tendremos que esperar a que nvidia invierta tiempo y dinero como lo hizo con dx11 para estar a la altura de las circustancias, yo por mi parte no dudo que una empresa de casi 12 billones de dolares no lo haga o no sea capaz de hacerlo y superar a amd ( una empresa que no llega a 2 billones de dolares) lo prudente seria esperar antes de tomar cualquier decisión hasta que veamos un puñado más de juegos con DX12.
entonces de momento va ganando amd con la dirext 12
Pues espero que Nvidia se adelante
Jaja suponendo que sea verdad y esa sea la tendencia, es una putada justo ahora que me pille un 1151 [hallow]
Narniano escribió:Jaja suponendo que sea verdad y esa sea la tendencia, es una putada justo ahora que me pille un 1151 [hallow]

que no hombre que no que lo que pasa que hoy es mejor nvidia porque lleva mas adelante las mejoras
y mañana AMD con lo mismo

yo solo espero que estas navidades si puedo comprarme un pc escoger bien con la ayuda de vosotros jejeje
Nada que Nvidia no pueda recuperar en un plazo de como máximo 3 meses. Simplemente abrir en canal Mantle y empollarse los sdk de Dx12. Para cuando la guerra empiece, irán de nuevo en cabeza.
Nvidia tiene verdaderamente monstruos.
ciclito escribió:NVIDIA tiene controladores DX11 muy superiores en comparación con AMD. DX11 es una API que requiere una gran cantidad de optimización para los juegos y para multi-threading y parece que el equipo de ingeniería de NVIDIA ha pasado mucho tiempo y recursos asegurándose de que sea la plataforma más rápida y de mejor rendimiento. Esto tiene sentido - DX11 ha estado durante mucho tiempo y es probable que este por aquí un buen tiempo todavia. Pero con el paso a DX12, y una gpu como la 390x menos costosa que la 980 de nvidia ha sido capaz de igualar el rendimiento( una tarjeta que era hasta un 90% más rápido en la vieja API) . Se ha convertido AMD repentinamente en genios de codificación de la API y ajustar su driver para un diferente comportamiento (DX12 vs DX11)? Lo dudo. En cambio, estamos viendo una combinación del trabajo AMD hizo en APIs Mantle / Vulkan y la generalización de los motores de juego que está obligado a pasar cuando un motor tiene un acceso más directo al hardware GPU de lo que nunca han tenido. Y no hace daño que AMD haya estado trabajando con Oxide and the Nitrous engine durante muchos años, ya que era uno de los pocos motores de juego que alguna vez realmente implementaba Mantle.



De lo que podria decirse en el futuro seria que va a haber un nuevo tipo de batalla para la optimización en el mundo de DX12. Si un desarrollador motor de juego quiere aprovechar de forma óptima las GPUs de AMD, NVIDIA o incluso Intel, los desarrolladores tienen que ser muy hardware conscientes o cada IHV va a tener que pasar más tiempo y la ingeniería enseñando a aplicar a los desarrolladores sobre la implementacion acerca de cada nueva Radeon o GeForce que vaya saliendo.

Lo mismo ocurre con Ashes of the Singularity Benchmark, nos dan las respuestas sobre qué esperar en el futuro para la nueva API? Sólo a partir de un cierto punto de vista, esto de momento es sólo un juego y un solo motor. No se puede predecir como Unreal, Unity y otros, en última instancia van a hacer y cómo van a rendir. Pero sí nos da una ventana muy interesante para lo que podría suceder. AMD le encantaría ver una nivelación del campo de juego o incluso una ventaja de hardware gracias a DX12 y el trabajo que puso en las API de bajo nivel hace tantos años.

Por cierto os acordais de Star Swarm benchmark? que fue el primero en implementar mantle, en donde se veia que las gpus amd eran superiores a nvida? pues bien, pocos dias despues nvidia se saco de la manga unos "drivers magicos" los 337.88 si no recuerdo mal, que hacian que las gpus nvidia se pasaran por el arco del triunfo a las amd y su querido mantle. Se ganaba entre un 15 y un 20% de rendimiento en nvidia con ese driver, el cual introducia optimizaciones importantes de DirectX que se traducen en menos tiempo de carga de los juegos y una mejora sustancial del rendimiento en numerosos títulos. Además, una considerable reducción de la carga de trabajo de la CPU da como resultado otras mejoras del rendimiento que evitan cuellos de botella en el procesador. Como de costumbre, los resultados varían en función de la GPU utilizada, la configuración del sistema y la configuración del juego. Yo mismo hice los testeos personalamente y nvidia superaba a amd solo con ese driver sacado en dias.

Obviamente tendremos que esperar a que nvidia invierta tiempo y dinero como lo hizo con dx11 para estar a la altura de las circustancias, yo por mi parte no dudo que una empresa de casi 12 billones de dolares no lo haga o no sea capaz de hacerlo y superar a amd ( una empresa que no llega a 2 billones de dolares) lo prudente seria esperar antes de tomar cualquier decisión hasta que veamos un puñado más de juegos con DX12.



Como siempre tergiversando la información en favor del fabricante "preferido":

http://www.overclock.net/t/1569897/vari ... t_24321843


A día de hoy el hardware de amd está mejor preparado para directx12, no hay más. No espereis drivers milagrosos para directx 12 de las gpus actuales porque en esta api no tienen tanta importancia.

Por cierto aquellos drivers milagrosos por parte de nvidia se acercaban y a veces igualaban los resultados de mantle pero ni mucho menos se los pasaban por el arco de triunfo como afirmas. Se debería de ser algo objetivo cuando se informa al resto de ususarios.

Veremos lo que ocurre con futruras generaciones de gpus por parte de ambos fabricantes.


Un saludo
Jaquen está baneado por "saltarse el ban con un clon"
De los creadores de: "me compro un ordenador entero amd porque cuando salga mantle va a ser lo mejor, a pesar de que ahora nvidia e intel sean la mejor apuesta" , llega: "amd es mejor en directx12" aunque no haya ningun juego que use directx12 y vamos a seguir mucho tiempo igual.
Jaquen escribió:De los creadores de: "me compro un ordenador entero amd porque cuando salga mantle va a ser lo mejor, a pesar de que ahora nvidia e intel sean la mejor apuesta" , llega: "amd es mejor en directx12" aunque no haya ningun juego que use directx12 y vamos a seguir mucho tiempo igual.



Gran aporte si señor... [plas] [plas] [plas]
ciclito está baneado por "saltarse el ban con clon"
cheewaca escribió:
ciclito escribió:NVIDIA tiene controladores DX11 muy superiores en comparación con AMD. DX11 es una API que requiere una gran cantidad de optimización para los juegos y para multi-threading y parece que el equipo de ingeniería de NVIDIA ha pasado mucho tiempo y recursos asegurándose de que sea la plataforma más rápida y de mejor rendimiento. Esto tiene sentido - DX11 ha estado durante mucho tiempo y es probable que este por aquí un buen tiempo todavia. Pero con el paso a DX12, y una gpu como la 390x menos costosa que la 980 de nvidia ha sido capaz de igualar el rendimiento( una tarjeta que era hasta un 90% más rápido en la vieja API) . Se ha convertido AMD repentinamente en genios de codificación de la API y ajustar su driver para un diferente comportamiento (DX12 vs DX11)? Lo dudo. En cambio, estamos viendo una combinación del trabajo AMD hizo en APIs Mantle / Vulkan y la generalización de los motores de juego que está obligado a pasar cuando un motor tiene un acceso más directo al hardware GPU de lo que nunca han tenido. Y no hace daño que AMD haya estado trabajando con Oxide and the Nitrous engine durante muchos años, ya que era uno de los pocos motores de juego que alguna vez realmente implementaba Mantle.



De lo que podria decirse en el futuro seria que va a haber un nuevo tipo de batalla para la optimización en el mundo de DX12. Si un desarrollador motor de juego quiere aprovechar de forma óptima las GPUs de AMD, NVIDIA o incluso Intel, los desarrolladores tienen que ser muy hardware conscientes o cada IHV va a tener que pasar más tiempo y la ingeniería enseñando a aplicar a los desarrolladores sobre la implementacion acerca de cada nueva Radeon o GeForce que vaya saliendo.

Lo mismo ocurre con Ashes of the Singularity Benchmark, nos dan las respuestas sobre qué esperar en el futuro para la nueva API? Sólo a partir de un cierto punto de vista, esto de momento es sólo un juego y un solo motor. No se puede predecir como Unreal, Unity y otros, en última instancia van a hacer y cómo van a rendir. Pero sí nos da una ventana muy interesante para lo que podría suceder. AMD le encantaría ver una nivelación del campo de juego o incluso una ventaja de hardware gracias a DX12 y el trabajo que puso en las API de bajo nivel hace tantos años.

Por cierto os acordais de Star Swarm benchmark? que fue el primero en implementar mantle, en donde se veia que las gpus amd eran superiores a nvida? pues bien, pocos dias despues nvidia se saco de la manga unos "drivers magicos" los 337.88 si no recuerdo mal, que hacian que las gpus nvidia se pasaran por el arco del triunfo a las amd y su querido mantle. Se ganaba entre un 15 y un 20% de rendimiento en nvidia con ese driver, el cual introducia optimizaciones importantes de DirectX que se traducen en menos tiempo de carga de los juegos y una mejora sustancial del rendimiento en numerosos títulos. Además, una considerable reducción de la carga de trabajo de la CPU da como resultado otras mejoras del rendimiento que evitan cuellos de botella en el procesador. Como de costumbre, los resultados varían en función de la GPU utilizada, la configuración del sistema y la configuración del juego. Yo mismo hice los testeos personalamente y nvidia superaba a amd solo con ese driver sacado en dias.

Obviamente tendremos que esperar a que nvidia invierta tiempo y dinero como lo hizo con dx11 para estar a la altura de las circustancias, yo por mi parte no dudo que una empresa de casi 12 billones de dolares no lo haga o no sea capaz de hacerlo y superar a amd ( una empresa que no llega a 2 billones de dolares) lo prudente seria esperar antes de tomar cualquier decisión hasta que veamos un puñado más de juegos con DX12.



Como siempre tergiversando la información en favor del fabricante "preferido":

http://www.overclock.net/t/1569897/vari ... t_24321843


A día de hoy el hardware de amd está mejor preparado para directx12, no hay más. No espereis drivers milagrosos para directx 12 de las gpus actuales porque en esta api no tienen tanta importancia.

Por cierto aquellos drivers milagrosos por parte de nvidia se acercaban y a veces igualaban los resultados de mantle pero ni mucho menos se los pasaban por el arco de triunfo como afirmas. Se debería de ser algo objetivo cuando se informa al resto de ususarios.

Veremos lo que ocurre con futruras generaciones de gpus por parte de ambos fabricantes.


Un saludo


Leete bien mi anterior post entero y deja de decir tonterias.

Perdona pero no desvirtuo ni desinformo a nadie, mas bien hago lo contrario.

Esos drivers superaban a amd. Yo con las 780 vs la 290x por aquel entonces con esos drivers ya me la merendaba en el bench citado anteriormente, ambas gpus al max oc estable por aire. Y antes de los drivers no la superaba, asi que si quieres llevarme la contraria tu mismo. Yo lo probe, todos los tests de ese bench, que por cierto aun lo tengo en steam y se podria volver a probar cuando alguien quiera con la fury x vs la 980ti a ver que pasa....

Yo no dudo que nvidia supere a amd en breve. Con el dx11 le da un repaso y en el futuro lo hara con dx12, solo es cuestion de tiempo. Porque los medios y el poder economico juegan a su favor ( una empresa valorada en 6 veces mas que amd, por favor no me hagas reir macho)
Joder, veo que no sabéis comprobar las fuentes de "información":

http://www.ashesofthesingularity.com/

Mirad qué bonito banner hay abajo:

Imagen

Que va a:

http://www.amd.com/es-es

Stardocks y Oxide Games, de los mismos que hicieron "un juego" para Mantle (supuestamente, Star Swarm acabaría siendo un juego y no sólo un test de mantle, mira qué coincidencia), que ponía en evidencia a DX11 y usaba recursos absurdos (es un debate demasiado largo explicarlo, así que lo obvio, quien quiera saber de qué va el tema, que investigue, pero lo que hicieron con ese test era una afrenta a las buenas formas de la programación), esos mismos que resulta que se les "cayó" totalmente el proyecto de seguir haciendo el juego, y ahora sacan un supuesto juego-alfa muy parecido pero "un poco distinto" al anterior, sirviendo otra vez de test para lavarle la cara a AMD. En fin....

Fuera de la muy dudosa "neutralidad" del test, lo único que demuestra el muy deplorable estado del driver DX11 de AMD, ya que curiosamente con nvidia se obtienen rendimientos en este test supuestamente limitado por drawcalls (que no como se demostrará fácil después), muy parecidos a los que obtienen AMBOS con DX12, mientras el rendimiento en DX11 de AMD es pura miseria. Punto 1.


Punto 2, este test no demuestra la capacidad de DX12 de paralelizar drawcalls en absoluto, excepto quizás en 1080p y posiblemente sólo en calidad "low", porque oh curiosidad, cuando el test pasa a 1600p en ambas gráficas con DX12, ambas bajan la tasa de fps, aunque no sea una barbaridad. A nivel de cpu está haciendo exactamente lo mismo, ergo no es la cpu la que está detrás de esta pérdida de rendimiento, en la AMD, pasa de 72,6 fps a 66,8 fps, en la nvidia pasa de 72,4 fps a 62,7 fps, o sea, un impacto en el rendimiento de un -8% y un -13,3% respectivamente, algo que no tiene nada que ver con la cpu y sí con el rendimiento de la gpu, es lo que se está RENDERIZANDO y CÓMO lo que está tirando atrás al rendimiento, no ningún tema de optimizaciones de drawcalls en el driver DX12 "mejor hecho en AMD", qué curioso, efectos a la carta de parte de quienes les crearon el test star Swarm a AMD, ¿no?. ;)

Si se mira en calidad high el tema de dependencia gráfica en vez de la cpu o uso de drawcalls se hace aún más evidente, ya que en high se supone que sólo cambian los efectos y no el tema de las unidades sobre el terreno (aunque puede haber más drawcalls si se aumentan los detalles de ésta y otros puntos), ambas gráficas pierden justo un 12-13% de rendimiento al pasar a 1600p desde 1080p, mirando sólo DX12, que es justo lo que perdía la 980 en "low" dado que por alguna razón hay algo en el apartado gráfico que le cuesta más que a las 390X.

Lo "curioso" es ver que la versión DX11 del mismo test, supuestamente idéntica en efectos, va claramente mejor en Nvidia lo cual evidentemente NO tiene nada que ver con la mejor gestión de la cpu del driver DX12, ya que aunque el driver de nvidia no fuera "tan maduro" como el de AMD (demos margen a interpretarlo así), desde luego seguro que puede paralelizar y además se ha demostrado en tests puros de drawcalls que el driver DX11, que por muy bien afinado que esté, su naturaleza (la del API) seriada y no fácilmente paralelizable hace que, si un test quiere demostrar las bondades a nivel de driver y cpu del API, no tenga ni puto sentido que la versión DX11 del mismo juego vaya básicamente IGUAL o MEJOR que los tests hechos en DX12 tanto con la gpu de nvidia como la de AMD.

¿Que a qué me refiero? A que la prueba a 1080p con calidad high queda con una victoria de la nvidia con DX11 por un miserable +0.3fps, victoria pírrica pero victoria. E importante dado que demuestra que no es el driver lo que está limitando el rendimiento (coste en cpu, de drawcalls etc). Lo cual es reforzado al ver que también en high a 1600p obtiene mejores resultados la versión DX11 en la nvidia que la de DX12, y se queda... a un fps de la versión DX12 de AMD. O los resultados en low/DX11 en ambas resoluciones que son igualmente notables, a pesar de que es el único caso donde sí se ve una limitación por cpu (obtiene mejor resultado a 1600p que a 1080p, lo cual es el único punto donde se descarta gpudependencia de todo este test, y curiosamente es el único caso donde la nvidia es más rápida con DX12, más claro agua, sólo se muestra en este test concreto la famosa cpudependencia resuelta con DX12 en la nvidia al usar low, todas las demás pruebas con nvidia tienen claramente una parte de gpudependencia cuanto menos, y todas los tests de AMD con DX12 muestran también gpudependencia, siendo sólo las partes con DX11 las que muestran cpudependencia, pero por clara incompetencia del driver vistos los enormemente distintos resultados con la AMD).

Se supone que el juego corre los mismos efectos en ambas versiones DX11 y DX12, así que evidentemente está mostrando algo cuanto menos sospechoso cuando se ve más limitada por gpu a la nvidia cuando pasa a usar DX12 que en el caso de DX11.

¿Efectos a la carta en un test creado por un entusiasta estudio desarrollador con nóminas que pagar, que se dedica a hacer tests para APIs propietarias exclusivas de una marca, y no juegos comerciales con los que ganarse la vida, y a lucir el sello de ésta en su web? Quién podría pensar eso, por favor.

PD: Me apostaría que va a pasar lo mismo con Ashes of Singularity que con Star Swarm, mucho bombo de "menudo juego estamos haciendo" mientras venden los resultados de un test tan conveniente para AMD, mucha "alfa a punto de hacerse pública", y pasará lo mismo, que quedará sólo en un test a la carta.

Por cierto, también hay resultados publicados con cpus bajándoles la frecuencia para justo evaluar la cpudependencia y mejora de DX12 vs DX11 con las nvidia, y cosa también si cabe más curiosa, en vez de dar resultados de tests más bajos con cpus normales, da más altos.... será que la cpudependencia resuelta por DX12 no se muestra en estos resultados, y sí.... cómo cocina Oxide Games resultados a la carta. :-|
wwwendigo escribió:....|


Tan objetivo como siempre [plas] [plas] [plas] . Los test sintéticos también deben de estar patrocinados por amd.

La actualidad es la que es y el futuro ya se verá cuando llegue. No me cabe la menor duda que nvidia se pondrá las pilas en futuras generaciones de gpu bajo la nueva api, pero en las actuales el rendimiento bajo los test que existen, hoy en día, están ahí.
Es demasiado pronto para juzgar que efecto tendrá DX12 hasta que no tengamos 3 o 4 títulos sobre la mesa para comparar.

Sobre las dobles varas de medir que ahora llaman a test a la carta, las compañías siempre son asi, de hecho os parecia bien cuando nvidia lo hace a base de hairworks, physx, no veo por no debería de pareceros bien ahora si AMD empieza a sacar partido de "una tecnología que lleva desarrollando mucho tiempo".

Y eso que yo he pasado de una 7950 a una 970, sinceramente ni me creo que AMD este tan por debajo en DX11, ni me creo que NVIDIA llegado el momento vea DX12 como una zancadilla a su rendimiento, como ya he dicho antes, ya vendran mas juegos de DX12 para comparar.
Dfx escribió:Es demasiado pronto para juzgar que efecto tendrá DX12 hasta que no tengamos 3 o 4 títulos sobre la mesa para comparar.

Sobre las dobles varas de medir que ahora llaman a test a la carta, las compañías siempre son asi, de hecho os parecia bien cuando nvidia lo hace a base de hairworks, physx, no veo por no debería de pareceros bien ahora si AMD empieza a sacar partido de "una tecnología que lleva desarrollando mucho tiempo".

Y eso que yo he pasado de una 7950 a una 970, sinceramente ni me creo que AMD este tan por debajo en DX11, ni me creo que NVIDIA llegado el momento vea DX12 como una zancadilla a su rendimiento, como ya he dicho antes, ya vendran mas juegos de DX12 para comparar.



Exacto, sin software DX12 es como jugar a la bruja lola.
Dfx escribió:Es demasiado pronto para juzgar que efecto tendrá DX12 hasta que no tengamos 3 o 4 títulos sobre la mesa para comparar.

Sobre las dobles varas de medir que ahora llaman a test a la carta, las compañías siempre son asi, de hecho os parecia bien cuando nvidia lo hace a base de hairworks, physx, no veo por no debería de pareceros bien ahora si AMD empieza a sacar partido de "una tecnología que lleva desarrollando mucho tiempo".

Y eso que yo he pasado de una 7950 a una 970, sinceramente ni me creo que AMD este tan por debajo en DX11, ni me creo que NVIDIA llegado el momento vea DX12 como una zancadilla a su rendimiento, como ya he dicho antes, ya vendran mas juegos de DX12 para comparar.


Pero vamos a ver, la enorme diferencia está en que una empresa crea un TEST que no le reporta ningún beneficio directo para.... otra empresa, no que use tecnologías que le ofrece X empresa para mejorar sus productos ahorrando muchas horas de programación.

¿Qué cojones tiene que ver usar gameworks con esto? Gameworks es lo mismo que usar las nutridas técnicas que AMD implementaba en juegos Gaming Evolved desde hace años aunque no les pusieran un nombre común, ¿alguien recuerda la Global Illumination de Dirt:Showdown que tiraba para atrás el rendimiento en gráficas nvidia y que incluso ahora tras mil parcheos en drivers quizás ya no canta tanto en tarjetas nvidia, pero sigue siendo claramente una técnica cercana al hard de AMD?

Es muy fácil implementar incluso sin meter "trampas" técnicas de tal forma que vayan como anillo al dedo técnicas gráficas, la misma técnica se puede ver con distintas implementaciones por cada marca con muy distintos resultados en el rendimiento final (por ejemplo, con distintas implementaciones de HBAO, entre las que curiosamente la más neutral y donde mejora más el rendimiento en general es con la de nvidia, HBAO+, mira si son "tramposos" los de verde).

Pero un caso muy distinto es que una empresa que luce un sello de nvidia o AMD, que dice que desarrolla juegos pero no da acabado ni una triste demo, se dedique a lanzar tests ad hoc que muestran sólo lo bien que va el hard de la misma empresa intentando colar lo que se testea por algo neutral del rendimiento de un nuevo API común.

Si ahora la desarrolladora de "juegos" X saca un test que usa DX12 y pretende colarlo como test de DX12, y resulta que tira tanto de teselación que hunde el rendimiento en las AMD (no hace falta tirar mucho de ésta, ¿eh?, ni siquiera hacer el ridículo de instanciar píxeles (y esto es literal) en forma de drawcalls como sí han hecho desde Oxide Games con Star Swarm), y es misma "desarrolladora" luce sello de nvidia y no da acabado ni un puto juego, ¿cómo le llamaríais al tema?

Pues es justo lo que está pasando.

AMD es toda una artista de la lágrima fácil y de cómo ser una buena plañidera. Lleva toda la vida quejándose de las tecnologías "propietarias ajenas", cuando resulta que ella lleva implementando las suyas pero siempre consigue que la gente ignore éstas (cualquier técnica gráfica bajo Gaming Evolved, Mantle, básicamente TODO en AMD es propietario y no se cede ni un ápice de la PI).

Resulta que consiguió en momentos dados que más de la mitad de los títulos usados en análisis fueran Gaming Evolved y usando técnicas promocionadas y muchas veces desarrolladas desde AMD, que curiosamente iban como el culo en hard ajeno, pero eso jamás se tiene en cuenta, siempre se está con el mismo disco rayado de que son los demás los que hacen las trampas, que ellos no saben nada sobre qué es eso de escorar resultados.

Pues bien, el cuento ya se acaba. Es algo común en ambos fabricantes y las mentiras caen bajo su propio peso (básicamente, no existe diferencias en el modelo de desarrollo de los planes GE y TWIMTBP, el acceso del código fuente es el mismo desde el punto de vista del desarrollador, si puede o no descargar tras aceptar una licencia cualquier usuario de la red las técnicas de AMD, no cambia una puta coma sobre la realidad, y es que el desarrollo comercial de títulos con ayudas de ambas está igual de condicionada, y evidentemente aprovechando sus puntos fuertes cada uno).

Lo que ya no es común es que una casa saque tests a la carta para una marca que la promociona, una casa donde los salarios que entra no están justificados por los productos comerciales porque no dan acabado ni uno de los relacionados con esos supuestos tests (Star Swarm, insisto, se presentó como un futuro juego de Oxide Games, ahora ya ni lo mencionan como tal).

Aquí la única casa que ha pagado pasta récord en forma de 5-8 millones de dólares a un estudio de videojuegos es AMD, a DICE/EA, y ni siquiera dejando claro qué era lo que estaba pagando (muy posiblemente, el portado del juego y motor gráfico de BF4 a Mantle, y todo el tema promocional relacionado con las conferencias sobre mantle, etc).

No cuela el cuento "es que nvidia hacía esto antes y ahora AMD le devuelve la pelota", porque es falso. Cuando haya un test DX12 donde el desarrollador luzca un sello promocional de nvidia, avísame. Y cuando no sea cierto que AMD ha hecho todo lo posible para implementar técnicas gráficas de su palo en juegos en los últimos 5 años y de forma masiva, también.

El truco de querer dar pena no cuela. AMD debe dejar de echarle la culpa a su perro por no hacer sus deberes... :-|

Y sus deberes pendientes son el driver DX11 que nunca se ha molestado en arreglar como sí hizo nvidia, optimizándolo para evitar en un alto porcentaje los problemas de un API limitada. Ahí están las pruebas, el trabajo de nvidia ya es conocido que empezó hace muchos años en esa dirección:

http://wwwendigo.blogspot.com.es/2014/0 ... rs-de.html

Esto es de hace más de un año, y un punto concreto de una serie de mejoras justo con el tema de la cpu-API dx11 que comenzó mucho antes nvidia (hay artículos previos donde comento algunas de estas mejoras).

¿Porqué AMD no ha intentado siquiera seguir este camino dado el enorme parque que hay y HABRÁ de aplicaciones DX11? Estoy bastante cansado de su actitud de mediocridad tapada con intentos de tirar la pelota a tejados ajenos.

Y lo de AoS con Oxide Games, no es más que otra mala excusa en forma de marketing encubierto y un intento de lavar su imagen sin... hacer el trabajo donde toca, en su casa, en sus drivers. Que sí, que DX12 igual les funciona bien, pero que arreglen lo pendiente, y que no intenten colar un test con gpudependencia y técnicas proAMD como si fuera un test de sobrecarga contra la cpu del API.
No se como puedes mentir asi wwwendingo y quedarte tan agusto, cuando sabes que ambas compañias le han puesto la zancadilla a la otra en juegos "con sello" cada vez que han podido, últimamente algunas mas que otras, que esta vez AMD se ha adelantado y "ha preparado" un entorno DX12 para lucirse, eso creo que es evidente, pero que nos cuentes milongas de que NVIDIA no lo hace con sus tecnologías propietarias es de risa, que ultimamente a cada juego que ha salido con el sello de NVIDIA ha habido sorpresa.
Dfx escribió:No se como puedes mentir asi wwwendingo y quedarte tan agusto, cuando sabes que ambas compañias le han puesto la zancadilla a la otra en juegos "con sello" cada vez que han podido, últimamente algunas mas que otras, que esta vez AMD se ha adelantado y "ha preparado" un entorno DX12 para lucirse, eso creo que es evidente, pero que nos cuentes milongas de que NVIDIA no lo hace con sus tecnologías propietarias es de risa, que ultimamente a cada juego que ha salido con el sello de NVIDIA ha habido sorpresa.



Lo que afirmas ES GRAVE, así que o retráctate o cuanto mínimo di en qué miento. A mí no me llames mentiroso en vacío, porque en el peor de los casos me estaré equivocando en algo, que no mintiendo, tendré mi postura ante temas pero no falseo datos ni voy por ahí intentando engañar a gente. Llevo demasiados años hablando con argumentos y sin falsear datos ni pretender engañar a nadie, algo de los que no muchos pueden presumir, como para aguantar semejantes acusaciones a estas alturas.

Precisamente he dicho que ambas compañías han usado GE y TWIMTBP para implementar efectos que les iban mejor a cada una. Y que ambas usan tecnologías propietarias por mucho que a una le gusta presumir de un aperturismo que no es real (que la gente se moleste en leer la licencia que obliga a aceptar AMD cada vez que se descarga algún ejemplo de código de los que dice que son de libre uso sin restricción alguna, o que simplemente intente acceder al SDK de Mantle, no se ha cerrado ahora por cierto, es la situación que siempre sostuvo en el tiempo).

La diferencia en ambos casos es que a AMD siempre se le pasa por encima estos codesarrollos incluso cuando evidentemente dañan a nvidia, pero al revés ni una coma, incluso cuando hay alguna buena justificación (que casos también hay).

La gran diferencia y veo que no te has molestado en leer qué digo exactamente, es que ahora AMD ha conseguido que un esponsorizado tan evidente suyo como Oxide Games, que no ha sacado ninguno de los juegos prometidos con los que se ha hecho famoso por lanzar tests sobre éstos aunque no vean la luz, haya creado un test DX12 que dice mostrar las mejoras de las drawcalls en DX12 y de alivio de la cpu siendo.... MENTIRA. Es un paso más allá que lo anterior.


¿Que se han hecho perrerías en ambos lados? seguro, con teselado en otros casos por encima de las necesidades, de la misma forma que se usan técnicas muy "curiosas" como los ya mencionados cambios a modo gpgpu sin necesidad (por ejemplo, el caso más extraño y absurdo es con MLAA, dado que al ser un filtro de postproceso tan relativamente simple, no hay ninguna razón lógica para saltar a GPGPU para realizarlo, excepto buscar dañar el rendimiento ajeno como sí pasaba en las Fermi en su momento con su más caro cambio de contexto en ciclos de reloj vs los chips de AMD).

Lo vuelvo a poner, ESTO es lo que aparece al final de la página principal de Ashes of Singularity:

Imagen

ESTO no es gratis ni porque sí. Son la misma gente que los de Star Swarm, están más que fichados de qué palo van.

ESTO no es simplemente meterle efectos made in nvidia/AMD a un juego para ahorrarse trabajo el desarrollador, arriesgando (o no) a favorecer a las gráficas de un fabricante, esto es crear test de "juegos" que ¡¡nunca nacen!! y que son tan condenadamente absurdos los esfuerzos como para portar un motor entero de juegos para no acabar dicho juego y molestarse en crear un test de un juego "fallido" (en su momento ya dije que dudaba mucho que Star Swarm llegara a un juego final, mira por dónde, otra que acierto).
La diferencia en ambos casos es que a AMD siempre se le pasa por encima estos codesarrollos incluso cuando evidentemente dañan a nvidia, pero al revés ni una coma, incluso cuando hay alguna buena justificación (que casos también hay).


No veo que haya nada de lo que retractarse, por que no es falso nada de lo que digo. Que es evidente que AMD ha estado insistiendo mucho en el tema de las drawcalls y de las mejoras de Mantle/Vulkan/DX12 sobre su hard, que por cierto ya he dicho varias veces que ya veremos si son verdad, es cierto, pero que me digas que en los co-desarrollos de mano de NVIDIA, no han habido zancadillas exageradas y evidentes hacia AMD, es un poco de risa, mas cuando hay casos tan recientes como project cars y existe todo un debate de si realmente gameworks es beneficioso para la industria o esta haciendo justamente todo lo contrario.

Que por cierto Ashes of the singularity era uno de los juegos que estaba en desarrollo para Mantle, API la cual creo que ya dejo bastante patente que las mejoras mantle/vulkan/dx12 en cuanto a CPU de pocos nucleos o de bajo IPC recibian cierta mejora en cuanto a uso de CPU, que esta tremendamente exagerado para mostrar bondades que no llegaremos a ver nunca en juegos reales, pues claro, lo mismo que physx tiene ciertas fisicas que podria tener el motor del juego de por si, para todos y sin zancadillas, o lo mismo que no obligar en project cars a correr physx por cpu en el hilo principal del juego o de no usar niveles exagerados de teselacion para decir que lo mio es mejor, pues si, cuando dices que AMD mete zancadillas a NVIDIA y NVIDIA no a AMD, pues si, te digo que mientes , con razones y argumentos suficientes.

Y lo mismo que no te crees esa increíble mejora de AMD de DX11 a DX12 por que esta evidentemente preparada para mostrarse asi, tampoco deberias creerte que NVIDIA esta a años luz en DX11 cuando las tarjetas que compiten entre si por precio estan mas o menos igualadas con diferencias maximo +/- 15% dependiendo el juego, al igual que si fuera por ese test magico que se han sacado de la manga para DX12, entonces que resultado tendria por ejemplo una FURY X? muchisimo mejor que la 980 Ti? es obvio que no, por eso cualquiera que tenga mas o menos coherencia esperara a que hayan 2, 3 o 4 titulos DX12 para ver que tal se mueven las AMD y NVIDIA en esos entornos y digo 2, 3 o 4 titulos, por que en DX12 tampoco nos vamos a librar de títulos con sello y de las zancadillas y mas con los juegos punteros de salida.

Y ya lo dije en el hilo de gameworks, que toda esta serie de zancadillas, efectos propietarios y exclusividades al final va a ser negativo para el consumidor final, algo asi como lo que ha pasado con el DLC, el dia que llegues a un juego y veas un downgrade grafico por que tienes la GPU de la marca rival y ya no estemos hablando convencidos como ahora de que "son mejoras" o "son extras", entonces ya nos arrepentiremos, pero es evidente de que como ahora es san-nvidia quien hace estas practicas, aqui no pasa nada.

Y te lo digo yo, que he pasado de una 7950 a una 970 hace poco, que vamos, las marcas me la sudan bastante.
Dfx escribió:...



Dfx no pierdas tu tiempo. Además siéntate y disfruta porque hay que esperar al software DX12 sin lugar a dudas, sí, pero espérate que puede ser el owned número 3928749237428936 que se le pega a wwwendigo aunque luego se crea un gurú y vaya repartiendo "lecciones". Bueno, al tema:


http://www.overclock.net/t/1569897/vari ... t_24321843


En ese post se demuestra lo siguiente:


As Mahigan pointed out, Maxwell’s Asychronous Thread Warp can queue up 31 Compute tasks and 1 Graphic task, whereas AMD’s GCN 1.1/1.2 is composed of 8 Asynchronous Compute Engines (each able to queue 8 Compute tasks for a total of 64 coupled) with 1 Graphic task by the Graphic Command Processor



Vamos, que ya veremos en que queda todo pero puede que me eche unas buenas risas del wwwendigo como suele ser habitual. [sonrisa] [sonrisa] [sonrisa]
Si eso fuera verdad estamos en la misma situación de siempre con AMD, sacrifica rendimiento presente para buscar soluciones para el futuro, y prácticamente con la muerte anunciada de GCN para el año que viene no tiene sentido, lo mismo con los FX que si, que sera mas interesante la arquitectura dentro de un año o dos cuando todo sea mas multinucleo, pero ahora se necesitaba IPC como pilar fundamental.

A mi me gustaría ver un juego DX11 tipo witcher 3 corriendo también en DX12, donde podamos tener bench de ambas marcas corriendo el juego en ambas API y podamos valorar la mejora, siempre y cuando el juego se adaptase bien a portarlo a DX12 claro.

@kailkatarn, ya se lo que hay ya [+risas]

Ahora que voy de camino al SLI de 970 resultara que las AMD sacan ventaja en DX12 xD
Dfx escribió:Y te lo digo yo, que he pasado de una 7950 a una 970 hace poco, que vamos, las marcas me la sudan bastante.


Se nota la diferencia? Q micro usas?
KAISER-77 escribió:
Dfx escribió:Y te lo digo yo, que he pasado de una 7950 a una 970 hace poco, que vamos, las marcas me la sudan bastante.


Se nota la diferencia? Q micro usas?


Sigo usando el mismo FX8320 que tenia, lo unico que ahora que tengo todo pasado por agua he pasado de los 4,4 a los 4,7ghz, con los mismos 8Gb de ram que tenia a 1600.

Diferencias? a bote pronto la 970 debe estar cercana o por encima al doble al rendimiento de la 7950, para que te hagas una idea con la misma configuracion the witcher 3 en la 7950 se movia entre los 30~40fps, con la 970 con todo en ultra excepto hairworks, aun con el FX mantienes tasas de 60fps aunque alguna bajada hay en las ciudades grandes, en el F1 2015 tampoco mantenia los 60fps con la 7950 y estando solo en alto, con la 970 en ultra mantienes 60fps constantes y el uso de la gpu apenas de 60 o 70%.

Ya te digo que mi idea siempre ha sido el SLI + una para physx, pero quizas para jugar a 1080p una sola 970 sea mas que suficiente y me convendría esperar a ver como se desarrollan DX12 para ver que hago en un futuro.

El unico juego que me sigue dando problemas es Project cars, donde obviamente la CPU limita rendimiento.
Lo que parece es que la mejora con procesadores menos potentes es mejor, es decir, hay mejora con DX12. Mientras que con los los procesadores más potentes la diferencia entre DX11 y 12 es preocupante con Nvidia porque va a menos.
Por ahora todo lo que hemos visto indica que AMD va a sacar ventaja en juegos DX12. Primero lo vimos en 3DMark y ahora lo vemos en Ashes of the Singularity. Aún no podemos estar 100% seguros porque solo hemos visto dos pruebas, pero con esto y lo que ha explicado el señor Mahigan en el post que habéis citado anteriormente de overclock.net, parece que Nvidia tiene ahora mismo una arquitectura menos preparada para las bondades de DX12. Tampoco la daría por muerta, pero ahora mismo sale perjudicada. Ya lo veremos cuando salga el primer juego(creo que es Fable Legends)...
DOSCO_09 escribió:Lo que parece es que la mejora con procesadores menos potentes es mejor, es decir, hay mejora con DX12. Mientras que con los los procesadores más potentes la diferencia entre DX11 y 12 es preocupante con Nvidia porque va a menos.


Eso es porque hay GPUdependencia en esas situaciones, es por eso que baja tanto también entre esas situaciones al usar 1080p y 1600p, incluso pasa en las AMD.

Este test en absoluto está midiendo las ventajas de DX12, de hecho tendría que explicar porqué supuestamente mismos efectos tienen una mayor carga gráfica para las nvidia en DX12 vs DX11. Porque al final es eso, un tema de carga gráfica y no de cpu.


PD: La mejor prueba de esta situación son estos datos:

Imagen

Imagen

Las mejoras son más que evidentes cuando se usan cpus con baja frecuencia (poco rendimiento por core) y/o pocos cores, sólo con la cpu de 6 cores a 3,5 GHz se "pierde" rendimiento porque se pasa a una situación de gpudependencia que no existe antes.

Oxide Games tiene que explicar esta "anomalía", porque el juego excepto por el tema de usar driver DX12 o DX11, se le supone IGUAL en temas de carga gráfica y lo que está demostrando cuando no hay cpudependencia (lo cual es más fácil que deje de verse en los drivers DX11 de nvidia) es que algo no está funcionando ni remotamente igual en efectos gráficos.
Habrá que esperar y ver como se comportan otros juegos más importantes. Pero me ha llamado la atención ese detalle.

Hay fechas para próximos juegos que utilicen DX12?
anikilador_imperial escribió:Por ahora todo lo que hemos visto indica que AMD va a sacar ventaja en juegos DX12. Primero lo vimos en 3DMark y ahora lo vemos en Ashes of the Singularity. Aún no podemos estar 100% seguros porque solo hemos visto dos pruebas, pero con esto y lo que ha explicado el señor Mahigan en el post que habéis citado anteriormente de overclock.net, parece que Nvidia tiene ahora mismo una arquitectura menos preparada para las bondades de DX12. Tampoco la daría por muerta, pero ahora mismo sale perjudicada. Ya lo veremos cuando salga el primer juego(creo que es Fable Legends)...



El tema está en que DX12 libra a los fabricantes de tener que hacer practicamente nada por driver. Nvidia en DX11 estaba re-compilando llamadas compiladas para traducirlas para llevarlas a sus colas y de ahí que su magia en DX11 luciese mucho, porque había una gran ingeniería detrás del driver.

En dx12? se acabó el tema drivers. Practicamente lo que tienen que hacer los drivers es no fallar en las llamadas de DX12 y punto, no hay posible optimización final re-compilando llamadas y soltándolas bajo tus criterios en tus propios drivers.

Vamos, que es cuestión física ya, y no vía software/drivers. DX12 va a poner en mano de los desarrolladores el problema porque cuando tocas DX12 tocas low-level y por lo tanto se las van a desear pero por fin les obligan a programar como Dios manda y no a tocarse los huevos como han estado haciendo hasta ahora y que complicaba la vida de los fabricantes de gráficas e inclusive que apareciesen nuevos con toda la ingeniería de software que había que hacer en los drivers para cada puto juego.

Ahora? ahora veremos quien sabe programar y quien no a la hora de hacer videojuegos. Eso sí que va a quedar presente.
KailKatarn escribió:Ahora? ahora veremos quien sabe programar y quien no a la hora de hacer videojuegos. Eso sí que va a quedar presente.


Que ganas tengo de ver un Batman o AC en DX12... [+risas]
Dfx escribió:Que ganas tengo de ver un Batman o AC en DX12... [+risas]



Sobre desarrollos ya hechos parchearán por encima para que tire y poco más. Todo esto se empezará a ver en desarrollos pensados en DX12 desde 0.

PD: De hecho fíjate si les ha caído marrón a los desarrolladores que por los lloros Microsoft está sacando por lo bajini DX 11.3 para dar opción a software de mierda seguir en las mismas pautas que siempre. Vamos, que están los desarrolladores cagaditos perdidos, pero manolete ... si no sabes torear para que te metes?

El DX12 va a ser quien cambie las cosas, pero más que por ser DX12, por forzar por primera vez en toda la puta historia de los DX y el mundo del PC gaming a tener que programar por cojones en código a low-level con todo lo que ello implica (preveo muchos despidos en la industria).

Te acuerdas de doom? la enorme diferencia que hubo con todo el software anterior cuando salió? pues eso vuelve a ser posible a día de hoy si eres un carmack de los de antaño mientras durante todo este tiempo nos hemos estado comiendo código de mierda, ejecutado en tarjetones y saliendo al paso como se podía vía driver por parte de los propios fabricantes obligando a gastarse una pasta en desarrolladores impresionante y sobretodo, lo más importante, DIFICULTANDO LA ENTRADA DE CUALQUIER OTRA EMPRESA/MARCA A HACER LA COMPETENCIA.

Además, quien no se adapte estará muerto porque cuando se vean las bondades del código low-level la gente lo va exegir a gritos hasta para el tetris en 3d, ya verás.
Cierto....
Dijeron que el witcher y el batman los parchearian no?
Alguno más?
Creo que Project Cars tambien tendra parche Dx12.

Otros buenos candidatos serian GTA V, Fallout 4, Assetto Corsa.
Estáis todos ilusionados con DX 12, y yo lo único que veo es la obligación de volver a pasar por caja en M$ y aceptar las condiciones de mierda que imponen como por ejemplo ahora tú eres el usuario pero no decides qué puedes actualizar y qué no. Las desarrolladores deberían ir dando de lado a estas tecnologías propietarias y evolucionar en plataformas más abiertas, tal y como viene ocurriendo en lo relativo a servicios online.
De todas maneras en Vulkan va a pasar mas o menos lo mismo, si huyen de DX12 solo para encontrarse de frente a Vulkan la llevan clara, el caso es que se va tener que volver a currar en optimizar cosa que se habia dejado de lado en pro de sacar el juego cuanto antes.

Project cars ya molara verlo en DX12 a ver si los que tenemos CPU AMD por fin podemos jugarlo en condiciones.
TP S.A. escribió:Estáis todos ilusionados con DX 12, y yo lo único que veo es la obligación de volver a pasar por caja en M$ y aceptar las condiciones de mierda que imponen como por ejemplo ahora tú eres el usuario pero no decides qué puedes actualizar y qué no. Las desarrolladores deberían ir dando de lado a estas tecnologías propietarias y evolucionar en plataformas más abiertas, tal y como viene ocurriendo en lo relativo a servicios online.


no es que estemos ilusionaos con dx12 (más bien con lo que pasó con los dx11 y los ports de consolas... más vale le pongamos velitas a la virgen no pase lo mismo)
pero... quien tenga ambas plataformas (intel y amd) y haya probado el mantle (aunque no haya triunfao...) puede tener una ligera idea como andará el rendimiento... pues el principio de la cpudependencia es el mismo.
yo en su dia estuve probando con mi 2600k vs fx9590 ambos hasta las trancas y... andaban igual (al menos con gráfica amd con mantle). con los dx11 es tontería hablar pues todos sabemos que pasa con los juegos cpudependientes y micros amd.

independientemente de la veracidad del test de marras... pienso que amd puede que tenga el tema más pulido, pues ha tenido tiempo de sobra de probar y optimizar, pero también pienso que nvidia no se quedará dormida en los laureles.

cuando ya tengamos juegos dx12 ya veremos que pasa
KailKatarn escribió:
anikilador_imperial escribió:Por ahora todo lo que hemos visto indica que AMD va a sacar ventaja en juegos DX12. Primero lo vimos en 3DMark y ahora lo vemos en Ashes of the Singularity. Aún no podemos estar 100% seguros porque solo hemos visto dos pruebas, pero con esto y lo que ha explicado el señor Mahigan en el post que habéis citado anteriormente de overclock.net, parece que Nvidia tiene ahora mismo una arquitectura menos preparada para las bondades de DX12. Tampoco la daría por muerta, pero ahora mismo sale perjudicada. Ya lo veremos cuando salga el primer juego(creo que es Fable Legends)...



El tema está en que DX12 libra a los fabricantes de tener que hacer practicamente nada por driver. Nvidia en DX11 estaba re-compilando llamadas compiladas para traducirlas para llevarlas a sus colas y de ahí que su magia en DX11 luciese mucho, porque había una gran ingeniería detrás del driver.

En dx12? se acabó el tema drivers. Practicamente lo que tienen que hacer los drivers es no fallar en las llamadas de DX12 y punto, no hay posible optimización final re-compilando llamadas y soltándolas bajo tus criterios en tus propios drivers.

Vamos, que es cuestión física ya, y no vía software/drivers. DX12 va a poner en mano de los desarrolladores el problema porque cuando tocas DX12 tocas low-level y por lo tanto se las van a desear pero por fin les obligan a programar como Dios manda y no a tocarse los huevos como han estado haciendo hasta ahora y que complicaba la vida de los fabricantes de gráficas e inclusive que apareciesen nuevos con toda la ingeniería de software que había que hacer en los drivers para cada puto juego.

Ahora? ahora veremos quien sabe programar y quien no a la hora de hacer videojuegos. Eso sí que va a quedar presente.


Ademas Nvidia en los famosos drivers 337.50 adelantó features de DX12 como los tiled resources para reducir la sobrecarga de CPU, por eso ese subidón de rendimiento que tuvieron. Ahora es distinto, se acabaron los drivers mágicos y les toca a los developers trabajar 'close to the metal'. Vienen tiempos muy interesantes.
anikilador_imperial escribió:Ademas Nvidia en los famosos drivers 337.50 adelantó features de DX12 como los tiled resources para reducir la sobrecarga de CPU, por eso ese subidón de rendimiento que tuvieron. Ahora es distinto, se acabaron los drivers mágicos y les toca a los developers trabajar 'close to the metal'. Vienen tiempos muy interesantes.



Tiled resources existe desde DX11.2, pero no se había usado hasta The Witcher 3.
KailKatarn escribió:
anikilador_imperial escribió:Ademas Nvidia en los famosos drivers 337.50 adelantó features de DX12 como los tiled resources para reducir la sobrecarga de CPU, por eso ese subidón de rendimiento que tuvieron. Ahora es distinto, se acabaron los drivers mágicos y les toca a los developers trabajar 'close to the metal'. Vienen tiempos muy interesantes.



Tiled resources existe desde DX11.2, pero no se había usado hasta The Witcher 3.


Los developers no lo habían usado, pero precisamente de lo que va el driver 337.50 es de usar esa feature en el driver para reinterpretar cuando fuera posible las llamadas que se hacían desde fuera del mismo de forma convencional. Es decir, cuando se pedía al driver dibujar una textura "a lo DX11", el driver usaba Tiled Resources siempre que fuera posible de forma transparente para aumentar el rendimiento.

Lo que no sabía era que era parte de DX11.2.
anikilador_imperial escribió:Lo que no sabía era que era parte de DX11.2.



https://blogs.windows.com/bloggingwindo ... periences/
KailKatarn escribió:
anikilador_imperial escribió:Lo que no sabía era que era parte de DX11.2.



https://blogs.windows.com/bloggingwindo ... periences/


Gracias por la info ^^
Ami lo que me estraña es que esten tardando tanto en sacar bench para dx12, los de 3dmark van lentos
383 respuestas
1, 2, 3, 4, 58