DirectX 12 son malas noticias para Nvidia

13, 4, 5, 6, 7, 8
paconan escribió:
WiiBoy escribió:
paconan escribió:bueno pues parece que... nvidia va a dar soporte a maxwell 2.0 a los shaders asíncronos esos
http://www.noticias3d.com/noticia.asp?idnoticia=65745

ahora esperemos que empecemos a verlo en videojuegos y podamos disfrutar de la tecnología XD



lo gracioso de todo esto es que si no llega a ser por el juegecillo ese nadie se entera xd

maxwell 2.0 cuales son ? las 980 ?


son las 900s y la última titan...
las 750 son maxwell 1.0

a ver si más tarde se lo cascan a Kepler tb...

Entonces tambien la 980 ti tendra los shader asincronos ? No decian que eso era por hardware ?
@nuha2009 le daran soporte por software, aunque siempre que hacen estas cosas no suele ir tan bien que el soporte nativo por hardware
Tenemos más info al respecto:


Mahigan escribió:
*This is a work in progress and should be viewed as such*

It's been several weeks since the Ashes of the Singularity benchmarks hit the PC Gaming scene and brought a new feature into our collective vocabulary. Throughout these past few weeks, there has been a lot of confusion and mis-information spreading throughout the web as a result of the rather complex nature of this topic. In an effort, to combat this misinformation, @GorillaSceptre asked if a new thread could be started in order to condense a lot of the information which has been gathered on the topic. This thread is my no means final. This thread is set to change as new information comes to light. If you have new information, feel free to bring it to the attention of the Overclock.net community as a whole by way of commenting on this thread.

As things stand right now, Sept 6, 2015, we're waiting for a new driver, from nVIDIA, to rectify an issue which has inhibited the Maxwell 2 series from supporting Asynchronous Compute. Both Oxide, the developer of the Ashes of the Singularity video game and benchmark, and nVIDIA are working hard to implement a fix to this issue. While we wait for this fix, lets take an opportunity to break down some misconceptions.



nVIDIA HyperQ


nVIDIA implement Asynchronous Compute through what nVIDIA calls "HyperQ". HyperQ is a hybrid solution which is part software scheduling and part hardware scheduling. While little information is available as it pertains to its implementation in nVIDIAs Maxwell/Maxwell 2 architecture, we've been able to piece together just how it works from various sources.


Now I'm certain many of you have seen this image floating around, as it pertains to Kepler's HyperQ implementation:
Warning: Spoiler! (Click to show)
Created with GIMP

What the image shows is a series of CPU Cores (indicated by blue squares) scheduling a series of tasks to another series of queues (indicated in black squares) which are then distributed to the various SMMs throughout the Maxwell 2 architecture. While this image is useful, it doesn't truly tell us what is going on. In order to figure out just what those black squares represent, we need to take a look at the nVIDIA Kepler White Papers. Within these white papers we find the HyperQ being defined as such:
Warning: Spoiler! (Click to show)


Based on this diagram we can infer that HyperQ works through two software components before tasks are scheduled to the hardware:

Grid Management Unit
Work Distributor



So far the scheduling works like this:

The developer sends the batch to the nVIDIA software driver
Within the nVIDIA software driver, the batch is held in a Grid Management Unit
The Grid Management Unit transfers 32 pending grids (32 Compute or 1 Graphic and 31 Compute) to the Work Distributor
The Work Distributor transfers the 32 Compute or 1 Graphic and 31 Compute tasks to the SMMs which are a hardware component withing the nVIDIA GPU.
The components within the SMMs which receive the tasks are called Asynchronous Warp Schedulers and they assign the tasks to available CUDA cores for processing.


Quote:
That's all fine and dandy but what about the extra CPU Overhead associated with scheduling in software?

While it is true that nVIDIAs HyperQ solution would incur a larger degree of CPU overhead, under DirectX12, than AMDs hardware scheduling implementation, it remains to be seen whether or not this will affect performance. It could very well affect performance on, say, a Core i3 or AMD FX processor but you don't see too many people pairing a powerful nVIDIA GeForce GTX 970/980/980 Ti with an under-powered CPU. If folks have the money to dish out on a powerful GPU, they tend to also have the money to dish out on a robust Quad Core processor (Core i5/i7 series).

Therefore there seems to be confusion as to what the "software scheduling'" means. It doesn't mean that Maxwell 2 will be doing compute tasks over the CPU. It means that there is a limitation added to the way nVIDIAs solution can execute tasks in parallel. It's all about what David Kanter was saying on preemption here (starts around 1:18:00 into the video):
Warning: Spoiler! (Click to show)

The main problem with nVIDIAs HyperQ implementation is in terms of preemption. It is in part due to the software scheduling aspect of nVIDIAs Maxwell 2 solution as well as the limitations, in terms of Not being able to execute a second compute task until the end of a draw call boundary (lag or latency being introduced) and lack of error verification, from the Asynchronous Warp Schedulers.


Example:

Say you have a graphic shader, in a frame, that is taking a particularly long time to complete, with Maxwell2, you have to wait for this graphic shader to complete before you can execute another task. If a graphic shader takes 16ms, you have to wait till it completes before executing another graphic or compute command. This is what is called "slow context switching". Every millisecond, brings down your FPS for that frame. Therefore if a graphic shader takes 16ms to execute, a compute task takes 20ms to execute and you've got a copy command taking 5 ms to execute, you end up with a frame which takes 41ms to execute. This introduces a delay, or lag/latency, between executions. While preemption wasn't important for DX11, and nVIDIA primarily designed their Kepler/Maxwell/Maxwell 2 architectures with DX11 in mind, it becomes quite important for DX12 Asynchronous Compute as well as VR.
Warning: Spoiler! (Click to show)

Quote:
Why is this different than GCN?

With GCN, you can execute tasks simultaneously (without a waiting period), the ACEs will also check for errors and re-issue, if needed, to correct an error. You don't need to wait for one task to complete before you work on the next. So say, on GCN, a Graphic shader task takes 16ms to execute, in that same 16ms you can execute many other tasks in parallel (like the compute and copy command above). Therefore your frame ends up taking only 16ms because you're executing several tasks in parallel. There's little to no latency or lag between executions because they execute like Hyper-threading (hence the benefits to the LiquidVR implementation).
Warning: Spoiler! (Click to show)

Quote:
What does this mean for gaming performance?

Developers need to be careful about how they program for Maxwell 2, if they aren't... then far too much latency will be added to a frame. This is true even once nVIDIA fix their driver issue. It's an architectural issue, not a software issue.

Quote:
It's architectural? How so?

Well that's all in how a context switch is performed in hardware. In order to understand this, we need to understand something about the Compute Units found in every GCN based Graphics card since Tahiti. We already know that a Compute Unit can hold several threads, executing in flight, at the same time. The maximum amount of simultaneous threads executed concurrently, per CU, is 2,560 (40 Wavefronts @ 64 Threads ea). GCN can, within one cycle, switch to and begin the execution of a different Wavefront . This allows the entire GCN GPU to perform both a Graphics and Compute task, simultaneously, with extremely low-latency being associated with switching between them. Idle CUs can be switched to a different task at a very fine grained level with a minimum performance penalty associated with the switch.
Warning: Spoiler! (Click to show)


Quote:
Well that's GCN's architecture... What about Maxwell 2 and that Slow Context Switching thing?

In terms of a Context Switch, Maxwell 2 can switch between a Compute and Graphics task in a coarse-grained fashion and pays a penalty (sometimes to the order of over a thousand cycles in worst case scenarios) for doing so. While Maxwell 2 excels at ordering tasks, based on priority, in a way which minimizes conflicts between Graphics and Compute tasks; Maxwell 2 doesn't necessarily gain a boost in performance from doing so. The reason for this is that Maxwell 2 takes a rather large hit when switching contexts. This is why it remains to be seen if Maxwell 2 will gain a performance boost from Asynchronous Compute. A developer would need to finely tune his/her code in order to derive any sort of performance benefits. From all the sources I've seen, Pascal will perhaps fix this problem (but wait and see as it could just be speculation). There is also evidence that Pascal will not fix this issue as you can see here (provided by @Vesku):
Warning: Spoiler! (Click to show)
Source here


nVIDIA may not have thought that the industry would jump on DX12 the way it is right now... pretty much every single title, in 2016, will be built around the DX12 API. We'll even get a few titles in a few months in 2015. What's worse is that the majority of titles, in 2015 and 2016, have partnered with AMD. We can therefore be quite certain that Asynchronous Compute will be implemented, for AMD GCN at least, throughout the majority of DX12 titles to arrive in 2015/2016.
Warning: Spoiler! (Click to show)


There is no underestimating nVIDIAs capacity to fix their driver. It will be fixed. As for the performance derived out of nVIDIAs HyperQ solution? Best to wait and see.



Enlace: http://www.overclock.net/t/1572716/dire ... d-sourcing
Cuándo salen las Pascal :D?
Rivroner escribió:Cuándo salen las Pascal :D?


No has leido el enlace, ¿no?. Pascal no tendrá soporte completo por hardware directx12.
cheewaca escribió:
Rivroner escribió:Cuándo salen las Pascal :D?


No has leido el enlace, ¿no?. Pascal no tendrá soporte completo por hardware directx12.


Me lo he leído por encima, pon ese trozo en concreto por favor.

Pensaba que lo solucionarían mediante hardware ya directamente en Pascal, y en las actuales Maxwell 2.0 como mi 980 mediante software, no queda otra.

Sería de muy chapuzas que las Pascal no tuvieran ya todo lo de dx12 por hardware.
Rivroner escribió:
cheewaca escribió:
Rivroner escribió:Cuándo salen las Pascal :D?


No has leido el enlace, ¿no?. Pascal no tendrá soporte completo por hardware directx12.


Me lo he leído por encima, pon ese trozo en concreto por favor.

Pensaba que lo solucionarían mediante hardware ya directamente en Pascal, y en las actuales Maxwell 2.0 como mi 980 mediante software, no queda otra.

Sería de muy chapuzas que las Pascal no tuvieran ya todo lo de dx12 por hardware.


Donde quedaron los tiempos ....? en los que cuando salia un nuevo dx al dia siguiente estaban las tarjetas en el mercado
cheewaca escribió:
Rivroner escribió:Cuándo salen las Pascal :D?


No has leido el enlace, ¿no?. Pascal no tendrá soporte completo por hardware directx12.


Debo estar cegato, pero sigo sin encontrar donde dice que las Pascal no soportarán dx12 al completo.

Cuando puedas cítame el párrafo donde lo dice, gracias.
Rivroner escribió:
cheewaca escribió:
Rivroner escribió:Cuándo salen las Pascal :D?


No has leido el enlace, ¿no?. Pascal no tendrá soporte completo por hardware directx12.


Debo estar cegato, pero sigo sin encontrar donde dice que las Pascal no soportarán dx12 al completo.

Cuando puedas cítame el párrafo donde lo dice, gracias.


He leído lo que puso el compañero y está en este párrafo:

Mahigan escribió: Well that's GCN's architecture... What about Maxwell 2 and that Slow Context Switching thing?

In terms of a Context Switch, Maxwell 2 can switch between a Compute and Graphics task in a coarse-grained fashion and pays a penalty (sometimes to the order of over a thousand cycles in worst case scenarios) for doing so. While Maxwell 2 excels at ordering tasks, based on priority, in a way which minimizes conflicts between Graphics and Compute tasks; Maxwell 2 doesn't necessarily gain a boost in performance from doing so. The reason for this is that Maxwell 2 takes a rather large hit when switching contexts. This is why it remains to be seen if Maxwell 2 will gain a performance boost from Asynchronous Compute. A developer would need to finely tune his/her code in order to derive any sort of performance benefits. From all the sources I've seen, Pascal will perhaps fix this problem (but wait and see as it could just be speculation). There is also evidence that Pascal will not fix this issue as you can see here (provided by @Vesku):
Warning: Spoiler! (Click to show)
Source here



Por desgracia al ser copiado no tenemos las ventanas de Spoiler para clicar y acceder a los enlaces fuente y ver a que se refieren.
Muchas gracias compañero, pues no molaría nada que eso fuera cierto al final.

De todas formas ya veremos como se comporta mi 980 en juegos nativos dx12 respecto a la 390x y la Fury.

Si hay que pasarse a Amd se pasa, de hecho yo era AMDero. :D

No le hago ascos a nada vamos.

EDITO: De propina. [qmparto]

https://youtu.be/Dnn0rgDaSro
Y ahora tambien NeoGames se une al tema actual de los Shaders de Computo Asincronos, del cual se entiende que los usara en su nuevo titulo del 2016 Warhammer 40,000: Inquisitor Martyr.

hilo_hilo-oficial-la-revolucion-de-las-apis-graficas-dx12-y-vulkan_2087013_s125#p1739795365
Rivroner escribió:Muchas gracias compañero, pues no molaría nada que eso fuera cierto al final.

De todas formas ya veremos como se comporta mi 980 en juegos nativos dx12 respecto a la 390x y la Fury.

Si hay que pasarse a Amd se pasa, de hecho yo era AMDero. :D

No le hago ascos a nada vamos.

EDITO: De propina. [qmparto]

https://youtu.be/Dnn0rgDaSro


Lo que me he podido reir XD

Cada vez que alguno de los nvidia fanboys que aparecen de vez en cuando por aqui, con alguno de sus interminables tochos en los que siempre dicen lo mismo, entren echando pestes, les voy a poner un enlace al video para que tengan algo de sentido del humor
Mira que el rumor MS compra a AMD no es nuevo, pero lo de las ultimas horas no es ni normal y eso que es un sabado
silfredo escribió:Mira que el rumor MS compra a AMD no es nuevo, pero lo de las ultimas horas no es ni normal y eso que es un sabado


AMD siempre ha tenido muchas novias, sobre todo por su licencia X86, que no se puede traspasar que si, que se pueden hacer trapicheos empresariales, etc, etc.

Aunque AMD no esté en su mejor momento ni de lejos, no creo que le vaya tan mal, esta vendiendo las APU, GPU de consolas por 2 o 3 generaciones y eso le da una válvula de escape, con las GPU no vende tanto como Nvidia, pero tampoco está invirtiendo mucho ya que casi todos sus modelos son RE-re-fritos así que imagino que tendrán un buen margen.

Donde peor lo pasa en es la zona de CPU.

Yo hasta que no vea hechos no me creo nada.
Yo veo bien que microsoft la compre le apoyara muchísimo y le dará una buena inyección de pasta en I+D ya veremos que pasa
WiiBoy escribió:Yo veo bien que microsoft la compre le apoyara muchísimo y le dará una buena inyección de pasta en I+D ya veremos que pasa


En el caso que fuera a pasar ,no tengo yo claro que la compara entera creo que solo pillaría una parte.
WiiBoy escribió:Yo veo bien que microsoft la compre le apoyara muchísimo y le dará una buena inyección de pasta en I+D ya veremos que pasa


Pues yo preferiría seguir viendo una AMD independiente o comprada por alguien que no sea un gigante del software.
Ambas cosas deberían ir separadas para dar la máxima libertad al consumidor final, así como a otras empresas del sector tanto de hardware como de software. Yo esta hipotética compra la vería como una aberración.
quizás sería meterse en rollos de monopolios y tal pero...
imagios una cpu hecha por m$

el s.o. optimizado a tope [fiu]

a apple no le funcionó con los powerpc aquellos pero (y aunque la manzana esté muy de moda con eso de los iPhone, ipads, ipollas...) tiene más parque de pc's o s.o
De regresio al tema.

Parece que el Computo Aasincrono sera algo mas comun de lo que pensaban para los juegos futuros al tener al menos dos desarrolladoras que hablan de ese punto en especifico. Por algo se entiende que nvidia ya este hablando de estos shaders con mas atencion.

Zoltán Pozsonyi, productor Warhammer 40,000: Inquisitor Martyr escribió:DirectX 12 no es algo que te permita simplemente jugar con algunos efectos nuevos durante el desarrollo. Se trata más de un proceso grande y estructural que permite a los programadores muchas más oportunidades al ofrecer un acceso más sencillo y directo a la GPU. Esto implica que tendrán mucho más margen para implementar optimizaciones de rendimiento y agilizar el código; si eres capaz de exprimir más rendimiento de la GPU, esto se traduce en mejoras en la tasa de imágenes por segundo o en un contendio visual más atractivo en el juego. DX12 soporta shaders de cálculo asincrónico, lo cual nos permite, por ejemplo, usar un mayor número de efectos especiales y de una mayor calidad, así como efectos de post-procesado, y procesarlos de forma mucho más rápida (screen space ambient occlusion, screen space reflection, mejor calidad de shadow mapping, transculency, tone mappin

ROTOR escribió:
silfredo escribió:Mira que el rumor MS compra a AMD no es nuevo, pero lo de las ultimas horas no es ni normal y eso que es un sabado


AMD siempre ha tenido muchas novias, sobre todo por su licencia X86, que no se puede traspasar que si, que se pueden hacer trapicheos empresariales, etc, etc.

Aunque AMD no esté en su mejor momento ni de lejos, no creo que le vaya tan mal, esta vendiendo las APU, GPU de consolas por 2 o 3 generaciones y eso le da una válvula de escape, con las GPU no vende tanto como Nvidia, pero tampoco está invirtiendo mucho ya que casi todos sus modelos son RE-re-fritos así que imagino que tendrán un buen margen.

Donde peor lo pasa en es la zona de CPU.

Yo hasta que no vea hechos no me creo nada.

En la zona de CPU no es que lo pase mal, es que han hecho cagadas a lo grande, ya que podrian haber fomentado sus apu Kaveri, ya que tenian suficiente potencia como para, al menos, hacer la competencia a los I5, el problema es que la jodieron al capar el dual graphics solo a las R7, si hubieran permitido eso a las graficas superiores hubieran vendido mas, pero como les interesaba mas seguir vendiendo el ya sobrepasado FX ahi les va. Ademas esta claro que llegaron a algun tipo de acuerdo con MS y Sony de no sacar apus mejores que las de las consolas, pero se pegaron un tiro en el pie ya que han dejado solo a Intel.
Y por cierto, no es la licencia X86 lo que le da valor solamente, sino que la tecnologia que hace que los micros X64 que intel usa desde hace años es de AMD, ya que recuerdo que Intel no vendia una mierda de micros X64 porque tenian problemas con las apps (que en aquella epoca mayormente eran x86), por lo que acabo llegando a un acuerdo con AMD de intercambio de licencias.
En la zona de CPU lo que ha acabado de matar ha sido quedarse en los 32nm por no poder pasar a los 20nm al se ha decidirse pasar a los 16 o 14, de hecho ya salto una noticia el otro dia que ZEN no vera la luz hasta finales de 2016.

Aunque pienso que sigue faltando un FX steamroller de 28nm, al menos para darle vidilla a la plataforma durante algun tiempo o una APU de 6 nucleos.
Interesantisimo el articulo y muy informativo...

Viendo lo que se dice parece cada vez más obvio que las cosas se están torciendo para Nvidia, y más aun para los poseedores de tarjetas con arquitectura Maxwell 2.

Las informaciones que indican que el problema con la computación asincrona podría extenderse a Pascal son aun más preocupantes.

Cuesta creer que una empresa tecnológicamente tan avanzada y que destina tantos recursos a I+D como Nvidia haya tenido semejante falta de visión para con la nueva API gráfica, pero estas cosas pasan hasta en las mejores familias.

No obstante, pienso que aun es pronto para valorar la verdadera gravedad de este asunto, sobre todo hasta que se sepa el rendimiento en juegos de la "solución" que está implementando Nvidia, si bien oídas las explicaciones de como funcionarán en Amd, suena como que Nvidia deberá sacarse un milagro de la manga para poder competir. Claro que, si alguien puede sacar un milagro son ellos.

Y si no dan con la tecla, supongo que los que tenemos la Gtx 980 TI nos veremos obligados a cambiar de gráfica antes de lo esperado, tal vez en favor de una AMD...

Quien sabe, aún es pronto...
A mi me parece que fumais kiffi muy bueno, porque semejantes flipadas por un bench totalmente partidista de una alpha de un estudio de tres al cuarto no es como para decir que NVIDIA no va a poder "ni competir". Es que ni con esos datos en la mano se ve que no puedan competir, como para saber como estara la situacion en pruebas reales. Y juzgar lo que va a pasar con unas tarjetas que aun faltan minimo 6 meses para salir al mercado por lo que diga un friki de un foro ingles es otra barbaridad.

A mi tres pitos me importa una marca u otra, tengo una 7850 y mas contento que para que, y cuando salgan las pascal ya valorare si me paso a NVIDIA o no.
A mi realmente lo que me interesa es cuan grande va a ser el salto a pascal.

Si por el precio de una 970 tendremos la potencia de una 980ti.

Lo de DX12 seguro que a pascal ni le afecta.

Un Saludo.
Boris I escribió:A mi me parece que fumais kiffi muy bueno, porque semejantes flipadas por un bench totalmente partidista de una alpha de un estudio de tres al cuarto no es como para decir que NVIDIA no va a poder "ni competir". Es que ni con esos datos en la mano se ve que no puedan competir, como para saber como estara la situacion en pruebas reales. Y juzgar lo que va a pasar con unas tarjetas que aun faltan minimo 6 meses para salir al mercado por lo que diga un friki de un foro ingles es otra barbaridad.

A mi tres pitos me importa una marca u otra, tengo una 7850 y mas contento que para que, y cuando salgan las pascal ya valorare si me paso a NVIDIA o no.


Lo de menos es el test con el motor de oxide games, la cosa es que ya dos o mas desarrolladores estan hablando de los shaders asincronos [computo asincrono, como para IA, fisicas, etc.] y sobre todo, de secuencias asincronas de los diferentes tipos de datos que el motor del juego envia al GPU y que tambien sea asincrono

RaulKO escribió:..

No obstante, pienso que aun es pronto para valorar la verdadera gravedad de este asunto, sobre todo hasta que se sepa el rendimiento en juegos de la "solución" que está implementando Nvidia, si bien oídas las explicaciones de como funcionarán en Amd, suena como que Nvidia deberá sacarse un milagro de la manga para poder competir. Claro que, si alguien puede sacar un milagro son ellos.

Y si no dan con la tecla, supongo que los que tenemos la Gtx 980 TI nos veremos obligados a cambiar de gráfica antes de lo esperado, tal vez en favor de una AMD...

Quien sabe, aún es pronto...


La solucion de nvidia es la solucion planeada desde el comienzo, SOFTWARE y mas SOFTWARE, solo lo que haran por ahora es optimizar la parte del controlador de video encargado de el scheduler para dar prioridad a esas llamadas urgentes [lo que seria el asincronismo] y tratar de disminuir la latencia que esto originaria entre el software scheduler y la llegada de cada componente al shader correspondiente [hardware] en el GPU. Si logran un buen balance en esta parte no tendrian mayor problema en esta generacion, y sera ver que hacen en la siguiente, que asi ya tendran en que pensar mas alla de lo de optimizar las memorias HBM y aprovechar el gran ancho de banda que permiten, porque si dejan lo mismo de usar solo software para scheduller y otras funciones, pues ese ancho de banda excepcional se vendra abajo.
Ya tenemos nuevo test bajo directx 12 de las gpus actuales:

Fable

http://www.extremetech.com/gaming/21483 ... -benchmark

Conclusión final:

If other analysis confirms these figures, it implies that AMD’s GCN-based cards could have real staying power in the DX12 API. For the past few months, there’s been a great deal of chatter back and forth as users debated whether or not DX12 feature levels were likely to deliver significant performance advantages or disadvantages. These types of questions are always best answered by games, and the (very) early DX12 data is looking very solid for Team Red. The fact that the R9 390, at $329, outperforms a GTX 980 with an MSRP of ~$460, is a very nice feather in AMD’s cap.

As with Ashes of the Singularity, the usual caveats apply. These are pre-launch titles and early drivers on a still-young operating system. So far, however, the DX12 results we’ve seen have been very positive for AMD — lending credence to the company’s longstanding argument that GCN would fare well under the new API.


Parece ser que los rumores, benchs y tests previos no iban mal encaminados y las GCN rinden bastante mejor en directx 12.

Un saludo
cheewaca escribió:Ya tenemos nuevo test bajo directx 12 de las gpus actuales:

Fable

http://www.extremetech.com/gaming/21483 ... -benchmark

Conclusión final:

If other analysis confirms these figures, it implies that AMD’s GCN-based cards could have real staying power in the DX12 API. For the past few months, there’s been a great deal of chatter back and forth as users debated whether or not DX12 feature levels were likely to deliver significant performance advantages or disadvantages. These types of questions are always best answered by games, and the (very) early DX12 data is looking very solid for Team Red. The fact that the R9 390, at $329, outperforms a GTX 980 with an MSRP of ~$460, is a very nice feather in AMD’s cap.

As with Ashes of the Singularity, the usual caveats apply. These are pre-launch titles and early drivers on a still-young operating system. So far, however, the DX12 results we’ve seen have been very positive for AMD — lending credence to the company’s longstanding argument that GCN would fare well under the new API.


Parece ser que los rumores, benchs y tests previos no iban mal desencaminados y las GCN rinden bastante mejor en directx 12.

Un saludo




Lol, hay unos cuantos que deberían pasar a por su owned habitual. Aunque de momento quedan cosas por ver porque casi no se ve software y a ver como reacciona Nvidia.
KailKatarn escribió:
cheewaca escribió:Ya tenemos nuevo test bajo directx 12 de las gpus actuales:

Fable

http://www.extremetech.com/gaming/21483 ... -benchmark

Conclusión final:

If other analysis confirms these figures, it implies that AMD’s GCN-based cards could have real staying power in the DX12 API. For the past few months, there’s been a great deal of chatter back and forth as users debated whether or not DX12 feature levels were likely to deliver significant performance advantages or disadvantages. These types of questions are always best answered by games, and the (very) early DX12 data is looking very solid for Team Red. The fact that the R9 390, at $329, outperforms a GTX 980 with an MSRP of ~$460, is a very nice feather in AMD’s cap.

As with Ashes of the Singularity, the usual caveats apply. These are pre-launch titles and early drivers on a still-young operating system. So far, however, the DX12 results we’ve seen have been very positive for AMD — lending credence to the company’s longstanding argument that GCN would fare well under the new API.


Parece ser que los rumores, benchs y tests previos no iban mal desencaminados y las GCN rinden bastante mejor en directx 12.

Un saludo



Lol, hay unos cuantos que deberían pasar a por su owned habitual. Aunque de momento quedan cosas por ver porque casi no se ve software y a ver como reacciona Nvidia.


No Kail, lo del Owned no va ahora, ahora va lo de "pero es que con OC las Nvidia son mejores". Parece mentira que no te sepas el guión después de tantas veces igual XD
no entiendo como no han usado un micro AMD para esas pruebas... Una pena seria interesante ver los resultados.
Aun con mejores resultados la inmensa mayoría de juegos son DX11 todavía y no tenemos ningún juego que soporte DX12.

Lo que si me sorprende es las 390/390x sacando pecho ante las 970/980, veremos NVIDIA como reacciona.

A mi lo que me preocupa mas es que si hacer una tarjeta DX12 implica perder algo de rendimiento DX11 a cambio.
Esperaremos a más benchmarks y juegos y si la cosa sigue favoreciendo a Amd incluso con las Pascal pues nada, me vuelvo a AMD y me quedo tan pancho. :D
ami me jode la puta vida que los de 3dmark no lanzen ya el puto test de dx12 coño
KailKatarn escribió:
cheewaca escribió:Ya tenemos nuevo test bajo directx 12 de las gpus actuales:

Fable

http://www.extremetech.com/gaming/21483 ... -benchmark

Conclusión final:

If other analysis confirms these figures, it implies that AMD’s GCN-based cards could have real staying power in the DX12 API. For the past few months, there’s been a great deal of chatter back and forth as users debated whether or not DX12 feature levels were likely to deliver significant performance advantages or disadvantages. These types of questions are always best answered by games, and the (very) early DX12 data is looking very solid for Team Red. The fact that the R9 390, at $329, outperforms a GTX 980 with an MSRP of ~$460, is a very nice feather in AMD’s cap.

As with Ashes of the Singularity, the usual caveats apply. These are pre-launch titles and early drivers on a still-young operating system. So far, however, the DX12 results we’ve seen have been very positive for AMD — lending credence to the company’s longstanding argument that GCN would fare well under the new API.


Parece ser que los rumores, benchs y tests previos no iban mal desencaminados y las GCN rinden bastante mejor en directx 12.

Un saludo




Lol, hay unos cuantos que deberían pasar a por su owned habitual. Aunque de momento quedan cosas por ver porque casi no se ve software y a ver como reacciona Nvidia.


Este benchmark no vale para nada.
Bolo_assassin escribió:Este benchmark no vale para nada.



Claro, ninguno vale, eso ya lo tengo claro desde siempre. Sólo si favorece a nvidia o a intel pueden ser realidad. [sonrisa]

Me sé la religión del forero español, no me olvido, no.
Yo con todo esto solo saco una conclusión; larga vida a mi 7950! [beer]
KailKatarn escribió:
Bolo_assassin escribió:Este benchmark no vale para nada.



Claro, ninguno vale, eso ya lo tengo claro desde siempre. Sólo si favorece a nvidia o a intel pueden ser realidad. [sonrisa]

Me sé la religión del forero español, no me olvido, no.

El 3D Mark tampoco valía,era mejor el 2011,pero claro ahora si vale.
Bolo_assassin escribió:El 3D Mark tampoco valía,era mejor el 2011,pero claro ahora si vale.



Tranquilo a mi me vale cualquier análisis, de cualquier marca siempre y cuando venga de páginas serias y reconocidas. Vamos, que me preocupa 0 quien gane, me preocupa más quien me de más por menos.


PD: una review llevando la contraria a otras 2:

Imagen

Imagen

Imagen


Link: http://techreport.com/review/29090/fabl ... e-revealed

[sonrisa] [sonrisa] [sonrisa]



PD2: Otra más:


Imagen

Imagen




PD3: Otra más aún:


Imagen



Ahora ya valen? ;)
Sigo esperando juegos.

Aunque interesante ver q a partir de 4c/8t no se aprecia aumento de rendimiento.
TP S.A. escribió:Yo con todo esto solo saco una conclusión; larga vida a mi 7950! [beer]


Yo pienso igual, pero si se me pone a tiro una 290 o 290x pego el salto XD
Lo que no entiendo es porque en esa tablas, aparte de que funcione mejor AMD o NVIDIA, no se usa un micro AMD... ¿No interesa?
...
Editado por metalgear. Razón: Troll
La 290/390 matando a la 980 [plas] [plas] [plas] esto va a ser muy gracioso.
KailKatarn escribió:
Bolo_assassin escribió:El 3D Mark tampoco valía,era mejor el 2011,pero claro ahora si vale.



Tranquilo a mi me vale cualquier análisis, de cualquier marca siempre y cuando venga de páginas serias y reconocidas. Vamos, que me preocupa 0 quien gane, me preocupa más quien me de más por menos.


PD: una review llevando la contraria a otras 2:

Imagen

Imagen

Imagen


Link: http://techreport.com/review/29090/fabl ... e-revealed

[sonrisa] [sonrisa] [sonrisa]



PD2: Otra más:


Imagen

Imagen




PD3: Otra más aún:


Imagen



Ahora ya valen? ;)

Me siguen sin convencer,a mi dame test del 3D Mark y del Heaven.
ROTOR escribió:Sigo esperando juegos.

Aunque interesante ver q a partir de 4c/8t no se aprecia aumento de rendimiento.


Se supone que DX12 esta optimizado para 6 hilos.

Esos tres ultimos benchmark, no tienen mucho sentido, las diferencias entre la 390X y la Fury X son casi ridiculas, de hecho en el test en LOW la 290X le pasa por delante, ahi falla algo por cojones, deberia haber entre un 15~25% de diferencia a favor de la fury X, lo mismo que se ve claramente entre la 980 y la 980ti
Dfx escribió:
ROTOR escribió:Sigo esperando juegos.

Aunque interesante ver q a partir de 4c/8t no se aprecia aumento de rendimiento.


Se supone que DX12 esta optimizado para 6 hilos.

Esos tres ultimos benchmark, no tienen mucho sentido, las diferencias entre la 390X y la Fury X son casi ridiculas, de hecho en el test en LOW la 290X le pasa por delante, ahi falla algo por cojones, deberia haber entre un 15~25% de diferencia a favor de la fury X, lo mismo que se ve claramente entre la 980 y la 980ti


Lógico llega un momento que paralelizar ya no resulta rentable a nivel de cpu, aun así es un gran avance respecto a Dx11.
anikilador_imperial escribió:La 290/390 matando a la 980 [plas] [plas] [plas] esto va a ser muy gracioso.



Queda mucho por ver y por demostrar aún pero vamos de momento si que sirve para que muchos aprieten el culo (y sigan comiendo owned tras owned) y eso ya es más que suficiente para echarse unas risas. Ay! estas marcas ... que malo es profesarles religiones y pasiones.
KailKatarn escribió:
anikilador_imperial escribió:La 290/390 matando a la 980 [plas] [plas] [plas] esto va a ser muy gracioso.



Queda mucho por ver y por demostrar aún pero vamos de momento si que sirve para que muchos aprieten el culo (y sigan comiendo owned tras owned) y eso ya es más que suficiente para echarse unas risas. Ay! estas marcas ... que malo es profesarles religiones y pasiones.

Amén, yo cada vez que leo los comentarios, de verdad, que me da un poco de [sonrisa] [sonrisa] .
Medu75 escribió:Amén, yo cada vez que leo los comentarios, de verdad, que me da un poco de [sonrisa] [sonrisa] .



Y menos con lo sana que es la competencia. Daría hasta dinero si me dicen que con ello desaparecerían estas 2 marcas y naciesen otras 10 nuevas, pero me temo que el capitalismo acaba siempre en muy pocas cabezas directoras de cualquier tema.

Un saludo!
Yo voy a ser muy feliz cuando pille otra trixx pero me parece que tendre que cambiar de fuente
Ojalá sea la tendencia y obligue a NVIDIA a bajar precios, pero AMD sigue rindiendo por debajo de NVIDIA si comparamos las especificaciones de las GPUs, a pesar del Async Compute que juega a favor de AMD.
383 respuestas
13, 4, 5, 6, 7, 8