DirectX 12 son malas noticias para Nvidia

14, 5, 6, 7, 8
niñodepapa escribió:http://www.anandtech.com/show/9740/directx-12-geforce-plus-radeon-mgpu-preview


Muy interesante, pero de todo, me quedo con una frase de uno de los comentarios:

"While interesting information to digest, it is merely that, this isn't Beta, this isn't even Alpha, this is literally engineers saying "Hey guys check this shit out!""
Parece que con DirectX 12 llega la posibilidad de hacer un CrosSLI si no lo capa Nvidea o AMD...

Adjuntos

EdixYT escribió:Parece que con DirectX 12 llega la posibilidad de hacer un CrosSLI si no lo capa Nvidea o AMD...



Si esto acaba siendo así cambio el nombre del hilo [sonrisa]
Pero eso esta claro que lo caparan a la minima que vaya a salir algo DX12, de todas maneras fijaros que el rendimiento escalado esta alrededor de un 150~160%, cuando en un SLI o CrossX lo normal seria estar en el 195~199% con dos GPU.
Dfx escribió:Pero eso esta claro que lo caparan a la minima que vaya a salir algo DX12, de todas maneras fijaros que el rendimiento escalado esta alrededor de un 150~160%, cuando en un SLI o CrossX lo normal seria estar en el 195~199% con dos GPU.


Eso del 195-199 te lo acabas de inventar tu. Un SLI/CF suele andar por ahi y eso esta sin optimizar.
kakarot88 escribió:
Dfx escribió:Pero eso esta claro que lo caparan a la minima que vaya a salir algo DX12, de todas maneras fijaros que el rendimiento escalado esta alrededor de un 150~160%, cuando en un SLI o CrossX lo normal seria estar en el 195~199% con dos GPU.


Eso del 195-199 te lo acabas de inventar tu. Un SLI/CF suele andar por ahi y eso esta sin optimizar.


hablando de inventar...
Dfx escribió:
kakarot88 escribió:
Dfx escribió:Pero eso esta claro que lo caparan a la minima que vaya a salir algo DX12, de todas maneras fijaros que el rendimiento escalado esta alrededor de un 150~160%, cuando en un SLI o CrossX lo normal seria estar en el 195~199% con dos GPU.


Eso del 195-199 te lo acabas de inventar tu. Un SLI/CF suele andar por ahi y eso esta sin optimizar.


hablando de inventar...


Imagen

Imagen

Por ejemplo.
kakarot88 escribió:...


Uno con cuello de botella y el otro bastante por encima del 150%, sigue intentandolo.
todo depende de la cpudependencia del juego de marras...

todo aquel que ha probado multigpu en los FX sabe muy bien de lo hablo [fiu]

edito... multigpu de gama alta se entiende
niñodepapa escribió:http://www.anandtech.com/show/9740/directx-12-geforce-plus-radeon-mgpu-preview


Hostias , espectacular , uno de los mayores avances de este mundillo , entiendo que si se encarga dx12 de todo el proceso con sus propios drivers , Nvidia o amd poco tendrían que hacer ahi , salvo joder el rendimiento via software propietario integrado en los propios juegos (seria interesante ver opiniones de que pueden o no hacer para evitar esto), lo cual ya seria terrorismo empresarial , la verdad solo me hace falta ver , una comparativa tarjeta antigua + tarjeta nueva , pongamos una con 2200 gflops , y la otra con 4500 gflops , a ver que sale de ahi , en cualquier caso esto me la ha puesto durisima ,

Imagen
Imagen
Dfx escribió:
kakarot88 escribió:...


Uno con cuello de botella y el otro bastante por encima del 150%, sigue intentandolo.

Con un 5960x y según tu tiene cuello de botella, ok. Espera, voy a por un Xeon de 24 núcleos.

Pon tu alguna imagen con 190%.
kakarot88 escribió:
Dfx escribió:
kakarot88 escribió:...


Uno con cuello de botella y el otro bastante por encima del 150%, sigue intentandolo.

Con un 5960x y según tu tiene cuello de botella, ok. Espera, voy a por un Xeon de 24 núcleos.

Pon tu alguna imagen con 190%.


Hay mas cuellos de botella aparte de gpu y cpu, por ejemplo motor grafico como es el caso de MGSV, no es que escale tan poco el sli, es que básicamente el juego no da mas.

Si te quieres seguir creyendo que un SLI o CrossX por lo general rinden como ese hybrid que hasta en el mismo articulo de anandtech te estan diciendo que es muchisimo menos, pues que quieres que te diga..., sera que los que tienen tri-sli o quad-sli solo ganan un 20 o 10% con la tercera o cuarta grafica.

Por muy 5960x que sea, si el juego no es capaz de escupir mas FPS por que el motor capa en cierto punto ya sea por que usa el IPC maximo de un solo nucleo de techo o esta optimizado como el culo en las tasas mas altas, pues es lo que hay.

http://elchapuzasinformatico.com/2015/01/review-nvidia-geforce-gtx-960-sli/4/

Aunque no soy muy fan del chapuzas, fijate como un SLI de graficas mas humildes lo que escalan por lo general, o fijate entre la 290 y la 290x2 para el crossfire.
Zinclair escribió:
niñodepapa escribió:http://www.anandtech.com/show/9740/directx-12-geforce-plus-radeon-mgpu-preview


Hostias , espectacular , uno de los mayores avances de este mundillo , entiendo que si se encarga dx12 de todo el proceso con sus propios drivers , Nvidia o amd poco tendrían que hacer ahi , salvo joder el rendimiento via software propietario integrado en los propios juegos (seria interesante ver opiniones de que pueden o no hacer para evitar esto), lo cual ya seria terrorismo empresarial , la verdad solo me hace falta ver , una comparativa tarjeta antigua + tarjeta nueva , pongamos una con 2200 gflops , y la otra con 4500 gflops , a ver que sale de ahi , en cualquier caso esto me la ha puesto durisima


Esto es algo que tiene que implementar el desarrollador, o eso entiendo, así que muchos no darán soporte para este tipo de solución. No veo yo a Nvidia "permitiendo" a Ubisoft en sus sagas Assanssins Creed o FarCry este tipo de solución, sin embargo si veo a AMD capaz de que el juego soporte Mantle y este hybrid (me refiero a que el juego soporte todo lo posible como BF4 y no a que vaya Mantle con una secunadaria de Nvidia, que ya podría ser :) )... ya se vera cuantos y quienes.
Ya pueden ir optimizando esa mierda, porque que un rts con una 980 ti en high que no ultra, segun los benchmarks no alcance mas de 60fps en ocasiones, venga hombre, que se lo metan por alli, a ver si va a haber que cambiar todos los equipos ahora por toda la cara.... Vaya tela....

Un saludo.
kerarta escribió:No soy muy entendido pero personalmente las gráficas ya hace tiempo que me gustan más las AMD, creo que son más fluidas en general y me gusta más cómo trabajan.


Pues diría que por no ser entendido caíste en el engaño de AMD. Muchos dicen que por el mismo rendimiento de Nvidia, tienes una AMD a menor precio y eso es verídico.

AMD falla en los drivers así como en tecnologías (¿alguien ha dicho Nvidia Gameworks?) y en las gráficas en sí, con muchos problemas de temperatura causantes de arctifacts.

Justamente ATI fue absorbida por AMD, en cambio Nvidia es tan grande que se puede permitir más en I+D.

En cuanto a la noticia en sí, esto yo creo que será solucionado por Nvidia, dudo de veras que se queden de brazos cruzados.
-MasMe- escribió:
kerarta escribió:No soy muy entendido pero personalmente las gráficas ya hace tiempo que me gustan más las AMD, creo que son más fluidas en general y me gusta más cómo trabajan.


Pues diría que por no ser entendido caíste en el engaño de AMD. Muchos dicen que por el mismo rendimiento de Nvidia, tienes una AMD a menor precio y eso es verídico.

AMD falla en los drivers así como en tecnologías (¿alguien ha dicho Nvidia Gameworks?) y en las gráficas en sí, con muchos problemas de temperatura causantes de arctifacts.

Justamente ATI fue absorbida por AMD, en cambio Nvidia es tan grande que se puede permitir más en I+D.

En cuanto a la noticia en sí, esto yo creo que será solucionado por Nvidia, dudo de veras que se queden de brazos cruzados.


No es por defender a AMD ni mucho menos, pero Nvidia Gameworks es la mayor mierda que ha parido Nvidia. Prueba de ello es el rendimiento de TW3 y el famoso batman. Podrias haber dicho los physx.
@-MasMe- Pues por mi propia experiencia, antes siempre tenía Nvidia hasta que una gráfica decidió jubilarse ella sola y me pasé a AMD, y desde entonces bien. También he de decir que no soy un hardcore gamer ni nada del estilo, así que no las llevo al límite.
kakarot88 escribió:
-MasMe- escribió:
kerarta escribió:No soy muy entendido pero personalmente las gráficas ya hace tiempo que me gustan más las AMD, creo que son más fluidas en general y me gusta más cómo trabajan.


Pues diría que por no ser entendido caíste en el engaño de AMD. Muchos dicen que por el mismo rendimiento de Nvidia, tienes una AMD a menor precio y eso es verídico.

AMD falla en los drivers así como en tecnologías (¿alguien ha dicho Nvidia Gameworks?) y en las gráficas en sí, con muchos problemas de temperatura causantes de arctifacts.

Justamente ATI fue absorbida por AMD, en cambio Nvidia es tan grande que se puede permitir más en I+D.

En cuanto a la noticia en sí, esto yo creo que será solucionado por Nvidia, dudo de veras que se queden de brazos cruzados.


No es por defender a AMD ni mucho menos, pero Nvidia Gameworks es la mayor mierda que ha parido Nvidia. Prueba de ello es el rendimiento de TW3 y el famoso batman. Podrias haber dicho los physx.


Pero PhysX no es Nvidia Gameworks, cuidado. No solo son físicas, basta con ir a la web para ver las múltiples aplicaciones que tiene.

Que AMD también dispone de algunas, como ocurrió con TessFX con el pelo del nuevo Lara Croft. Y para poderlo tirar bien hay que disponer de una gráfica te diría que 970/980 o mierda :_

@kerarta

Mal no va eh, cabe decir que los equipos que he podido montar con ATI rinden bien. Pero es eso, problemas de temperatura con modelos 280X/290 los ha habido a montones y veremos con 380/390.

Además, como comenté, son más baratas también. Pero muchos a veces intentan hacer un poco el engaño con lo que dije de "Igual por menos precio" cuando no es así del todo.
-MasMe- escribió:Pero PhysX no es Nvidia Gameworks, cuidado. No solo son físicas, basta con ir a la web para ver las múltiples aplicaciones que tiene.

Que AMD también dispone de algunas, como ocurrió con TessFX con el pelo del nuevo Lara Croft. Y para poderlo tirar bien hay que disponer de una gráfica te diría que 970/980 o mierda :_

@kerarta

Mal no va eh, cabe decir que los equipos que he podido montar con ATI rinden bien. Pero es eso, problemas de temperatura con modelos 280X/290 los ha habido a montones y veremos con 380/390.

Además, como comenté, son más baratas también. Pero muchos a veces intentan hacer un poco el engaño con lo que dije de "Igual por menos precio" cuando no es así del todo.


Me anoto lo de los drivers, no lo había leído antes jamas. Para ser previsor ya que en un futuro quiero una AMD ¿Serías tan amable de indicar donde fallan los drivers? Me preocupa tener muchos de estos juegos y llevarme una sorpresa.

Physx ademas de ser una API de fisicas para jugar, ¿qué otro uso tiene? Si te refieres a cuda, ¿qué programa importante o de uso extendido lo implementa?
-MasMe- escribió:
Pero PhysX no es Nvidia Gameworks, cuidado. No solo son físicas, basta con ir a la web para ver las múltiples aplicaciones que tiene.

Que AMD también dispone de algunas, como ocurrió con TessFX con el pelo del nuevo Lara Croft. Y para poderlo tirar bien hay que disponer de una gráfica te diría que 970/980 o mierda :_

@kerarta

Mal no va eh, cabe decir que los equipos que he podido montar con ATI rinden bien. Pero es eso, problemas de temperatura con modelos 280X/290 los ha habido a montones y veremos con 380/390.

Además, como comenté, son más baratas también. Pero muchos a veces intentan hacer un poco el engaño con lo que dije de "Igual por menos precio" cuando no es así del todo.


Hombre, yo no sé desde cuando no pruebas AMD, pero con los Catalyst Omega(o sea, desde 14.12 hacia arriba) los problemas de AMD con drivers son historia. Es cierto que antes había ciertos problemas(como el del Zerocore) pero desde entonces la mejora es inmensa.
Yo no veo con tan malas noticias a Nvidia en DX12 viendo la última revisión del Ashes, eh? yo creo que habría que empezar a cambiar el título del hilo:


Imagen
MRVB está baneado por "Saltarse el ban con un clon"
En esa grafica no veo ninguna 390 380..solo las antiguas 200...
...
Editado por metalgear. Razón: fuera de lugar
Una pregunta,
¿se necesita tal monstruo de ordenador para mover un juego de estrategia? Por que por lo que veo, es casi (o sin el casi) ordenador más potente que puedes montar hoy en día en single-GPU...
Paulcrack está baneado por "Troll"
Mrcolin escribió:Una pregunta,
¿se necesita tal monstruo de ordenador para mover un juego de estrategia? Por que por lo que veo, es casi (o sin el casi) ordenador más potente que puedes montar hoy en día en single-GPU...

Estará mal optimizado
KailKatarn escribió:Yo no veo con tan malas noticias a Nvidia en DX12 viendo la última revisión del Ashes, eh? yo creo que habría que empezar a cambiar el título del hilo:


Imagen


En realidad , no haría falta cambiarlo , por que en dx12 las Nvidia , o quedan igual en dx11 y dx12 o incluso bajan el rendimiento , como en las Gtx 770 , 760 , 680 , 670 (supongo que sera cosa de drivers no actualizados) , que ya tiene cojones el tema , solo gana un triste fps la gama alta 980 TI , que se supone que andaba mega preparada para DX12 , las ganancias en las radeon , son de entre los 3 y 4 fps , que no es la ganancia que se nos vendía ni de coña , pero tampoco esta mal en tasas de fps tan bajas .
de todas formas , hay que ver mas juegos y mas reviews de dx12 , a ver que se cuece realmente en dx12 , a ver el fable legens cuando salga oficialmente.
LoL menudo pepinaco de PC e incluso con una 980 Ti el juego apenas roza los 34fps, con ese rendimiento me da igual como vaya en Dx11 o Dx12 porque para jugar con una 980 a 27fps... paso xD.
Es que esa pagina rusa no se cortan, usan siempre lo mejor en hardware y tienen un montón de equipos
KailKatarn escribió:Yo no veo con tan malas noticias a Nvidia en DX12 viendo la última revisión del Ashes, eh? yo creo que habría que empezar a cambiar el título del hilo:

Imagen

Que ha pasado ? Donde ha quedado la mejora enorme que tenia AMD al pasar de DX11 a DX12 ? :-? :-?
cercata escribió:Que ha pasado ? Donde ha quedado la mejora enorme que tenia AMD al pasar de DX11 a DX12 ? :-? :-?



Pues supongo que malos drivers en ese momento y que se van puliendo. Aun así aún no hay ningún titulo DX12 para poder saber nada a ciencia cierta, y un sólo título tampoco representaría mucho así que queda mucho por ver todavía.
KailKatarn escribió:
cercata escribió:Que ha pasado ? Donde ha quedado la mejora enorme que tenia AMD al pasar de DX11 a DX12 ? :-? :-?



Pues supongo que malos drivers en ese momento y que se van puliendo. Aun así aún no hay ningún titulo DX12 para poder saber nada a ciencia cierta, y un sólo título tampoco representaría mucho así que queda mucho por ver todavía.



Aun recuerdo el famoso parche DX12 en Ark Survival Evolved....que iba a ser el primer juego.... era inminente....y aun estamos esperando
Aun no hay nada de Dx12 y ya estais empezando a arremeter los usuarios de AMD contra nvidia y los usuarios de Nvidia contra AMD... sois lo que no está escrito...

Creo que el primer juego en el cual se van a poder hacer buenas comparativas es con el Deus Ex: Mankind Divided (aunque este juego estará optimizado totalmente para AMD), a veces Nvidia la ha liado parda con sus drivers (de hecho aun los de la serie 700 estan sufriendo de lo lindo desde que salió la serie 900) y ahora es turno de AMD, estan (estamos) pasando por un mal momento con los Crimson.
Alexsacob escribió:Aun no hay nada de Dx12 y ya estais empezando a arremeter los usuarios de AMD contra nvidia y los usuarios de Nvidia contra AMD... sois lo que no está escrito...

Creo que el primer juego en el cual se van a poder hacer buenas comparativas es con el Deus Ex: Mankind Divided (aunque este juego estará optimizado totalmente para AMD), a veces Nvidia la ha liado parda con sus drivers (de hecho aun los de la serie 700 estan sufriendo de lo lindo desde que salió la serie 900) y ahora es turno de AMD, estan (estamos) pasando por un mal momento con los Crimson.

¿el tomb raider no iba a venir con directx12?
Fie escribió:
Alexsacob escribió:Aun no hay nada de Dx12 y ya estais empezando a arremeter los usuarios de AMD contra nvidia y los usuarios de Nvidia contra AMD... sois lo que no está escrito...

Creo que el primer juego en el cual se van a poder hacer buenas comparativas es con el Deus Ex: Mankind Divided (aunque este juego estará optimizado totalmente para AMD), a veces Nvidia la ha liado parda con sus drivers (de hecho aun los de la serie 700 estan sufriendo de lo lindo desde que salió la serie 900) y ahora es turno de AMD, estan (estamos) pasando por un mal momento con los Crimson.

¿el tomb raider no iba a venir con directx12?


Dejando a un lado el tema general de los port, un juego en el que oficialmente va a ser desarrollado para Xbox One no me fiaría mucho del rendimiento que puede dar para PC... o mejor dicho, de lo mal que se va a ver en PC...
Me imagino que con casi cualquier tarjeta actual de gama media lo podrá mover sin problemas. Mejor el Deus Ex que supongo que los requisitos serán mayores.
383 respuestas
14, 5, 6, 7, 8