3DMark con test para Mantle y Direct3D_12 [actualizado]

FutureMark haciendo honor al nombre, en su proxima entrega de su software de pruebas 3DMark, tendra una nueva prueba que incluye estas nuevas APIs Graficas.

Farandole [Dandia] sera el test que pondra a prueba el rendimiento de Mantle y D3D12 para el 2015, aunque no habra GPUs que den soporte nativo a D3D_12 para esas fechas, no esta demas ver como se comporta el soporte parcial que hacen a esta API los GPUs actuales y los que salgan en la primera mitad del 2015.

http://wccftech.com/3d-mark-farandole-d ... ture-test/

Imagen
Seria bueno que 3DMark sacara una prueba para ver lo de sumar el Frame Buffer en configuraciones en CrossFireX o SLI.

hilo_ahora-resulta-con-mantle-y-direct3d-12-se-podra-sumar-la-vram-del-cfx-sli_2073659
TRASTARO escribió:Seria bueno que 3DMark sacara una prueba para ver lo de sumar el Frame Buffer en configuraciones en CrossFireX o SLI.

hilo_ahora-resulta-con-mantle-y-direct3d-12-se-podra-sumar-la-vram-del-cfx-sli_2073659


lo del framebuffer ni idea pero...
si que llevará algo interesante

http://elchapuzasinformatico.com/2015/0 ... s-pruebas/
La suite 3DMark incluirá la API Overhead Feature Test, la cual es capaz manejar más llamadas de dibujado. Básicamente, la API ayuda a producir mejores gráficos (o iguales) manteniendo de forma constante el rendimiento
“La API de 3DMark, Overhead, es la primera prueba independiente del mundo para comparar el rendimiento de DirectX 12, Mantle, y DirectX 11. Podrás ver cuántas llamadas de dibujado podrá manejar tu PC con cada API antes de que la velocidad de los FPS caiga por debajo de 30 fps.”
Una comparativa de AnandTech de Mantle contra Direct3D_12 en el juego Star Swarm, el cual realiza muchas llamadas 'draw calls' y que consume muchos recursos. Las pruebas las realizaron usando procesadores de intel corei

http://www.anandtech.com/show/8962/the- ... star-swarm


Comparativa de llamadas entre D3D9 [parte superior] contra D3D12 parte inferior, menor tiempo es mejor.
Imagen


Aqui vemos la compatibilidad de D3D12 con las arquitecturas de GPUs de AMD y NVIDIA.

Imagen



Y lo que realmente nos interesa, la comparativa entre Mantle vs D3D11 vs D3D12 en diversas tarjetas de video.

A 4 nucleos [4 hilos] fijos
Imagen


Ahiora vemos como afecta el numero de nucleos , 2 4, y 6 nucleos [2, 4 y 6 hilos]:

Diferencia entre D3D11 vs D3D12
Imagen

Diferencias entre Mantle vs D3D11 vs D3D12
Imagen

Notamos que al menos en este juego, no hay mucha escalada de fps al pasar de 4 nucleos a 6, siendo que al contrarilo, hay una ligera disminucion en ambas APIs [mantle/d3d12], asi que el motor del juego no esta muy optimizado para usar mas de 4 nucleos.


Otra cosa interesante, es que a mayor escala de rendimiento mas consumo se genera en el GPU, por ello vemos a D3D11 como el que menos consume, mientras mantle hace se consuma mas

Imagen

Esperemos al final de este año tengamos juegos que usne esta API D3D12, ¿no?

.
Yo creo que sí, que a partir de que salga W10 al mercado ya habrá algún juego que aproveche directx12, y aunque luego la diferencia no sea tanta como parece, será mucha y nos permitirá aguantar más años sin cambiar micro.

La cosa pinta muy bien la verdad.
La verdad es que si que pinta bien el tema.. yo estoy a ver si sacan las nuevas GPU de AMD y cambiaré a los nuevos micros de Intel broadwell para aprovechar el D_3D_12 [360º]
yo hace un tiempo estuve haciendo unas pruebas en casa...
mi fx 9590 a stock sin turbo (en otras palabras... a 4.7) y mi 2600k a 5 [fumando]
en mantle y 1 sóla gpu en mantle tiraban exactamente igual, tanto en mínimos, maximos y average en varios test sintéticos en ambos pc's. En DX11 lógicamente no

muy bien por M$ y sus directX 12, sólo se lleva un par de frames con el mantle, siendo el mantle exclusivo de amd (y posiblemente optimizado a tope para GCN).

Lo que no tiene perdón es el "buggy" de la serie 7000 / 200, aunque quizás lo solucionen para la próxima beta (más les vale)

a ver si salen ya los bench y los drivers que tengo ya mi fx esperando con la preview XD para cacharrearlo
Hola tengo una pregunta respecto a mantle, veo que hablan mucho de ello y quisiera saber un poco mas del asunto [carcajad] .
Ya se encuentra disponible o esta en desarrollo igual que DX12 :-?
Interesante, así que al final vemos que:

1.- Todo el ruido generado con Mantle no ha servido para nada, no aporta nada respecto a D3D12 en cuanto a gestión del API por la cpu (sobre todo llamadas). Ya que el principal test con su argumento troncal sobre la utilidad de Mantle, rinde básicamente igual con sus drivers D3D12 que con los Mantle, supuestamente más maduros los segundos y más ajustados a la arquitectura.

2.- Después de que nvidia tirara el guante modificando y mejorando el driver D3D11 hace ya más de un año, AMD ha demostrado su nula intención de recogerlo ya que su rendimiento en D3D11 sigue siendo muy negligente comparativamente, teniendo en cuenta que la grandísima mayoría de juegos se portan y portarán a D3D11 antes que a cualquier otro lado (tanto por simplicidad como retrocompatibilidad con hard gráfico potente que sólo es compatible con éste), es una "gran idea" de AMD no haber hecho los deberes con D3D11. Que una 750Ti esté a nada de triplicar el rendimiento de una 290X habla claro.

3.- Nvidia para variar hace los deberes, no porque soporte dos arquitecturas distintas más que correctamente (como mínimo igual en kepler y maxwell 1.0, sino algo mejor), sino que además lo hace de forma mucho más notable en un caso concreto, maxwell 2.0, sacando más de un 50% de ventaja a su rival "directo" en D3D12. O sea, que los drivers son en el peor de los casos equivalentes (habría que discutir si es normal que una 750Ti esté tan cerca en un test aunque se centre mucho en API y cpu, a una 285, y si la distancia relativamente baja entre 290X y 680 es "normal"), y en el mejor de los casos mucho mejor.

Habría que saber porqué rinde tanto maxwell 2.0, quizás viendo en contraste otras gpus de nvidia más potentes y kepler, y otras maxwell 2.0 menos potentes.


4.- Y por fin asistimos a la puntilla final para darle matarile a Mantle.

Ha dejado de tener sentido viendo estos datos, porque ni AMD ha permitido el acceso abierto a Mantle como había prometido (incumplimiento sistemático de la liberación del SDK "privado" que actualmente tiene con acceso sólo bajo autorización y firma de NDA), ni ahora tiene la menor importancia dado que falta bastante poco para la salida de windows 10 y D3D12.

Su principal argumento para vender Mantle siempre ha sido el evitar la sobrecarga de la cpu al gestionar el API, pues bien, con D3D12 esto se ha acabado, faltan meses para el lanzamiento de Windows 10 y D3D12, y cuando se haga, se hará de forma oficial y con las herramientas que nos tiene acostumbrados los de microsoft en sus lanzamientos de revisiones de DirectX, esto es, con SDKs y documentación a porrillo disponible y accesible para todo el mundo, de forma abierta aunque sea una plataforma cerrada y propietaria.

Muy al contrario de lo que se sigue viendo a día de hoy con AMD y su plataforma "abierta y no-pero-sí-propietaria", donde ni se dejan entrar a otros fabricantes de gpus (intel), ni se permite el acceso a SDKs a desarrolladores excepto autorización y firma de NDA.

¿Qué va a hacer AMD ahora, abrir por fin el SDK al público a 2-3 meses del lanzamiento de Windows 10, sí? Porque aún siguen sin decir nada de su último incumplimiento de fechas de publicación del SDK, donde juraban y perjuraban (R.Huddy) que como muy tarde días últimos de diciemde del.... 2014. Y eso dicho durante noviembre.

Ni en febrero ni en marzo se le espera, a este ritmo y callada como respuesta a su último incumplimiento (van tres como mínimo), ¿quién se va a molestar entre los desarrolladores independientes, los de verdad, los que no firman NDAs para hacer su trabajo que es hacer juegos o aplicaciones 3D, en usar un API si es que se abre al final antes de que salga DirectX12, si sólo será a meses vista y para soportar un hard limitado?

AMD promete (y ahora se ve porqué insistía especialmente en esto Huddy en su última conferencia) en que Mantle era "multiplataforma" como punto de crítica a D3D12. Bien, su "multiplataforma" se limita a Windows y además sabores relacionados con Vista en adelante, si no me equivoco. ¿Dónde está el soporte universal inicialmente prometido de linux y otras plataformas? Ah... otra promesa quedando en el tintero, y otro argumento que no puede usar contra DX12.

Sobre consumos:

No es cierto que la gpu consuma más al usar APIs más "rápidas" como afirma algún compañero, no es así, es TODO el sistema lo que consume más.

Un error de cajón que suele cometer mucha gente al hablar de consumos es coger y comparar distintos rendimientos y comparar consumos como si fueran comparables. Y más cuando se habla de consumos de sistemas completos.

Si se ofrece más rendimiento, también aumenta el consumo en la cpu al aumentar el número de frames procesados, se aumenta también el trabajo de ésta, no ya en lo que cueste procesar temas del API, no. Sino en todos los subsistemas que nada tienen que ver con el API gráfica, como la IA, físicas, etc.

Habría que tener en cuenta este detalle en toda medida de consumo (por eso en muchos aspectos es mejor mirar el consumo por rendimiento, o W/frame, resultado de dividir el consumo por la tasa de fps), sobre todo porque además existen pruebas o juegos con rendimientos bastante distintos según la gráfica usada, un problema de la falta de muestreo que se hace evidente en las "disparidades" que hay entre muchos websites, habría que mirar bien estas dos gráficas para interpretar correctamente el coste en consumo y demás de un API:

Imagen

Imagen

Aunque sea comparando rendimientos con 4 cores con consumos de 6 activos, debería ser comparable dado que o no se usan o son negativos (AMD) o la mejora es mínima al pasar a 6(nvidia y GTX 980, por cierto que también es la que más mejora con diferencia al pasar de 2 a 4 cores).

GTX 980:

66,8 fps y 271W -> 4,05W por frame. (D3D12)
26,7 fps y 222W -> 8,31W por frame. (D3D11)

R9 290X:

8,3 fps y 241W -> 29,04W por frame. (D3D11)
42,9 fps y 285W -> 6,64W por frame. (D3D12)
45,6 fps y 305W -> 6,68W por frame. (mantle)

A nivel de sistema, sólo usando D3D11 y no por mucho, es menos eficiente el sistema con una GTX 980 en hacer su trabajo. Y al comparar sólo contra Mantle o D3D12, esto es, peras con manzanas. Comparando contra su equivalente en AMD la diferencia es abismal en cuanto a eficiencia energética para dicho rendimiento (cuatro veces menos energía por frame renderizado).

Lo cual demuestra el grado de ineficiencia con las drawcalls que tiene el driver D3D11 de AMD, que sigue exactamente donde estaba un año atrás, sin apuntar nada de nvidia. En APIs "futuras" el balance no es tan bestial a favor de nvidia, porque se supone que no hay un "problema basal" como con D3D11, pero aún así, hay más de un 50% de diferencia entre GTX 980 y 290X en consumo por frame renderizado con las "nuevas APIs".
Lo que no me aclaro es que se necesitara para usar directx 12.Por supuesto windows 10,pero que cpu y grafica hara falga para aprovecharlo???
Lo que podemos sacar en claro de todo esto es que wwwendigo odia a mantle XD
yo l oque saco en claro es que dx12es una copia barata de mantle y que comparar graficas nuevas con graficas con mas de un año en el mismo api es un desproposito.

las nuevas amd's van a callar muchas bocazas.
Me podeis aclarar que cpu y grafica se necesitaran para aprovechar direcxt 12????
ICETOSKI escribió:Me podeis aclarar que cpu y grafica se necesitaran para aprovechar direcxt 12????


en principio ninguna grafica actual es compatible 100% con dx12 por hardware.
WiiBoy escribió:Lo que podemos sacar en claro de todo esto es que wwwendigo odia a mantle XD


Y no es el unico. AMD se ha comportado como unos autenticos gilipollas con este asunto, yo tambien quiero que se vaya a tomar por culo y en cambio pegue con fuerza el glNext que el Grupo Kronos presentara en la GDC.

Tanto "secretismo" y pollas, al final Microsoft con DX12, la proxima iteracion del OpenGL o esta "nueva" api glNext le pasaran la mano por la cara a AMD.
Gracias @wwwedigo, como siempre)


Athlon 64 es a Intel lo que la serie 58x0 es a Nvidia.
Es hora de despertarse, AMD.
paconan escribió:..

muy bien por M$ y sus directX 12, sólo se lleva un par de frames con el mantle, siendo el mantle exclusivo de amd (y posiblemente optimizado a tope para GCN).


La misma retorica de siempre, AMD ha declarado que Mantle es compatible con nvidia geforce e intel HD Graphics, donde Intel ha sido la unica que delcaro estar interesada en esta API de mantle. Otra ventaja de mantle es que seria universal, es decir, sirve para distintos sistemas operativos y distintos dispositivos como tablets o smartphones.

Obviamente en le mercado juegos para PC preponderante, Mantle tiene poco para ganar, siendo la api de microsoft la que seguramente quede para ambiente windows. Mantle se quedaria con la expectativa de si logra hacerse como la API estandra para el mercado de juegos PC en ambiente gnu/linux, donde competiria con OpenGL o alguna otra.



ICETOSKI escribió:Lo que no me aclaro es que se necesitara para usar directx 12.Por supuesto windows 10,pero que cpu y grafica hara falga para aprovecharlo???


Para el hardware GPU actual:

Imagen

Project-2501 escribió:
en principio ninguna grafica actual es compatible 100% con dx12 por hardware.


Como te apunta Project-2501, ningun GPUI actual aprovecha todos los efectos visuales y algunas funciones avanzadas de D3D12, pero de la tabla anterior que puse, esos GPUs pueden aprovechar lo de mejorar el rendimiento lo cual ya es bastante ventaja para aprovechar en cuanto salga oficialmente windows 10 y los primeros juegos con Direct3D_12.
28,5 en D3D11 y 65 en mantle con una 290, bien tirados los tests.
Project-2501 escribió:yo l oque saco en claro es que dx12es una copia barata de mantle y que comparar graficas nuevas con graficas con mas de un año en el mismo api es un desproposito.

las nuevas amd's van a callar muchas bocazas.


1.- Menos mal que tú sí que tienes acceso a la documentación y SDK de Mantle que los demás desarrolladores no podemos acceder como sí hacemos con los SDKs de microsoft, qué máquina que estás tú por aquí para iluminarnos sobre esta flagrante "copia". También saludos a la gente de microsoft con los que te codeas y tienes acceso a su material de desarrollo de D3D12, porque los desarrolladores normales no tenemos acceso a él. Lo dicho, máquina total.

2.- Sí, posiblemente la tuya la primera.

TRASTARO escribió:
paconan escribió:..

muy bien por M$ y sus directX 12, sólo se lleva un par de frames con el mantle, siendo el mantle exclusivo de amd (y posiblemente optimizado a tope para GCN).


La misma retorica de siempre, AMD ha declarado que Mantle es compatible con nvidia geforce e intel HD Graphics, donde Intel ha sido la unica que delcaro estar interesada en esta API de mantle. Otra ventaja de mantle es que seria universal, es decir, sirve para distintos sistemas operativos y distintos dispositivos como tablets o smartphones.

Obviamente en le mercado juegos para PC preponderante, Mantle tiene poco para ganar, siendo la api de microsoft la que seguramente quede para ambiente windows. Mantle se quedaria con la expectativa de si logra hacerse como la API estandra para el mercado de juegos PC en ambiente gnu/linux, donde competiria con OpenGL o alguna otra.



ICETOSKI escribió:Lo que no me aclaro es que se necesitara para usar directx 12.Por supuesto windows 10,pero que cpu y grafica hara falga para aprovecharlo???


Para el hardware GPU actual:

Imagen

Project-2501 escribió:
en principio ninguna grafica actual es compatible 100% con dx12 por hardware.


Como te apunta Project-2501, ningun GPUI actual aprovecha todos los efectos visuales y algunas funciones avanzadas de D3D12, pero de la tabla anterior que puse, esos GPUs pueden aprovechar lo de mejorar el rendimiento lo cual ya es bastante ventaja para aprovechar en cuanto salga oficialmente windows 10 y los primeros juegos con Direct3D_12.


1.- Por eso se rechazó durante el verano del 2014 el ingreso de Intel en la beta de Mantle, mostrando claramente la mejor cara de AMD (la hipócrita, la que presume de lo que no hace). También "prometió a intel" (falso, hicieron declaraciones cara a la prensa para justificar dicho bloqueo) diciendo que en menos de un par de meses intel podría acceder a la beta ya pública, y "no tendría problemas" para dar soporte o lo que quisiera a Mantle. Falso por segunda vez, pasaron más de 7 meses y sigue sin haber beta pública. Una, dos, tres, ¿cuántas mentiras lleva AMD respecto a Mantle?

2.- Es tan, tan universal, que ATI es incapaz (o AMD, lo que prefieras) de dar soporte a sus propias gpus DX11 que no sean GCN, e incluso cuando son GCN resulta que hay una serie de problemas e incompatibilidades que han forzado el parcheo, reescritura y recompilación ni más ni menos, que del código contra el API para adaptarlo a nuevas gpus como pasó con algunos desarrolladores (los de Sniper 3 unos) cuando salió la R9 285 y ésta iba peor con Mantle que con Direct3D.

Lo que me parece no ya una temeridad, sino una asnada, es que para una plataforma para la que no se han creado ni drivers de la casa que lo vende para todos los grandes sistemas operativos de escritorio ni sus gpus, se diga que se va a "adaptar a smartphones" y otros dispositivos similares, cuando no existe ni un sólo SoC usando GCN, y no se ha demostrado (no con palabrería de AMD, como la del acceso abierto de su API blindada de NDAs) que pueda funcionar. Empezando por la propia AMD que ha dejado totalmente en la cuneta a todo lo preGCN tanto para Mantle como para D3D12.

Las grandes plataformas de estos dispositivos ya tienen sus propias APIs estándares o no (OpenGL u otras alternativas) incluidas para quienes lo quieran de bajo nivel como en el caso de iOS, con su propio API CTM. Ni se prevee ni se espera Mantle para esas plataformas. Otra ves todo consiste en decir que Mantle es la repanocha cuando no ha salido de windows y malamente da soporte a todas las gráficas GCN.

3.- Project apunta, y tú se la soportas aparentemente (la "idea"), deja de mentir, es mentira que se sepa que Maxwell "no soporta D3D12 por hardware completamente", eso es falso. Ni tú ni project tenéis idea sobre este tema. Eso sí, os llenáis la boca de falsos tecnicismos y aseveraciones ridículas como lo de "DX12 es una copia de mantle".

Se sabe que es el único chip actual que va a tener soporte de técnicas nuevas de D3D12 por hardware, lo que no se sabe es si entrarán algunas técnicas más o no en el API porque aún está sin cerrar en ese punto (de momento no hay ninguna novedad incorporada que no tenga Maxwell 2.0 por cierto), pero de ahí a afirmar que "no hay soporte actual por hard de D3D12" cuando sí se sabe que Maxwell va a tener soporte de sus novedades, no es temerario,es lo siguiente. Y ya sabemos de qué va el cuento (desacredita afirmando lo que no sabes, saca todo el rédito posible a dudas o crea unas nuevas, manual del buen CM de AMD, ver 1.1).

Por cierto, D3D12 tiene nuevas técnicas gráficas a acelerar (como mínimo varias novedades de Maxwell), que no existen en Mantle. Mantle, el API que no ha traído bajo el brazo ninguna técnica gráfica nueva, sólo promesas de "optimización" que implican recompilar tu aplicación cada vez que sale un nuevo dispositivo que lo soporte... [oki] [oki]


elneocs escribió:
WiiBoy escribió:Lo que podemos sacar en claro de todo esto es que wwwendigo odia a mantle XD


Y no es el unico. AMD se ha comportado como unos autenticos gilipollas con este asunto, yo tambien quiero que se vaya a tomar por culo y en cambio pegue con fuerza el glNext que el Grupo Kronos presentara en la GDC.

Tanto "secretismo" y pollas, al final Microsoft con DX12, la proxima iteracion del OpenGL o esta "nueva" api glNext le pasaran la mano por la cara a AMD.


Me parece bien que se critique a nvidia cada vez que cuenta milongas o una mentira, como pasó hace nada con las specs de las GTX970.

Lo que me sorprende es el gusto y hasta afán por dejarse sodomizar por AMD ideológicamente, alguna gente, que siguen comulgando con ruedas de molino. Que Mantle es la hostia cuando nadie lo ha visto, y menos desarrolladores independientes.

Que se bloquea a fabricantes como intel para darle soporte (este verano pasado), que no se permite el acceso a desarrolladores para portar el código, excepto que te autoricen no sin firmar NDAs antes (de ahí que no se haya filtrado ni un sólo documento del API), que la propia AMD sea incapaz de dar el soporte multiplataforma tanto en su hard como a nivel de software (SSOO soportados). Que no se cumplan una y otra vez las promesas realizadas.

Se han hecho promesas en firme, varias veces tras fallar las previas, y se siguen incumpliendo, ¿cómo se va a dar credibilidad a esta gente? El problema es que ya lo han hecho varias veces antes con plataformas de soft "apoyadas" que no fueron más que material de marketing.

Bullet CL o PhysX "para GPU" (cuando ya estaba descartado), Cinema 2.0 que aún nadie sabe qué era exactamente pero como que no se ve ni hoy en día (http://www.xataka.com/consolas-y-videojuegos/amd-cinema-20-videojuegos-como-peliculas), y así hasta el infinito.

A AMD le conviene menos hablar y más trabajar. Sobre todo viendo que no cumple ni un puto plazo, de los que se ponen ellos, además.
Project-2501 escribió:yo l oque saco en claro es que dx12es una copia barata de mantle y que comparar graficas nuevas con graficas con mas de un año en el mismo api es un desproposito.

las nuevas amd's van a callar muchas bocazas.

¿Por qué es un despropósito? Todas las gráficas que soportan DX11 soportarán DX12, y todas verán una mejora brutal de rendimiento en la utilización de la CPU.

Otra cosa es que haya gráficas modernas con características de hardware nuevas como son las 900, pero eso es irrelevante ya que en Star Swarm no se están utilizando estas características, es un simple benchmark de draw calls.

Además, ni siquiera sabemos si las nuevas gráficas de AMD van a ser 100% compatibles por hardware con todas las características de DX12, pero lo más seguro es que no lo sean.
¿Los fps los han medido a ojo o qué? Me parece desproporcionada la diferencia en el caso de las AMD GCN.
n00b's escribió:¿Los fps los han medido a ojo o qué? Me parece desproporcionada la diferencia en el caso de las AMD GCN.


A mi me han regalado 20 fps, ahora lo está pasando un colega con una 7970 en dx11 a ver si saca 5 o yokse.

Vale el test está roto

== Results ================================================
Test Duration: 360 Seconds
Total Frames: 14998

Average FPS: 41.66

Es curioso de por si que en follow le saca ¿más que a mi en la 290?

en sandbox poniendo cámara en batalla cuando hay muchas unidades le da en torno a 11.

Investigaré bien.
DanIX2 escribió:
n00b's escribió:¿Los fps los han medido a ojo o qué? Me parece desproporcionada la diferencia en el caso de las AMD GCN.


A mi me han regalado 20 fps, ahora lo está pasando un colega con una 7970 en dx11 a ver si saca 5 o yokse.

Vale el test está roto

== Results ================================================
Test Duration: 360 Seconds
Total Frames: 14998

Average FPS: 41.66

7970 DX11

xdddddddddddddddddddd

Ayuda @wwwendigo me estoy poniendo nervioso.
Después de leer al amigo @wwwendigo me da miedo comprar AMD [+risas]
En sandbox alejando la cámara como en el vídeo de anandtech entre lo mismo y a veces menos según le da, lo que si he notado es que en los picos máximos me da bastantes más fps sin forzar las frecuencias de la 290.

No alcanzo a entender muy bien que han hecho, pero como digo creo que hasta la 980 quizá debería dar más (por puta lógica)

los mínimos más bajos no rozan ni 8, diría que por lo que he visto mirando fijamente tiraban a 17.

al de la 7970 no le baja de 12 tampoco, sigo sin entender la metodología que han seguido o que han hecho vaya.

Estoy por ponerme los Omega normales, aunque dudo que los de tweak force hagan el milagro. Solo se me ocurre que hayan usado el mismo run con el que han grabado y eso haya tirado más el rendimiento.

https://www.youtube.com/watch?v=qVjjWyRugpc

Algo mal me atrevería a decir que hay (no se en que exactamente) pero en follow y DX12 rara vez llegan a los 100 y a mi me pasa sobradamente de 120 marcando a veces 130y

Ahora una de las veces en RTS he bajado a 11 de 17 de otras veces en mínimo. Haré más pruebas esta semana que tengo que hacer cosas del curro y no puedo estar trasteando el proce que si poniendo ht quitando cosas y tal.
Tampoco creo que las nuevas sean 100% compatibles con D3D_12 y DirectCompute12
Xexo-xxx escribió:Después de leer al amigo @wwwendigo me da miedo comprar AMD [+risas]


Hombre, tampoco es eso.... [+risas]

Una cosa es que no me mole ni un poquito el fariseismo del "buenrollismo" cara al público de AMD (campañas de marketing promocionando tecnologías que son caballos perdedores de origen, esto ha pasado y ya lo he explicado), y otra que sus productos no puedan ser interesantes o no hayan caído en fallos más graves como el de nvidia mintiendo sobre las specs de la GTX 970.

Mira si no es para tanto que estuve barajando seriamente pillarme una R9 290 como alternativa a la GTX 970, ahora, que al final fue la última porque como se ha demostrado al instalarla, no necesitaba en absoluto cambiar una fuente viejuna y de marca chusca como una Tacens de 600W. 600W de los que hoy en día serían más bien 500 o como mucho 550W contando la misma marca su potencia, ¿eh?

Eso sí, tras ver una Tacens Mars veo que en la línea de "acceso" de Tacens siguen sin superar las calidades de hace bastantes años en sus gamas top de entonces, es un consuelo ver que tampoco es dentro de las actuales Tacens, mi fuente, una putemierder del todo.

n00b's escribió:
DanIX2 escribió:
n00b's escribió:¿Los fps los han medido a ojo o qué? Me parece desproporcionada la diferencia en el caso de las AMD GCN.


A mi me han regalado 20 fps, ahora lo está pasando un colega con una 7970 en dx11 a ver si saca 5 o yokse.

Vale el test está roto

== Results ================================================
Test Duration: 360 Seconds
Total Frames: 14998

Average FPS: 41.66

7970 DX11

xdddddddddddddddddddd

Ayuda @wwwendigo me estoy poniendo nervioso.


Ese test está mal pasado, o no es RTS o no tiene activadas todas las opciones de la calidad extreme. Aseguro que es mucho más lento y ya es un milagro obtener casi 30 fps bajo DX11 con la gráfica que sea (básicamente se están atendiendo millones de drawcalls por segundo, trabajo 100% de la cpu).

== Results ================================================
Test Duration: 360 Seconds
Total Frames: 10249

Average FPS: 28.47
Average Unit Count: 3818
Maximum Unit Count: 5200
Average Batches/MS: 2374.19
Maximum Batches/MS: 5023.58
Average Batch Count: 80468
Maximum Batch Count: 185137
===========================================================

Esto son resultados mostrando "la patita" de lo que se está haciendo, si no se muestra esto más la config no hay forma de saber si se está pasando en extreme o no, con las cosas activadas como debe ser. Fuera además de poder manipular los txt que son la salida del benchmark, pero eso ya sería siempre a propósito y nunca un error humano.
Esta noche sus dejo los extreme RTS que luego tengo que hacer todo el cisco de igualar a 4 cores otra vez y quitar HT. Luego las pasadas que ya hice más adelante con esa config btw en mantle daban un resultado similar a la 980 en dx12 (aunque con variaciones) lo cual habría que ver de donde viene, no se si me atrevería a decir sin más que los de anandtech han tirado del mismo score que les daba grabando (que igual también es una cosa que debería probar) en DX11 pues algo por encima pero sin bajones tan escandalosos.
¿Como dices que dijo? ;-)

La verdad no quedo muy claro que quisiste decir.
Segun un tweet del CEO de Stardock, Brad Wardell, obtuvo 100fps de diferencia entre D3D12 y D3D11. Usando un Corei7 y un CrossFireX

Imagen
http://www.dsogaming.com/news/dx12-vers ... ole-stuff/

Meses atras:
http://www.redgamingtech.com/brad-warde ... ntle-dx12/
pero a salido ya el 3dmark para dx12 ?
http://wccftech.com/mantle-lives-vulkan-wip/

The Khronos Group has chosen the best and brightest parts of AMD’s Mantle to serve as the foundation for “Vulkan,” the next OpenGL. This revelation came via an announcement by AMD and Khronos just recently. Mantle 1.0 is far from dead and will in fact live on and form the foundation of the next chapter of the latest cross-vendor OpenGL graphics API dubbed Vulkan.

..
Perdonar mi incultura, loa procesadores actuales soportarán direct 12?,por ejemplo un 4790k y una 970g1 son compatibles? Perdonarme pero es que estoy leyendo de todo, incluso que la siguiente hornada de nvidia solo va a ser compatbile con socket 2011 y yo acabo de pillar el pc en octubre y estoy temblando. Que alguien me abra la luz please.
chiny1900 escribió:Perdonar mi incultura, loa procesadores actuales soportarán direct 12?,por ejemplo un 4790k y una 970g1 son compatibles? Perdonarme pero es que estoy leyendo de todo, incluso que la siguiente hornada de nvidia solo va a ser compatbile con socket 2011 y yo acabo de pillar el pc en octubre y estoy temblando. Que alguien me abra la luz please.


no vas a tener problemas con nada
WiiBoy escribió:
chiny1900 escribió:Perdonar mi incultura, loa procesadores actuales soportarán direct 12?,por ejemplo un 4790k y una 970g1 son compatibles? Perdonarme pero es que estoy leyendo de todo, incluso que la siguiente hornada de nvidia solo va a ser compatbile con socket 2011 y yo acabo de pillar el pc en octubre y estoy temblando. Que alguien me abra la luz please.


no vas a tener problemas con nada

Es que precisamente lo compré para cambiar solo gráfica en un futuro, ya que el procesador me va a durar bastantes años y con los 16 de ram aun que sean ddr3 me durarán lo suyo y leí que las siguientes gráficas de nvidia iban a ser para socket 2011 y la vdd que no se si es cierto o no.

Con ddr4 y 2011-3 pagas la novedad y el puro cacharreo, pero tengo miedo k la novedad la conviertan en la única opción.
chiny1900 escribió:
WiiBoy escribió:
chiny1900 escribió:Perdonar mi incultura, loa procesadores actuales soportarán direct 12?,por ejemplo un 4790k y una 970g1 son compatibles? Perdonarme pero es que estoy leyendo de todo, incluso que la siguiente hornada de nvidia solo va a ser compatbile con socket 2011 y yo acabo de pillar el pc en octubre y estoy temblando. Que alguien me abra la luz please.


no vas a tener problemas con nada

Es que precisamente lo compré para cambiar solo gráfica en un futuro, ya que el procesador me va a durar bastantes años y con los 16 de ram aun que sean ddr3 me durarán lo suyo y leí que las siguientes gráficas de nvidia iban a ser para socket 2011 y la vdd que no se si es cierto o no.

Con ddr4 y 2011-3 pagas la novedad y el puro cacharreo, pero tengo miedo k la novedad la conviertan en la única opción.



no se donde leiste esas gilipolleces pero vamos son eso... gilipolleces xD
Lo leí en el foro pero bueno no voy a citar la persona a la que se lo leí pero me asusté la verdad. Ya me quedo mas tranquilo, llevo dentro de el mundillo desde octubre y estoy todo el santo día leyendo todo tipo de cosas y uno peca de paranoico, ya me quedo mas tranquilo gracias.
Quiza mal interpretaste lo dicho por aquella persona de ese foro, porque si lo dice como noslo estas comentando, pues ni que decir.
chiny1900 escribió:Lo leí en el foro pero bueno no voy a citar la persona a la que se lo leí pero me asusté la verdad. Ya me quedo mas tranquilo, llevo dentro de el mundillo desde octubre y estoy todo el santo día leyendo todo tipo de cosas y uno peca de paranoico, ya me quedo mas tranquilo gracias.


puede que el que dijo eso , se referia a que con las cpu del socket 2011 se le sacaría mas potencia a las gpus que están por venir tipo titan X y demás , y es posible que asi sea , dependerá del juego , y o de la api que este utilize , pero esas gpus se podrán montar en el socket 1150 , 1155 y anteriores a estos , aunque con DX12 me parece a mi que pocos problemas de cpu se van a tener..
Si, en teoria la forma en que organizara los comandos Direct3D_12 hara mejor uso de ciclos del CPU, con lo que cuellos de botella serian mucho menores o casi nulos en CPUs poco potentes.
En una pagina de programadores han abierto un tema preguntandoles, ¿Que opinan de las nuevas APIs? Algo interesante es lo escrito por 'promit', quien dice ser un ex miembro del equipo de desarrollo de los controladores de nvidia, y habla de que muchos de los programadores de juegos hacen claras violaciones de las reglas de las APIs, usan poco o nada el ambiente multihilo, el cual en las APIs anteriores poco o nada hacian bien, aparte de que el uso de multi-GPUs en todos los casos era deplorable. Y habla de que las nuevas APIs resuelven todo o casi todo lo erroneo y problematico del multi-gpu, multi-hilo, etc., pero seguira estando presente lo de descuidos y violaciones a las reglas de el API usado, aunque en el panorama general, las nuevas APIs son un cambio muy bueno del lado de la programacion, facilitando mas las cosas, sobre todo en la depuracion y prueba.

http://www.gamedev.net/topic/666419-wha ... try5215019
Brad Wardell, presidente de Stardock, hace algunas declaraciones interesantes referentes a los desarrolladores de juegos y las nuevas APIs Vulkan, Mantle y D3D_12.

https://twitter.com/draginol
Imagen


EL prevé que los desarrolladores [su mayoria] no se esforzaran por usar algunas de estas APIs de nueva generacion, principalmente en windows y D3D12, una por el trabajo y nueva forma de organizar algoritmos y ciclo de desarrollo, y otra, porque seria reconocer por un lado, que efectivamente, nunca hicieron por usar al maximo el hardware, ni de optimizar su juego o motor grafico, a las funciones y ventajas de los CPUs y GPUs actuales en multihilos. Con estos argumentos, es que predice que los desarrolladores estaran renuentes por una temporada.

¿Creen que las predicciones del Sr. Wardell sean correctas?

http://nichegamer.com/2015/03/brad-ward ... rts-games/

Brad Wardell, CEO Stardock escribió:Imagen

For me, it’s the tech, what is going to be the tech story that comes out of here? What I hope most users get, I’ve had a lot of meetings with Microsoft, AMD, and a little bit of Nvidia and Intel – they really need to hit home the fact that DirectX 12, Vulkan, and Mantle, allow all of the cores of your CPU to talk to the video card simultaneously. But everyone’s really iffy about that, because that means acknowledging that for the past several years, only one of your cores was talking to the GPU, and no one wants to go ‘You know by the way, you know that multi-core GPU? It was useless for your games.’ Alright? No one wants to be that guy. People wonder, saying ‘Gosh, doesn’t it seem like PC games have stalled? I wonder why that is?’ Well, the speed of a single core on a computer has not changed in years. It’s been at 3GHz, or 2-something GHz for years, I mean that’s not the only thing that affects the speed, but you get the idea. Now, with DirectX 12, Vulkan, and Mantle, it’s how many cores you’ve got. We’ve got lots of those. Suddenly, you go by 4x, 5x, the performance.









.
Ya esta disponible el 3Dmark con prueba para D3D12 y Mantle sobre windows 10, que es el unico sistema operativo que soportara d3d12 [y las demas apis de dx12].

3DMark API Overhead Feature Test

Imagen
Imagen

Incluso ya ha salido una copmparativa entre una GPU AMD vs NVIDIA.

http://www.pcper.com/reviews/Graphics-C ... erformance

Intel Core i7-5960X
ASUS X99-Deluxe
16GB Corsair DDR4-2400
ADATA SP910 120GB SSD

Vemos que escala muy bien a mas nucleos del CPU, siendo que apartir de 6 nucleos el escalamiento disminuye, pero vamos, de que se aprovechan las arquitecturas modernas de los CPU, si que lo hace esta nueva APi D3D_12.

Imagen

Imagen


Se nota la diferencia entre modelos de gama media a gama alta, pro los ROPS y demas chunches.

Imagen

Imagen


Y la diferencia mantle/d3d12, al menos en un APU Kaveri con iGP de arquitectura GCN 1.1/1.2 ya no es tan marcada, asi que D3D12 a mejorado bastante, he de suponer.

Imagen



Otra comparativa, igual AMD, NVIDIA e INTEL usando estenuevo test de 3dMark.
http://www.pcworld.com/article/2900814/ ... nsane.html

Nuevamente vemos lo bien que escala con el # de nucleos del CPU.
Imagen

Rendimiento con diferentes procesadores, de gama baja a gama alta
Imagen

Con distintos GPUs mantle vs d3d12
Imagen

Imagen

Imagen





.
Bueno, de aqui menciona que para poder usarlo se debe usar una version especdifica de los controladores nvidia.

[quote="edy 00116"]
A mi el bench no me lo pasa en DX12, y cumplo todos los requisitos...

..

EDITO:

Era por los drivers de nvidia, hay que tener los 349.65 (no los hay para descargar desde nvidia)

[/quoye]
Con el parche que dota de soporte a la nueva API D3D12/DXGI12 al motor del juego Pouect cars aumentan entre un 30% a un 40%.

Abdullah Awan, wccftech.com escribió:Project CARS Dev: DX12 Will Improve Performance By 30-40%

The debate about DX12 is still at its peak and will stay that way until Windows 10 finally releases and we can witness the improvements in person. Until then, these DX12 posts are not going to stop and I guess if you clicked open this article, then you’re just as excited about the Windows 10 upgrade and DX12 as I am. So without further ado, let’s get to the topic at hand where the Project CARS developer shared his thoughts on the improvements that DX12 will bring to Project CARS. The developer is no minor team member, it is Ian Bell, the Head of Studio at Slightly Mad Studios. Hence, we can say that the information will be correct and accurate to a very large degree.

DX12 Will Boost Project CARS Performance By 30-40%

Project CARS developers have been quite open about the development of the game. They have taken to the forums to solve all the issues that the players have and had to face. From bugs to future releases, they have been quite open and cooperative to the fans about their plans and have hence received appreciation as well for it as well.

When asked about the impact of DX12 on Project CARS, the Head of Studios at Slightly Mad Studios, Ian Bell revealed to the fans that the new API will increase the performance of Project CARS by 30-40% which is surprisingly quite a major performance boost. The new API will be making its way into users hands with the release of Windows 10 which is a free upgrade to any PC running a previous version of Windows.

rs ago by Abdullah Awan Tweet

The debate about DX12 is still at its peak and will stay that way until Windows 10 finally releases and we can witness the improvements in person. Until then, these DX12 posts are not going to stop and I guess if you clicked open this article, then you’re just as excited about the Windows 10 upgrade and DX12 as I am. So without further ado, let’s get to the topic at hand where the Project CARS developer shared his thoughts on the improvements that DX12 will bring to Project CARS. The developer is no minor team member, it is Ian Bell, the Head of Studio at Slightly Mad Studios. Hence, we can say that the information will be correct and accurate to a very large degree.

Project CARS (6)
DX12 Will Boost Project CARS Performance By 30-40%

Project CARS developers have been quite open about the development of the game. They have taken to the forums to solve all the issues that the players have and had to face. From bugs to future releases, they have been quite open and cooperative to the fans about their plans and have hence received appreciation as well for it as well.

When asked about the impact of DX12 on Project CARS, the Head of Studios at Slightly Mad Studios, Ian Bell revealed to the fans that the new API will increase the performance of Project CARS by 30-40% which is surprisingly quite a major performance boost. The new API will be making its way into users hands with the release of Windows 10 which is a free upgrade to any PC running a previous version of Windows.

Advertisements

The fan questioned the Studio head Ian on Project CARS forums: “Ian – as you have been quite open about DX12, what would be the benefits for project cars utilising DX12?”

The reply was simply: “30-40%”

The Head of Studio for Project CARS also reveals a lot of other information on the game regularly which you can follow on Project CARS forums if you click here. That is all we have for now, do share your views with us in the comments section and we will keep you updated with any more information about the game on WCCFtech.






.
45 respuestas