Rendimiento DirectX 12 y API PS4

1, 2, 3, 4, 532
Toda la información que se ponga en este post, con fuente por favor. Aquí no aceptamos la palabra de nadie.

Se acerca el lanzamiento de la nueva API de desarrollo de juegos DirectX12 de Microsoft. Creo este post para ir comentando las noticias que vayan surgiendo respecto al rendimiento de esta nueva API respecto a otras APIs o versiones anteriores de la misma.

De momento ha salido una preview de Anandtech comparando el rendimiento de esta API con Mantle y Directx11. Con Mantle hay casos en que gana una y en otros la otra, pero con respecto a DirectX11 la mejora es clara en todos los casos.

http://www.anandtech.com/show/8962/the-directx-12-performance-preview-amd-nvidia-star-swarm

También es llamativo el brutal aumento de rendimiento que trae DirectX12 respecto a DX11 en StarSwarm, con una mejora de rendimiento que en algunos casos supera el 400%. Hay que tener en cuenta que se trata de un best case scenario (mejor caso posible) para demostrar las cualidades de DirectX12 y no es razonable esperar ese tipo de mejora en otros juegos que no tengan ese nivel de Drawcalls.

Edit: por petición de moderación se amplia el ámbito del post a info sobre la api de PS4, y su evolución.

La idea es que se utilice este hilo para postear información de fuentes fiables sobre las mejoras que van aportando las nuevas apis que vayan saliendo en ambas consolas. Fuentes fiables son desarrolladores hablando de cómo afecta la api a su juego, sitios técnicos como anandtech o digital foundry y las propias compañías que desarrollan la api.
Por favor no traigáis aquí información de sitios como misterxmedia, comentarios de no se quien en un foro, conjeturas, etc... La idea es mantener este post lo más concreto posible con información de fuentes fiables para que quien lo lea se entere fácilmente de cuál es la situación.


Un saludo.

Edit2: Novedades de moderación respecto al polémico tema de las fuentes.
Sois muy pesados con la fuente.

No pidáis la fuente a quien opina porque es una opinión.

Lo de pedir fuentes está bien pero es que algunas fuentes son intersadas, ciencia ficción o flipados de la vida, así que poner eso y no poner nada es lo mismo.

Que cada uno ponga la fuente que quiera y si no quiere poner nada y le ponen la cara roja que se aguante.
Una de las principales ventajas es el ínfimo consumo y la no saturación debido a drawcalls. Eso permite plantearse los juegos sin las limitaciones ahora presentes. Un buen ejemplo sería de cara a un simulador espacial:

http://youtu.be/GJCc5CslbGk

En su versión clásica con limitación de la API la cantidad de naves y disparos la reducirían para mantener el framerate.

En lo que debe notarse principalmente es en la riqueza en general, más elementos, más IAs, más detalles (sin tener que recortar para reducir las drawcalls), etc.

Y la otra es la supresión del límite de luces, así que en este aspecto debería notarse mejora.
Por ahora con Windows 10 tenia entendido que se podía probar alguna demo de directX 12 ya que el unreal engine 4 tiene una versión beta de directX 12, a ver como sale, porque tiene muy buena pinta aunque justamente yo me cambié el portátil gaming hace nada xq la cpu se ahogaba del todo (malditas APUs de portátil de and) xD
Bueno, la GDC ya ha venido y ya se ha ido, y por lo que se ve DirectX12 trae en algunos juegos de PC mejoras respecto a DirectX11 equivalentes o superiores a las que trajo Mantle. A nivel Xbox One hay alguna novedad relevante? Alguna prueba de un juego con y sin DirectX12 del estilo de las que han hecho con varios juegos de PC?
De hecho ya hay algunos temas referentes a estas APIs nuevas

hilo_primera-comparativa-no-confirmada-direct3d-11-vs-direct3d-12_2061104
hilo_3dmark-con-test-para-mantle-y-direct3d-12-actualizado_2055674
hilo_demo-de-unreal-engine-4-con-d3d-12-fable-legends_2038773
hilo_ahora-resulta-con-mantle-y-direct3d-12-se-podra-sumar-la-vram-del-cfx-sli_2073659

Con Unreal Engine 4 ya han realizado alguna demostracion de D3D12 en windows 10 technical preview.

https://www.youtube.com/watch?v=u91gN0ELS6E


Gracias a 3DMark y el test API OverHead se tienen los primeros benchmarks de D3D12 en diferentes tarjetas de video e iGPs [graficos integrados].


Imagen

Imagen

Imagen
Yo preguntaba lo de Xbox porque este hilo estaba originalmente en Multi, veo que lo han movido a PC. Preguntaré en feedback a ver qué dicen.
TRASTARO escribió:
Con Unreal Engine 4 ya han realizado alguna demostracion de D3D12 en windows 10 technical preview.

https://www.youtube.com/watch?v=u91gN0ELS6E



Eso esta bajo Dx11.
Por petición de moderación se amplia el ámbito del post a info sobre la api de PS4, y su evolución.

La idea es que se utilice este hilo para postear información de fuentes fiables sobre las mejoras que van aportando las nuevas apis que vayan saliendo en ambas consolas.
Fuentes fiables son desarrolladores hablando de cómo afecta la api a su juego, sitios técnicos como anandtech o digital foundry y las propias compañías que desarrollan la api.
Por favor no traigáis aquí información de sitios como misterxmedia, comentarios de no se quien en un foro, conjeturas, etc...

La idea es mantener este post lo más concreto posible con información de fuentes fiables para que quien lo lea se entere fácilmente de cuál es la situación.

Un saludo.
No sé si he entendido el significado de este hilo, pero DirectX12 está enfocado únicamente al PC, Ps4 ya dispone de un equipo de ingenieros con bastante talento que crean sus propias Apis y librerías para sacarle jugo al sistema, poco o nada le afectan mantle, dx12 o lo que sea.
Natsu escribió:No sé si he entendido el significado de este hilo, pero DirectX12 está enfocado únicamente al PC, Ps4 ya dispone de un equipo de ingenieros con bastante talento que crean sus propias Apis y librerías para sacarle jugo al sistema, poco o nada le afectan mantle, dx12 o lo que sea.

El significado de este hilo es analizar las mejoras de rendimiento que vayan trayendo las nuevas APIs de PC y Xbox ONE (DirectX12) y de PS4.

La API de Xbox One está basada en DirectX y Xbox tendrá DirectX12. Lo que eso significa, ya lo irán diciendo desarrolladores, webs técnicas, etc...
No se si fué para el Directx10 que también anunciaron a bombo y platillo la mejora de rendimiento, pero fuera de los benchmarks el asunto quedó en humo y poco mas. Así que no tengo muchas esperanzas en esto...
Pero Sony no da nunca detalles de su API y con PS4 han hecho bien los deberes abriendo completamente el hardware desde el principio.

Y Microsoft quitando el marketing y el humo el único cambio destacable es en el uso de la ESRAM, que no ha salido con las herramientas adecuadas y todavía no la pueden usar al 100%.
Paboh escribió:No se si fué para el Directx10 que también anunciaron a bombo y platillo la mejora de rendimiento, pero fuera de los benchmarks el asunto quedó en humo y poco mas. Así que no tengo muchas esperanzas en esto...

Bueno, para eso está el post, para ir poniendo la información que vaya saliendo y ver la realidad. En PC los benchmarks muestran que DirectX12 en PC trae una mejora similar a la de Mantle respecto a DirectX11.

josemurcia escribió:Pero Sony no da nunca detalles de su API y con PS4 han hecho bien los deberes abriendo completamente el hardware desde el principio.

Y Microsoft quitando el marketing y el humo el único cambio destacable es en el uso de la ESRAM, que no ha salido con las herramientas adecuadas y todavía no la pueden usar al 100%.

Sony de cuando en cuando suelta algo de información. Es cierto que no se espera tanto movimiento como en el otro bando con DirectX12, pero la cuestión es que si sale alguna información al respecto se puede comentar aqui.

Respecto de la segunda mitad de tu post, respeto tu opinión pero, a mí parecer, está un poco fuera de la temática del post. No hablamos de como empezó la generación. Hablamos de como están las APIs ahora y en el futuro, intentando que esa conversación se sostenga principalmente en bechmarks, comentarios de desarrolladores, información de fuentes oficiales, etc...

De otra manera esto se puede desmadrar muy rápido, y yo creo que lo que todos queremos es que se pueda hablar libremente de los máximos temas posibles en este foro. Vamos a intentar ceñirnos a estas pocas normas a ver qué pasa.
Pego lo que acabo de poner en el hilo de PC, está sacado de la conferencia de M$ de la GDC. Por supuesto esto es relativo a PC solo.

Fable Legends:
DX12 tarda casi 5ms menos en renderizar un frame que DX11.

DX11: 20.5ms -> 48.8 fps
DX12: 15.8ms -> 63.3 fps

Vemos aproximadamente un 30% de mejora de rendimiento.

Imagen
Imagen
De nuevo el hilo? A ver cuanto se tarda en cerrar por culpa de flamers, haters y fanboys.

De momento solo comentar que dx12 llegara y afectara a pc, moviles, tablets y consola. De pc hay varias graficas y tambien se ha mostrado su rendimiento en una tablet. Logicamente aparte de la presentacion donde se vio la tablet, faltan por mostrar las comparativas de moviles, mas tablets y consola por falta de acceso a la Api.
Ya que se ha preguntado, respecto a XOne han dado estas cifras: 20% de GPU, 50% de CPU (se entiende de lo que consumiera la API) y 15% la eSRAM. Además de mejorar las herramientas, como incluir un emulador con generación de informes de eSRAM para poder hacer pruebas sobre éste y acelerar y facilitar mucho su correcto uso.

Yo realmente en la XOne lo veo más bien como el punto de partida para la evolución del software en la dirección correcta, ya que se diseñó para DX12, y con DX11 la evolución iría por el camino equivocado.
darksch escribió:Ya que se ha preguntado, respecto a XOne han dado estas cifras: 20% de GPU, 50% de CPU (se entiende de lo que consumiera la API) y 15% la eSRAM. Además de mejorar las herramientas, como incluir un emulador con generación de informes de eSRAM para poder hacer pruebas sobre éste y acelerar y facilitar mucho su correcto uso.

Yo realmente en la XOne lo veo más bien como el punto de partida para la evolución del software en la dirección correcta, ya que se diseñó para DX12, y con DX11 la evolución iría por el camino equivocado.

Todas las informaciones con fuente, por favor. Si lo ha dicho un desarrollador, enlace a las declaraciones. Si sale de una conferencia de Microsoft, enlace al video o al artículo de una web fiable. Si sale de una web técnica, enlace al artículo, etc...

Es la única manera de controlar el hilo y la fiabilidad de la información.
David Ricardo escribió:
darksch escribió:Ya que se ha preguntado, respecto a XOne han dado estas cifras: 20% de GPU, 50% de CPU (se entiende de lo que consumiera la API) y 15% la eSRAM. Además de mejorar las herramientas, como incluir un emulador con generación de informes de eSRAM para poder hacer pruebas sobre éste y acelerar y facilitar mucho su correcto uso.

Yo realmente en la XOne lo veo más bien como el punto de partida para la evolución del software en la dirección correcta, ya que se diseñó para DX12, y con DX11 la evolución iría por el camino equivocado.

Todas las informaciones con fuente, por favor. Si lo ha dicho un desarrollador, enlace a las declaraciones. Si sale de una conferencia de Microsoft, enlace al video o al artículo de una web fiable. Si sale de una web técnica, enlace al artículo, etc...

Es la única manera de controlar el hilo y la fiabilidad de la información.

Si wuana
http://www.dualshockers.com/2015/03/04/directx-12-will-boost-xbox-ones-cpu-by-up-to-20-according-to-phil-spencer/
http://www.redgamingtech.com/esram-performance-improves-15-dx12-info-xbox-one-analysis/
darksch escribió:
David Ricardo escribió:
darksch escribió:Ya que se ha preguntado, respecto a XOne han dado estas cifras: 20% de GPU, 50% de CPU (se entiende de lo que consumiera la API) y 15% la eSRAM. Además de mejorar las herramientas, como incluir un emulador con generación de informes de eSRAM para poder hacer pruebas sobre éste y acelerar y facilitar mucho su correcto uso.

Yo realmente en la XOne lo veo más bien como el punto de partida para la evolución del software en la dirección correcta, ya que se diseñó para DX12, y con DX11 la evolución iría por el camino equivocado.

Todas las informaciones con fuente, por favor. Si lo ha dicho un desarrollador, enlace a las declaraciones. Si sale de una conferencia de Microsoft, enlace al video o al artículo de una web fiable. Si sale de una web técnica, enlace al artículo, etc...

Es la única manera de controlar el hilo y la fiabilidad de la información.

Si wuana
http://www.dualshockers.com/2015/03/04/directx-12-will-boost-xbox-ones-cpu-by-up-to-20-according-to-phil-spencer/
http://www.redgamingtech.com/esram-performance-improves-15-dx12-info-xbox-one-analysis/

Empezamos muy mal.

En el enlace de dualshockers dicen que Phil Spencer no aclara sobre qué hardware es esa mejora del 50% de CPU y 20% de GPU. Este es el tipo de información que no quiero aquí. Aquí hay que poner información clara y concreta. Si no se sabe si esa mejora es sobre PC ó One, o sobre los 2, no puedes suponer lo que te apetezca porque ahí empiezan las discusiones y el tirar cada uno para su lado de una información ambigua.

Información concreta, por favor. Y la información lo más intacta posible. Si posteas el quote literal de la parte del artículo que dice lo que tú quieres transmitir, mejor aún.

Lo del "si wuana" haré como si no lo he leído, pero no dice nada bueno de tu actitud o tus intenciones. Este post necesita las normas que tiene porque la gente no es suficientemente madura para debatir de manera razonable y lógica por sí misma estos temas tan polémicos. Si a alguien no le gusta como funciona este post y quiere discutir las normas que hay en él, que cree un hilo en feedback y lo debatiré con él gustosamente.
Es que antes puse un enlace donde si lo dice, pero sale como SPAM. Aquí parece que hay cierto filtro contra cierta marca.

http://areajugones.es/2015/03/la-gpu-de-xbox-one-aumentara-un-20-su-rendimiento-con-directx-12/#.VR53ImeJipo
La web es SPAM = "area"+"jugones" sin las comillas ni el '+' obviamente.
Quotes:
Tal como había anunciado Microsoft, Phil Spencer ha hablado sobre DirectX 12 en la GDC de San Francisco. El principal responsable de la división Xbox de Microsoft ha revelado que la GPU de Xbox One aumentará un 20% su rendimiento con DirectX 12, mientras que la CPU tendrá un aumento de hasta el 50%.

He also added to this via his Twitter account “Microsoft has cool new tool for optimizing esram use called Pix. Demo I saw resulted in ~15% boost.” While fifteen percent might not sound astounding, you should remember that this is currently – and doesn’t take into account some of the other optimizations the Xbox One will receive.

Microsoft realized this, and have finally started implemented tools for developers to simulate different ESRAM strategies for PIX and figure out the best way of running this


Lo del wuana no sé porque te lo tomas a mal, es una simple frase hecha.
Igual no sienta muy bien hablar de cosas positivas para cierta plataforma, igual que lo del SPAM para webs dedicadas a la misma. Por dios cuanta hostilidad.
Sigue haciendo referencia a la charla de GDC, donde el 20% se matizó que era para PC.

Y tampoco es que se le tenga como a una referencia a Wardell: http://www.neogaf.com/forum/showthread.php?t=1021024
J_Ark escribió:Sigue haciendo referencia a la charla de GDC, donde el 20% se matizó que era para PC.

Y tampoco es que se le tenga como a una referencia a Wardell: http://www.neogaf.com/forum/showthread.php?t=1021024

Fuente.

De Wardell sólo aparece que lo del 15% de eSRAM lo posteó en su twitter porque él mismo lo vio en la demostración, no que lo hiciera él mismo. ¿Qué pasa que ahora todo es falso?, incluso si en la conferencia alguien oficial lo muestra a todo el mundo presente. Estupendo.
https://m.youtube.com/watch?v=2nNMrDqZcj8
Este es el enlace del video donde phil spencer dice que directx12 traerá una mejora de hasta el 50% en cpu según el juego y en concreto, en el caso de fable, una mejora del 20% en gpu respecto a directx11. Lo dice a partir del minuto 23.30 y no dice nada de Xbox.

Edit: @J_ark fuente por favor.
Buenas gente. En el artículo de Dualshockers hay un update que dice textualmente:

"Due to a misunderstanding caused by an interruption in the livestream, the original article mistakenly mentioned that the 20% GPU usage improvement was on Xbox One, but Spencer actually did not explicitly mention a platform, just saying that it’s “on the same hardware."

Con respecto a ese aumento del 15% del PIX. PIX es un profiler que existe desde hace mucho tiempo en el SDK de XboxOne (y tb en DirectX en PC) el cual ha ido mejorando con cada iteración nueva del SDK (como todas las demás herramientas). No hace nada mágico ni te da ese aumento del 15% solo, es un profiler y lo q te permite es "ver" que está pasando en tu juego, identificar problemas de rendimiento y por tanto poder subsanarlos o al menos mitigarlos. Es como decir q por tener una llave inglesa un coche gana un 15% de rendimiento, lo único q te permite la llave inglesa es abrir el motor y mirar que se puede mejorar pero por si sola no hace nada.

Un saludo.
@polyteres fuente, por favor.

@todos Este hilo es para poner información de fuentes fiables, no para hacer interpretaciones y demagogias.

@darksch No empecemos ya con los victimismos. Me llevas intentando joder el post desde el primer momento. Debate con lógica y enlaces o deja el post.
Polyteres escribió:Es como decir q por tener una llave inglesa un coche gana un 15% de rendimiento, lo único q te permite la llave inglesa es abrir el motor y mirar que se puede mejorar pero por si sola no hace nada.

Una llave inglesa, más bien un especialista.
Microsoft realized this, and have finally started implemented tools for developers to simulate different ESRAM strategies for PIX and figure out the best way of running this. Brad Wardell says in a blog post “This is where DirectX 12 comes in. First, they’re redoing the APIs to deal with eSRAM based on developer feedback. Second, they have a wonderful tool called “Pix” that now has a feature (or will very soon) that lets developers try out different strategies in using eSRAM and see how it performs without having to rebuild the project (i.e. they can simulate it in the tool). This too is huge.”

Si eso equivale en un coche a una llave inglesa...mejor lo dejamos.

De victimismo nada, ni reventar el post. Han dicho que algo no sirve como referencia cuando ni se han leído lo que pone.
@darksch ¿Lo haces a propósito? Aquí todo con fuente.
David Ricardo escribió:@darksch ¿Lo haces a propósito? Aquí todo con fuente.

Vamos a ver, ¿lo hacéis aposta vosotros?. Está en la misma fuente que ya he puesto.
http://www.redgamingtech.com/esram-performance-improves-15-dx12-info-xbox-one-analysis/
Vaya tela [facepalm]
David Ricardo escribió:@polyteres fuente, por favor.


Buenas gente. El SDK de XboxOne, mas fuente que eso no hay, tan solo poner en el buscador del chm de la documentación PIX y te lleva directo.

Sobre PIX puedes encontrar mil y un a páginas:

http://amd-dev.wpengine.netdna-cdn.com/ ... th_PIX.pdf
http://en.wikipedia.org/wiki/PIX_(Microsoft)
https://msdn.microsoft.com/en-us/library/ee663275(v=vs.85).aspx (ahora se llama Graphics Debugger).
https://tomtech999.wordpress.com/2011/0 ... r-windows/

@darksch chico era un ejemplo [+risas] [+risas] [+risas] , pon en vez de una llave inglesa una caja de herramientas para montar y desmontar el motor de F1 q más da jajaja, como digo era un ejemplo sencillo, no estoy desmereciendo la herramienta, es un profiler como hay mil.

EDITO: arreglados los enlaces que no iban.

Un saludo.
darksch escribió:
David Ricardo escribió:@darksch ¿Lo haces a propósito? Aquí todo con fuente.

Vamos a ver, ¿lo hacéis aposta vosotros?. Está en la misma fuente que ya he puesto.
http://www.redgamingtech.com/esram-performance-improves-15-dx12-info-xbox-one-analysis/
Vaya tela [facepalm]

Pues dilo. No esperarás que lea todo lo que postea todo el mundo y me lo aprenda de memoria...
Con decir que es un extracto del último enlace que has puesto, valía. Aunque mejor aún si junto a la cita vuelves a poner el enlace para facilitar la comprobación.
Llegado al punto me parece un acierto el añadido "Se puede debatir en base a la información aportada". Por favor leamos las fuentes antes de rebatirlas. Porque de la de la eSRAM sólo se han leído "Wardell" y "PIX", bastante lejano a la información que ofrece, el cual es en base una gran mejora de la herramienta donde el sr Wardell fue en espectador de una demostración.

Leamos las fuentes al menos. Para que no queden como un mero texto clicable.

Edit: ups, se ha esfumado esa regla que menciono, ¿por qué?.
Todo porcentaje de mejora que se dio en la GDC fue con respecto al PC, eso está más que claro. Y quien dude de ello que se mire las conferencias.

EDIT: De hecho el 20% de GPU era en concreto en Fable Legends, que es lo que he puesto yo páginas atrás. Lo dice la propia Microsoft.

http://news.xbox.com/2015/03/xbox-gdc-2 ... um=twitter

DirectX 12 enables PC developers to have a new level of power and control and is a single API developers can access across Windows devices. As shown with Fable Legends running on Unreal Engine 4, there has been a 20% improvement in performance. And as announced today, Epic is creating Unreal Tournament using Unreal Engine 4 running on DirectX 12, which sets a new bar for visual fidelity in PC gaming.
Según Damien Monnier de CD Projekt Red, hace falta mucho más que directx 12 para que ONE pudiera pasar de 900p a 1080p en witcher 3.
“I think any resolution changes would require a much bigger change from Microsoft than the DX12 upgrade, to be honest"

http://www.appy-geek.com/Web/ArticleWeb ... d=39526106
David Ricardo escribió:https://m.youtube.com/watch?v=2nNMrDqZcj8
Este es el enlace del video donde phil spencer dice que directx12 traerá una mejora de hasta el 50% en cpu según el juego y en concreto, en el caso de fable, una mejora del 20% en gpu respecto a directx11. Lo dice a partir del minuto 23.30 y no dice nada de Xbox.

Edit: @J_ark fuente por favor.

Seria la conferencia de la GDC, todo lo referido era a la versión se PC del Fable, se malinterpreto que era para X1.

news.xbox.com/2015/03/xbox-gdc-2015?utm_source=dlvr.it&utm_medium=twitter

Edit: @josemurcia lo ha redactado mejor, desde el móvil no puedo hacer maravillas.
David Ricardo escribió:Información concreta, por favor. Y la información lo más intacta posible. Si posteas el quote literal de la parte del artículo que dice lo que tú quieres transmitir, mejor aún.

Este post necesita las normas que tiene porque la gente no es suficientemente madura para debatir de manera razonable y lógica por sí misma estos temas tan polémicos. Si a alguien no le gusta como funciona este post y quiere discutir las normas que hay en él, que cree un hilo en feedback y lo debatiré con él gustosamente.

@todos Este hilo es para poner información de fuentes fiables, no para hacer interpretaciones y demagogias.


Dios, al fin!!! Alguien con el suficiente criterio y sentido común que propone algo para que todos podamos ver info "veraz", con su fuente original y no tergiversada. Añadiría que también las tonterías/mofas/puyitas disfradadas de la forma que sea, sean castigadas directamente y sin miramientos; a ver si de una vez por todas se puede uno informar de lo que dicen los desarrolladores e ingenieros del sector (sea la plataforma que sea) sin las bufonadas de siempre...
El equipo de Valve que está desarrollando los drivers de código abierto de Vulkan para las GPUs de Intel explica de manera indirecta por que todo el revuelo de DX12 en ONE y pedir Vulkan para PS4 es una gilipollez:

Mantle, Metal, DX12 are all proprietary API’s that enable the GPU to be programmed in a very explicit way. Vulkan, with its Mantle roots, is also a very explicit API, and it achieves this in a cross-OS, cross-GPU fashion. To better understand the real benefit of these explicit APIs, we need to go back to their inspiration: the game console. For years, the console game engineers have been developing their software directly on the hardware. The extended life-cycles of video game consoles allows these platforms to reach a large audience; and using a 3D API can get in the way of creating a better game engine. The engine developers took over the responsibilities of building command buffers, keeping them in flight and managing the GPU resources required to ensure the hardware worked properly and efficiently. Ultimately the console game engines were able to squeeze the maximum performance out of the GPU while still leaving plenty of CPU bandwidth available for the game logic itself.

Traditional PC and mobile hardware are in a different boat. With new and better hardware coming out very frequently from competing vendors, change comes quickly on these platforms. 3D APIs are necessary to insulate the engine developer from a proliferation of hardware traditionally at a cost to overall performance. The task of building command buffers, keeping them in flight and managing GPU resources falls primarily to the drivers. Efficiently getting the most performance out of PC Hardware has become more complicated than the console way of programming directly to the hardware. The previously mentioned explicit APIs recognize that challenge, and have embraced the type of programming traditionally done on consoles allowing game engine developers to write more directly to the hardware. Vulkan's explicit approach exposes the nature of how modern GPUs work while still managing to abstract away most of the hardware and OS differences. The result is a manageable number of special cases that can be written by engine developers to enable a broad range of hardware to work more effectively than ever.


http://www.phoronix.com/scan.php?page=a ... lkan&num=2
Pero vamos a ver, este hilo es para aportar noticias? Si pedimos noticias con fuentes entonces coartamos las opiniones?

Porque esto va a ser como siempre, se aporta una info de dx12 y aunque alguien hable en generico siempre va a saltar la legion de fanboys diciendo que en xbox no, luego se van a mostrar las 200 diapositivas oficiales que sale el nombre, marca, dibujo de la consola y en la siguiente noticia va a volver a pasar. Vamos, como el hilo de xbox jajaja.

Aclaramos normas y hablamos o dejamos el hilo sentenciado para cerrarlo tarde o temprano?

*aclaro: Yo no se el rendimiento que habra en una u otra maquina pero lo que no hago es inventarme cosas, me espero a datos oficiales, porque dx12 va a llegar si o si a xbox one.
Nuhar escribió:Pero vamos a ver, este hilo es para aportar noticias? Si pedimos noticias con fuentes entonces coartamos las opiniones?

Porque esto va a ser como siempre, se aporta una info de dx12 y aunque alguien hable en generico siempre va a saltar la legion de fanboys diciendo que en xbox no, luego se van a mostrar las 200 diapositivas oficiales que sale el nombre, marca, dibujo de la consola y en la siguiente noticia va a volver a pasar. Vamos, como el hilo de xbox jajaja.

Aclaramos normas y hablamos o dejamos el hilo sentenciado para cerrarlo tarde o temprano?

*aclaro: Yo no se el rendimiento que habra en una u otra maquina pero lo que no hago es inventarme cosas, me espero a datos oficiales, porque dx12 va a llegar si o si a xbox one.

En el hilo al que te refieres está lleno de diapositivas que lo sitúa como producto compatible con Dx12 y la gente se toca diciendo que es full hardware compatible y GCN 27.0. Porque si, porque buscar explícitamente alguna de esas dos afirmaciones es imposible a día de hoy. Es eso lo que se quiere evitar.

Si no estás de acuerdo, en el otro hilo estarás más a gusto.

Y si, muchas libertades da Dx12 respecto a 11, pero viendo el curro que supone en consola igual el paso de uno a otro ríete tu de la transición de DX10 al 11. Eso sin contar que los developers acaben prefiriendo el nuevo OpenGL para estar en Windows/Linux/Mac/Android/Ps4 antes que en Windows/X1/WP.
Tened en cuenta q si aqui dices algo en favor de XBOX ONE es q eres un magufo y un impresentable.

A eso se referían al hablar de bufonadas.
Y tened muy claro q todas las fuentes seran fiables excepto las q apunten hacia una mejora en XBOX ONE.

Por que al igual q hay fuentes q se han posteado q indican q en consolas la mejoria no va a ser tanta como en PC, logico. Tambien las hay q dicen lo contrario.

Por ejemplo Wardell en el podcast de Inner Circle dice q los multi no se programan close to metal en consola, y es facilmente contrastable, coge un multi y compara el rendimiento en consola y PC y busca el boost q confiere el supuesto close to metal.

O en las ultimas diapositivas de AMD se habla del computo asincrono como algo q no se ha usado nunca en ONE, ni en los juegos en los q si se ha ha usado en PS4.

Pero eso son bufonadas.

Por cierto eso de q es tan dificil la transicion a DX12 de donde sale? Cual es la fuente?
Se supone que Sony en un principio no va a hacer movimientos al respecto, asi que poco se puede comentar de PS4 respecto a esto mas alla del largo plazo.

Sobre DX12, la teoria esta "toda" dicha, creo que hasta que no hayan productos y declaraciones de sus creadores al respecto pocos datos contrastados vamos a tener sobre rendimiento final en la consola que esta pensada para ello. Solo quedan discusiones de opiniones sobre grados.
papatuelo escribió:Por ejemplo Wardell en el podcast de Inner Circle dice q los multi no se programan close to metal en consola, y es facilmente contrastable, coge un multi y compara el rendimiento en consola y PC y busca el boost q confiere el supuesto close to metal.

¿Todavía seguimos tomando en serio las declaraciones de Brad Wardell sobre consolas? ¿Después de que dijera en la GDC que no había trabajado ni estaba trabajando en nada para ONE?

Luego sale un dev de The Witcher 3 diciendo algo malo de ONE y se le ignora por el mismo motivo, seamos un poco coherentes.

Y aquí nadie ha negado, por ejemplo, la mejora de rendimiento que va a tener ONE con las nuevas herramientas de la ESRAM, porque se sabe que hay problemas desde el principio, y han hablado de mejora explícitamente sobre ONE, no como con DX12 que las declaraciones o son sobre PC o cuando se habla de ONE son totalmente ambiguas.
josemurcia escribió:
papatuelo escribió:Por ejemplo Wardell en el podcast de Inner Circle dice q los multi no se programan close to metal en consola, y es facilmente contrastable, coge un multi y compara el rendimiento en consola y PC y busca el boost q confiere el supuesto close to metal.

¿Todavía seguimos tomando en serio las declaraciones de Brad Wardell sobre consolas? ¿Después de que dijera en la GDC que no había trabajado ni estaba trabajando en nada para ONE?

Luego sale un dev de The Witcher 3 diciendo algo malo de ONE y se le ignora por el mismo motivo, seamos un poco coherentes.

Y aquí nadie ha negado, por ejemplo, la mejora de rendimiento que va a tener ONE con las nuevas herramientas de la ESRAM, porque se sabe que hay problemas desde el principio, y han hablado de mejora explícitamente sobre ONE, no como con DX12 que las declaraciones o son sobre PC o cuando se habla de ONE son totalmente ambiguas.


Lo q decia, no se buscan declaraciones con fuente, si no con "fuente", la fuente q a mi me interese.

En los slides de AMD se cita a Wardell, asi q me parece q es una fuente con bastante relacion con el el desarrollo de DX12.

Por otro lado el Dev de Witcher tambien han dicho q no ha tocado DX12 ni con un palo.

Q por cierto le han contestado desde el XBOX team q si no sabe hacerlo q le pidan los ninjas y se los mandan.
Volvemos a lo mismo, los slides de AMD sobre DX12 respecto a PC, donde a ONE la nombran de pasada.

Y lo de los ninjas muy significativo oiga xD.
papatuelo escribió:O en las ultimas diapositivas de AMD se habla del computo asincrono como algo q no se ha usado nunca en ONE, ni en los juegos en los q si se ha ha usado en PS4.


En las diapositivas de amd solo aparecia un multi, ademas de primera horneada, que lo habia usado, no? Supongo que en ps4 nadie mas lo habra utilizado porque no les interesaria invertir tiempo y dinero en una caracteristica que solo podian usar en una plataforma.

Supongo que con la salida de directx12 tanto one como ps4 haran uso de ello con mayor frecuencia.

EDITO:
Imagen
sixsilum escribió:
papatuelo escribió:O en las ultimas diapositivas de AMD se habla del computo asincrono como algo q no se ha usado nunca en ONE, ni en los juegos en los q si se ha ha usado en PS4.


En las diapositivas de amd solo aparecia un multi, ademas de primera horneada, que lo habia usado, no? Supongo que en ps4 nadie mas lo habra utilizado porque no les interesaria invertir tiempo y dinero en una caracteristica que solo podian usar en una plataforma.

Supongo que con la salida de directx12 tanto one como ps4 haran uso de ello con mayor frecuencia.

EDITO:
Imagen


En teoria esos son los juegos en los q se habria usado y diria q es probable q se hiceran con GMNX en lugar de GMN.

Y no es dificil q siendo el multi Battlefield lo q se hiciera es utilizar de alguna forma lo q ya tenian de Mantle.

Por eso es por lo q dicen q PS4 no usaria Vulkan, xq GMNX ya es una API q trabaja como estas nuevas APIS.

Es probable q esa API se este utilizando en los exclusivos, el resto GMN.

Es lo mismo q Ryse y sobre todo los Forza en XBOX ONE. Turn 10 ha participado en el desarrollo de la consola y es probable q haya utilizado herramientas exclusivas.
En todo caso es al revés. GNMX es una API de mayor nivel de abstracción pensada para portear fácilmente desde DX11 y GNM la close to the metal. Pero vamos, que GNM se ha utilizado desde el principio también, en ningún momento ha sido exclusiva de firsts.

"Most people start with the GNMX API which wraps around GNM and manages the more esoteric GPU details in a way that's a lot more familiar if you're used to platforms like D3D11. We started with the high-level one but eventually we moved to the low-level API because it suits our uses a little better," says O'Connor, explaining that while GNMX is a lot simpler to work with, it removes much of the custom access to the PS4 GPU, and also incurs a significant CPU hit.


http://www.eurogamer.net/articles/digit ... ystation-4
josemurcia escribió:En todo caso es al revés. GNMX es una API de mayor nivel de abstracción pensada para portear fácilmente desde DX11 y GNM la close to the metal. Pero vamos, que GNM se ha utilizado desde el principio también, en ningún momento ha sido exclusiva de firsts.

"Most people start with the GNMX API which wraps around GNM and manages the more esoteric GPU details in a way that's a lot more familiar if you're used to platforms like D3D11. We started with the high-level one but eventually we moved to the low-level API because it suits our uses a little better," says O'Connor, explaining that while GNMX is a lot simpler to work with, it removes much of the custom access to the PS4 GPU, and also incurs a significant CPU hit.


http://www.eurogamer.net/articles/digit ... ystation-4


Ok, confundi los nombres.

Pero creo q la idea se entiende.
Se entiende, pero si The Crew que es un multi chustoso usa GNM, lo raro será encontrar un multi medianamente importante que no lo haga.
eloskuro está baneado del subforo por "flames"
Los ports van a ser mucho mas faciles a xbo de lo que son ahora. Eso está claro. Al ser mas faciles, los estudios tendran mas recursos para ir a bajo nivel en las cosas que la version de consola necesite.
Eso siempre será para positivo.
Ahora podran usar mejor la esram y los ocho contextos graficos si lo estiman oportuno.
Ps4 ya se sabe ke tenia una api mucho mas madura. Seguro ke la iran mejorando poco a poco. Lok no sé es que plan tendrán.
Por lo menos saben que versiones de dx11 se seguiran haciedo, por lok no tendrán mucho problema en ports. Tampoco en funciones, ya que muchas les vendran de mano de opengl y otras las crearan especificas ellos mismos.
Quiza sean funciones por sift, pero algo es algo.
Sigue siendo la consola mas potente.

Xbo es la ke tiene mas para ganar,pork hasta hace pocos meses solo tenia dx11 parcheado.
1577 respuestas
1, 2, 3, 4, 532