Rendimiento DirectX 12 y API PS4

No voy a hablar de mi baneo porque no es el hilo, pero si que voy a decir que el problema de mucha gente es que solo tolera la información y los razonamientos en un único sentido.

Me acuerdo hablando de la eterna disputa sobre si ONE tiene soporte nativo completo para DX12 o no.

Da igual que en el SDK filtrado no nombre absolutamente nada de la rasterización conservativa u otras características del feature level 12.1 presentadas en septiembre con Maxwell. Si llamas a la prudencia y dices que puede que ONE no soporte esa característica de manera nativa, que ni se nombra en el SDK(SDK posterior a la presentación de Maxwell), lo único que vas a obtener son insultos, que te llamen troll, y que te tiren a la cara el twit de Phil Spencer diciendo que será FullDX12 2000 veces.

O con el famoso Resource Binding Tier 3, misterxmedia y compañía predicando por internet que la GPU de ONE era la primera en soportar RBT3, que es una arquitectura adelantada a su tiempo, y que AMD no lo soportaría hasta el año nosecuantos.

Pues ahora que ya tenemos herramientas y drivers preliminares, nos encontramos con que los últimos drivers Catalyst beta para W10 reportan que GCN 1.1(salieron por las mismas fechas que ONE) soporta RBT3.

Además de confirmar que GCN 1.1 es feature level 12.0, es decir, nivel de compatibilidad nativa con DX12 3 de 4, seguramente el mismo exactamente que ONE.

josemurcia escribió:Los últimos drivers Catalyst para W10 ya reportan correctamente el feature level de GCN 1.1 y el Resource Binding Tier 3.

Direct3D 12 feature checker (May 2015) by DmitryKo
https://forum.beyond3d.com/posts/1840641/

Using minimum feature level 11_0

ADAPTER 0
"AMD Radeon R9 200 Series (Engineering Sample - WDDM v2.0)"
VEN_1002, DEV_67B0, SUBSYS_30801462, REV_00
Dedicated video memory : 3221225472 bytes
Total video memory : 4294901760 bytes
Maximum feature level : D3D_FEATURE_LEVEL_12_0 (0xc000)
DoublePrecisionFloatShaderOps : 1
OutputMergerLogicOp : 1
MinPrecisionSupport : D3D12_SHADER_MIN_PRECISION_SUPPORT_NONE (0)
TiledResourcesTier : D3D12_TILED_RESOURCES_TIER_2 (2)
ResourceBindingTier : D3D12_RESOURCE_BINDING_TIER_3 (3)
PSSpecifiedStencilRefSupported : 1
TypedUAVLoadAdditionalFormats : 1
ROVsSupported : 0
ConservativeRasterizationTier : D3D12_CONSERVATIVE_RASTERIZATION_TIER_NOT_SUPPORTED (0)
MaxGPUVirtualAddressBitsPerResource : 38
StandardSwizzle64KBSupported : 0
CrossNodeSharingTier : D3D12_CROSS_NODE_SHARING_TIER_NOT_SUPPORTED (0)
CrossAdapterRowMajorTextureSupported : 0
VPAndRTArrayIndexFromAnyShaderFeedingRasterizerSupportedWithoutGSEmulation : 0
ResourceHeapTier : D3D12_RESOURCE_HEAP_TIER_2 (2)
Adapter Node 0: TileBasedRenderer: 0, UMA: 0, CacheCoherentUMA: 0tUMA: 0
Pero eso pasa y mucho. Medias verdades que se convierten en dogmas. Por ejemplo el famoso "sabemos lo que estabamos haciendo". No verás una sola frase diciendo literalmente "Xbox One da un soporte completo por hardware a Dx 12", son frases vagas que se interpretan a favor del pensamiento que conviene (y que no se dudan en usar como arma arrojadiza contra otros). Igual que cuando se sacan los NDAs de por medio (estás tu que si, por ejemplo, la última gráfica de Nvidia es más potente que la de AMD y esto no fuera así, esta última se acogería a NDAs para no gritar a los cuatro vientos que es mentira. O verías a su máximo responsable ni una sola vez admitiendo que si, que tal vez su gráfica no es tan potente). Son cosas tan absurdas y tan ilógicas que, bajo el precepto de navaja de Ockham, caen por su propio peso salvo una voluntad acérrima en creer lo contrario.
Que nos vamos por las ramas señores [rtfm]
Al parecer el 30-40% de mejora en PC es solo en equipos modestos con CPUs de 4 núcleos.

Project Cars no demuestra nada. Es un juego desarrollado con Dx11(y sus correspondientes limitaciones) y no con Dx12 en mente. Al ser un juego más dependiente de CPU q de GPU se beneficia de parchear a Dx12, ya q eliminas el overhead de la API Dx11 q distribuye mal el trabajo por los diferentes núcleos.

En el caso de Xbox One se puede apreciar q los ultimos SDKs han ido mejorando más y más este problema de overhead, pero aún sigue existiendo algo porq sino no habría mejora por cambiar a Dx12.

Y hablando de NDAs resulta q los desarrolladores de Project Cars lo confirman. Q la CPU de One es muy potente pero q no pueden hablar por temas de NDA.

Yo creo q el problema es q la gente piensa q estas maquinas estan desfasadas desde el día 1 y el problema es q las hacen trabajar como si de un PC se tratará.
Se ve que eso del 50% moar pawer a algunos les sirve para dormir a gusto. Cuanta felicidad llevándose esa idea en la mente oye.
Szasz escribió:Y hablando de NDAs resulta q los desarrolladores de Project Cars lo confirman. Q la CPU de One es muy potente pero q no pueden hablar por temas de NDA.


Me molaria ver esas declaraciones, creía que usaba los mismos núcleos que PS4 pero overclockeados.

He llegado a leer que 1 núcleo jaguar equivalen en potencia a 1 núcleo ATOM baytrail.

De momento en PC con un i3 se juega igual que en consola por eso me extraña lo de la CPU.

De todas formas las nuevas API lo que vienen a hacer es eso, que se saque rendimiento en escenarios con muchos núcleos poco potente y no como hasta ahora que era mejor tener núcleos más tochos.

Un Saludo.
I can't talk about specifics with regard to machine variations as we've got NDA's signed. What I will say is that the Xbox has a lot of CPU power.

Ian Bell

http://forum.projectcarsgame.com/showth ... sue/page17
Szasz escribió:I can't talk about specifics with regard to machine variations as we've got NDA's signed. What I will say is that the Xbox has a lot of CPU power.

Ian Bell

http://forum.projectcarsgame.com/showth ... sue/page17

La consola masacrada por comentarios sobre su potencia y hacen firmar NDAs para no revelar que realmente tiene componentes que son la hostia. Capitulo 36.
J_Ark escribió:
Szasz escribió:I can't talk about specifics with regard to machine variations as we've got NDA's signed. What I will say is that the Xbox has a lot of CPU power.

Ian Bell

http://forum.projectcarsgame.com/showth ... sue/page17

La consola masacrada por comentarios sobre su potencia y hacen firmar NDAs para no revelar que realmente tiene componentes que son la hostia. Capitulo 36.


Puedes dejar a un lado el tono sarcástico de tu comentario y decir abiertamente q piensas q One es un mojon, no seré yo quien se ofenda.

Los NDAs sobre Xbox existen, te guste o no.
Ian Bell también confirma que Project Cars nunca llegará a ir a 1080p en Xbox One. Las mejoras de optimización y DirectX12 no dan para tanto.

http://forum.projectcarsgame.com/showthread.php?27276-POST-144-A-question-to-the-devs-about-the-frame-rate-issue&p=954061&viewfull=1#post954061
David Ricardo escribió:Ian Bell también confirma que Project Cars nunca llegará a ir a 1080p en Xbox One. Las mejoras de optimización y DirectX12 no dan para tanto.

http://forum.projectcarsgame.com/showthread.php?27276-POST-144-A-question-to-the-devs-about-the-frame-rate-issue&p=954061&viewfull=1#post954061

No entiendo bien a que te refieres..parchear de direct x 11 a direct x12 no da para tanto? O direct x12 en un juego desde 0 no da para tanto? Podrias especificar? Yo soy medio nulo en estos temas. Gracias
Aldebaran323 escribió:No entiendo bien a que te refieres..parchear de direct x 11 a direct x12 no da para tanto? O direct x12 en un juego desde 0 no da para tanto? Podrias especificar? Yo soy medio nulo en estos temas. Gracias

En el caso concreto de Project Cars la mejora de rendimiento que le aportaría DirectX12 no da para un aumento de resolución. Él te habla de su juego. Igual que los de CDPR dijeron lo mismo respecto a Witcher.
¿Cuánta diferencia hay entre hacer un juego de cero para DX12 y convertir un juego ya existente de DX11 a DX12? Ni idea.

Pero bueno, ya se sabe que hasta que no se acabe la generación y lancen nuevas máquinas, siempre habrá la duda de igual la mejora es para el año que viene.
David Ricardo escribió:
Aldebaran323 escribió:No entiendo bien a que te refieres..parchear de direct x 11 a direct x12 no da para tanto? O direct x12 en un juego desde 0 no da para tanto? Podrias especificar? Yo soy medio nulo en estos temas. Gracias

En el caso concreto de Project Cars la mejora de rendimiento que le aportaría DirectX12 no da para un aumento de resolución. Él te habla de su juego. Igual que los de CDPR dijeron lo mismo respecto a Witcher.
¿Cuánta diferencia hay entre hacer un juego de cero para DX12 y convertir un juego ya existente de DX11 a DX12? Ni idea.

Pero bueno, ya se sabe que hasta que no se acabe la generación y lancen nuevas máquinas, siempre habrá la duda de igual la mejora es para el año que viene.


Yo lo poco que he entendido hasta el momento ,es que es bastante difícil llegar a los 1080. Depende mucho de como uses la memoria.
En cuanto a los nda,tb hay de ps4 . Le preguntan a Ian Bell sobre la cpu de ps4 y responde con nda. Así que parafraseandole otro usuario le pregunta" puedes confirma que ps4 tienen una cpu muy potente tb?" Y el responde que si.
Un saludo.
Szasz escribió:I can't talk about specifics with regard to machine variations as we've got NDA's signed. What I will say is that the Xbox has a lot of CPU power.

Ian Bell

http://forum.projectcarsgame.com/showth ... sue/page17

Es una respuesta a un usuario que pregunta por qué, si la CPU de One es ligeramente más rápida, la resolución y el frame rate son peores. Ian Bell le responde que hay NDAs y no puede hablar de variaciones entre máquinas, pero la CPU de Xbox tiene un montón de potencia.

Si a eso le añades el comentario posterior de que la CPU de PS4 también tiene un montón de potencia, está bastante claro que es una manera suave de decir que el problema viene de la GPU.
En mi opinion hacer el juego desde 0 para dx12 siempre tendra un rendimiento extra que si esta parcheado,pero por logica mucho menor al cambio directo de una api a otra,asi que si el cambio de api apenas se va a notar en one,la diferencia entre que un juego sea desde el principio dx12 o se haya adaptado por el camino puede que sea minima
Morepawer está baneado por "hater, flames y clones"
chris76 escribió:En mi opinion hacer el juego desde 0 para dx12 siempre tendra un rendimiento extra que si esta parcheado,pero por logica mucho menor al cambio directo de una api a otra,asi que si el cambio de api apenas se va a notar en one,la diferencia entre que un juego sea desde el principio dx12 o se haya adaptado por el camino puede que sea minima


A veces cuando te leo sinceramente me pregunto si en ese preciso momento estas o no en modo Troll. Es una sensación que me das y espero que sea una percepción errónea mía.

La Esram que precisamente es perfecta para tiled resources no esta siendo utilizada por ahora por las Thirds. Tampoco el PIM de la Esram, ni tampoco el chip de sonido brutal que tiene la X1, ni tampoco la paralelización que traerá DX12 en X1, así que por favor mide mejor tus palabras por que puedes dar una imagen algo trolesca.

Y la opinión de uno es respetable pero hasta cierto punto. ;)
Morepawer escribió:
chris76 escribió:En mi opinion hacer el juego desde 0 para dx12 siempre tendra un rendimiento extra que si esta parcheado,pero por logica mucho menor al cambio directo de una api a otra,asi que si el cambio de api apenas se va a notar en one,la diferencia entre que un juego sea desde el principio dx12 o se haya adaptado por el camino puede que sea minima


A veces cuando te leo sinceramente me pregunto si en ese preciso momento estas o no en modo Troll. Es una sensación que me das y espero que sea una percepción errónea mía.

La Esram que precisamente es perfecta para tiled resources no esta siendo utilizada por ahora por las Thirds. Tampoco el PIM de la Esram, ni tampoco el chip de sonido brutal que tiene la X1, ni tampoco la paralización que traerá DX12 en X1, así que por favor mide mejor tus palabras por que puedes dar una imagen algo trolesca.

Y la opinión de uno es respetable pero hasta cierto punto. ;)


El boost importante esta en el cambio de api,y si te dicen que la mejora sera modesta en one,pues mucho mas modesta sera la diferencia de un juego modificado para dx12 a un juego nativo dx12

Eso es logica,y tu no eres nadie para decir lo que tenga que medir yo,cuando digo que es mi opinion y no falto al respeto a nadie,si no te gusta ignorame [fumando]
No subestimeis la potencia de xbox one.
Todavía no han empezado a usar el celulino ni el chip gordo.
Morepawer está baneado por "hater, flames y clones"
chris76 escribió:
Morepawer escribió:
chris76 escribió:En mi opinion hacer el juego desde 0 para dx12 siempre tendra un rendimiento extra que si esta parcheado,pero por logica mucho menor al cambio directo de una api a otra,asi que si el cambio de api apenas se va a notar en one,la diferencia entre que un juego sea desde el principio dx12 o se haya adaptado por el camino puede que sea minima


A veces cuando te leo sinceramente me pregunto si en ese preciso momento estas o no en modo Troll. Es una sensación que me das y espero que sea una percepción errónea mía.

La Esram que precisamente es perfecta para tiled resources no esta siendo utilizada por ahora por las Thirds. Tampoco el PIM de la Esram, ni tampoco el chip de sonido brutal que tiene la X1, ni tampoco la paralización que traerá DX12 en X1, así que por favor mide mejor tus palabras por que puedes dar una imagen algo trolesca.

Y la opinión de uno es respetable pero hasta cierto punto. ;)


El boost importante esta en el cambio de api,y si te dicen que la mejora sera modesta en one,pues mucho mas modesta sera la diferencia de un juego modificado para dx12 a un juego nativo dx12

Eso es logica,y tu no eres nadie para decir lo que tenga que medir yo,cuando digo que es mi opinion y no falto al respeto a nadie,si no te gusta ignorame [fumando]



Yo tampoco te he faltado al respeto, y no digas "esa es la lógica" de forma generalizada cuando es simplemente TU lógica. Y sí puedo darte un toque de atención por que este hilo no es para trolear y sino te gusta lo que digo, simplemente ignorame. [fumando]

Por lo que han mostrado algunos Devs, el rendimiento de un juego parcheado de Dx11 a Dx12 es directamente desproporcional al rendimiento que dará un juego desarrollado nativamente bajo Dx12 por lo que decir que la diferencia entre un juego Dx11 parcheado a Dx12 vs juego nativo Dx12 será mínima, más que una opinión es flamear y trolear de forma gratuita un buen hilo como éste. Es simplemente mi opinión. ;)
Morepawer escribió:La Esram que precisamente es perfecta para tiled resources no esta siendo utilizada por ahora por las Thirds. Tampoco el PIM de la Esram, ni tampoco el chip de sonido brutal que tiene la X1, ni tampoco la paralización que traerá DX12 en X1,

Todos sabemos que ONE es una obra tecnológica adelantada a su tiempo pero la gran pregunta es ¿todas esas maravillas cuando se suponen que se usarán en los juegos?
Morepawer está baneado por "hater, flames y clones"
aaalexxx escribió:
Morepawer escribió:La Esram que precisamente es perfecta para tiled resources no esta siendo utilizada por ahora por las Thirds. Tampoco el PIM de la Esram, ni tampoco el chip de sonido brutal que tiene la X1, ni tampoco la paralización que traerá DX12 en X1,

Todos sabemos que ONE es una obra tecnológica adelantada a su tiempo pero la gran pregunta es ¿todas esas maravillas cuando se suponen que se usarán en los juegos?


No soy Sandro Rey y realmente me da igual si es o no una obra tecnológica o una tostadora pero negar que a día de hoy X1 no se utiliza correctamente y que no se está aprovechando su arquitectura, es simplemente trolear de forma gratuita.
@morepower,podrias enlazar eso que dices que han probado los devs donde se demuestra la diferencia entre un juego parcheado a dx12 y un juego nativo a dx12?

Porque seria muy interesante lo que dices,o eres tu el que esta troleando?
Morepawer escribió:
chris76 escribió:En mi opinion hacer el juego desde 0 para dx12 siempre tendra un rendimiento extra que si esta parcheado,pero por logica mucho menor al cambio directo de una api a otra,asi que si el cambio de api apenas se va a notar en one,la diferencia entre que un juego sea desde el principio dx12 o se haya adaptado por el camino puede que sea minima


A veces cuando te leo sinceramente me pregunto si en ese preciso momento estas o no en modo Troll. Es una sensación que me das y espero que sea una percepción errónea mía.

La Esram que precisamente es perfecta para tiled resources no esta siendo utilizada por ahora por las Thirds. Tampoco el PIM de la Esram, ni tampoco el chip de sonido brutal que tiene la X1, ni tampoco la paralelización que traerá DX12 en X1, así que por favor mide mejor tus palabras por que puedes dar una imagen algo trolesca.

Y la opinión de uno es respetable pero hasta cierto punto. ;)


A mi lo que me choca es eso del PIM. Que tiene que ver la arquitectura de One con PIM?

Un saludo!
Morepawer está baneado por "hater, flames y clones"
chris76 escribió:@morepower,podrias enlazar eso que dices que han probado los devs donde se demuestra la diferencia entre un juego parcheado a dx12 y un juego nativo a dx12?

Porque seria muy interesante lo que dices,o eres tu el que esta troleando?


Encima tienes la jeta de mentir descaradamente delante de todo el foro sobre afirmaciones que yo no he dicho!!!! No voy a pedir moderación por que ya todo el foro te conoce y tu inclinación hater hacia todo lo de X1 y como se que los moderadores son especialmente permisivos contigo, sería una pérdia de tiempo.

Pero te recomiendo de todo corazón que antes de postear algo sobre lo que ha dicho algún forero, leas y releas aunque necesites hacerlo 3 o 4 veces así evitar caer en el error de no distinguir o diferenciar en ese momento la forma verbal en presente de otra en futuro. Las prisas no son buenas y antes de postear algo es aconsejable revisar lo que uno pretende publicar.

Yo dije: ".........................Por lo que han mostrado algunos Devs, el rendimiento de un juego parcheado de Dx11 a Dx12 es directamente desproporcional al rendimiento que dará un juego desarrollado nativamente bajo Dx12 ........................."

Como puedes observar, utilizo la forma verbal en futuro (dará) en vez de en presente (da) precisamente por que a día de hoy yo al menos no se que rendimiento da un juego desarrollado nativamente en DX12 vs parcheado de Dx11 a Dx12, pero es una opinión que doy, considerando que lo demostrado por los Devs al parchear un juego de DX11 a Dx12, su aumento de rendimiento lo veo desproporcional al rendimiento que se obtendrá según las ventajas que han publicado sobre DX12 para los juegos que sean desarrollados nativamente.

Entiendes ahora lo importante que son las formas verbales? Decir dará (futuro) no es lo mismo que si hubiese dicho da (presente). Por que si lo hubiese puesto en presente, entonces sí tendrías razón por estaría afirmando que los Devs a día de hoy han mostrado la diferencia antre DX11---DX12 vs DX12.

Y tu dices: "@morepower,podrias enlazar eso que dices que han probado los devs donde se demuestra la diferencia entre un juego parcheado a dx12 y un juego nativo a dx12?

Ves como una cosa no tiene relación con la otra, como lo que yo digo en mi post no guarda relación con tu pregunta, inventándote cosas que yo no he afirmado ni dicho.

Madre mía lo que uno tiene que leer a veces............ [rtfm]

Por cierto cambiando de tema, ha salido alguna comparativa entre el redimiento que puede dar Vulkan vs la Api de PS4?

@Argam tienes toda la razón, quería decir PIX cuando por error puse PIM. Sorry. Gracias por corregirme. ;)

Me refería a esto:

https://twitter.com/draginol/status/573267363308564480
Uy si,cuando usen el chip de sonido brutal que tiene la one... :o
En sonido creo que van sobradas todas pero cada cual con su consuelo de more power.
Morepawer escribió:
chris76 escribió:@morepower,podrias enlazar eso que dices que han probado los devs donde se demuestra la diferencia entre un juego parcheado a dx12 y un juego nativo a dx12?

Porque seria muy interesante lo que dices,o eres tu el que esta troleando?


Encima tienes la jeta de mentir descaradamente delante de todo el foro sobre afirmaciones que yo no he dicho!!!! No voy a pedir moderación por que ya todo el foro te conoce y tu inclinación hater hacia todo lo de X1 y como se que los moderadores son especialmente permisivos contigo, sería una pérdia de tiempo.

Pero te recomiendo de todo corazón que antes de postear algo sobre lo que ha dicho algún forero, leas y releas aunque necesites hacerlo 3 o 4 veces así evitar caer en el error de no distinguir o diferenciar en ese momento la forma verbal en presente de otra en futuro. Las prisas no son buenas y antes de postear algo es aconsejable revisar lo que uno pretende publicar.

Yo dije: ".........................Por lo que han mostrado algunos Devs, el rendimiento de un juego parcheado de Dx11 a Dx12 es directamente desproporcional al rendimiento que dará un juego desarrollado nativamente bajo Dx12 ........................."

Como puedes observar, utilizo la forma verbal en futuro (dará) en vez de en presente (da) precisamente por que a día de hoy yo al menos no se que rendimiento da un juego desarrollado nativamente en DX12 vs parcheado de Dx11 a Dx12, pero es una opinión que doy, considerando que lo demostrado por los Devs al parchear un juego de DX11 a Dx12, su aumento de rendimiento lo veo desproporcional al rendimiento que se obtendrá según las ventajas que han publicado sobre DX12 para los juegos que sean desarrollados nativamente.

Entiendes ahora lo importante que son las formas verbales? Decir dará (futuro) no es lo mismo que si hubiese dicho da (presente). Por que si lo hubiese puesto en presente, entonces sí tendrías razón por estaría afirmando que los Devs a día de hoy han mostrado la diferencia antre DX11---DX12 vs DX12.

Y tu dices: "@morepower,podrias enlazar eso que dices que han probado los devs donde se demuestra la diferencia entre un juego parcheado a dx12 y un juego nativo a dx12?

Ves como una cosa no tiene relación con la otra, como lo que yo digo en mi post no guarda relación con tu pregunta, inventándote cosas que yo no he afirmado ni dicho.

Madre mía lo que uno tiene que leer a veces............ [rtfm]

Por cierto cambiando de tema, ha salido alguna comparativa entre el redimiento que puede dar Vulkan vs la Api de PS4?

@Argam tienes toda la razón, quería decir PIX cuando por error puse PIM. Sorry. Gracias por corregirme. ;)

Me refería a esto:

https://twitter.com/draginol/status/573267363308564480

No te entiendo la verda,en mi post solo dige que si la ganancia en one con directx12 va a ser modesta(y esto es oficial),en MI OPINIÓN la diferencia entre un juego parcheado de dx11 a dx12 y un juego nativo dx12 será minima,porque en lo gordo del asunto que es el cambio de api ya partimos de que la mejora solo va a ser moderada

Ojo que e recalcado que solo era mi opinión,no la verda absoluta,luego me dices noseque de si todos los estudios no están aprovechando el hardware como deben,cosa que no tiene nada que ver con lo que e dicho yo

Me llamas mentiroso y hater solo por que tienes otra opinión,cosa que me parece muy respetable por tu parte pero no hace falta que te pongas así por que todos no pensemos igual,al fin y al cabo los foros son para hablar sobre diferentes puntos de vista digo yo
Morepawer está baneado por "hater, flames y clones"
chris76 escribió:
Morepawer escribió:
chris76 escribió:@morepower,podrias enlazar eso que dices que han probado los devs donde se demuestra la diferencia entre un juego parcheado a dx12 y un juego nativo a dx12?

Porque seria muy interesante lo que dices,o eres tu el que esta troleando?


Encima tienes la jeta de mentir descaradamente delante de todo el foro sobre afirmaciones que yo no he dicho!!!! No voy a pedir moderación por que ya todo el foro te conoce y tu inclinación hater hacia todo lo de X1 y como se que los moderadores son especialmente permisivos contigo, sería una pérdia de tiempo.

Pero te recomiendo de todo corazón que antes de postear algo sobre lo que ha dicho algún forero, leas y releas aunque necesites hacerlo 3 o 4 veces así evitar caer en el error de no distinguir o diferenciar en ese momento la forma verbal en presente de otra en futuro. Las prisas no son buenas y antes de postear algo es aconsejable revisar lo que uno pretende publicar.

Yo dije: ".........................Por lo que han mostrado algunos Devs, el rendimiento de un juego parcheado de Dx11 a Dx12 es directamente desproporcional al rendimiento que dará un juego desarrollado nativamente bajo Dx12 ........................."

Como puedes observar, utilizo la forma verbal en futuro (dará) en vez de en presente (da) precisamente por que a día de hoy yo al menos no se que rendimiento da un juego desarrollado nativamente en DX12 vs parcheado de Dx11 a Dx12, pero es una opinión que doy, considerando que lo demostrado por los Devs al parchear un juego de DX11 a Dx12, su aumento de rendimiento lo veo desproporcional al rendimiento que se obtendrá según las ventajas que han publicado sobre DX12 para los juegos que sean desarrollados nativamente.

Entiendes ahora lo importante que son las formas verbales? Decir dará (futuro) no es lo mismo que si hubiese dicho da (presente). Por que si lo hubiese puesto en presente, entonces sí tendrías razón por estaría afirmando que los Devs a día de hoy han mostrado la diferencia antre DX11---DX12 vs DX12.

Y tu dices: "@morepower,podrias enlazar eso que dices que han probado los devs donde se demuestra la diferencia entre un juego parcheado a dx12 y un juego nativo a dx12?

Ves como una cosa no tiene relación con la otra, como lo que yo digo en mi post no guarda relación con tu pregunta, inventándote cosas que yo no he afirmado ni dicho.

Madre mía lo que uno tiene que leer a veces............ [rtfm]

Por cierto cambiando de tema, ha salido alguna comparativa entre el redimiento que puede dar Vulkan vs la Api de PS4?

@Argam tienes toda la razón, quería decir PIX cuando por error puse PIM. Sorry. Gracias por corregirme. ;)

Me refería a esto:

https://twitter.com/draginol/status/573267363308564480

No te entiendo la verda,en mi post solo dige que si la ganancia en one con directx12 va a ser modesta(y esto es oficial),en MI OPINIÓN la diferencia entre un juego parcheado de dx11 a dx12 y un juego nativo dx12 será minima,porque en lo gordo del asunto que es el cambio de api ya partimos de que la mejora solo va a ser moderada

Ojo que e recalcado que solo era mi opinión,no la verda absoluta,luego me dices noseque de si todos los estudios no están aprovechando el hardware como deben,cosa que no tiene nada que ver con lo que e dicho yo

Me llamas mentiroso y hater solo por que tienes otra opinión,cosa que me parece muy respetable por tu parte pero no hace falta que te pongas así por que todos no pensemos igual,al fin y al cabo los foros son para hablar sobre diferentes puntos de vista digo yo


Si te ha parecido que he sido un poco agresivo con mis palabras pues discúlpame, pero es que me molesta que digan cosas que yo no he dicho. Por su puesto que todas las opiniones se deben respetar pero leerte que la diferencia entre un juego Dx11 a Dx12 vs Dx12 nativo sería mínima me ha parecido mas un troleo que una opinión.
Y en un futuro puedes que tengas razón pero a día de hoy sin tener juegos Dx12 nativos no hay forma de saberlo.

A lo mejor este E3 nos quita las dudas.

PEACE AND LOVE [beer]
Y las consolas al salon!! [beer]
pabloc escribió:Uy si,cuando usen el chip de sonido brutal que tiene la one... :o
En sonido creo que van sobradas todas pero cada cual con su consuelo de more power.

De sonido las demás sólo decodifican el formato comprimido, en XOne gestiona y aplica posicionamiento 3D y efectos.

En un juego promedio se puede ganar usando el chip de sonido entre medio y un núcleo de CPU, ya es una diferencia importante. Por cierto PCars no lo usa.

Cuando hablan de CPU seguramente se refieren a eso, que usando los componentes que la liberan pues realmente tienes más.
Morepawer escribió:Por su puesto que todas las opiniones se deben respetar pero leerte que la diferencia entre un juego Dx11 a Dx12 vs Dx12 nativo sería mínima me ha parecido mas un troleo que una opinión.

Ya nos vendieron la moto con Mantle en su día ... yo por mi parte, la magia de la que habla Wardell con DX12 nativo, de que tendremos gráficos a nivel de cinemática lo considero humo hasta que haya hechos.
cercata escribió:Ya nos vendieron la moto con Mantle en su día ... yo por mi parte, la magia de la que habla Wardell con DX12 nativo, de que tendremos gráficos a nivel de cinemática lo considero humo hasta que haya hechos.


¿Solo con mantle?

Imagen

Llevan vendiendo la moto siglos todo cristo.
Morepawer está baneado por "hater, flames y clones"
cercata escribió:
Morepawer escribió:Por su puesto que todas las opiniones se deben respetar pero leerte que la diferencia entre un juego Dx11 a Dx12 vs Dx12 nativo sería mínima me ha parecido mas un troleo que una opinión.

Ya nos vendieron la moto con Mantle en su día ... yo por mi parte, la magia de la que habla Wardell con DX12 nativo, de que tendremos gráficos a nivel de cinemática lo considero humo hasta que haya hechos.


No te digo que no pero de ahí a que sea mínima la diferencia hay un gran trecho. Por lo mostrado por ahora, hay buenas perspectivas.
darksch escribió:
pabloc escribió:Uy si,cuando usen el chip de sonido brutal que tiene la one... :o
En sonido creo que van sobradas todas pero cada cual con su consuelo de more power.

De sonido las demás sólo decodifican el formato comprimido, en XOne gestiona y aplica posicionamiento 3D y efectos.

En un juego promedio se puede ganar usando el chip de sonido entre medio y un núcleo de CPU, ya es una diferencia importante. Por cierto PCars no lo usa.

Cuando hablan de CPU seguramente se refieren a eso, que usando los componentes que la liberan pues realmente tienes más.

No usan el chip de sonido que metieron para Kinect? Lo han reconocido? Igual es que la documentación sobre el mismo está muy verde.
J_Ark escribió:No usan el chip de sonido que metieron para Kinect? Lo han reconocido? Igual es que la documentación sobre el mismo está muy verde.

Si estáis hablando de lo que dijo Ian Bell, yo veo normal que no lo usen. Si de CPU van sobrados, les es más cómodo usar el mismo código de sonido que tengan para pc que no programar algo específico para usarlo con el superchip de sonido de One. Tampoco ganan nada por ahorrar unos ciclos de CPU, que total van sobrados igualmente.
David Ricardo escribió:
J_Ark escribió:No usan el chip de sonido que metieron para Kinect? Lo han reconocido? Igual es que la documentación sobre el mismo está muy verde.

Si estáis hablando de lo que dijo Ian Bell, yo veo normal que no lo usen. Si de CPU van sobrados, les es más cómodo usar el mismo código de sonido que tengan para pc que no programar algo específico para usarlo con el superchip de sonido de One. Tampoco ganan nada por ahorrar unos ciclos de CPU, que total van sobrados igualmente.

También es verdad, tampoco consume tanto el proceso de sonido en comparación al resto.
Un buen calculo de sonido envolvente por soft consume sus ciclos eh
Zokormazo escribió:Un buen calculo de sonido envolvente por soft consume sus ciclos eh

La idea es que si la versión de PS4 va siempre mejor, el motivo no puede ser la CPU. El problema tiene que estar en la GPU, por lo que liberar ciclos de CPU no te aportará nada porque el cuello de botella no está ahí.
Mas CPU siempre será bueno. O ya hemos llegado al punto de decir que no, porque vamos.

Con chip de sonido no solo ganas en CPU también en calidad. No lo usan porque es mas cómodo cambiar la pestaña y recompilar respecto a usar su API de audio. Por lo visto hoy en día eso es un gran sacrificio, cuando hace unos años en PC veiamos hasta juegos usando 3 API de audio distintas y nadie se murió. Pero bueno la dedicación y/o profesionalidad del sector esta como esta.

Y "que va siempre mejor"... deja que lo dude.
David Ricardo escribió:
Zokormazo escribió:Un buen calculo de sonido envolvente por soft consume sus ciclos eh

La idea es que si la versión de PS4 va siempre mejor, el motivo no puede ser la CPU. El problema tiene que estar en la GPU, por lo que liberar ciclos de CPU no te aportará nada porque el cuello de botella no está ahí.

Por gpu tampoco creo,en lo que mas diferente son es en las memorias,me imagino que para usar como toca la esram+ddr3+move engines hace falta un engine adaptado completamente a one,y eso en los multis parece ser que economicamente es imposible
cercata escribió:
Morepawer escribió:Por su puesto que todas las opiniones se deben respetar pero leerte que la diferencia entre un juego Dx11 a Dx12 vs Dx12 nativo sería mínima me ha parecido mas un troleo que una opinión.

Ya nos vendieron la moto con Mantle en su día ... yo por mi parte, la magia de la que habla Wardell con DX12 nativo, de que tendremos gráficos a nivel de cinemática lo considero humo hasta que haya hechos.


Pues para mi lo de Mantle no fue ninguna moto vendida, al menos con el último juego que lo probé el Thief, en mi equipo había una ganancia de entre 10-12FPS al usar Mantle respecto a DX11
@chris76 diría que no andas desencaminado.

@dunkam82 precisamente cuanto menos se tenga más se nota, y las consolas no van sobradas. Son máquinas bastante justas muy dependientes del aprovechamiento, pues bien, que menos que su API lo permita, si no acabamos pronto. Luego dicho aprovechamiento depende del desarrollador, no es automático, pero por lo menos que se tenga acceso.

Por cierto, añado a posteriori. Puede no ser relación directa con nuevas API pero sí está muy relacionado con las máquinas que lo van a compartir.

Novedades, benchmarks usando HSA. Dedicado a los que según ellos no valía para nada o no podía usarse con casi nada.

http://wccftech.com/amd-kaveri-i54670k-benchmarks-showdown-continued-hsa-features-test/

Mayor variedad de funciones que se le pasan test pues no se me ocurren. Algo más genérico que un PCMark se me ocurren muy pocas cosas. ¡Pero si le gana al i5-4670K!
darksch escribió:Novedades, benchmarks usando HSA. Dedicado a los que según ellos no valía para nada o no podía usarse con casi nada.

http://wccftech.com/amd-kaveri-i54670k-benchmarks-showdown-continued-hsa-features-test/

Interesante. Para que el Benchmark fuese completo, estaría bien hacer lo mismo con una GPGPU discreta sin HSA, para ver como afecta el HSA, ya que sino estamos comparando CPU sola contra CPU+GPU.

Y en algunos casos podria ser que la CPU sola lo haga mejor que la CPU+GPU, yo tenia un programa que una de las cosas que hacia era la inversa de una matriz muy tocha, y lo cambie para hacer esa inversa en la GPU con CUDA, y era mas lento el conjunto que haciendolo en la CPU todo ... me molaría poder probar eso mismo con OpenCL en una APU con HSA.
cercata escribió:
darksch escribió:Novedades, benchmarks usando HSA. Dedicado a los que según ellos no valía para nada o no podía usarse con casi nada.

http://wccftech.com/amd-kaveri-i54670k-benchmarks-showdown-continued-hsa-features-test/

Interesante. Para que el Benchmark fuese completo, estaría bien hacer lo mismo con una GPGPU discreta sin HSA, para ver como afecta el HSA, ya que sino estamos comparando CPU sola contra CPU+GPU.

Y en algunos casos podria ser que la CPU sola lo haga mejor que la CPU+GPU, yo tenia un programa que una de las cosas que hacia era la inversa de una matriz muy tocha, y lo cambie para hacer esa inversa en la GPU con CUDA, y era mas lento el conjunto que haciendolo en la CPU todo ... me molaría poder probar eso mismo con OpenCL en una APU con HSA.

Ya pero eso es porque HSA no es GPGPU. En HSA no tienes sus problemas de aislamiento, y del mismo proceso lo que sea en serie va a la parte CPU y lo que sea paralelo va a la parte GPU, y lo que va a GPU sin copiados de datos ni historias de esas. Con HSA únicamente puedes ver mejoras, nunca veras un caso en que empeore. Precisamente algo como un PCMark ya que lo dices si que podría ser desastroso en GPGPU, sin embargo en HSA va estupendo.
darksch escribió:Ya pero eso es porque HSA no es GPGPU. En HSA no tienes sus problemas de aislamiento, y del mismo proceso lo que sea en serie va a la parte CPU y lo que sea paralelo va a la parte GPU, y lo que va a GPU sin copiados de datos ni historias de esas. Con HSA únicamente puedes ver mejoras, nunca veras un caso en que empeore. Precisamente algo como un PCMark ya que lo dices si que podría ser desastroso en GPGPU, sin embargo en HSA va estupendo.

Sí, sí ...

Lo que digo que para ver la mejora, ademas del benchmark de HSA contra CPU, estaria bien tener otro de HSA contra CPU + GPGPU Discreta(no HSA vamos).
cercata escribió:
darksch escribió:Ya pero eso es porque HSA no es GPGPU. En HSA no tienes sus problemas de aislamiento, y del mismo proceso lo que sea en serie va a la parte CPU y lo que sea paralelo va a la parte GPU, y lo que va a GPU sin copiados de datos ni historias de esas. Con HSA únicamente puedes ver mejoras, nunca veras un caso en que empeore. Precisamente algo como un PCMark ya que lo dices si que podría ser desastroso en GPGPU, sin embargo en HSA va estupendo.

Sí, sí ...

Lo que digo que para ver la mejora, ademas del benchmark de HSA contra CPU, estaria bien tener otro de HSA contra CPU + GPGPU Discreta(no HSA vamos).

Puedes ver el del libreoffice que hay por ahí , si no recuerdo mal lo comparan por CPU, OpenCL y HSA. Igual te interesan mas pero no creo que haya mucho personal dedicándose a echar tiempo en portar códigos a eso (lo basado solo en GPGPU) cuando no se ha hecho en tantos años.
Volvemos a lo de siempre, HSA no parece ser de ninguna utilidad en consolas, donde ya se supone que cada parte hace lo que mejor sabe hacer y la memoria es compartida.

Para lo más que puede servir esto es para aprovechar las integradas.
eloskuro está baneado del subforo por "flames"
josemurcia escribió:Volvemos a lo de siempre, HSA no parece ser de ninguna utilidad en consolas, donde ya se supone que cada parte hace lo que mejor sabe hacer y la memoria es compartida.

Para lo más que puede servir esto es para aprovechar las integradas.


O el offload de procesos
Volvemos a no enterarnos. Cualquier proceso tiene parte paralelizable (entre 0 y 100%), si esa parte se la encargamos a la sección que mejor se le da el rendimiento sube. Basta ver el PCMark que no es precisamente un test gráfico, si no de trabajo, y consigue un buen boost de rendimiento.

Algunos siguen pensando que HSA es GPGPU y no tiene nada que ver.

A ver cuando nos enteramos que es el siguiente paso equivalente a incluir las FPU en los procesadores, ¿le perjudicaba en algo?. Ésta hacía los cálculos en coma flotante, con HSA se integra en la CPU una unidad de procesamiento paralelo para procesos, para que ejecute la parte paralelizable de éstos.

Igual a muchos les interesa leer esto:

http://www.slideshare.net/zlatan4177/gpgpu-algorithms-in-games
darksch escribió:Volvemos a no enterarnos. Cualquier proceso tiene parte paralelizable (entre 0 y 100%), si esa parte se la encargamos a la sección que mejor se le da el rendimiento sube. Basta ver el PCMark que no es precisamente un test gráfico, si no de trabajo, y consigue un buen boost de rendimiento.

Algunos siguen pensando que HSA es GPGPU y no tiene nada que ver.

A ver cuando nos enteramos que es el siguiente paso equivalente a incluir las FPU en los procesadores, ¿le perjudicaba en algo?. Ésta hacía los cálculos en coma flotante, con HSA se integra en la CPU una unidad de procesamiento paralelo para procesos, para que ejecute la parte paralelizable de éstos.

Igual a muchos les interesa leer esto:

http://www.slideshare.net/zlatan4177/gpgpu-algorithms-in-games

Pues esas diapositivas dejan claro que HSA es GPGPU y algo más, pues se empeñan bastante en mostrar que muchas de las aplicaciones GPGPU se pueden hacer en la APU antes que hacerlas directamente en la GPU para liberarla de éste propósito o por las limitaciones de la API.

De todas maneras el problema de HSA es que AMD no sabe venderse y, así, es imposible que tenga un impacto significativo en el desarrollo.

Para empezar, el fabricante con más APUs en el mercado copando más del 80% de éstas (y creo que me quedo corto) se llama Intel y ya está desarrollando algo similar a HSA, pero a nivel de instrucciones con AVX 3.2 que entrará con Skylake, al que todavía le queda unos meses para que salga. Luego, resulta que el principal software que puede aprovecharse actualmente de HSA pertenece a tu competencia, es decir, dos de los motores de físicas con más licencias pertenecen a Nvidia, con PhysX, y a Intel, con Havok.

Contra, no esperes a que los demás hagan el trabajo, coge un motor de físicas, cómpralo o usa uno de los muchos OpenSource que existen en el mercado, modifícalo para que se aproveche de HSA, luego muestra como funciona con un FX+GPU, con un APU sólo equivalente y también con un FX+ R9 290 y un A10 + R9 290 y muestra las ventajas que tiene el usar la APU en cuanto a cantidad de efectos que permite y, por último, cédelo a los desarrolladores de videojuegos.

Porque sí, queda muy bonito todas las bondades de HSA, pero es que no existen, actualmente, aplicaciones reales que se estén beneficiando de HSA, y queda muy bonito mostrar diapositivas hablando de sus bondades y benchmarks modificados para que lo usen, pero luego no ves nada palpable donde digas, "¡coño!, ésto es posible gracias a HSA".

Al final parece que AMD es especialista en hacer lo que mejor sabe y eso es pegarse tiros en el pie.
dejan claro que HSA es GPGPU y algo más

se llama Intel y ya está desarrollando algo similar a HSA, pero a nivel de instrucciones con AVX 3.2

luego muestra como funciona con un FX+GPU

Si piensas eso es que no lo has entendido. Porque no concuerda ni una sola.

Aprovecho para añadir, recomiendo las páginas 9-14 y 32:
http://www.slideshare.net/fullscreen/hsafoundation/afds-keynote-the-programmers-guide-to-the-apu-galaxy/1
Fuente: http://www.hsafoundation.com/publications/
1577 respuestas