Hablemos del interior de Xbox One

Yo creo que cuanto esté directx 12 y los desarrolladores usen todas las herramientas que tengan a disposición será cuando los multis empezarán a ir parejos.

El tema del Tomb Raider se tendría que tomar con cuidado porque no es bien bien un multi... Microsoft tuvo sus ingenieros (incluido Joe Waters (que murió) que era un máquina) trabajando en el juego para One y por eso se le ha sacado el provecho a la tecnología que tiene la consola, puedo decir sin miedo alguno que de haber salido en las 4 plataformas simultaneamente y Cristal dynamics sin ninguna ayuda de micro estaríamos ante un juego con 900p y unos gráficos inferiores. ¿Con esto que quiero decir? que sigue habiendo una grieta entre los multis y los exclusivos, sino estan los ingenieros de micro por medio en los desarrollos no acaban de sacarle el potencial a la máquina. Ahí es donde espero que directx 12 pueda ayudar realmente.

Un saludo!
jordi1986 escribió:Yo creo que cuanto esté directx 12 y los desarrolladores usen todas las herramientas que tengan a disposición será cuando los multis empezarán a ir parejos.

El tema del Tomb Raider se tendría que tomar con cuidado porque no es bien bien un multi... Microsoft tuvo sus ingenieros (incluido Joe Waters (que murió) que era un máquina) trabajando en el juego para One y por eso se le ha sacado el provecho a la tecnología que tiene la consola, puedo decir sin miedo alguno que de haber salido en las 4 plataformas simultaneamente y Cristal dynamics sin ninguna ayuda de micro estaríamos ante un juego con 900p y unos gráficos inferiores. ¿Con esto que quiero decir? que sigue habiendo una grieta entre los multis y los exclusivos, sino estan los ingenieros de micro por medio en los desarrollos no acaban de sacarle el potencial a la máquina. Ahí es donde espero que directx 12 pueda ayudar realmente.

Un saludo!

Ya si es que de eso va la cosa. Los multis son juegos de PC, luego los portan a consola usando nada y menos de sus especificaciones particulares y pasa lo que pasa. Ahora toca al revés, un juego hecho para la XOne que la usa bien, lo portan a PC, se ve que es exigente, y ahora todo son excusas que si pito que si flautas.

Lo que pasa es lo que se ha dicho desde hace mucho, que las consolas hay que usarlas bien porque son máquinas con muchas particularidades, y cuando esto se hace dan mucho más de sí. Eso de "el hardware es el que es" se aplica cuando un juego se programa con el PC tipo Intel + Nvidia en mente, el PC típico sin complicaciones vamos. Ni async computing, ni HSA, ni nada de nada, cosas que la consola implementa y que le meten un chutazo importante.
En esos juegos "multi", la consola está corriendo en modo PC Intel + Nvidia, y entonces sí que se tiene lo que se tiene, pero está ejecutando en clara desventaja al no usar lo que realmente lleva.
darksch escribió:
jordi1986 escribió:Yo creo que cuanto esté directx 12 y los desarrolladores usen todas las herramientas que tengan a disposición será cuando los multis empezarán a ir parejos.

El tema del Tomb Raider se tendría que tomar con cuidado porque no es bien bien un multi... Microsoft tuvo sus ingenieros (incluido Joe Waters (que murió) que era un máquina) trabajando en el juego para One y por eso se le ha sacado el provecho a la tecnología que tiene la consola, puedo decir sin miedo alguno que de haber salido en las 4 plataformas simultaneamente y Cristal dynamics sin ninguna ayuda de micro estaríamos ante un juego con 900p y unos gráficos inferiores. ¿Con esto que quiero decir? que sigue habiendo una grieta entre los multis y los exclusivos, sino estan los ingenieros de micro por medio en los desarrollos no acaban de sacarle el potencial a la máquina. Ahí es donde espero que directx 12 pueda ayudar realmente.

Un saludo!

Ya si es que de eso va la cosa. Los multis son juegos de PC, luego los portan a consola usando nada y menos de sus especificaciones particulares y pasa lo que pasa. Ahora toca al revés, un juego hecho para la XOne que la usa bien, lo portan a PC, se ve que es exigente, y ahora todo son excusas que si pito que si flautas.

Lo que pasa es lo que se ha dicho desde hace mucho, que las consolas hay que usarlas bien porque son máquinas con muchas particularidades, y cuando esto se hace dan mucho más de sí. Eso de "el hardware es el que es" se aplica cuando un juego se programa con el PC tipo Intel + Nvidia en mente, el PC típico sin complicaciones vamos. Ni async computing, ni HSA, ni nada de nada, cosas que la consola implementa y que le meten un chutazo importante.
En esos juegos "multi", la consola está corriendo en modo PC Intel + Nvidia, y entonces sí que se tiene lo que se tiene, pero está ejecutando en clara desventaja al no usar lo que realmente lleva.


Estos casos, son cuando salen 1080vs900 entre la competencia y la One, eso no deja de ser un problema, porque Micro sabía que los desarrolladores si pueden ahorrarse un mes de programación se lo ahorran... Cada vez tengo más claro que esta consola tenía que salir más tarde, y que directx 12 tenía que salir más pronto, prácticamente a la vez, ya que sino la arquitectura de la consola no tiene mucho sentido, se podría haber sacado una consola más estandard, con gddr5, una gpu más potente y andando, menos gasto en i+d y juegos funcionando perfectos con directx 11 a 1080 y los de digitalfoundry en el paro.

Un saludo!
De hecho la XOne estaba planificada para como poco un año más tarde, pero le entró a Sony la prisa y no podían estarse 1 año fuera del mercado. Si no ya mejor que ni la sacaran no se comerían nada. Es decir aunque aún no estuviera DX12 en activo, si sería un periodo de espera bastante inferior. Tampoco puedes ponerte una fecha concreta de sacar Win10 y DX12 y cumplirla a rajatabla, estas cosas siempre se retrasan. Si no que nos lo digan a los usuarios de Lumia esperando Win10.

Ese 1080v900 ya lo he comentado. PS4 tiene ventaja para motores antiguos, al ser más convencional con su GDDR lineal y tirar más de GPU en bruto. XOne está más pensada para nuevos motores, tipo clustering (dividir la pantalla en trocitos), con tiled resources, y muy optimizada en computación. A medida que se van añadiendo estamos viendo cosas que nos dejan boquiabiertos. Esas cosas, viendo las futuras de AMD, también van a afectar al PC, así que esperemos que los motores vayan evolucionando y no se estanquen en metodologías de hace más de un lustro.
A la pobre X360 también le costo despegar y solo hay que mirar yutú para comprobar como mejoró sustancialmente al cabo de los años. La XB1 no va a ser menos... llamalo DX12, llamalo arquitectura del demonio pero tarde o temprano mejorará.
No es una magufada, es una realidad que se ha repetido con todas la generaciones de consolas "modernas".

De todas formas... no habría que evaluar una consola por como mueve los juegos multiplataforma porque son muy pocos en este mundo los que son capaces de hacer su trabajo bien y sacar el máximo de cada plataforma con la que trabajan. Este campo siempre será dominio del PC porque si un juego no te va bien, compras hardware mas potente para paliarlo y en paz... es algo lógico, las consolas salen cada muchos años y las generaciones de graficas/cpu son en algunos casos absurdamente cortas.
darksch escribió:Si ya, al igual que será en QB y Fable Legends lo más seguro. Por fin se está produciendo la migración y parece ser ya no tanto eso de "el hardware es el que es". Cuando se use DX12 nativo (desde 0) se liberará más CPU entre otras cosas aún.



Y a la beta de the división tienes acceso?

Se rumorea que usa los mismos recursos que tomb raider, si tienes el cacharrete de medir en la consola cuando veas que la cosas se pone espectacular, mira a ver si el condumo se mantiene.

@jordi1986 Fijate tu que huele a cuerno quemado el patrocinio de Nvidia para el lanzamiento del juego en PC. Es un juego que está preparado para DX12 y su uso lo han dejado para luego ya si eso.
papatuelo escribió:Y a la beta de the división tienes acceso?

Se rumorea que usa los mismos recursos que tomb raider, si tienes el cacharrete de medir en la consola cuando veas que la cosas se pone espectacular, mira a ver si el condumo se mantiene.

Tampoco, fíjate que ahora estoy con el Onigiri, ¡y ahora con el mando Elite que me acaba de llegar! xD

De todas formas, Ubisoft y usando los recursos del RoTR...emmm... [fiu] No niego que se ve bien la verdad, pero llegar a usar los recursos de un 1st party (por eso de meterse la misma M$) no creo que llegue a tanto.
darksch escribió:
papatuelo escribió:Y a la beta de the división tienes acceso?

Se rumorea que usa los mismos recursos que tomb raider, si tienes el cacharrete de medir en la consola cuando veas que la cosas se pone espectacular, mira a ver si el condumo se mantiene.

Tampoco, fíjate que ahora estoy con el Onigiri, ¡y ahora con el mando Elite que me acaba de llegar! xD

De todas formas, Ubisoft y usando los recursos del RoTR...emmm... [fiu] No niego que se ve bien la verdad, pero llegar a usar los recursos de un 1st party (por eso de meterse la misma M$) no creo que llegue a tanto.


Snowdrop si no me equivoco fue uno de los primeros motores de los que oimos hablar de adaptaciones a DX12.

Alguien de este foro que trabaja en UBI dijo que estaban tanteando DX12 y ese motor.

No diré quien xq parece que hace tiempo que no quiere saber de esas cosas, quizá tirón de orejas. Si tu quieres saber ya sabes donde encontrarme.
papatuelo escribió:Snowdrop si no me equivoco fue uno de los primeros motores de los que oimos hablar de adaptaciones a DX12.

Alguien de este foro que trabaja en UBI dijo que estaban tanteando DX12 y ese motor.

No diré quien xq parece que hace tiempo que no quiere saber de esas cosas, quizá tirón de orejas. Si tu quieres saber ya sabes donde encontrarme.


Tengo curiosidad por ver el desempeño de un motor totalmente adaptado a DX12, puede que todos los usuarios de Windows 10 nos llevemos una muy buena sorpresa.
Brad Wardell 2014:

The results are spectacular. Not just in theory but in practice (full disclosure: I am involved with the Star Swarm demo which makes use of this kind of technology.) While each generation of video card struggles to gain substantial performance over the previous generation, here, the same hardware will suddenly see a doubling of performance.

XBox One is the biggest beneficiary; it effectively gives every Xbox One owner a new GPU that is twice as fast as the old one.


http://www.neowin.net/news/directx-12-a ... r-xbox-one

Lionhead 2016

Fable Legends is using a number of features on Xbox One,” said Whyte, “including asynchronous compute and efficient multi-threaded rendering.” This has led to improvements in rendering efficiency, which means that the developer can “push the visual bar higher than would otherwise be possible.” This also means that the Xbox One now has better graphical and computing capabilities without actually increasing the hardware, all thanks to DirectX 12.


http://www.bidnessetc.com/62286-inside- ... art-whyte/
jordi1986 escribió:
darksch escribió:
jordi1986 escribió:Yo creo que cuanto esté directx 12 y los desarrolladores usen todas las herramientas que tengan a disposición será cuando los multis empezarán a ir parejos.

El tema del Tomb Raider se tendría que tomar con cuidado porque no es bien bien un multi... Microsoft tuvo sus ingenieros (incluido Joe Waters (que murió) que era un máquina) trabajando en el juego para One y por eso se le ha sacado el provecho a la tecnología que tiene la consola, puedo decir sin miedo alguno que de haber salido en las 4 plataformas simultaneamente y Cristal dynamics sin ninguna ayuda de micro estaríamos ante un juego con 900p y unos gráficos inferiores. ¿Con esto que quiero decir? que sigue habiendo una grieta entre los multis y los exclusivos, sino estan los ingenieros de micro por medio en los desarrollos no acaban de sacarle el potencial a la máquina. Ahí es donde espero que directx 12 pueda ayudar realmente.

Un saludo!

Ya si es que de eso va la cosa. Los multis son juegos de PC, luego los portan a consola usando nada y menos de sus especificaciones particulares y pasa lo que pasa. Ahora toca al revés, un juego hecho para la XOne que la usa bien, lo portan a PC, se ve que es exigente, y ahora todo son excusas que si pito que si flautas.

Lo que pasa es lo que se ha dicho desde hace mucho, que las consolas hay que usarlas bien porque son máquinas con muchas particularidades, y cuando esto se hace dan mucho más de sí. Eso de "el hardware es el que es" se aplica cuando un juego se programa con el PC tipo Intel + Nvidia en mente, el PC típico sin complicaciones vamos. Ni async computing, ni HSA, ni nada de nada, cosas que la consola implementa y que le meten un chutazo importante.
En esos juegos "multi", la consola está corriendo en modo PC Intel + Nvidia, y entonces sí que se tiene lo que se tiene, pero está ejecutando en clara desventaja al no usar lo que realmente lleva.


Estos casos, son cuando salen 1080vs900 entre la competencia y la One, eso no deja de ser un problema, porque Micro sabía que los desarrolladores si pueden ahorrarse un mes de programación se lo ahorran... Cada vez tengo más claro que esta consola tenía que salir más tarde, y que directx 12 tenía que salir más pronto, prácticamente a la vez, ya que sino la arquitectura de la consola no tiene mucho sentido, se podría haber sacado una consola más estandard, con gddr5, una gpu más potente y andando, menos gasto en i+d y juegos funcionando perfectos con directx 11 a 1080 y los de digitalfoundry en el paro.

Un saludo!


Te vale si esperas cambiar de consola en 3 años más, pero resulta que yo la quiero aguantar unos años más y usarla con Oculus. Y tu solución no me sirve, la de Microsoft sí.


Whyte added that, depending on the graphic card used, a performance improvement of “up to 40%” was achieved, compared to DX11 performance.


Vamos, que ese dato en concreto, es en referencia a Pc.
PainKiller escribió:


Whyte added that, depending on the graphic card used, a performance improvement of “up to 40%” was achieved, compared to DX11 performance.


Vamos, que ese dato en concreto, es en referencia a Pc.

A mi me vale, pero os leeis las cosas cuando escribis?,no vas a encontrar otras referencias, en día que saquen el mismo juego de xbox one para dx11 y dx12 hablamos.
Xboxman escribió:
PainKiller escribió:


Whyte added that, depending on the graphic card used, a performance improvement of “up to 40%” was achieved, compared to DX11 performance.


Vamos, que ese dato en concreto, es en referencia a Pc.

A mi me vale, pero os leeis las cosas cuando escribis?,no vas a encontrar otras referencias, en día que saquen el mismo juego de xbox one para dx11 y dx12 hablamos.


Simplemente es una aclaración, que poner así sólo el titular, visto la página de donde viene y el foro donde se ha puesto, da a entender que esa mejoría es en Xbox y no es así.

Cual será el porcentaje de mejora en Xbox, ya se verá.
[quote="PainKiller"][/quote]

Si ese dato en concreto es en cualquier dispositivo, no especifica ni PC ni consola, solo dice hasta un 40% dependiendo de la GPU.

Por otro lado lo que sí especifíca de PC es esto:

Fable Legends is using a number of features on Xbox One,” said Whyte, “including asynchronous compute and efficient multi-threaded rendering.” This has led to improvements in rendering efficiency, which means that the developer can “push the visual bar higher than would otherwise be possible.” This also means that the Xbox One now has better graphical and computing capabilities without actually increasing the hardware, all thanks to DirectX 12.

Lo que nos lleva a la pregunta fundamenteal, como puede ser que mejore el rendimiento cuando la gente no se ha cansado de decir que ONE se programa a bajo nivel??? Si la gente no se ha cansado de decir que DX12 es la API de XBOX portada a PC???

NO se supone que directx 12 no meoraría nada en XBOX ONE????

Eso es lo importante.
La Fuente Original de lo de Fable DX12:

http://www.bidnessetc.com/62286-inside-fable-legends-an-exclusive-interview-with-stuart-whyte/

DirectX 12
Fable Legends will use DirectX 12 (DX12) and we wondered why. Whyte said that by using DX12, the team was able to achieve “a significant amount of horsepower – resulting in increased visual fidelity, higher frame rates, and improved shadows and effects.” Whyte further said that, depending on the graphics card, the team saw “up to 40% faster performance” on DX12 as compared to DX11. He believes anything that helps improve the graphical quality in games will definitely be loved by gamers and developers alike, and we couldn’t agree more.

The Xbox was based on Direct X technology, and that’s where the X comes from. Since Fable Legends is also being released on the Xbox One and allows cross-play, we were curious to know how Microsoft’s latest machine would benefit from DX12. And from the looks of it, apparently quite a bit.

“Fable Legends is using a number of features on Xbox One,” said Whyte, “including asynchronous compute and efficient multi-threaded rendering.” This has led to improvements in rendering efficiency, which means that the developer can “push the visual bar higher than would otherwise be possible.” This also means that the Xbox One now has better graphical and computing capabilities without actually increasing the hardware, all thanks to DirectX 12.
Que el uso de los recursos de la consola se va a optimizar con el paso del tiempo, es algo seguro y que ha pasado a lo largo de todas las generaciones de consolas. Por lo que negar que la cosa va a mejorar, es absurdo.

Otra cosa son las expectativas que se han creado alrededor de DX12, que en mi opinión, son exageradas.

Respecto a que no habla de un hardware determinado, pues hombre, ya es raro que utilice el término tarjeta gráfica en vez de gpu, pero es que encima, primero habla de eso y luego ya es cuando empieza a nombrar a XBOX.
@PainKiller

Esto es completamente diferente de ir mejorando el rendimiento con el tiempo. Eso es por ejemplo lo que han hecho con el pix y la esRam. Empezar a usar tecnicas completamente nuevas es una cosa muy diferente, como pasa con el computo asincrono.

Asi que lo siento por los que decian una y mil veces que directx 12 no ayudaría en nada a XBOX ONE porque por lo que se ve estaban muy equivocados..

Al menos vamos evolucionando:

Directx 12 no se podrá usar en ONE > Directx 12 no mejorará el rendimiento de ONE en nada solo ayudara a que los juegos de one se porten a PC > Directx12 lo mejorará pero no tanto > ¿Proxima parada?

No vamos mal.
http://soloxboxone.com/el-interior-de-x ... l-detalle/

Hay que estar refrescando la memoria cada cierto tiempo, por lo que parece.

No se trata de mejorar, se trata de usar una arquitectura con su api nativa y para lo que esta pensada, hay cosas en xbox one que solo podran funcionar junto a dx12. Pero vamos que de eso ya hemos hablado mil y una veces por aqui.

Hasta ahora solo hemos visto dx11.3 con algunas extensiones dx12, rise of the tomb raider o forza6.
Morepawer está baneado por "hater, flames y clones"
cch37 escribió:http://soloxboxone.com/el-interior-de-xbox-one-al-detalle/

Hay que estar refrescando la memoria cada cierto tiempo, por lo que parece.

No se trata de mejorar, se trata de usar una arquitectura con su api nativa y para lo que esta pensada, hay cosas en xbox one que solo podran funcionar junto a dx12. Pero vamos que de eso ya hemos hablado mil y una veces por aqui.

Hasta ahora solo hemos visto dx11.3 con algunas extensiones dx12, rise of the tomb raider o forza6.


No es una cuestión de refrescar sino que el ser humano si lleva dos años negando las evidencias que se han dado, es más fácil morir con las botas puestas que ser humilde y rectificar.

Tic TAC tic TAC.....
PainKiller escribió:


Whyte added that, depending on the graphic card used, a performance improvement of “up to 40%” was achieved, compared to DX11 performance.


Vamos, que ese dato en concreto, es en referencia a Pc.

Pero no este ;)
Pero gracias a DX12, Whyte asegura que se consiguen establecer un mayor número de elementos en la computación asíncrona y mejorar la eficiencia del renderizado multi-hilo, permitiendo “empujar las variables visuales más de lo que es posible de otra forma”.

Aunque bueno, veo que @cercata ya lo ha puesto estupendamente bien.
papatuelo escribió:@PainKiller

Esto es completamente diferente de ir mejorando el rendimiento con el tiempo. Eso es por ejemplo lo que han hecho con el pix y la esRam. Empezar a usar tecnicas completamente nuevas es una cosa muy diferente, como pasa con el computo asincrono.


No es tan diferente.

Podrá ser más notorio, pero no dejan de ser técnicas para optimizar el uso de los recursos de la consola. Vamos, que va usar el hardware que ya se usa, de una manera más eficiente.

Y las contestaciones bordes de turno, os las podéis ahorrar, que aquí yo no he dicho nada de malas formas y ya de primeras habéis venido con el cuchillo entre los dientes.
PainKiller escribió:
papatuelo escribió:@PainKiller

Esto es completamente diferente de ir mejorando el rendimiento con el tiempo. Eso es por ejemplo lo que han hecho con el pix y la esRam. Empezar a usar tecnicas completamente nuevas es una cosa muy diferente, como pasa con el computo asincrono.


No es tan diferente.

Podrá ser más notorio, pero no dejan de ser técnicas para optimizar el uso de los recursos de la consola. Vamos, que va usar el hardware que ya se usa, de una manera más eficiente.

Y las contestaciones bordes de turno, os las podéis ahorrar, que aquí yo no he dicho nada de malas formas y ya de primeras habéis venido con el cuchillo entre los dientes.

En realidad sí lo es, una cosa es "usar mejor", y otra es "usar lo que no se usaba".

En lo último tienes razón. Debatamos.
PainKiller escribió:
papatuelo escribió:@PainKiller

Esto es completamente diferente de ir mejorando el rendimiento con el tiempo. Eso es por ejemplo lo que han hecho con el pix y la esRam. Empezar a usar tecnicas completamente nuevas es una cosa muy diferente, como pasa con el computo asincrono.


No es tan diferente.

Podrá ser más notorio, pero no dejan de ser técnicas para optimizar el uso de los recursos de la consola. Vamos, que va usar el hardware que ya se usa, de una manera más eficiente.

Y las contestaciones bordes de turno, os las podéis ahorrar, que aquí yo no he dicho nada de malas formas y ya de primeras habéis venido con el cuchillo entre los dientes.


He elegido cuidadosamente mis palabras, en ningún momento he dicho "como decias", he dicho "los que decían".

No sé si tu lo decías o no, por eso he elegido decirlo así, de ti depende incluirte en el grupo o no.

Por otro lado claro que es un cambio mucho más notorio que los cambios de los que hablas.

Te recuerdo, que es de lo que estamos hablando, que según esa gente que decía que XBOX no mejoraría nada con DX12 porque la consola ya era capaz de hacer todo lo que hacía DX12 y que solo podría mejorar el aprovecchamiento de esas funciones que ya existían. Y resulta que al final no es así y que DX12 trae funciones totalmente nuevas como es ese uso del computo asincrono.

Una vez lo dije y lo mantengo, hay gente que va moviendo sus trincheras según va apareciendo noticias nuevas, la trinchera empezo en 0% de mejora y ya vamos por habrá que ver cuanto mejora, al final habrán movido tanto su trinhera que lo que digan en ese momento no tendrá nada que ver con lo que decían al principio. Y todavía querran terminar la discusión con un : "ves como llevaba razón".
Se supone que la computación asíncrona ya ha sido usada en, por ejemplo, Rise of Tomb Raider.

Hasta donde yo se, en Xbox no hay partes que no hayan sido utilizadas, sino infrautilizadas. De ahí que hable de optimización.

Por cierto, un pequeño off topic, pero relacionado con DirectX 12 (aunque en Pc).

Se supone que con él, se iba a poder usar la gráfica integrada en paralelo a la tarjeta gráfica que tuvieras, pero no he vuelto a oír nada al respecto. ¿Hay noticias sobre esto o algún test/benchmark, sobre el funcionamiento?
PainKiller escribió:Se supone que la computación asíncrona ya ha sido usada en, por ejemplo, Rise of Tomb Raider.

Hasta donde yo se, en Xbox no hay partes que no hayan sido utilizadas, sino infrautilizadas. De ahí que hable de optimización.


Pero es que desde que están en W10 pueden utilizar carácteríticas de Dx12 aunque no usen todas.

Busca cuantos juegos de XBOX hacen mención al uso del computo asincrono antes de Fable y Tomb Raider.

De hecho si miras un log de Tomb Raider en PC veras que carga un APVCDX11RENDERDEVICE

Si abres el ejecutable tienes esa referencia que te indico más arriba pero también tienes otra que es APVCDX12RENDERDEVICE. Vamos que en ese juego ya han estado metiendolé mano a DX12.

Por cierto si el computo asincrono ya funciona sobre DX11 buscame un juego en DX11 que lo use. Solo te pido uno.

Te adelanto que solo vas a encontrar juegos con Mantle o GMN, pero tu busca y quitame la razón.
Se que no es algo común, pero sirve para ejemplificar que aún sin Dx12, es algo que se ha usado.

Probablemente, mediante extensiones, podrían usar otras características de DX12, aunque sería mucho más engorroso. A parte de que ya sería absurdo liarte a hacerlo cuando tienes DirectX 12 a la vuelta de la esquina.
Si tomb raider es de los primeros en usar toda la tecnología de One me voy frotando las manos porque el acabado gráfico es absolutamente brutal, lo que si espero es que sigan usando la tecnología que tiene en los juegos multis, ahí es donde más han de trabajar, ya que cada que sale una noticia de One a menos de 1080 se lía la de San Quintín.

Por ejemplo he visto que la beta de Division es prácticamente idéntica en las dos consolas con la misma resolución, puede ser un buen comienzo, lo que no se es si división usa todo el potencial o no, pero ya pinta mejor la cosa.

Un saludo!
PainKiller escribió:Se que no es algo común, pero sirve para ejemplificar que aún sin Dx12, es algo que se ha usado.

Probablemente, mediante extensiones, podrían usar otras características de DX12, aunque sería mucho más engorroso. A parte de que ya sería absurdo liarte a hacerlo cuando tienes DirectX 12 a la vuelta de la esquina.



Pero es que usar extensiones de DX12 es usar algo que no exitía como te hemos dicho ya 40 veces. Es igual que para usar calculo asincrono en PS4 necesitas usar GMN.

Si no existe ni GMN ni Mantle ni DX12 no existe cálculo asincrono.

Y te recuerdo quue microsoft tiene una versión recortada de DX12 que se llama DX11.3

http://wccftech.com/directx-11-3-api/

Que digan que en un juego no han usado DX12 no quiere decir que no hayan usado las funciones nuevas de esta API. Y siento decir que en XBOX ONE Rise of the tomb Raider usa funciones de DX12 como es ese computo asincrono.


Te dejo por caso perdido, sencillamente no quieres reconocer lo que hay.

@Jordi1986 Según la información que se maneja Tomb Raider es el segundo en utilizar computo asincrono y sin utilizar DX12 completo ( o sí y no lo dicen).

El primero fue Fable que si es DX12, si tienes la beta habrás visto lo quemueve ese juego.
Tomb Raider en PC actualmente usa HBAO+. En los proximos meses van a introducir una feature Dx12 de la mano de Nvidia VXAO. Dicha técnica consigue un resultado mejor con un rendimiento tmb mejor. Solo será para Dx12.1 (Maxwell)

http://wccftech.com/rise-of-the-tomb-ra ... -analysis/

Xbox One ya hace uso de una técnica basada en el mismo principio pero retocada para adaptarse mejor a ella. Por aqui ya hablamos de q One es Dx12.1. Estos datos parecen ir en ese camino.

http://m.christianpost.com/news/rise-of ... k62Z0W2.99
@PainKiller sí efectivamente la computación asíncrona se ha usado algo, y vemos resultados de ello. Con lo cual puede meterse en el grupo del "usar mejor" en lugar del "no se usaba". Ya que en este caso bajo DX11 la computación asíncrona es menos eficiente por su forma de trabajar, en la propia documentación (MSDN) hablaba de las diferencias, y bajo DX11 decía claramente que tú encolas las tareas, pero no se asegura que se vaya a ejecutar como esperas, es decir, que puede que encoles una computación asíncrona pero luego DX11 espere a que un render termine para ejecutarla. En DX12 sí se tiene más control sobre eso.

Lo que no se ha usado aún que especifica el Fable Legends es el render multi-hilo, y dada la dualidad de la GPU de XOne (una de 12CU dividida en 2 de 6CU) es posible que se le saque buen partido. Junto a una computación asíncrona esta vez sabiendo que sí se va a ejecutar como se espera (en DX12 con sus 3 colas) y render multi-hilo real (DX11 permite crear hilos pero al final todos acaban en el mismo comunicador en serie con la GPU, o sea que sirven de poco), a ver que tanto dan de sí 12CU usándose siempre la mayoría y apoyándose en cachés extras y demás.
.
Editado por denis74. Razón: flame
La arquitectura de ONE es una pasada, Microsoft se lo ha currado mucho, ahora faltan que sean las desarrolladoras quien se lo curren, y lo harán, con el tiempo siempre lo hacen.
Entrevista de hoy a Oxide, los de ashes of the singularity:

Si antes hablamos de la tipica mejora por ir puliendo con el tiempo y sus diferencias con los cambios radicales:

We’re not experts on the Xbox One, but I can tell you what my understanding is. There are two benefits with DirectX 12 that are performance related. It’s a lot lower CPU overhead. That’s important because the CPUs on the consoles are not powerful. You have many of them but each one is not powerful. You’ll get a huge CPS benefit if you were having trouble with that by using DirectX 12. The other thing that DirectX 12 really does it offers more support for advanced GPU features. And there’s not a great way of doing that at all on DX11. By enabling that on Xbox One you can get pretty big (word sounds like per, or perf? Can’t understand) improvements on consoles. There should be tangible benefits. It will take people a few years to acclimatize to how to program and get those benefits.


Ravi: Like you said, it reduces CPU overhead. Can this, for Xbox One in the long run, can it result in games pushing out more pixels or a better resolution or better FPS?

Dev Team: Sure. If you use synchronous compute feature, if you optimize your research transition barriers that you have direct control over for DirectX, there are things you can do that you have no way to analog in DX11. There’s potential for substantial performance improvements which could manifest in increased resolution and frame rate


http://gamingbolt.com/an-interview-with ... of-nitrous

Más claro que eso...

@Darksch @Painkiller
Horizonte de sucesos escribió:La arquitectura de ONE es una pasada, Microsoft se lo ha currado mucho, ahora faltan que sean las desarrolladoras quien se lo curren, y lo harán, con el tiempo siempre lo hacen.


Lo peligroso de una arquitectura adelantada a su tiempo es que las first (o third ayudadas por Microsoft como con el Rise of the Tomb Raider) creen juegos acorde al hardware customizado que es y que otras en cambio por vagancia o ahorro de costes lo hagan como si fuese un hardware convencional. Antecedentes de esto existen. Lo bueno es que los chapuceros quedaran en evidencia mas facilmente.
maz1nger escribió:
Horizonte de sucesos escribió:La arquitectura de ONE es una pasada, Microsoft se lo ha currado mucho, ahora faltan que sean las desarrolladoras quien se lo curren, y lo harán, con el tiempo siempre lo hacen.


Lo peligroso de una arquitectura adelantada a su tiempo es que las first (o third ayudadas por Microsoft como con el Rise of the Tomb Raider) creen juegos acorde al hardware customizado que es y que otras en cambio por vagancia o ahorro de costes lo hagan como si fuese un hardware convencional. Antecedentes de esto existen. Lo bueno es que los chapuceros quedaran en evidencia mas facilmente.


Con el tiempo siempre terminan aprovechando la arquitectura, los motores los adaptarán todos, aunque primero los grandes cómo el UE4.9 y CE que lo bueno es que luego los licencian a terceros. Pero con el tiempo todos se adaptan porque no es sólo ONE, son las nuevas arquitecturas de las nuevas GPUs y las nuevas APIs lo que obligan a evolucionar los motores.
Horizonte de sucesos escribió:La arquitectura de ONE es una pasada, Microsoft se lo ha currado mucho, ahora faltan que sean las desarrolladoras quien se lo curren, y lo harán, con el tiempo siempre lo hacen.


El problema principal de arriesgar con arquitecturas "no comunes" es que te salga el tiro por la culata al principio, que es lo que ha pasado en este caso.
Tambien, hay que señalar que por culpa de Kinect, no ha sido mas potente, y se decidió dejarla lo mas equilibrada podible. Una pena la verdad
Esto es solo un rumor sin ningún tipo de credibilidad:

Un usuario de beyond3d ha publicaco lo siguiente:

I think they are going to start letting Devs use second GCP now.I discussed this month's ago.That some time after next Xbox One OS is launched and dx12 was in the wild this would be next.

Multithreading the draw calls and use of the second GCP.Look at my post history to confirm.


Si miras su historial como pide y al que enlaza tiene lo siguiente:

En junio dijo esto:

Yes the second GCP is being used by OS and Snap functions.Microsoft is working towards opening up for low level priority instructions for games.It will not happen to the Xbox One Next OS is released.

That's why the whispers are 2016 and limited situations.

PS sorry I'm just now replying was waiting on my source at Redmond to get back in touch with me


If Shifty remembers there's a lot I leaked before launch.

GPU upclock Xbox One
CPU upclock Xbox One
I hinted at the flash in Xbox One
I also stated the PS4 had the same ram memory reserve with the flex of 512 mb.(But the post was deleted because it broke NDA)


Como digo es un rumor sin nigún tipo de credbilidad, yo al menos no he comprobado quien es el usuario y si de verdad acerto anteriormente. Pero quería hacerme eco, así además si realmente ocurre podremos seguirle la pista como fuente contrastada. De momento y voy a parecer pesado, no hay ninguna razón para pensar que es una fuente de fiar.
Phellan_Wolf escribió:
Horizonte de sucesos escribió:La arquitectura de ONE es una pasada, Microsoft se lo ha currado mucho, ahora faltan que sean las desarrolladoras quien se lo curren, y lo harán, con el tiempo siempre lo hacen.


El problema principal de arriesgar con arquitecturas "no comunes" es que te salga el tiro por la culata al principio, que es lo que ha pasado en este caso.
Tambien, hay que señalar que por culpa de Kinect, no ha sido mas potente, y se decidió dejarla lo mas equilibrada podible. Una pena la verdad


Es una apuesta de futuro, replicar la tecnología del futuro, con la tecnología actual.

Esto no es un problema, pues va a hacer crecer mucho a la máquina conforme la industria vaya creciendo. El problema que ha tenido es que usándola como arquitectura moderna y no nextgen ha rendido por abajo de lo esperado, aunque gran culpa ha sido de las herramientas de desarrollo.

Actualmente rinde a muy buen nivel. Podrían haber mantenido la arquitectura nextgen con componentes mas potentes y hubiese rendido mas hasta con los cutreports. Pero hay un tope de consumo y presupuesto.

Yo personalmente me queso con una arquitectura nextgen pero de lejos.
papatuelo escribió:Esto es solo un rumor sin ningún tipo de credibilidad:

Un usuario de beyond3d ha publicaco lo siguiente:

I think they are going to start letting Devs use second GCP now.I discussed this month's ago.That some time after next Xbox One OS is launched and dx12 was in the wild this would be next.

Multithreading the draw calls and use of the second GCP.Look at my post history to confirm.


Si miras su historial como pide y al que enlaza tiene lo siguiente:

En junio dijo esto:

Yes the second GCP is being used by OS and Snap functions.Microsoft is working towards opening up for low level priority instructions for games.It will not happen to the Xbox One Next OS is released.

That's why the whispers are 2016 and limited situations.

PS sorry I'm just now replying was waiting on my source at Redmond to get back in touch with me


If Shifty remembers there's a lot I leaked before launch.

GPU upclock Xbox One
CPU upclock Xbox One
I hinted at the flash in Xbox One
I also stated the PS4 had the same ram memory reserve with the flex of 512 mb.(But the post was deleted because it broke NDA)


Como digo es un rumor sin nigún tipo de credbilidad, yo al menos no he comprobado quien es el usuario y si de verdad acerto anteriormente. Pero quería hacerme eco, así además si realmente ocurre podremos seguirle la pista como fuente contrastada. De momento y voy a parecer pesado, no hay ninguna razón para pensar que es una fuente de fiar.

La credibilidad se comprueba fácil. Mira su historial, y comprueba que dijo esas cosas que dice antes que nadie.

En cualquier caso, suena interesante. ¿GCP es graphics command processor? ¿Qué función tendría en juegos?
David Ricardo escribió:
papatuelo escribió:Esto es solo un rumor sin ningún tipo de credibilidad:

Un usuario de beyond3d ha publicaco lo siguiente:

I think they are going to start letting Devs use second GCP now.I discussed this month's ago.That some time after next Xbox One OS is launched and dx12 was in the wild this would be next.

Multithreading the draw calls and use of the second GCP.Look at my post history to confirm.


Si miras su historial como pide y al que enlaza tiene lo siguiente:

En junio dijo esto:

Yes the second GCP is being used by OS and Snap functions.Microsoft is working towards opening up for low level priority instructions for games.It will not happen to the Xbox One Next OS is released.

That's why the whispers are 2016 and limited situations.

PS sorry I'm just now replying was waiting on my source at Redmond to get back in touch with me


If Shifty remembers there's a lot I leaked before launch.

GPU upclock Xbox One
CPU upclock Xbox One
I hinted at the flash in Xbox One
I also stated the PS4 had the same ram memory reserve with the flex of 512 mb.(But the post was deleted because it broke NDA)


Como digo es un rumor sin nigún tipo de credbilidad, yo al menos no he comprobado quien es el usuario y si de verdad acerto anteriormente. Pero quería hacerme eco, así además si realmente ocurre podremos seguirle la pista como fuente contrastada. De momento y voy a parecer pesado, no hay ninguna razón para pensar que es una fuente de fiar.

La credibilidad se comprueba fácil. Mira su historial, y comprueba que dijo esas cosas que dice antes que nadie.

En cualquier caso, suena interesante. ¿GCP es graphics command processor? ¿Qué función tendría en juegos?


Por eso lo pongo como rumor, xq no me apetece leer su historial y ver que lo que dijo lo dijo antes de que el rumor estuviera en la calle por otras fuentes.

La utilidad es liberar el GCP de alta prioridad. Según Dan Baker, Dx12 satura el GCP convirtiendose en el cuello de botella del sistema.
papatuelo escribió:Por eso lo pongo como rumor, xq no me apetece leer su historial y ver que lo que dijo lo dijo antes de que el rumor estuviera en la calle por otras fuentes.

La utilidad es liberar el GCP de alta prioridad. Según Dan Baker, Dx12 satura el GCP convirtiendose en el cuello de botella del sistema.

Ya, pues estaría bien que alguien comprobase eso para saber de qué estamos hablando. Si se confirma la fuente, podría ser una mejora real del rendimiento de la consola si como dices el GCP es el cuello de botella.
David Ricardo escribió:
papatuelo escribió:Por eso lo pongo como rumor, xq no me apetece leer su historial y ver que lo que dijo lo dijo antes de que el rumor estuviera en la calle por otras fuentes.

La utilidad es liberar el GCP de alta prioridad. Según Dan Baker, Dx12 satura el GCP convirtiendose en el cuello de botella del sistema.

Ya, pues estaría bien que alguien comprobase eso para saber de qué estamos hablando. Si se confirma la fuente, podría ser una mejora real del rendimiento de la consola si como dices el GCP es el cuello de botella.


Aquí tienes el enlace por si lo quieres comprobar tu:

https://forum.beyond3d.com/threads/dire ... 87/page-87
David Ricardo escribió:
papatuelo escribió:Por eso lo pongo como rumor, xq no me apetece leer su historial y ver que lo que dijo lo dijo antes de que el rumor estuviera en la calle por otras fuentes.

La utilidad es liberar el GCP de alta prioridad. Según Dan Baker, Dx12 satura el GCP convirtiendose en el cuello de botella del sistema.

Ya, pues estaría bien que alguien comprobase eso para saber de qué estamos hablando. Si se confirma la fuente, podría ser una mejora real del rendimiento de la consola si como dices el GCP es el cuello de botella.


Puedes repasar lo q dijo @pspskulls sobre el tema (él es dev y algo entiende).
Habló de tener dos lienzos, dos pinceles. Si luego tengo tiempo busco el enlace.
Szasz escribió:
David Ricardo escribió:
papatuelo escribió:Por eso lo pongo como rumor, xq no me apetece leer su historial y ver que lo que dijo lo dijo antes de que el rumor estuviera en la calle por otras fuentes.

La utilidad es liberar el GCP de alta prioridad. Según Dan Baker, Dx12 satura el GCP convirtiendose en el cuello de botella del sistema.

Ya, pues estaría bien que alguien comprobase eso para saber de qué estamos hablando. Si se confirma la fuente, podría ser una mejora real del rendimiento de la consola si como dices el GCP es el cuello de botella.


Puedes repasar lo q dijo @pspskulls sobre el tema (él es dev y algo entiende).
Habló de tener dos lienzos, dos pinceles. Si luego tengo tiempo busco el enlace.


pspskulls escribió:Bueno, dado el despropósito al que se está llegando en este hilo voy a explicar lo que significa el PDF famoso.

Primero unas preguntas y respuestas rápidas importantes para entender la explicación:
- ¿Tiene Xbox ONE doble GPU?: NO.
- ¿Reserva ONE CPs o CUs para el sistema?: NO.
- ¿Podemos tener una GPU que admita multihilo sin tener doble contexto gráfico?: SI. Podemos tener 2 CP pidiendo tareas a la GPU y la GPU irá realizando las tareas pero no simultáneamente (por ejemplo pensad en un núcleo de CPU de 2 hilos, lo que ejecutan no es simultáneo sino que los hilos cogen la capacidad de proceso según el otro hilo ya no lo necesita). Para que una GPU realice dos tareas GRÁFICAS en paralelo DEBE tener 2 contextos gráficos (no podemos pintar en un lienzo en dos puntos al mismo tiempo si no tenemos dos pinceles). Resalto gráficas porque una GPU puede realizar GPGPU al mismo tiempo que renderiza.

Aquí habláis desde la teoría pero no desde la práctica., y es por eso que no se entiende el porqué de la estructura de One. Para entender la tecnología hay que entender el rendering, el porqué y el cómo se hacen las distintas técnicas actuales y futuras. El factor determinante es el doble contexto gráfico. Ésto es MUY importante, la clave es la palabra "gráfico".

Un ejemplo muy sencillo de renderizado de sombras seria: CPU prepara y pide crear una sombra de un objeto, la GPU entra en juego y la genera. Y así sucesivamente por cada sombra. Hay que tener una cosa MUY clara, renderizar una sombra no necesita PARA NADA los 12 CUs de la consola, ni por tener 12 o 18 va a renderizarla más rápido, una sombra necesita una capacidad de cómputo determinada y que posiblemente con 1 única CU nos bastaría. El problema es que cuando se renderiza se OCUPA la GPU, por lo tanto aunque no necesitemos los 12 CUs, los 12 CUs se van a bloquear para poder pintar la sombra. Obviamente podemos distribuir los CUs, y decir que sólo queremos usar un máximo de CUs para renderizado, y el resto para GPGPU (y aprovechar así el tiempo de renderizado para sacar cómputo). Pero a la hora de renderizar y para los CUs asignados a renderizar TODOS quedan bloqueados.

A partir de aquí C es CPU y G es GPU. Si queremos generar 4 sombras tenemos:
C > G > C > G > C > G > C > G

¿Qué sucede en One?. Que al tener 2 contextos gráficos puede renderizar 2 sombras al mismo tiempo. Con lo que nos queda:

> G > G
C > C
> G > G

Esto es, ni más ni menos, que la mitad del tiempo. ¿Estamos duplicando en este caso el rendimiento gráfico de One?: SÍ. ¿Es One más potente por ello?: NO. La capacidad de cómputo de One es la misma solo que el rendimiento es el doble.

Otro ejemplo seria un engine gráfico basado en tiled forward (http://www.cse.chalmers.se/~olaolss/main_frame.php?contents=publication&id=tiled_shading). Esta implementación se basa en generar el frame final a base de tiles o porciones de pantalla pequeñas (pequeños rectángulos). A parte de las características negativas y positivas de ésta técnica (toda técnica tiene su lado bueno y su lado malo), a dónde quiero ir a parar es en el hecho en el que... teniendo 2 contextos gráficos simultáneos podemos dibujar 2 de esas porciones SIMULTÁNEAMENTE. Con lo que el resultado es que obtenemos el frame en la mitad del tiempo y por tanto doblamos el rendimiento. Aquí también quiero hacer incapié en otra característica única de One: su eSRAM. Dado que esta técnica no requiere de gran ancho de banda, lo que más le beneficia es una memoria RÁPIDA, es decir de bajísima latencia (no confundir RAPIDEZ con ANCHO DE BANDA, no tienen NADA que ver, la rapidez la determina el tiempo para que la memoria vuelva a estar disponible para una nueva petición y ahí importa la latencia, el ancho de banda sólo sirve para MOVER grandes cantidades de memoria de un punto A a un punto B). Quiero decir con esto que de aplicar esta técnica en ambas consolas, One ganaría por absoluta goleada. Pero si aplicamos técnicas más antiguas como un deferred engine PS4 tiene ventaja por su ancho de banda (y de aquí vienen las diferencias en multis hasta ahora en cuanto a resolución o framerate).

A todo esto hay que añadirle que One tiene Full HSA, es decir coherencia total de memoria, algo básico si tenemos más de un contexto gráfico y además GPGPU, porque sí, One puede renderizar dos cosas y hacer GPGPU AL MISMO TIEMPO y compartiendo la MISMA memoria. Y esto es MUY potente y da una serie de posibilidades únicas.

¿Bien... significa todo esto que One doblará su rendimiento?: NO. One doblará su rendimiento GRÁFICO en múltiples tareas gráficas pero el rendimiento GLOBAL de un juego no SÓLO depende de la GPU. Hay muchos otros factores: CPU, memoria, técnicas gráficas utilizadas...

Ahora bien, si a mi se me pregunta: ¿Cuánto crees en promedio que mejorará el rendimiento de One?. Sinceramente y, bajo MI opinión, One incrementará con DX12 el rendimiento entre un 50 a un 75%.

Sorry por el tocho y espero haber dejado bastantes cosas claras.
papatuelo escribió:
Aquí tienes el enlace por si lo quieres comprobar tu:

https://forum.beyond3d.com/threads/dire ... 87/page-87

Comprobado lo del overclocking de la GPU.

El 3 de julio de 2013 escribió esto:
My source at Microsoft says they are playing with overclocking the GPU at 900 MHz,and ESRAM to 900 mhz.The is talk of upping the memory to 12 gigs of ddr3 leaving 7 gigs for gaming and 5 for OS.The memory upgrade is being discussed because the 3 OS are clunky and taking up a lot of memory to run as smooth as they want it too!

They are waiting for the higher ups to give the go on it.The hold up I was told was they we not getting an consistency percentage on yields?

Y el overclocking creo que no se anunció oficialmente hasta el 2 de agosto.

Falla en la cantidad de Mhz del overclock y habla de un aumento de ram que no sucedió, pero es creible que estuviesen barajando esas opciones en ese momento y finalmente decidiesen hacer un aumento sensato en la velocidad de la GPU y CPU.

Mirando su historial tiene alguna cagada como decir que el COD Ghosts esperaba que fuese a 1080p en XBO, pero eso lo comentó como pensamiento suyo, no como alguien que tiene información confidencial.

Conclusión: No me he mirado todo su historial, pero lo que dijo del overclocking concuerda con alguien que tenga algún contacto currando en Microsoft.
Pero lo del 2º GCP es innato y va junto a DX12. Al permitir multi-hilo real ya puede usarse adecuadamente esa GPU partida en 2 para hacer 2 render a la vez. Es de suponer que para que ello funcione bien debería ser con un sistema de render tipo tiles. Es decir, ahora mismo se usa como una única "grande" y ahora se podría usar como 2 pequeñas. Supuestamente para no saturar un GCP. Eso ya se ha comentado y es parte del conjunto: 2 renders pipelines + async computing.
Usar toda la gráfica cómo una sola es fácil, la pregunta es si usarla cómo dos pequeñas para ganar rendimiento es facil, complicado o requiere de una modificación muy importante en los motores actuales.

Porque si es lo último podemos esperar tardar en ver a las thirds usar dicha función.
Mirad para que quede más claro, la idea es esta
https://youtu.be/BqaIfG5kJ8s

Lanzas tantos procesos de render como puedas, en este caso 2. Y cada "cuadrito" lo renderiza una media GPU compuesta por 6CU y sus GCP específicos y respectivos. No se puede comparar con el video donde cada núcleo sí que se suma en total al ser por software, hay que considerar que se pasa de 1x12CU a 2x6CU, pero liberando posibles cuellos de botella en la comunicación. El tile rendering no es tan novedoso, ya se usaba en X360 para poder usar AA en esos 10MB de eDRAM.

Nótese también que para renderizar un cuadrito de esos la capacidad de la eSRAM no supone ningún problema. Con lo cual puedes renderizar cualquier tamaño de framebuffer por partes usando una ínfima cantidad de framebuffer caché. Imagino que ya se va viendo por donde van los tiros.
17587 respuestas