Hablemos del interior de Xbox One

chris76 escribió:Si pero ese slider no solo compara los SA,esta comparando todo lo que aporta dx12 sobre dx11 y tampoco seria extrapolable entre una api abierta de pc a una api cerrada,mucho mas optimizada


No es solo calculo asincrono, claro que no, pero contribuye y lo sabes por más que ahora te hayas enzarzado en negarlo.

¿Donde está esa comparativa en la que el calculo asincrono demostraba que no mejoraba el rendimiento?

Diría que no existe y que te refieres precisamente a lo que yo he puesto.

En caso contrario, por favor posteala que los demás podamos verla.

Por otro lado API de PC o API de consola, si no usa una caracterítica pues sencillamente no la usa y si hay beneficio que se pueda extraer de su uso este se extraera en una u otra plataforma.

Eso de no mejora xq es close to metal se basaba precisamente en que ya se usaban todas las carácterísticas, pero evidentemente si estamos hablando de una que no se ha usado, no tiene ningún valor.

De hecho como ya he puesto más atrás en Unreal 4 ya se ha incorporado para su uso en Fable, de no servir para nada, si ya lo tenía y no ofrece beneficio, para que lo hacen.

Curioso, ¿no? El primer juego DX12 tiene pinta de ser el primero que va a incorporar está caracterítica. Es por eso, que el argumento de la API de consola en este caso tiene poco valor.
Ahora q papatuelo ha sacado el tema de drivers quería exponeros una cosa q me he dado cuenta hoy.

Resulta q llevaba unos días sin jugar al Forza 6 y se me ha actualizado. Bien, el caso es q el juego tenia un defecto gráfico q me sacaba de mis casillas. Desaparecían polígonos haciendo un efecto de q había jaggies como puños. Es un defecto q tenía toda la pinta de ser drivers o algo por el estilo (en PC me ha pasado cosas parecidas por tema de drivers). Hoy llevo jugando un buen rato y veo q el tema ha desaparecido, lo q hace la imagen mucho más limpia, dando sensación de q tiene mejor AA.

No se si alguno más se ha dado cuenta o únicamente me pasaba a mí. Siendo q Turn10 usó una API completamente modificada no me extraña q fuera algún problema de drivers. ¿A alguien más le ha pasado?
Lo de los drivers q yo he dicho era tontería, era la fecha.
@papatuelo,antes hablo mira que casualidad:

hilo_los-ultimos-drivers-dx12-de-nvidia-adelantan-a-amd-en-ashes-ots-incluso-sin-async-shaders_2129347

Que por supuesto que si se usan mejoran el rendimiento,pero tampoco es la panacea ni mucho menos,vamos que en que caso de que frosbyte los usara en one posiblemtete sobre mejorar algo el rendimiento seguiria en los 720p y a saber cuanto mejoraria el framerate
chris76 escribió:@papatuelo,antes hablo mira que casualidad:

hilo_los-ultimos-drivers-dx12-de-nvidia-adelantan-a-amd-en-ashes-ots-incluso-sin-async-shaders_2129347

Que por supuesto que si se usan mejoran el rendimiento,pero tampoco es la panacea ni mucho menos,vamos que en que caso de que frosbyte los usara en one posiblemtete sobre mejorar algo el rendimiento seguiria en los 720p y a saber cuanto mejoraria el framerate


Antes hablas y me vuelves a poner lo mismo de antes, que Nvidia es mejor que AMD aun sin computo asynchrono. Es exactamente el mismo tipo de Bench que te puse yo.

¿¿¿Y te vuelvo a preguntar AMD respecto a AMD mejora???

Has vuelto a lo mismo con un bench más reciente, pero esto es un bucle.

De hecho es aun más inservible, porque lo que hace es comparar el rendimiento de dos drivers no de dos APIS.


Nvidia ya rendía mejor en DX11 que AMD y sigue rindiendo mejor en DX12, pero el tema es,sin hablar de rendimiento neto, ¿cual experimenta una mayor mejora? Te recuerdo que las consolas no montan una nvidia así que lo que haga nvidia con o sin computo asyncrono poco influye. Centrate en lo que hace AMD.

Si bajo DX11 me sacas 40 frames y con DX12 me sacas 10 evidentemente sigo sin ser mejor que tu, pero DX12 me aporta más a mi que a ti. Así de sencillo

Te pregunto de nuevo, porque eso sería lo realmente importante, ¿dónde esta ese test que demostraba que el computo asynchrono no mejora el rendimiento de las gráficas? Acaso erá falso???
No cambies mis palabras,yo nunca e dicho que no mejore.sino que la mejora es muy pobre

Ahora,donde lo vi,pues ni idea,con la cantidad de paginas que visito,y mas esto que lo vi hace semanas,pero como digo,yo no tengo que convencer a nadie.solo es una opinion mas y cada uno que crea lo que quiera
chris76 escribió:No cambies mis palabras,yo nunca e dicho que no mejore.sino que la mejora es muy pobre

Ahora,donde lo vi,pues ni idea,con la cantidad de paginas que visito,y mas esto que lo vi hace semanas,pero como digo,yo no tengo que convencer a nadie.solo es una opinion mas y cada uno que crea lo que quiera


Yo he visto uno hace semanas en el que mejoraba un 900% y salia Santa Claus, pero no me acuerdo donde, visito muchas paginas y además soy un borracho...

Edito: pero es una opinión.
malosoxxx escribió:
chris76 escribió:No cambies mis palabras,yo nunca e dicho que no mejore.sino que la mejora es muy pobre

Ahora,donde lo vi,pues ni idea,con la cantidad de paginas que visito,y mas esto que lo vi hace semanas,pero como digo,yo no tengo que convencer a nadie.solo es una opinion mas y cada uno que crea lo que quiera


Yo he visto uno hace semanas en el que mejoraba un 900% y salia Santa Claus, pero no me acuerdo donde, visito muchas paginas y además soy un borracho...

Edito: pero es una opinión.

Pues me parece muy bien la verdad, ahora de cada uno depende que creerse o que no, esto no es un juicio en el que a cada cosa que se dice tengas que aportar pruebas irrefutables, es un foro de discusión, en el buen sentido
chris76 escribió:No cambies mis palabras,yo nunca e dicho que no mejore.sino que la mejora es muy pobre

Ahora,donde lo vi,pues ni idea,con la cantidad de paginas que visito,y mas esto que lo vi hace semanas,pero como digo,yo no tengo que convencer a nadie.solo es una opinion mas y cada uno que crea lo que quiera


Esto es lo que dijiste.

chris76 escribió:@papatuelo,que en un futuro pueda dar una mejora no digo que no,pero se comparo su uso a dia de hoy entre una grafica amd compatble y una nvidia que no lo son y la diferencia de rendimiento era ridicula

Asi que aunque se use en ps4 y no en one,por lo visto tampoco es nada determinante ni mucho menos


Ok, no diré ninguna, diré ridicula.

No hace falta que aportes la página donde lo viste, te ahorro trabajo. Esa comparación entre usar y no usar computo asincrono no existe. Así de sencillo, puedes poner internet patas arriba que no lo vas a encontrar. Creo y no estoy seguro que el único que ha dado una cifrá exacta fue Brad Wardell, que de poco nos sirve proque en este foro no se acepta como fuente valida, y hablo de un 30% creo recordar. Si quieres busco la fuente, yo cuando digo que hay fuente es que la hay.

Lo más aproximado a eso son las comparativas AMD vs Nvidia, y esas lo que demuestran es precisamente lo contrario. AMD con cálculo asíncrono experimenta una mejora en ocasiones de casi el 100% mientas nvidia se queda en el 20% y gracias. Asi que atendiendo a tus propias pruebas, sí que mejora y mucho. Sin embargo como tu mismo has indicado no es concluyente, esas pruebas se realizan sin explicitar qué features de DX12 son las que producen qué tanto por ciento de mejor.

Hasta ahora todo lo que has aportado demuestra que inicialmente no tenías ni idea de lo que estabas diciendo y que estabas mezcalando conceptos, cosa que has demostrado al reiterar ese Nvidia vs AMD.

Si tienes algo que aportar, te lo agradecería infinito.

Sin embargo vi algo de lo que no me acuerdo en un sitio que no recuedo hace unos días, es lo mismo que no decir nada o peor, porque demuestra que lo único que persigues es llevar razón aun sin tener ni fundamentos de ello.

Lo dicho, única fuente existente al respecto Brad Wardell, al menos que yo conozca.
Si,la comparativa entre usar o no puede que la viera entre una amd que si y una nvidia que no lo usa,y la diferencia como ya dije.era ridicula
chris76 escribió:Si,la comparativa entre usar o no puede que la viera entre una amd que si y una nvidia que no lo usa,y la diferencia como ya dije.era ridicula


No tiene ningún sentido lo que estás diciendo.

Pero que veas esto:

Imagen

En el que una AMD consigue casi un 100% de beneficio y Nvidia si llega al 10% es llorando y sigas diciendo que como Nvidia supera en DX12 a AMD es que los shader asinccronos no ayudan a nada tiene delito. Como ya he dicho puede que la mejoría no se deba a los shaders asincronos, pero es que las relaciones que estás utilizando no podrían tener menos que ver con la idea que quieres transmitir.

Es como si digo que un coche con un turbo no tiene más potencia que un atmosférico porque los formula uno, cuando eran atmosféricos, tenían más potencia que cualquier coche de calle con un turbo, estás haciendo exactamente lo mismo.

Puede que al final los shader asincronos no aporten nada, puede, por qué no. Pero eso no quita que lo que estás diciendo no tenga absolutamente ni el más mínimo ni remoto sentido, cero patatero para que me entiendas.
El tema de DX12 y nVidia, se dice que aunque el driver permite computo asíncrono las GPUs no lo hacen y todo esta gestionado por software. Luego también se comentaba algo de las colas de comandos, que parece que AMD duplica a las de nVidia.
system32 escribió:El tema de DX12 y nVidia, se dice que aunque el driver permite computo asíncrono las GPUs no lo hacen y todo esta gestionado por software. Luego también se comentaba algo de las colas de comandos, que parece que AMD duplica a las de nVidia.


Pero es que nvidia aquí no pinta nada, el tema es, ¿rinde las AMD mejor en DX12 que en DX11?

La respuesta es claramente sí.

¿Eso indica que es gracias al computo asincrono? Claramente no, pero tampoco se puede concluir si el beneficio es pequeño o grande.

¿El hecho de que las gráficas NVIDIA sean más potentes que las AMD indica que las AMD no mejoran usando el computo asincrono? Ni remotamente, lo uno no tiene que ver con lo otro.

Eso es lo único que estoy diciendo, que aquí ha venido alguien y ha dicho: El computo asincrono está demostrado que aporta un beneficio ridículo porque lo he visto en una página web. Y eso sencillamente es erroneo.

Y repito que puede que finalmente no aporte nada, yo desde luego no lo sé, pero eso no querra decir que ese argumento que se usa es valido.

Es como si me dicen por esa puerta va a salir una chica, ¿de qué color será su vestido? Y yo digo, azul por que los pajaros nacen de huevos. Si cuando la chica sale el vestido es azul, no quiere decir que mi razonamiento fuera correcto.

PD: A ver si llegan las nueve y me pongo con el Fable [hallow]
Rendir, rendirá, hay que acordarse que DX12 viene a quitar el overhead que tuve la API hasta ahora. Ahora es como tu dices, hasta que no se saque un test donde los shaders asíncronos están on y off poco sabes cuanta ganancia se obtiene gracias a ellos.

EDITO: Mira esto, parece que dicen que puede haber hasta un 40% de rendimiento, aunque supongo que esta mas ligado a DX12 ese incremento que realmente al computo asíncrono.
http://www.anandtech.com/show/9124/amd- ... us-shading
Esto es lo que comentaba Sebbbi (desarrollador de Redlynx-Ubisoft) en los foros de Beyond3d, acerca del cómputo asíncrono :

"...If someone wonders why the G-buffer only uses 18 MB of ESRAM, the answer is: we are doing lighting, post processing, VT page generation and particle rendering using async compute in the background. Only culling + g-buffer draws + shadow draws are in the render pipeline. Everything else is async compute. This gives us huge perf gains. Unfortunately I had only a 25 minute slot, meaning that I had to remove all my async compute slides. "

Esta respuesta era para complementar una presentación que hizo él mismo en SIGGRAPH 2015.

Parece que el async compute sí que va a traer grandes beneficios, además de que permite liberar la ESRAM de ciertas tareas, lo que imagino que será positivo también
aelio escribió:Esto es lo que comentaba Sebbbi (desarrollador de Redlynx-Ubisoft) en los foros de Beyond3d, acerca del cómputo asíncrono :

"...If someone wonders why the G-buffer only uses 18 MB of ESRAM, the answer is: we are doing lighting, post processing, VT page generation and particle rendering using async compute in the background. Only culling + g-buffer draws + shadow draws are in the render pipeline. Everything else is async compute. This gives us huge perf gains. Unfortunately I had only a 25 minute slot, meaning that I had to remove all my async compute slides. "

Esta respuesta era para complementar una presentación que hizo él mismo en SIGGRAPH 2015.

Parece que el async compute sí que va a traer grandes beneficios, además de que permite liberar la ESRAM de ciertas tareas, lo que imagino que será positivo también


Que gran aporte tío.

Muchas gracias.
papatuelo escribió:
aelio escribió:Esto es lo que comentaba Sebbbi (desarrollador de Redlynx-Ubisoft) en los foros de Beyond3d, acerca del cómputo asíncrono :

"...If someone wonders why the G-buffer only uses 18 MB of ESRAM, the answer is: we are doing lighting, post processing, VT page generation and particle rendering using async compute in the background. Only culling + g-buffer draws + shadow draws are in the render pipeline. Everything else is async compute. This gives us huge perf gains. Unfortunately I had only a 25 minute slot, meaning that I had to remove all my async compute slides. "

Esta respuesta era para complementar una presentación que hizo él mismo en SIGGRAPH 2015.

Parece que el async compute sí que va a traer grandes beneficios, además de que permite liberar la ESRAM de ciertas tareas, lo que imagino que será positivo también


Que gran aporte tío.

Muchas gracias.

[oki]
aelio escribió:
papatuelo escribió:
aelio escribió:Esto es lo que comentaba Sebbbi (desarrollador de Redlynx-Ubisoft) en los foros de Beyond3d, acerca del cómputo asíncrono :

"...If someone wonders why the G-buffer only uses 18 MB of ESRAM, the answer is: we are doing lighting, post processing, VT page generation and particle rendering using async compute in the background. Only culling + g-buffer draws + shadow draws are in the render pipeline. Everything else is async compute. This gives us huge perf gains. Unfortunately I had only a 25 minute slot, meaning that I had to remove all my async compute slides. "

Esta respuesta era para complementar una presentación que hizo él mismo en SIGGRAPH 2015.

Parece que el async compute sí que va a traer grandes beneficios, además de que permite liberar la ESRAM de ciertas tareas, lo que imagino que será positivo también


Que gran aporte tío.

Muchas gracias.

[oki]


Además que daje bien claro que eso de que la consola no puede ir a1080p porque no son suficientes 32 megas es sencillamente un error.

Imagen
Quizá se ha comentado antes, pero mirando la documentación del Unreal Engine 4.9 parece que el motor ha añadido el soporte para el cómputo asíncrono recientemente, y lo han hecho gracias a Lionhead Studios, que lo ha implementado durante el desarrollo de Fable Legends:

Parece que por ahora sólo está disponible para Xbox One, aunque me imagino que pronto darán soporte a otras plataformas.

De todas formas, en mi opinión, esto viene a confirmar lo que se ha comentado muchas veces, y es que los motores gráficos también se tienen que adaptar a las nuevas características que trae DX12
aelio escribió:Quizá se ha comentado antes, pero mirando la documentación del Unreal Engine 4.9 parece que el motor ha añadido el soporte para el cómputo asíncrono recientemente, y lo han hecho gracias a Lionhead Studios, que lo ha implementado durante el desarrollo de Fable Legends:

Parece que por ahora sólo está disponible para Xbox One, aunque me imagino que pronto darán soporte a otras plataformas.

De todas formas, en mi opinión, esto viene a confirmar lo que se ha comentado muchas veces, y es que los motores gráficos también se tienen que adaptar a las nuevas características que trae DX12


Eso es exactamente lo que dije al principio de esta discusión, con le mismo ejempo y todo del Unreal 4.9 y el Fable [+risas]

Me gusta como piensas [beer]

Solo una cosa, creo que eso de que haya añadido el cómputo asíncrono en one en la 4.9 no quiere decir que solo One lo soporte. De hecho creo que lo que indica es que One era la única que hasta el 4.9 no lo soportaba.

Existen juegos con unreal 3, tanto en PC como en otras consolas, que ya lo usaban.

Y hablando de la iluminación, fable y computo refresco un twitt:

Imagen
¿eso significa que al final la one puede mejorar graficamente y puede mejorar algo respecto a la ps4?
sev39lora escribió:¿eso significa que al final la one puede mejorar graficamente y puede mejorar algo respecto a la ps4?


Son dos preguntas diferentes.

Mi opinión es que ONE puede mejorar y bastante, si puede ponerse a la altura de otras plataformas o incluso superarlas eso ya no te sabría decir. Sigo bastante la actualidad de XBOX ONE, pero no así de PS4. PS4 también se beneficiará de todas estas cosas, eso seguro.

Mi opinión siempre ha sido que terminarán siendo practicamente iguales, pero eso es solo una opinión
Tenia entendido que la ESRAM se podía usar para cualquier cosa, me parece raro que digan eso de solo para render targer. Y que de echo se usaba mucho para resultados intermedios o cualquier cosa sobre la cual se tenia que iterar, etc. Como otro nivel de cache, me parece muy raro ese tweet.
system32 escribió:Tenia entendido que la ESRAM se podía usar para cualquier cosa, me parece raro que digan eso de solo para render targer. Y que de echo se usaba mucho para resultados intermedios o cualquier cosa sobre la cual se tenia que iterar, etc. Como otro nivel de cache, me parece muy raro ese tweet.

Yo lo del Tweet lo entiendo mas en plan como nos ha sobrado ESRAM, ya que no hemos usado toda para los render targets, pues la hemos usado para mas cosas.
sev39lora escribió:¿eso significa que al final la one puede mejorar graficamente y puede mejorar algo respecto a la ps4?

Mira halo5 que deja en ridiculo a star wars en xbox one,lo que pasa que hay que querer hacerlo.
cercata escribió:
system32 escribió:Tenia entendido que la ESRAM se podía usar para cualquier cosa, me parece raro que digan eso de solo para render targer. Y que de echo se usaba mucho para resultados intermedios o cualquier cosa sobre la cual se tenia que iterar, etc. Como otro nivel de cache, me parece muy raro ese tweet.

Yo lo del Tweet lo entiendo mas en plan como nos ha sobrado ESRAM, ya que no hemos usado toda para los render targets, pues la hemos usado para mas cosas.


Si quieres te pongo uno de mis papers q si controlas te puede resultar muy interesante.

Y ya q te pines me lo explicas [+risas]
Morepawer está baneado por "hater, flames y clones"
Perdona @papatuelo pero esa imagen dice mas de lo que parece!!!! Sino lo he entendido mal sería posible juegos en X1 1080p con 8XMSAA o lo que es lo mismo, 4k sin MSAA.

[fumando]

Y luego tenemos los DEV perezosos con B4 con skins de Star Wars a 720p!!!! [qmparto] [qmparto] [qmparto]
Noto cierto resentimiento contra la gente de DICE por el tema de la resolucion del Battlefront y la verdad es que no entiendo por que.

Para mi es uno de los juegos mas punteros tecnicamente de la actualidad, y el unico problema es que el juego corre a una resolucion menor a la de "la otra". Vamos, no me parece algo tan criticable cuando hay muchos juegos en los que pasa esto. Ademas, la diferencia de resolucion con el upscale y el anti-aliasing no se nota apenas, verdad?

Otra cosa es el tema de no usar Async compute en la One, pero vamos es mas de lo mismo, se le exige a una third party lo que casi nadie esta utilizando todavia (incluidos juegos de MS).

Para mi el juego pinta estupendamente en sus tres versiones y no me parece nada para criticar a la desarrolladora.

Un saludo!
No. Se trata de que se vea bien, no de mantener una diferencia con otra maquina. Y 720p hoy no es aceptable en estas maquinas, asi como 900p si lo es. Hay mucho mas diferencia a la vista en ese salto que en el siguiente.
Yo no entiendo mucho de ésto, vengo siguiendo el tema porque leo a gente que sabe de que va la cosa y me gusta aprender, pero sí es cierto que a los ojos de los que no entendemos mucho, vemos ciertas diferencias. Ya no entro en detalles porque me van a conestar con argumentos que no es que no me valgan, simplemente que no los voy a entender pero si puedo decir que puntualmente hablando de Battlefield, he jugado en las 3 plataformas y en la One se nota un bajón de calidad enorme. Y ojo, que he vendido mi ps4 para comprarme la One y estoy encantadísimo, por suerte valoré otros aspectos de los cuales no me arrepiento por nada, pero las cosas como son, o al menos como muchos las vemos.
argam escribió:Noto cierto resentimiento contra la gente de DICE por el tema de la resolucion del Battlefront y la verdad es que no entiendo por que.

Para mi es uno de los juegos mas punteros tecnicamente de la actualidad, y el unico problema es que el juego corre a una resolucion menor a la de "la otra". Vamos, no me parece algo tan criticable cuando hay muchos juegos en los que pasa esto. Ademas, la diferencia de resolucion con el upscale y el anti-aliasing no se nota apenas, verdad?

Otra cosa es el tema de no usar Async compute en la One, pero vamos es mas de lo mismo, se le exige a una third party lo que casi nadie esta utilizando todavia (incluidos juegos de MS).

Para mi el juego pinta estupendamente en sus tres versiones y no me parece nada para criticar a la desarrolladora.

Un saludo!


Para mi personalmente si es muy criticable que a finales de 2015, con 2 años de vida de la consola, con la mejora de los kits de desarrollo, con la liberación de potencia de la consola, etc ... saquen un juego a 720P, de hecho creo que NINGUNA otra compañía a estas alturas de la película saca un juego en ONE por debajo de 900P.

En cuanto a lo del reescalador, el de la Xbox One es muy bueno pero milagros no hace. En juegos a 900P como el Ryse yo no soy capaz a simple vista de decirte que el juego no vaya a 1080P porque la consola hace un trabajo magnífico, pero los 720P si que se notan. En la beta del Star Wars probé las 3 versiones Xbox One y PC con todo al máximo a 1080P en casa y la de PS4 en casa de un amigo y se nota mucho la diferencia.

Que en 2 años no hayan sido capaces de optimizar su motor gráfico desde que lanzaron el Battlefield 4 dice muy poco a su favor, que ya no te digo que el juego tuviera que ir a 1080P, pero creo que a estas alturas de la película lo mínimo exigible son 900P como están demostrando el resto de desarrolladoras que se puede conseguir perfectamente con Xbox One, y no sólo esos 900P ya que cada vez son más los juegos a 1080P.
Morepawer está baneado por "hater, flames y clones"
argam escribió:Noto cierto resentimiento contra la gente de DICE por el tema de la resolucion del Battlefront y la verdad es que no entiendo por que.

Para mi es uno de los juegos mas punteros tecnicamente de la actualidad, y el unico problema es que el juego corre a una resolucion menor a la de "la otra". Vamos, no me parece algo tan criticable cuando hay muchos juegos en los que pasa esto. Ademas, la diferencia de resolucion con el upscale y el anti-aliasing no se nota apenas, verdad?

Otra cosa es el tema de no usar Async compute en la One, pero vamos es mas de lo mismo, se le exige a una third party lo que casi nadie esta utilizando todavia (incluidos juegos de MS).

Para mi el juego pinta estupendamente en sus tres versiones y no me parece nada para criticar a la desarrolladora.

Un saludo!


Un battlefield 4 con skins de STAR WARS es un juego de los mas punteros de la actualidad!!!

[qmparto]

[facepalm]
dunkam82 escribió:
argam escribió:Noto cierto resentimiento contra la gente de DICE por el tema de la resolucion del Battlefront y la verdad es que no entiendo por que.

Para mi es uno de los juegos mas punteros tecnicamente de la actualidad, y el unico problema es que el juego corre a una resolucion menor a la de "la otra". Vamos, no me parece algo tan criticable cuando hay muchos juegos en los que pasa esto. Ademas, la diferencia de resolucion con el upscale y el anti-aliasing no se nota apenas, verdad?

Otra cosa es el tema de no usar Async compute en la One, pero vamos es mas de lo mismo, se le exige a una third party lo que casi nadie esta utilizando todavia (incluidos juegos de MS).

Para mi el juego pinta estupendamente en sus tres versiones y no me parece nada para criticar a la desarrolladora.

Un saludo!


Para mi personalmente si es muy criticable que a finales de 2015, con 2 años de vida de la consola, con la mejora de los kits de desarrollo, con la liberación de potencia de la consola, etc ... saquen un juego a 720P, de hecho creo que NINGUNA otra compañía a estas alturas de la película saca un juego en ONE por debajo de 900P.

En cuanto a lo del reescalador, el de la Xbox One es muy bueno pero milagros no hace. En juegos a 900P como el Ryse yo no soy capaz a simple vista de decirte que el juego no vaya a 1080P porque la consola hace un trabajo magnífico, pero los 720P si que se notan. En la beta del Star Wars probé las 3 versiones Xbox One y PC con todo al máximo a 1080P en casa y la de PS4 en casa de un amigo y se nota mucho la diferencia.

Que en 2 años no hayan sido capaces de optimizar su motor gráfico desde que lanzaron el Battlefield 4 dice muy poco a su favor, que ya no te digo que el juego tuviera que ir a 1080P, pero creo que a estas alturas de la película lo mínimo exigible son 900P como están demostrando el resto de desarrolladoras que se puede conseguir perfectamente con Xbox One, y no sólo esos 900P ya que cada vez son más los juegos a 1080P.


Totalmente de acuerdo.
Morepawer escribió:
argam escribió:Noto cierto resentimiento contra la gente de DICE por el tema de la resolucion del Battlefront y la verdad es que no entiendo por que.

Para mi es uno de los juegos mas punteros tecnicamente de la actualidad, y el unico problema es que el juego corre a una resolucion menor a la de "la otra". Vamos, no me parece algo tan criticable cuando hay muchos juegos en los que pasa esto. Ademas, la diferencia de resolucion con el upscale y el anti-aliasing no se nota apenas, verdad?

Otra cosa es el tema de no usar Async compute en la One, pero vamos es mas de lo mismo, se le exige a una third party lo que casi nadie esta utilizando todavia (incluidos juegos de MS).

Para mi el juego pinta estupendamente en sus tres versiones y no me parece nada para criticar a la desarrolladora.

Un saludo!


Un battlefield 4 con skins de STAR WARS es un juego de los mas punteros de la actualidad!!!

[qmparto]

[facepalm]


¿Podrías decirme un juego multijugador de al menos 20 vs 20 que sea mejor técnicamente?
Morepawer escribió:
argam escribió:Noto cierto resentimiento contra la gente de DICE por el tema de la resolucion del Battlefront y la verdad es que no entiendo por que.

Para mi es uno de los juegos mas punteros tecnicamente de la actualidad, y el unico problema es que el juego corre a una resolucion menor a la de "la otra". Vamos, no me parece algo tan criticable cuando hay muchos juegos en los que pasa esto. Ademas, la diferencia de resolucion con el upscale y el anti-aliasing no se nota apenas, verdad?

Otra cosa es el tema de no usar Async compute en la One, pero vamos es mas de lo mismo, se le exige a una third party lo que casi nadie esta utilizando todavia (incluidos juegos de MS).

Para mi el juego pinta estupendamente en sus tres versiones y no me parece nada para criticar a la desarrolladora.

Un saludo!


Un battlefield 4 con skins de STAR WARS es un juego de los mas punteros de la actualidad!!!

[qmparto]

[facepalm]


Empezando porque el primer Battlefront salió a la venta bastante antes que ningun Battlefield, pasando porque han mejorado la fluidez del motor (al menos en ONE) y terminando porque jugablemente (como shooters) estan en las antípodas uno de otro se podría decir que si, que son igualitos.

[qmparto]

[facepalm]
Morepawer escribió:Perdona @papatuelo pero esa imagen dice mas de lo que parece!!!! Sino lo he entendido mal sería posible juegos en X1 1080p con 8XMSAA o lo que es lo mismo, 4k sin MSAA.

[fumando]

Y luego tenemos los DEV perezosos con B4 con skins de Star Wars a 720p!!!! [qmparto] [qmparto] [qmparto]



Esa imagen DICE mucho en muy poco espacio.
@system32 estás confundiendo API con funcionamiento interno. DX12 no es coger las funciones DX11...() y cambiarles el nombre a DX12...() y por eso ya a correr más, también cambia totalmente la forma de escribir los códigos. En DX11 usas sus funciones y toda la gestión de recursos la hace la API internamente (con clara falta de eficiencia), en DX12 la gestión corre a cargo del propio programa. Es decir puedes tener un DX11 optimizado para la consola y tal pero la forma de trabajar es completamente distinta entre DX11 y DX12, por lo que con DX11 por muy close-to-the-metal que trabaje internamente no puedes hacer lo mismo que con DX12 simplemente porque no lo permite.

A ver si esto te sirviera, es algo de lectura pero bueno para quien le interese:
https://msdn.microsoft.com/en-us/library/windows/desktop/dn899228(v=vs.85).aspx
https://msdn.microsoft.com/en-us/library/windows/desktop/dn899194(v=vs.85).aspx

La eSRAM puede usarse para cualquier cosa, el único límite es que es sólo accesible por la GPU. Por lo que puede usarse para RT, computación, etc.

Se quiera o no el Frostbite sigue desfasado en XOne, salta claramente. Hay un hecho muy simple que lo denota, en PC/PS4 usa async shaders desde el BF4, en XOne no lo usa ni en este Star Wars, que ya han tenido tiempo, pero nada.
Morepawer escribió:
argam escribió:Noto cierto resentimiento contra la gente de DICE por el tema de la resolucion del Battlefront y la verdad es que no entiendo por que.

Para mi es uno de los juegos mas punteros tecnicamente de la actualidad, y el unico problema es que el juego corre a una resolucion menor a la de "la otra". Vamos, no me parece algo tan criticable cuando hay muchos juegos en los que pasa esto. Ademas, la diferencia de resolucion con el upscale y el anti-aliasing no se nota apenas, verdad?

Otra cosa es el tema de no usar Async compute en la One, pero vamos es mas de lo mismo, se le exige a una third party lo que casi nadie esta utilizando todavia (incluidos juegos de MS).

Para mi el juego pinta estupendamente en sus tres versiones y no me parece nada para criticar a la desarrolladora.

Un saludo!


Un battlefield 4 con skins de STAR WARS es un juego de los mas punteros de la actualidad!!!

[qmparto]

[facepalm]


A este tipo de comentarios es a lo que me referia con mi mensaje. El juego va a 720p y lo unico que hay que hacer es echar mierda porque si.

A nivel tecnico hay muchas cosas interesantes en este juego, y sigo pensando que graficamente es de lo mejor. En vez de hacer una valoracion superficial comparalo con juegos similares y mirate algunas reviews tecnicas de las que hay por ahi. Si no quieres buscar aqui te pongo una que esta muy bien:

https://www.youtube.com/watch?v=JPCku0IFVkQ

Un saludo!
argam escribió:[...]
A este tipo de comentarios es a lo que me referia con mi mensaje. El juego va a 720p y lo unico que hay que hacer es echar mierda porque si.

A nivel tecnico hay muchas cosas interesantes en este juego, y sigo pensando que graficamente es de lo mejor. En vez de hacer una valoracion superficial comparalo con juegos similares y mirate algunas reviews tecnicas de las que hay por ahi. Si no quieres buscar aqui te pongo una que esta muy bien:

https://www.youtube.com/watch?v=JPCku0IFVkQ

Un saludo!


OFFTOPIC:
Si precisamente donde mas cojea el juego es en apartado tecnico: popping de texturas, sombras que van y vienen, 720p... y en innovacion, ya no digamos: los powerups en mitad de partida, cogidos de COD:AW, los 'aviones' (XWing y Tie-Fighter) prestados de Battlefield, tambien veo ideas de TitanFall...

El ultimo juego que INNOVO en los FPS fue TitanFall. Este SW:BF no es mas que un pack de texturas, modelos, mapas y sonidos para Battlefield4. No innova jugable ni tecnicamente EN NADA.

Seria un Juego que de no ser por la licencia de StarWars, estaria en 5 meses en el Vault de EA Access, como el hardline.

¿Que los fans de StarWars estan muy ilusionados y les gusta mucho el juego? Ok, bien por ellos, pero el juego no es mas que un shooter generico.
f5inet escribió:
argam escribió:[...]
A este tipo de comentarios es a lo que me referia con mi mensaje. El juego va a 720p y lo unico que hay que hacer es echar mierda porque si.

A nivel tecnico hay muchas cosas interesantes en este juego, y sigo pensando que graficamente es de lo mejor. En vez de hacer una valoracion superficial comparalo con juegos similares y mirate algunas reviews tecnicas de las que hay por ahi. Si no quieres buscar aqui te pongo una que esta muy bien:

https://www.youtube.com/watch?v=JPCku0IFVkQ

Un saludo!


OFFTOPIC:
Si precisamente donde mas cojea el juego es en apartado tecnico: popping de texturas, sombras que van y vienen, 720p... y en innovacion, ya no digamos: los powerups en mitad de partida, cogidos de COD:AW, los 'aviones' (XWing y Tie-Fighter) prestados de Battlefield, tambien veo ideas de TitanFall...

El ultimo juego que INNOVO en los FPS fue TitanFall. Este SW:BF no es mas que un pack de texturas, modelos, mapas y sonidos para Battlefield4. No innova jugable ni tecnicamente EN NADA.

Seria un Juego que de no ser por la licencia de StarWars, estaria en 5 meses en el Vault de EA Access, como el hardline.

¿Que los fans de StarWars estan muy ilusionados y les gusta mucho el juego? Ok, bien por ellos, pero el juego no es mas que un shooter generico.


Suscribo todas y cada una de tus palabras.
argam escribió:y el unico problema es que el juego corre a una resolución menor a la de "la otra".

¿ Si en la otra fuese también a 720p crees que no habría quejas ?

Y luego claro, si le sumas la escasez de mapas, pues la gente perdona menos cosas como los 720p ...

PD: Por cierto, en la beta solo había un desierto y un mapa nevado, ya veremos como lucen esos bosques punteros que enseñaron en el primer trailer ...
argam escribió:Noto cierto resentimiento contra la gente de DICE por el tema de la resolucion del Battlefront y la verdad es que no entiendo por que.

Para mi es uno de los juegos mas punteros tecnicamente de la actualidad, y el unico problema es que el juego corre a una resolucion menor a la de "la otra". Vamos, no me parece algo tan criticable cuando hay muchos juegos en los que pasa esto. Ademas, la diferencia de resolucion con el upscale y el anti-aliasing no se nota apenas, verdad?

Otra cosa es el tema de no usar Async compute en la One, pero vamos es mas de lo mismo, se le exige a una third party lo que casi nadie esta utilizando todavia (incluidos juegos de MS).

Para mi el juego pinta estupendamente en sus tres versiones y no me parece nada para criticar a la desarrolladora.

Un saludo!

Me puedes decir que tiene de puntero con el battlefield que salio hace casi 3 años? Por que yo juraría que exactamente el mismo motor......en tres años lo único que han hecho es hacer los addons del hardline y el battlefront, para vendertelos como juegos independientes, joder si hasta tiene los mismos fallos gráficos de los dos mencionados anteriormente. No han sido capaces de ponerlo ni a 900p. Yo terminaré comprándolo por que soy fan de la saga. Pero que no me digan que han hecho algo con el motor por que me parto la polla.

P.d: digo lo mismo que el compañero, a ver como luce endor.
f5inet escribió:
argam escribió:[...]
A este tipo de comentarios es a lo que me referia con mi mensaje. El juego va a 720p y lo unico que hay que hacer es echar mierda porque si.

A nivel tecnico hay muchas cosas interesantes en este juego, y sigo pensando que graficamente es de lo mejor. En vez de hacer una valoracion superficial comparalo con juegos similares y mirate algunas reviews tecnicas de las que hay por ahi. Si no quieres buscar aqui te pongo una que esta muy bien:

https://www.youtube.com/watch?v=JPCku0IFVkQ

Un saludo!


OFFTOPIC:
Si precisamente donde mas cojea el juego es en apartado tecnico: popping de texturas, sombras que van y vienen, 720p... y en innovacion, ya no digamos: los powerups en mitad de partida, cogidos de COD:AW, los 'aviones' (XWing y Tie-Fighter) prestados de Battlefield, tambien veo ideas de TitanFall...

El ultimo juego que INNOVO en los FPS fue TitanFall. Este SW:BF no es mas que un pack de texturas, modelos, mapas y sonidos para Battlefield4. No innova jugable ni tecnicamente EN NADA.

Seria un Juego que de no ser por la licencia de StarWars, estaria en 5 meses en el Vault de EA Access, como el hardline.

¿Que los fans de StarWars estan muy ilusionados y les gusta mucho el juego? Ok, bien por ellos, pero el juego no es mas que un shooter generico.


Osea que migrar el motor grafico a utilizar uno basado en PBR no es un avance tecnico importante...

Y no es por ser de Star Wars ni nada, simplemente que a mi, y a mucha gente incluido alguno que se dedica a analizar tecnicamente juegos, nos parece que tecnicamente es muy bueno.

Un saludo!
darksch escribió:@system32 estás confundiendo API con funcionamiento interno. DX12 no es coger las funciones DX11...() y cambiarles el nombre a DX12...() y por eso ya a correr más, también cambia totalmente la forma de escribir los códigos. En DX11 usas sus funciones y toda la gestión de recursos la hace la API internamente (con clara falta de eficiencia), en DX12 la gestión corre a cargo del propio programa. Es decir puedes tener un DX11 optimizado para la consola y tal pero la forma de trabajar es completamente distinta entre DX11 y DX12, por lo que con DX11 por muy close-to-the-metal que trabaje internamente no puedes hacer lo mismo que con DX12 simplemente porque no lo permite.

A ver si esto te sirviera, es algo de lectura pero bueno para quien le interese:
https://msdn.microsoft.com/en-us/library/windows/desktop/dn899228(v=vs.85).aspx
https://msdn.microsoft.com/en-us/library/windows/desktop/dn899194(v=vs.85).aspx

La eSRAM puede usarse para cualquier cosa, el único límite es que es sólo accesible por la GPU. Por lo que puede usarse para RT, computación, etc.

Se quiera o no el Frostbite sigue desfasado en XOne, salta claramente. Hay un hecho muy simple que lo denota, en PC/PS4 usa async shaders desde el BF4, en XOne no lo usa ni en este Star Wars, que ya han tenido tiempo, pero nada.


Es que la eSRAM va a dar mucho juego
Lo raro no es q tenga pbr, sino q no lo tenga. Q exclusivo de One de los q acaban de salir o están por salir no usa técnicas como el pbr?

Es un impedimento para empujar más pixeles? Para tener un lod exagerado? Para q se vea la imagen borrosa?
El motor de Halo 5 me parece bastante más avanzado y esta lleno de técnicas next gen.
Por otro lado, los escenarios de B4 me parecen bastante más currados q en el SW BF. Decir q están vacios y q no hay casi elementos en pantalla es quedarse corto. Por lo q el avance del q se habla no me parece nada llamativo teniendo en cuenta q uno es juego de salida y el otro sale con las consolas ya bastante maduras.

Las nuevas técnicas han llegado para quedarse y no son un problema para Xbox One. Es más, esta demostrando desenvolverse muy bien. Os acordáis de las conversaciones de los motores deferred?

Pues esto es parecido. Vienen técnicas y motores q se adaptan mucho mejor a esta arquitectura. Supongo q a las compañías les cuesta asumir el coste de hacer nuevos motores....
A ver, que no esteis conforme es una cosa, pero Battlefront a nivel visual es bastante potente. Buenas texturas, buenos modelados, efectos de particulas cojonudos, escenarios amplios, post-procesado de 10 (el Motion Blur queda espectacular), Parallax Occlusion Mapping y Teselacion por doquier (la teselacion esta desactivada en la mayoria de juegos de PS4/One).

No hay que despreciar un juego porque tenga menos resolucion que en otro sistema, cuando es algo que sucede en la mayoria de multis. Suele ser 1080p y 900p, y ahora es 900p y 720p en consecuencia, no veo el drama.
darksch escribió:@system32 estás confundiendo API con funcionamiento interno. DX12 no es coger las funciones DX11...() y cambiarles el nombre a DX12...() y por eso ya a correr más, también cambia totalmente la forma de escribir los códigos. En DX11 usas sus funciones y toda la gestión de recursos la hace la API internamente (con clara falta de eficiencia), en DX12 la gestión corre a cargo del propio programa. Es decir puedes tener un DX11 optimizado para la consola y tal pero la forma de trabajar es completamente distinta entre DX11 y DX12, por lo que con DX11 por muy close-to-the-metal que trabaje internamente no puedes hacer lo mismo que con DX12 simplemente porque no lo permite.

A ver si esto te sirviera, es algo de lectura pero bueno para quien le interese:
https://msdn.microsoft.com/en-us/library/windows/desktop/dn899228(v=vs.85).aspx
https://msdn.microsoft.com/en-us/library/windows/desktop/dn899194(v=vs.85).aspx

La eSRAM puede usarse para cualquier cosa, el único límite es que es sólo accesible por la GPU. Por lo que puede usarse para RT, computación, etc.

Se quiera o no el Frostbite sigue desfasado en XOne, salta claramente. Hay un hecho muy simple que lo denota, en PC/PS4 usa async shaders desde el BF4, en XOne no lo usa ni en este Star Wars, que ya han tenido tiempo, pero nada.


Eso se llama Refectoring. Para entenderlo, tienes un código de hace 20 años (echo una mierda a día de hoy), lo vuelves a escribir y lo adaptas a los nuevos "estándares" y lo llamas DX12 cuando en realidad nunca se ha añadido nada nuevo. Para mi el nombre no es nada mas que publicitario.

No se si me explico, es un problema conceptual. Esta claro que M$ tiene que darle todo el bombo del mundo, le interesa vender y que diga que su nueva API puede hacer milagros, etc, etc, etc. Pero entonces te preguntas, los multicore existen desde hace 10 años ya, porque han tardado tanto? OpenGL en su extensa librería de funciones tiene extensiones para llegar al 1000000 de llamadas, si tan importante era poder quitar este overhead porque no han usado openGL? Al final todo acaba siendo intereses, el que pone la pasta manda.
system32 escribió:Eso se llama Refectoring. Para entenderlo, tienes un código de hace 20 años (echo una mierda a día de hoy), lo vuelves a escribir y lo adaptas a los nuevos "estándares" y lo llamas DX12 cuando en realidad nunca se ha añadido nada nuevo. Para mi el nombre no es nada mas que publicitario.

[facepalm] [facepalm]

O sea, que el cambio de DX11 a DX12 es como lo que dice tu enlace a wikipedia, cambiar el nombre de las variables de tu código.

Y OpenGL ya hacía lo que hace DX12, y por eso chronos group va a sacar ahora Vulkan, y por eso les está costando tanto sacarlo.

Lo que hay que oir. Yo soy el primero que dice que con DX12 nos están vendiendo la moto, pero no se puede negar que es un avance, aunque nos quieran vender que es mas de lo que es.
papatuelo escribió:
sev39lora escribió:
Mi opinión siempre ha sido que terminarán siendo practicamente iguales, pero eso es solo una opinión


Tu opinión, valgame la rebundancia, es la realidad en la práctica. Ya lo dijo un señor llamado Jon y que se apellida Carmack, que las nuevas consolas iban a ser iguales prácticamente y que la gente no se dejase llevar por los números. Y que yo sepa Carmack no es un cualquiera y mucho menos un vendido.
Ahora bien, eso no quita que M$ quisiera abaratar costes por querer meter SI o SI kinect, y que en la práctica sacar rendimiento a One es bastante más complicado que en la otra.
Hay otra cosa que me hace mucha gracia, y es que antes muchos diseñadores se quejaban de que Dx11 estaba demasiado automatizado y que dejaba poca libertad. Ahora con el 12 que pasa, les dan lo que pedían y resulta que mucho mejor el 11 no?? Supongo que es lo que tiene tocarse los webs en algunos aspectos y tener que volver a trabajarlos ahora cansa. En fin.
system32 escribió:Eso se llama Refectoring. Para entenderlo, tienes un código de hace 20 años (echo una mierda a día de hoy), lo vuelves a escribir y lo adaptas a los nuevos "estándares" y lo llamas DX12 cuando en realidad nunca se ha añadido nada nuevo. Para mi el nombre no es nada mas que publicitario.

No se si me explico, es un problema conceptual. Esta claro que M$ tiene que darle todo el bombo del mundo, le interesa vender y que diga que su nueva API puede hacer milagros, etc, etc, etc. Pero entonces te preguntas, los multicore existen desde hace 10 años ya, porque han tardado tanto? OpenGL en su extensa librería de funciones tiene extensiones para llegar al 1000000 de llamadas, si tan importante era poder quitar este overhead porque no han usado openGL? Al final todo acaba siendo intereses, el que pone la pasta manda.

Por esas palabras supongo que no has leído nada de los enlaces. No es ningún tipo de Refactoring, cambia totalmente la forma en que se programa, y los recursos de que dispone el programador.
17587 respuestas