Hablemos del interior de Xbox One

Morepawer está baneado por "hater, flames y clones"
f5inet escribió:
malosoxxx escribió:
f5inet escribió:DX12 requiere un controlador grafico WDDM 2.0 que viene con Windows 10. Xbox ONE no tiene 'aun' Windows 10, luego aun no dispone del controlador grafico, luego aun no soporta DX12.


¿No iba el SO incluido en el juego?


Si, y Windows 10 para XboxONE aun esta en beta, y un juego no va a salir al mercado con un SO/SDK en beta.

@morepawer no se si estas de cachondeo o lo dices en serio, pero por si acaso...
Imagen

¿y quien carajos es el tal Johan Anderson?
https://twitter.com/repi?ref_src=twsrc%5Etfw
El director tecnico del motor Frostbite de EA


Lo digo como un alago!!!, que eres como un libro gordo de petete!!! como una enciclopedia!!!, sabes y sabes explicar, cosa bastante carente por estos lares.

No recibirás piropos por aquí como los míos!!! [inlove]
papatuelo escribió:Imagen
Imagen

Excelente [oki]

Nada nuevo, aunque está bien que lo recuerde y aclare.

Eso tiene que ver con lo que ya se ha dicho tanto, ancho DDR3, espacio en eSRAM, tiled textures...supongo que el partial unload es parte de todo esto. Aunque luego claro la XOne no se diseñó para DX12, que conste. Que anda mucho loco suelto por ahí.
Entonces es posible que con la actualización de hoy se habiliten funciones para dx12? Veremos mejora en el rendimiento con el nuevo dash?a

Saludos.
No. Lo que abren es la posibilidad a los DEVS a que usen estas tecnicas.

Cada juego tienen que hacerlo con estas tecnicas en mente para que la XBO de todo su potencial. No vamos a ver boost tremendos en juegos no pensados para estos menesteres.

En 2016 y 2017 iremos viendo como la consola va a ir dando la talla graficamente en bastantes multiplataforma y veremos como los juegos first haran cosas que antes nos parecian imposibles.
eloskuro escribió:No. Lo que abren es la posibilidad a los DEVS a que usen estas tecnicas.

Cada juego tienen que hacerlo con estas tecnicas en mente para que la XBO de todo su potencial. No vamos a ver boost tremendos en juegos no pensados para estos menesteres.

En 2016 y 2017 iremos viendo como la consola va a ir dando la talla graficamente en bastantes multiplataforma y veremos como los juegos first haran cosas que antes nos parecian imposibles.


Genia entonces.

Yo pensaba que igual con el nuevo dash se liberaba más RAM para juegos y quizás por eso iría más «suelta»

Saludos.
Sulei escribió:
eloskuro escribió:No. Lo que abren es la posibilidad a los DEVS a que usen estas tecnicas.

Cada juego tienen que hacerlo con estas tecnicas en mente para que la XBO de todo su potencial. No vamos a ver boost tremendos en juegos no pensados para estos menesteres.

En 2016 y 2017 iremos viendo como la consola va a ir dando la talla graficamente en bastantes multiplataforma y veremos como los juegos first haran cosas que antes nos parecian imposibles.


Genia entonces.

Yo pensaba que igual con el nuevo dash se liberaba más RAM para juegos y quizás por eso iría más «suelta»

Saludos.




¿El nuevo SO libera Ram de la consola?
Al ser un SO más rapido y mas liviano puede que hayan liberado algo de ram, pero no se sabe. De todas formas no espereis que liberen gigas de ram ^^ U , liberarian unos cuantos megas
eloskuro escribió:Al ser un SO más rapido y mas liviano puede que hayan liberado algo de ram, pero no se sabe. De todas formas no espereis que liberen gigas de ram ^^ U , liberarian unos cuantos megas



Todo lo que sea para ir mejor bienvenido sea . Que así lo podremos disfrutar en futuros juegos y en fluidez y velocidad del SO [360º]
Me gustaria compartir algo con vosotros y abrir un debate. No es de hardware pero si de software y la desinformacion que puede haber debido a los posteriores parches, tanto de una plataforma como u otra, prestad atencion.

¿Os acordais del analisis de MGSV por parte de Digital Foundry? pues bien, ahi se señalaba que MGSV en PS4 utilizaba una tecnica llamada Subsurface Scattering para algunos primeros planos de los rostros, y ponian estas imagenes comparativas:

Imagen
Imagen

Imagen
Imagen

Si os fijais es cierto que en PS4 se utiliza y en One/PS3/360 no (aunque el modelado de One era 1:1 respecto al de PS4, a diferencia de los sistemas de la generacion anterior), las imagenes doy fe de que son ciertas y nada manipuladas, yo las veia asi y lo notaba.

El problema? que despues del parche que añadia el online, me di cuenta de que algo veia diferente... y es que mirad las capturas que saque yo mismo de mi Xbox One (lo podeis comprobar en GameDVR).

Imagen

Esta de PS4...

Imagen



Xbox One (actual)

Imagen

PS4:

Imagen


Asi es, aplicaron Subsurface Scattering en la version de Xbox One. De hecho era precisamente en esos momentos donde Xbox One tenia ventaja en el framerate y por eso algunos nos extraño su ausencia cuando iba mas sobrada de rendimiento. En el subforo de multi habia quienes decian tonterias del tipo que era debido a que habian subido la resolucion etc. En todos esos primeros planos ya son versiones 1:1.

Las imagenes como digo son 100% reales y lo teneis tan facil como comprobarlo con videos del lanzamiento del juego (Septiembre) y compararlo con los de Octubre. Y no hay ni una sola fuente que se haya hecho eco de ello. Obviamente tiene sentido, DF no va a estar todo el dia analizando los mismos juegos a cada parche, lo que quiero decir con esto es que a saber cuantos juegos han cambiado en X detalles y ni dios se ha enterado. En este caso pues te informas y lees que en PS4 (y PC, en la comparativa de PS4 vs PC vs XBO tambien se señalaba) utiliza SSS y en One no, cuando la realidad es bien diferente y es que se trato simplemente de algo que estaba por añadir en One.
Yo no sé si parche o no parche, lo único que sé es que cuando lo jugué los caretos se veían de escándalo, nada que ver con las imágenes de DF. Todo el detalle y sin contrastes exagerados para nada, para mí, perfecto. Lo que sí tenía era lo de las sombras con "triangulitos", pero si ya lo han arreglado pues mejor.
Cyborg_Ninja escribió:Me gustaria compartir algo con vosotros y abrir un debate. No es de hardware pero si de software y la desinformacion que puede haber debido a los posteriores parches, tanto de una plataforma como u otra, prestad atencion.

¿Os acordais del analisis de MGSV por parte de Digital Foundry? pues bien, ahi se señalaba que MGSV en PS4 utilizaba una tecnica llamada Subsurface Scattering para algunos primeros planos de los rostros, y ponian estas imagenes comparativas:

Imagen
Imagen

Imagen
Imagen

Si os fijais es cierto que en PS4 se utiliza y en One/PS3/360 no (aunque el modelado de One era 1:1 respecto al de PS4, a diferencia de los sistemas de la generacion anterior), las imagenes doy fe de que son ciertas y nada manipuladas, yo las veia asi y lo notaba.

El problema? que despues del parche que añadia el online, me di cuenta de que algo veia diferente... y es que mirad las capturas que saque yo mismo de mi Xbox One (lo podeis comprobar en GameDVR).

Imagen

Esta de PS4...

Imagen



Xbox One (actual)

Imagen

PS4:

Imagen


Asi es, aplicaron Subsurface Scattering en la version de Xbox One. De hecho era precisamente en esos momentos donde Xbox One tenia ventaja en el framerate y por eso algunos nos extraño su ausencia cuando iba mas sobrada de rendimiento. En el subforo de multi habia quienes decian tonterias del tipo que era debido a que habian subido la resolucion etc. En todos esos primeros planos ya son versiones 1:1.

Las imagenes como digo son 100% reales y lo teneis tan facil como comprobarlo con videos del lanzamiento del juego (Septiembre) y compararlo con los de Octubre. Y no hay ni una sola fuente que se haya hecho eco de ello. Obviamente tiene sentido, DF no va a estar todo el dia analizando los mismos juegos a cada parche, lo que quiero decir con esto es que a saber cuantos juegos han cambiado en X detalles y ni dios se ha enterado. En este caso pues te informas y lees que en PS4 (y PC, en la comparativa de PS4 vs PC vs XBO tambien se señalaba) utiliza SSS y en One no, cuando la realidad es bien diferente y es que se trato simplemente de algo que estaba por añadir en One.


Muy ben aporte!
No veo las imagenes actuales en Xbox One!!!
No me salta la actualización, hay que hacer algo?

Edito, me he ido de forma manual a sistema, llevo poco con ella XD
eloskuro escribió:Al ser un SO más rapido y mas liviano puede que hayan liberado algo de ram, pero no se sabe. De todas formas no espereis que liberen gigas de ram ^^ U , liberarian unos cuantos megas

Como cuantos ? 500 ?1000 ? A mi no me extrañaría que se estuviesen reservado medio giga o mas de momento, que no saben si darselo al Exclusive OS o al Shared OS, ya que de momento los juegos tampoco piden tanta RAM, y no saben si en un futuro vendra mejor en un lado o en otro.

Es que a mi no me parece el Shared OS necesite 3GB de RAM ... y menos ahora.

@Cyborg_Ninja El Witcher habría que mirar, que ya lleva 11 parches, y seguro que siguen sacando, los anteriores juegos de CDPR han recibido mejoras hasta años despues ...
El host OS (con hipervisor) ocuparía más o menos unos 500MB imagino, y tened en cuenta que en la consola no hay swap. Acordaros que el SO de WiiU, con lo escaso que es, ocupa 1GB en estas condiciones. No veo raro que se reserve 3GB para todo lo que no sean juegos. A mí me gusta así, darle preferencia a un sistema versátil que tener unos cuantos MB extras para algunas texturas que al fin y al cabo o no lo vas a notar o no los van a usar, visto lo visto. Darle espacio extra al SO de juegos es peligroso, porque no hay vuelta atrás, no puedes volver a quitárselos.
darksch escribió:El host OS (con hipervisor) ocuparía más o menos unos 500MB imagino, y tened en cuenta que en la consola no hay swap. Acordaros que el SO de WiiU, con lo escaso que es, ocupa 1GB en estas condiciones. No veo raro que se reserve 3GB para todo lo que no sean juegos. A mí me gusta así, darle preferencia a un sistema versátil que tener unos cuantos MB extras para algunas texturas que al fin y al cabo o no lo vas a notar o no los van a usar, visto lo visto. Darle espacio extra al SO de juegos es peligroso, porque no hay vuelta atrás, no puedes volver a quitárselos.

Yo creo que 2GB de ram es mas que suficiente para cualquier sistema operativo, mas que nada porque lo que mas recursos ocupa en un sistema son el resto de aplicaciones, navegador, paquetes ofimaticos, aplicaciones diseño u otras y juegos. El sistema en si con 2gb o menos deberia ir perfecto, cuando necesite mas sera precisamente cuando no estamos jugando (viendo una pelicula por ejemplo o haciendo navegacion web) con lo cual tendria disponible la ram que no usan los juegos.
AKR escribió:
darksch escribió:El host OS (con hipervisor) ocuparía más o menos unos 500MB imagino, y tened en cuenta que en la consola no hay swap. Acordaros que el SO de WiiU, con lo escaso que es, ocupa 1GB en estas condiciones. No veo raro que se reserve 3GB para todo lo que no sean juegos. A mí me gusta así, darle preferencia a un sistema versátil que tener unos cuantos MB extras para algunas texturas que al fin y al cabo o no lo vas a notar o no los van a usar, visto lo visto. Darle espacio extra al SO de juegos es peligroso, porque no hay vuelta atrás, no puedes volver a quitárselos.

Yo creo que 2GB de ram es mas que suficiente para cualquier sistema operativo, mas que nada porque lo que mas recursos ocupa en un sistema son el resto de aplicaciones, navegador, paquetes ofimaticos, aplicaciones diseño u otras y juegos. El sistema en si con 2gb o menos deberia ir perfecto, cuando necesite mas sera precisamente cuando no estamos jugando (viendo una pelicula por ejemplo o haciendo navegacion web) con lo cual tendria disponible la ram que no usan los juegos.

Eso no es posible. Todo eso se ejecuta en el Shared OS, y el juego en el exclusive OS. La separación es precisamente para que no se moleste al juego bajo ninguna circunstancia, que no ocurra como si de un PC se tratara que depende de lo que tengas de fondo. Por lo que el navegador y todo lo demás se ejecuta en esos, supuestos y no confirmados, 3GB de no-juegos. Entre otras cosas recuerdo que el navegador y todo lo demás puedes acoplarlo, es decir, ejecutarlo junto al juego. Y tampoco sería muy práctico que a cada vez que estás cambiando (juego-navegador-otros) se te anda cerrando lo anterior (abro el navegador para consultar algo y se me cierra el juego [+furioso] ). Como dije, prefiero versatilidad. Total si luego la RAM no saben ni en que usarla (se sigue usando streaming de datos en los juegos) o no se notaría (no hay ancho/potencia para gestionar tantos GB por fotograma en pantalla).
Yo creo que 2GB vs 6GB es un buen equilibrio. Ya digo con 2GB se pueden hacer maravillas si el codigo esta depurado. Si se puede hacer de todo hasta con 256-512MB si el sistema esta aligerado
darksch escribió:Darle espacio extra al SO de juegos es peligroso, porque no hay vuelta atrás, no puedes volver a quitárselos.

Exacto, esa es la razón por la que creo que se han reservado mas de la que necesitan para el otro, y cuando ya este madura la nueva "Xbox Experience", veran si han sido demasiado conservadores o no, y en caso de que lo hayan sido, le darán mas al Exclusive OS.

Y lo de para que usar la RAM, pues por ejemplo en Fallout 4 para tener todas las armas cargadas en memoria siempre, y que no haya tirones al cambiar de arma. Por poner un ejemplo.
Hola! Existe alguna limitación técnica para que One pueda ejecutar música de segundo plano en otra aplicación y poder jugar en pantalla completa?, hay decenas de miles de personas que lo solicitan por los cauces correctos y no hacen ni puñetero caso. A lo mejor es que hay algo en el sistema que lo impide ???
La Ram para el Shared OS no la van a tocar porque no es necesario actualmente. Y cuando los juegos vayan aumentando los requisitos de RAM ya podrán usar los 4GB de HBM que hay en el SOC.
cercata escribió:Y lo de para que usar la RAM, pues por ejemplo en Fallout 4 para tener todas las armas cargadas en memoria siempre, y que no haya tirones al cambiar de arma. Por poner un ejemplo.

Yo creo que eso no cambiaría nada, ya es como se trabaja y no tiene que ver con tener más RAM. Espacio hay solo que ya los motores están hechos así, para el streaming de datos. Si en TES en X360, con 512MB para todo, cambiabas de arma y lo hacia al momento. Eso es que la han cagado con algo y ya está, porque como mínimo tienen 10 veces el espacio que en X360 y el juego en base es lo mismo, con mejores texturas, que también se van cargando según avanzas por cierto.
¿Os acordaís de que supuestamente XBOX tiene solo dos ACEs pero que en lugar de manejar los ocho hilos por ACE que es lo normal en GCN maneja 16?

Pues mirad la Fury.

Imagen

En lugar de llevar 8 como sus hermans de generaciones anteriores lleva solo 4. La mitad, y supongo que rendirá cada una el doble.

Asi que tenemos 4 Aces y 2 HWS (Hardware Scheduler)

Digital Foundry:

Digital Foundry: the complete Xbox One architects interview

To facilitate this, in addition to asynchronous compute queues, the Xbox One hardware supports two concurrent render pipes. The two render pipes can allow the hardware to render title content at high priority while concurrently rendering system content at low priority. The GPU hardware scheduler is designed to maximise throughput and automatically fills "holes" in the high-priority processing. This can allow the system rendering to make use of the ROPs for fill, for example, while the title is simultaneously doing synchronous compute operations on the Compute Units.


Andrew Goossen: The number of asynchronous compute queues provided by the ACEs doesn't affect the amount of bandwidth or number of effective FLOPs or any other performance metrics of the GPU. Rather, it dictates the number of simultaneous hardware "contexts" that the GPU's hardware scheduler can operate on any one time. You can think of these as analogous to CPU software threads - they are logical threads of execution that share the GPU hardware. Having more of them doesn't necessarily improve the actual throughput of the system - indeed, just like a program running on the CPU, too many concurrent threads can make aggregate effective performance worse due to thrashing. We believe that the 16 queues afforded by our two ACEs are quite sufficient.


Seguimos:

The next step in the HSA is the “heterogeneous queuing” or hQ. HSA devices communicate with one another using queues. Traditionally, CPU is the central task manager where a command from the software goes to the CPU and then it dispatch queue to other hardware and components like GPU in the PC. If a workload is designed for GPU, it must first go to CPU and then the CPU dispatches the work to the GPU through OS service or “kernel mode” transition. Then the kernel driver translates task packet to the vendor specific format.


Since AMD HSA is an open standard. The HSA queuing language will be open to any software engineers. It employees standard packet format where the application directly generates standard packet that are placed in queues. The packet gets to send to the hardware directly where the hardware then execute it. The packet has pointer to instruction code, resource allocation in order to run the compute kernel. The oepn standard means that it will support by all HSA-compatible hardware and eliminate the need for vendor specific code. For AMD APU, the hardware scheduler moved to the GPU itself to eliminate the need for the kernel.


Imagen
papatuelo escribió:¿Os acordaís de que supuestamente XBOX tiene solo dos ACEs pero que en lugar de manejar los ocho hilos por ACE que es lo normal en GCN maneja 16?

Pues mirad la Fury.

Imagen

En lugar de llevar 8 como sus hermans de generaciones anteriores lleva solo 4. La mitad, y supongo que rendirá cada una el doble.

Asi que tenemos 4 Aces y 2 HWS (Hardware Scheduler)

Digital Foundry:

Digital Foundry: the complete Xbox One architects interview

To facilitate this, in addition to asynchronous compute queues, the Xbox One hardware supports two concurrent render pipes. The two render pipes can allow the hardware to render title content at high priority while concurrently rendering system content at low priority. The GPU hardware scheduler is designed to maximise throughput and automatically fills "holes" in the high-priority processing. This can allow the system rendering to make use of the ROPs for fill, for example, while the title is simultaneously doing synchronous compute operations on the Compute Units.


Andrew Goossen: The number of asynchronous compute queues provided by the ACEs doesn't affect the amount of bandwidth or number of effective FLOPs or any other performance metrics of the GPU. Rather, it dictates the number of simultaneous hardware "contexts" that the GPU's hardware scheduler can operate on any one time. You can think of these as analogous to CPU software threads - they are logical threads of execution that share the GPU hardware. Having more of them doesn't necessarily improve the actual throughput of the system - indeed, just like a program running on the CPU, too many concurrent threads can make aggregate effective performance worse due to thrashing. We believe that the 16 queues afforded by our two ACEs are quite sufficient.


Seguimos:

The next step in the HSA is the “heterogeneous queuing” or hQ. HSA devices communicate with one another using queues. Traditionally, CPU is the central task manager where a command from the software goes to the CPU and then it dispatch queue to other hardware and components like GPU in the PC. If a workload is designed for GPU, it must first go to CPU and then the CPU dispatches the work to the GPU through OS service or “kernel mode” transition. Then the kernel driver translates task packet to the vendor specific format.


Since AMD HSA is an open standard. The HSA queuing language will be open to any software engineers. It employees standard packet format where the application directly generates standard packet that are placed in queues. The packet gets to send to the hardware directly where the hardware then execute it. The packet has pointer to instruction code, resource allocation in order to run the compute kernel. The oepn standard means that it will support by all HSA-compatible hardware and eliminate the need for vendor specific code. For AMD APU, the hardware scheduler moved to the GPU itself to eliminate the need for the kernel.


Imagen

Es que ya lo he dicho muchas veces. La XOne no lleva ACE, lleva cosas hardware específicas para cada tipo de cola que gestiona, no algo más "genérico" como son los ACE.

Imagen

En la XOne todo son hardware schedulers, ya que los compute command processors van a despachar las operaciones de computación directamente, sin necesidad de "ver que hago con esto", porque sólo sabe hacer una única cosa, igual con los graphics CP que sólo saben de gráficos, e igual con la sección DMA que sólo saben gestionar transferencias de memoria.

Las colas de DX12 son de 3 tipos: gráficos, computación y transferencias. Pero luego la arquitectura no está hecha para DX12, que conste. Dejaros de paranoias.
@darksch

Sí, si scheduler lleva también uno cada CU en las GCN.

Pero hablando de computo asincrono dice "el" Hardware Scheduler.

Y ya es casualidad que Fury no utilice los 8 asynchronous compute engines que utilizan las GCN anteriores, sino solo 4 y como apoyo lleve dos de esos HWS. Y ONE va por el mismo camino, "solo" dos ACEs y 1 HWS.

Además que hablando sobre eso en Beyond3d Dave Baumann (AMD) dijo que no todos los ACEs eran iguales

Imagen
Imagen

https://forum.beyond3d.com/threads/amd-pirate-islands-r-3-series-speculation-rumor-thread.55600/page-135
https://ca.linkedin.com/in/dabaumann
Y eso del hQ, en que beneficios se traduce al final en los juegos ?
cercata escribió:Y eso del hQ, en que beneficios se traduce al final en los juegos ?


Es un requerimiento mas de HSA.
f5inet escribió:Imagen

Cada dia me tienes mas intrigado, jajajaja
Horizonte de sucesos escribió:La Ram para el Shared OS no la van a tocar porque no es necesario actualmente. Y cuando los juegos vayan aumentando los requisitos de RAM ya podrán usar los 4GB de HBM que hay en el SOC.

Xbox one tiene 4gb de HBM? [uzi]
Pero si esta memoria acaba de salir en la serie fury. Está confirmado oficialmente?
Estaríamos hablando de 8gb ddr3 + 4hbm? :-?
Wtf?
LuiTrO escribió:
Horizonte de sucesos escribió:La Ram para el Shared OS no la van a tocar porque no es necesario actualmente. Y cuando los juegos vayan aumentando los requisitos de RAM ya podrán usar los 4GB de HBM que hay en el SOC.

Xbox one tiene 4gb de HBM? [uzi]
Pero si esta memoria acaba de salir en la serie fury. Está confirmado oficialmente?
Estaríamos hablando de 8gb ddr3 + 4hbm? :-?
Wtf?


Seria ridiculo tener un banco de memoria RAM de 4GB ahi muerto de risa. Pero claro, cada uno puede creer lo que quiera...
argam escribió:
LuiTrO escribió:
Horizonte de sucesos escribió:La Ram para el Shared OS no la van a tocar porque no es necesario actualmente. Y cuando los juegos vayan aumentando los requisitos de RAM ya podrán usar los 4GB de HBM que hay en el SOC.

Xbox one tiene 4gb de HBM? [uzi]
Pero si esta memoria acaba de salir en la serie fury. Está confirmado oficialmente?
Estaríamos hablando de 8gb ddr3 + 4hbm? :-?
Wtf?


Seria ridiculo tener un banco de memoria RAM de 4GB ahi muerto de risa. Pero claro, cada uno puede creer lo que quiera...


A ver q alguien explique esto!! Tiene 8gb de ddr3 y ahora resulta q también tiene 4gb de hbm?
Xq si es así!! Q han tenido q pasar 2 años para saberlo y poderla usar!??? Yo creo q horizonte dé sucesos se coló o algo!! Xq no puede ser!! Como lo explicas a los desarrolladores q tienen 12gb de ram en total,pero eh!! Solo hay 8 disponibles ahora dentro de dos años sacamos los otros 4 y hacemos un zasca en to la boca!!! No tiene sentido!!
Me parece que la cosa se ha liado un poco, con tantas informaciones de distintas fuentes cada cual tocando algo. Me da a mí que se ha creado cierta confusión en cuanto a cierto elemento:

http://www.techinsights.com/xbox-one/
SK Hynix H5TQ4G63AFR 4 Gb (512 MB) DDR3 SDRAM (total of 16 x 512 MB = 8 GB)

Así mismo, Hynix es la fabricante de HBM, y ahí tenemos esos 4 "Gb", que en realidad son 512MB para configurar los 8GB de RAM principal. Así que 4 "gigas" por un lado (con una minúscula cambiada a mayúscula en alguna parte) + Hynix fabricante de HBM...igual a lío total que se ha formado.
Lo más parecido es decir que la RAM de XOne está configurada como "apilada" ya que es la única que funciona a 4-way actualmente.

A esto le añadimos la RAM integrada en el SoC, y ya tenemos el lío completo.

Imagen

Pero la RAM en el SoC no son ni remotamente 4GB. Hablamos en MB. De hecho es la famosa eSRAM, y son 32MB (los de la derecha). A la izquierda vemos otro módulo de unos 4MB (que no GB) en el SoC junto a los cores de CPU, seguramente para el tema de la memoria compartida con GPU (coherencia) a modo de caché para tal fin. Y quizás alguna cosa más, como caché para el envío de operaciones.
legna82 escribió:
argam escribió:
LuiTrO escribió:Xbox one tiene 4gb de HBM? [uzi]
Pero si esta memoria acaba de salir en la serie fury. Está confirmado oficialmente?
Estaríamos hablando de 8gb ddr3 + 4hbm? :-?
Wtf?


Seria ridiculo tener un banco de memoria RAM de 4GB ahi muerto de risa. Pero claro, cada uno puede creer lo que quiera...


A ver q alguien explique esto!! Tiene 8gb de ddr3 y ahora resulta q también tiene 4gb de hbm?
Xq si es así!! Q han tenido q pasar 2 años para saberlo y poderla usar!??? Yo creo q horizonte dé sucesos se coló o algo!! Xq no puede ser!! Como lo explicas a los desarrolladores q tienen 12gb de ram en total,pero eh!! Solo hay 8 disponibles ahora dentro de dos años sacamos los otros 4 y hacemos un zasca en to la boca!!! No tiene sentido!!


mi firma confirmed.
salocin era un genio!
no es una william one, la one mide mas de dos metros y si estuviera aquí acabaría con los ingleses echando fuego por la boca y rayos por el culo.
Tu firma es una gran verdad. Yo todavía espero que salga mas hardware oculto de esta consola. Y no se porque me da que ese segundo hdmi todavía nos tiene que dar alguna sorpresa mas.
Ya van 30 millones casi, no se a que espera microsoft para anunciarlo ...
Ya que hablais de los ACEs, async compute etc... lei por aqui hacia tiempo que Battlefront en One no utilizaba computacion asincrona y en PS4 si, ¿me equivoco? ¿Habia fuente de eso?

Pregunto desde el mas absoluto desconocimiento :D
Xboxman escribió:Que os parece el articulo de este personaje?
https://josepjroca.wordpress.com/2014/0 ... de-ps4-ii/

Es cierto?

Mucha paja mental es lo que veo, sólo en el párrafo este se luce:
•La configuración del planificador de la GPU de PS4 es igual a la que tiene la GPU Hawaii (GCN 2.0), no tiene la misma configuración en cuanto al número de Compute Units, Unidades de Texturas y ROPS pero es más avanzada que la de Xbox One en cuanto al planificador y el sistema de reparto de tareas. Sabemos que la de Xbox One es una Bonaire que es GCN 1.1
•El añadido del TrueAudio en PS4, ausente por completo en Xbox One que tiene su propia solución para el sonido.
•Onion+ en PS4, también se encuentra en el AMD Kaveri que es la APU en PC más avanzada que tiene AMD. Xbox One carece de ella.

Porque lo que no menciona es que XOne ofrece sus propias soluciones que llegan a ser superiores a las de la otra, por ejemplo la coherencia en XOne supera a ese maravilloso Onion+ del cual XOne carece [carcajad] O que el planificador en la otra es GCN 2.0 y en la XOne la pobre lleva GCN 1.1, claro y los schedulers y graphics/command processors específicos para que nombrarlos siquiera ¿verdad?. Si es que :-|

Casi más productivos los comentarios que el propio artículo. Eso sí cada uno dando su versión, así que no varía mucho a lo que pueda leerse por aquí. Curiosamente concuerdo bastante con el llamado filosofiadelmartillo, en la arquitectura orientada a computación y ocupación constante de los componentes. Es lo que decía desde un principio. Y aclara bastante bien (otra cosa que ya sabía y algunos más por aquí seguramente) el tema del chip de sonido en cada caso, por muchos que algunos sigan cerrados en su micro-mundo del True Audio True Audio...vale pero que lo procesa, es el tema.
Cyborg_Ninja escribió:Ya que hablais de los ACEs, async compute etc... lei por aqui hacia tiempo que Battlefront en One no utilizaba computacion asincrona y en PS4 si, ¿me equivoco? ¿Habia fuente de eso?

Pregunto desde el mas absoluto desconocimiento :D


Es bastante probable, hasta ahora los dos únicos juegos que utilizan computo asincrono en ONE son Fable y Tomb Raider.

Ningún juego de Dice ha usado esa característica en DX11, ni PC ni ONE. Pero sí lo ha utilizado en PS4.

Imagen

No sé si la cosa habrá cambiado desde BF4, pero teniendo en cuenta que practicamente todos sus juegos singuen ofreciendo el mismo rendimiento lo más normal es pensar que no lo han utilizado.

@cercata ¿A que te refieres con eso de los 30 millones?
papatuelo escribió:@cercata ¿A que te refieres con eso de los 30 millones?


Creo que se refiere al quote de salocin que tiene mosotron en su firma:

Es una estrategia monopolística, de aquí a dos años liberas toda la información y dejas a la competencia sin margen de maniobra, a la ve que metes barreras de entrada a competencia potencial.
Imaginar que de aquí a 2 años microsoft cuenta la realidad y que One es 3x mas potente que la competencia, en que lugar queda Sony? Con 15 millones de consolas en la calle y sin el potencial económico de desarrollar un hardware similar.. O tiran el resto de la gen con un hardware muy inferior o saltan a gaikai como ya están insinuando, además MS podría tener consecuencias legales por falsear datos de la maquina.


Supongo que se refiere a que ya lleva 30 millones de consolas en la calle
Zokormazo escribió:
papatuelo escribió:@cercata ¿A que te refieres con eso de los 30 millones?


Creo que se refiere al quote de salocin que tiene mosotron en su firma:

Es una estrategia monopolística, de aquí a dos años liberas toda la información y dejas a la competencia sin margen de maniobra, a la ve que metes barreras de entrada a competencia potencial.
Imaginar que de aquí a 2 años microsoft cuenta la realidad y que One es 3x mas potente que la competencia, en que lugar queda Sony? Con 15 millones de consolas en la calle y sin el potencial económico de desarrollar un hardware similar.. O tiran el resto de la gen con un hardware muy inferior o saltan a gaikai como ya están insinuando, además MS podría tener consecuencias legales por falsear datos de la maquina.


Supongo que se refiere a que ya lleva 30 millones de consolas en la calle


Pues un comentario totalmente innecesario entonces...
papatuelo escribió:
Cyborg_Ninja escribió:Ya que hablais de los ACEs, async compute etc... lei por aqui hacia tiempo que Battlefront en One no utilizaba computacion asincrona y en PS4 si, ¿me equivoco? ¿Habia fuente de eso?

Pregunto desde el mas absoluto desconocimiento :D


Es bastante probable, hasta ahora los dos únicos juegos que utilizan computo asincrono en ONE son Fable y Tomb Raider.

Ningún juego de Dice ha usado esa característica en DX11, ni PC ni ONE. Pero sí lo ha utilizado en PS4.

Imagen

No sé si la cosa habrá cambiado desde BF4, pero teniendo en cuenta que practicamente todos sus juegos singuen ofreciendo el mismo rendimiento lo más normal es pensar que no lo han utilizado.

@cercata ¿A que te refieres con eso de los 30 millones?


Siendo justos, BF4 y Battlefront no tienen la misma diferencia de rendimiento ni de coña. Si nos ceñimos a resoluciones si, pero Battlefront tiene prácticamente el mismo rendimiento y assets en ambas (incluso alguno mejor en One como la vegetación) BF4 no solo era la resolución, es que en PS4 utilizaba mejor occlusion ambiental y le sacaba 5-10fps.

Dicho esto, a mi me da que si hay mas juegos que usan computación asíncrona. Ryse creo que la utilizaba para algunos screen space reflections. Por lo que leí si es cierto que la async compute es algo menos convencional que en PS4, ergo puede que algunos multis lo usen de forma mas precaria, pero yo leí los sdk filtrados en noviembre de XB1 y DX 11.1 ya era compatible con computación asincrona.
Cyborg_Ninja escribió:
papatuelo escribió:
Cyborg_Ninja escribió:Ya que hablais de los ACEs, async compute etc... lei por aqui hacia tiempo que Battlefront en One no utilizaba computacion asincrona y en PS4 si, ¿me equivoco? ¿Habia fuente de eso?

Pregunto desde el mas absoluto desconocimiento :D


Es bastante probable, hasta ahora los dos únicos juegos que utilizan computo asincrono en ONE son Fable y Tomb Raider.

Ningún juego de Dice ha usado esa característica en DX11, ni PC ni ONE. Pero sí lo ha utilizado en PS4.

Imagen

No sé si la cosa habrá cambiado desde BF4, pero teniendo en cuenta que practicamente todos sus juegos singuen ofreciendo el mismo rendimiento lo más normal es pensar que no lo han utilizado.

@cercata ¿A que te refieres con eso de los 30 millones?


Siendo justos, BF4 y Battlefront no tienen la misma diferencia de rendimiento ni de coña. Si nos ceñimos a resoluciones si, pero Battlefront tiene prácticamente el mismo rendimiento y assets en ambas (incluso alguno mejor en One como la vegetación) BF4 no solo era la resolución, es que en PS4 utilizaba mejor occlusion ambiental y le sacaba 5-10fps.

Dicho esto, a mi me da que si hay mas juegos que usan computación asíncrona. Ryse creo que la utilizaba para algunos screen space reflections. Por lo que leí si es cierto que la async compute es algo menos convencional que en PS4, ergo puede que algunos multis lo usen de forma mas precaria, pero yo leí los sdk filtrados en noviembre de XB1 y DX 11.1 ya era compatible con computación asincrona.


La info q yo he puesto es de la propia AMD.

Si tienes info contraria posteala y la vemos.

Hablo en cuanto al uso de Async.
Xboxman escribió:Que os parece el articulo de este personaje?
https://josepjroca.wordpress.com/2014/0 ... de-ps4-ii/

Es cierto?

Aunque no es el hilo correspondiente muy buena info,esto explica algunas diferencias que vemos en los juegos
chris76 escribió:
Xboxman escribió:Que os parece el articulo de este personaje?
https://josepjroca.wordpress.com/2014/0 ... de-ps4-ii/

Es cierto?

Aunque no es el hilo correspondiente muy buena info,esto explica algunas diferencias que vemos en los juegos

Lo que me parece es que no leemos :-|
http://www.elotrolado.net/viewtopic.php?p=1740303200
chris76 escribió:
Xboxman escribió:Que os parece el articulo de este personaje?
https://josepjroca.wordpress.com/2014/0 ... de-ps4-ii/

Es cierto?

Aunque no es el hilo correspondiente muy buena info,esto explica algunas diferencias que vemos en los juegos

Lo puse mas que nada por la info tecnica que da, ya se que hablaba de la otra, pero no es por crear polémica.

Es por curiosidad, no me cuadraban cosas que decia.
Xboxman escribió:
chris76 escribió:
Xboxman escribió:Que os parece el articulo de este personaje?
https://josepjroca.wordpress.com/2014/0 ... de-ps4-ii/

Es cierto?

Aunque no es el hilo correspondiente muy buena info,esto explica algunas diferencias que vemos en los juegos

Lo puse mas que nada por la info tecnica que da, ya se que hablaba de la otra, pero no es por crear polémica.

Es por curiosidad, no me cuadraban cosas que decia.

Pues a mi si que me cuadra lo que dice y lo veo reflejado comparando las versiones de los juegos,pero cada uno tiene su respetable opinion
papatuelo escribió:¿Os acordaís de que supuestamente XBOX tiene solo dos ACEs pero que en lugar de manejar los ocho hilos por ACE que es lo normal en GCN maneja 16?

Pues mirad la Fury.

Imagen

En lugar de llevar 8 como sus hermans de generaciones anteriores lleva solo 4. La mitad, y supongo que rendirá cada una el doble.

Asi que tenemos 4 Aces y 2 HWS (Hardware Scheduler)

Esa diapositiva no se de donde la habras sacado pero el diagrama oficial de las Fury es este:
Imagen
http://www.anandtech.com/show/9421/the- ... phire-asus
Podria ser de la NAno que es una grafica recortada pero me parece raro que AMD ande cambiando configuraciones asi.
17587 respuestas