Hablemos del interior de Xbox One

Parece ser que el año pasado había gente que al mirar sus dispositivos en netflix XBOX ONE les aparecía como "XBOX ONE Polaris".

Imagen

Pues bie, se ha filtrado el nombre de la nueva arquitectura de AMD y, ¿cuál creeis que es?

AMD’s Next-Generation Polaris GPU Architecture Codename Leaked – GCN’s Successor, Powering Pixels and Efficient Graphics Cores

http://wccftech.com/amd-polaris-gpu-architecture-leaked/

AMD Polaris Next Generation Graphics Architecture is 2.5 Times ‘Brighter’ Than Its Predecessor

http://wccftech.com/amd-polaris-2-5-times/

¿Casualidad?
Ojo.
AMD’s Next-Generation Polaris GPU Architecture Codename Leaked – GCN’s Successor, Powering Pixels and Efficient Graphics Cores

Luego sigamos negando.

Sigamos negando por ejemplo que todo lo que ha salido de AMD no se debe a la relación y financiación por parte de M$. Mantle no es el software usado para pruebas en ese acuerdo, las nuevas GCN/Polaris (ahora que se conoce) no tienen nada que ver con los "extras" salidos de tal colaboración...nada, es casualidad todo [carcajad]
Pues creo que si es casualidad.

He seguido mirando y es la versión del software de Netflix.

Existen tambien vega y rigel por ejemplo que son el nombre de otras dos estrellas.

Edito: @darksch

Pues parece que no solo identifica el software como polaris, sino que es el nombre que da al dispositivo.

Imagen

Edito2: ningún nombre se elige al azar.

En wii los clientes se llamaban link y Kirby.
El cliente de xbox 360 se actualizó en noviembre de 2013 con el nombre Ryse (por el juego de XBOX ONE)
Los dos nombres de strellas que he mencionado anteriormente rigel y vega eran los clientes de ps3 y se eligieron esos nombre xq la tecnología usada se basaba en el blue-ray de la consola. Vega y rigel son dos estrellas de luz azul.

Polaris es una estrella amarilla, así que está no hac referencia a la tecnología blue ray.
f5inet escribió:WARP12


Que mensaje tan importante, para ser sólo una palabra ;)
papatuelo escribió:Pues creo que si es casualidad.

He seguido mirando y es la versión del software de Netflix.

Existen tambien vega y rigel por ejemplo que son el nombre de otras dos estrellas.

Edito: @darksch

Pues parece que no solo identifica el software como polaris, sino que es el nombre que da al dispositivo.

Imagen

Edito2: ningún nombre se elige al azar.

En wii los clientes se llamaban link y Kirby.
El cliente de xbox 360 se actualizó en noviembre de 2013 con el nombre Ryse (por el juego de XBOX ONE)
Los dos nombres de strellas que he mencionado anteriormente rigel y vega eran los clientes de ps3 y se eligieron esos nombre xq la tecnología usada se basaba en el blue-ray de la consola. Vega y rigel son dos estrellas de luz azul.

Polaris es una estrella amarilla, así que está no hac referencia a la tecnología blue ray.


Imagen
Horizonte de sucesos escribió:
papatuelo escribió:Pues creo que si es casualidad.

He seguido mirando y es la versión del software de Netflix.

Existen tambien vega y rigel por ejemplo que son el nombre de otras dos estrellas.

Edito: @darksch

Pues parece que no solo identifica el software como polaris, sino que es el nombre que da al dispositivo.

Imagen

Tened en cuenta que podría ser pura coincidencia.
Edito2: ningún nombre se elige al azar.

En wii los clientes se llamaban link y Kirby.
El cliente de xbox 360 se actualizó en noviembre de 2013 con el nombre Ryse (por el juego de XBOX ONE)
Los dos nombres de strellas que he mencionado anteriormente rigel y vega eran los clientes de ps3 y se eligieron esos nombre xq la tecnología usada se basaba en el blue-ray de la consola. Vega y rigel son dos estrellas de luz azul.

Polaris es una estrella amarilla, así que está no hac referencia a la tecnología blue ray.


Imagen
parece que esa información se esta publicando yo la he leído ahora también aquí
http://www.tweaktown.com/news/49350/xbo ... index.html
irome escribió:parece que esa información se esta publicando yo la he leído ahora también aquí
http://www.tweaktown.com/news/49350/xbo ... index.html


La publico Wccftech y la gente perdio el culo por copiarsela unos a otros.

Solo que le dieron la vuelta de tal forma que resulta aun más absurdo de lo que es.

Vieron el pantallazo de XBOX ONE polaris y se inventaron que era un leak de una nueva revisión, cuando ellos mismo dicen que la primera imagen es de 2014.

Escribí a los de Wccftech y les dije que eso era un pantallazo de netflix, que ni lo sabían, y que lo devolvían todas y cada una de las consolas que había en el mercado, así que de revisión nada.

Pero lo dicho, es bastante posible que sea solo una coincidencia.
Será 2016 el año de la Xbox ONE Slim ? Yo creo que estrategicamente a Microsoft le interesa sacarla para estas navidades ... la pregunta estará AMD lista para fabricar la misma APU pero en 14/16nm ?

Yo apostaría a que la presentan en el E3, y en su tercer aniversario sale a la venta ...
cercata escribió:Será 2016 el año de la Xbox ONE Slim ? Yo creo que estrategicamente a Microsoft le interesa sacarla para estas navidades ... la pregunta estará AMD lista para fabricar la misma APU pero en 14/16nm ?

Yo apostaría a que la presentan en el E3, y en su tercer aniversario sale a la venta ...


Imagen
@Darksch

Os presento a polaris.
Imagen
Imagen
Imagen

The GPU design was modified to include new logical blocks. What’s new is Command Processor, Geometry Processor, Multimedia Cores, Display Engine and upgraded L2 Cache and Memory Controller.
Ya era hora de que mejorasen el rendimiento por watio ... ayer viendo en Eurogamer la gráficas que recomendaban para cada presupuesto, en Gama alta AMD daba un pelin mas de potencia, pero con unos consumos desorbitados, hasta mas de 500W de pico si la overclockeabas !!!!!

No se pq consumen tanto las gamas altas de AMD, las gamas medias consumen algo mas que NVIDIA, y las APUs la verdad que tienen un rendimiento bastante majo. ¿ La ONE entera consumo unos 100W cuando juegas, no ?
papatuelo escribió:Os presento a polaris.
Imagen
Imagen
Imagen

The GPU design was modified to include new logical blocks. What’s new is Command Processor, Geometry Processor, Multimedia Cores, Display Engine and upgraded L2 Cache and Memory Controller.

No me digas! Eso es un cuento chino:
Imagen
Command Processor -> Compute Command Processors.
Scheduler -> se sabe que se tiene por la documentación.
Glabal Data Share + L2 Cache -> eSRAM.
Geometry Processor -> se tiene (en naranja).
Rasterizer -> se tiene (amarillo).
Memory controller -> se tiene (verde MMU).
GCN y backend -> son algo común así que se tiene claro, aunque los núcleos GCN son de anterior generación.
Multimedia cores -> se tienen (corregido).
Display engine -> se tienen en forma de coprocesadores (como escalado y composición).

Vemos que es lo mismo pero con lo que había en 2013, cambiando los cores GCN por los que había o estaban a punto de salir.

Casualidad, casualidad [cof, cof].
darksch escribió:
papatuelo escribió:Os presento a polaris.
Imagen
Imagen
Imagen

The GPU design was modified to include new logical blocks. What’s new is Command Processor, Geometry Processor, Multimedia Cores, Display Engine and upgraded L2 Cache and Memory Controller.

No me digas! Eso es un cuento chino:
Imagen
Command Processor -> Compute Command Processors.
Scheduler -> se sabe que se tiene por la documentación.
Glabal Data Share + L2 Cache -> eSRAM.
Geometry Processor -> se tiene (en naranja).
Rasterizer -> se tiene (amarillo).
Memory controller -> se tiene (verde MMU).
GCN y backend -> son algo común así que se tiene claro, aunque los núcleos GCN son de anterior generación.
Multimedia cores -> se tienen en H264.
Display engine -> se tienen en forma de coprocesadores (como escalado y composición).

Vemos que es lo mismo pero con lo que había en 2013, cambiando los cores GCN por los que había o estaban a punto de salir, y el multimedia en H264 porque el H265 aún no estaba con una implementación hardware.

Casualidad, casualidad [cof, cof].


En cuanto a los multimedia cores, existen dentro de ONE.

Mira:
"When we talk about the SoC and the general-purpose SoCs out there, this is per our requirement," Spillinger tells us while we huddle around the station. "This is our aggressiveness to have two HD streams being compressed, decompressed. It's actually a parallel circuit, it's not part of the CPU / GPU -- it's an add-on."


En cuanto a los hardware scheduler:

To facilitate this, in addition to asynchronous compute queues, the Xbox One hardware supports two concurrent render pipes. The two render pipes can allow the hardware to render title content at high priority while concurrently rendering system content at low priority. The GPU hardware scheduler is designed to maximise throughput and automatically fills "holes" in the high-priority processing. This can allow the system rendering to make use of the ROPs for fill, for example, while the title is simultaneously doing synchronous compute operations on the Compute Units.


En cuanto a los nuevos command processors:

We also took the opportunity to go and highly customise the command processor on the GPU. Again concentrating on CPU performance... The command processor block's interface is a very key component in making the CPU overhead of graphics quite efficient.


El H265.

Imagen

XBOX one codifica al vuelo en H265(HEVC) eso te puedo asegurar que no lo puedes hacer sin hardware específico, probablemente lo hacen los Multimedia Cores.

Y esperate que la cuarta generación de CU's no sea algo así:

Imagen
Lo del H265 es para estar mosca, si está ahí, ¿por qué no se puso en el diagrama?. En principio el H265 si podría decodificarse por software, estas máquinas van sobradas de potencia para hacerlo (H265 y los que vengan después vamos). Lo que no podrías es comprimir en tiempo real para emitir y cosas así, o usarlo en un entorno de pocos recursos, como con una app acoplada.
darksch escribió:Lo del H265 es para estar mosca, si está ahí, ¿por qué no se puso en el diagrama?.


Tu ya lo has visto, Spillinger dijo que eran capaces de hacer dos streaming simultaneos en HD gracias a un circuito adicional... Has visto también el slide de AMD en el que queda bien clarito que puede hacerlo.

Eso se le escapo cuando fueron los de engadget al laboratorio del silicio de XBOX ONE.

En ese articulo fue en el que pescaron los test de ray tracing que despúes aparecieron en la build de 2015.

Además mira:

In one corner, a massive 4K television is seamlessly playing two HD video streams from a single box.


http://www.engadget.com/2013/05/21/buil ... side-look/

Asi que streming 4K, mmmm y H265 mmmm. No pone eso en los slides de polaris???

Y to mismo lo has dicho decodificar va que va, pero codificar al vuelo al mismo tiempo que ejecutas un juego? eso es imposible si no hay nada en la manga.
Si ya si tener se tiene, de hecho según pone la propia AMD es lo que se usa para streaming a Windows. Pero como algo así van y lo ocultan en la hot chips de cara a poner los diagramas. Es lo que me resulta llamativo.
darksch escribió:Si ya si tener se tiene, de hecho según pone la propia AMD es lo que se usa para streaming a Windows. Pero como algo así van y lo ocultan en la hot chips de cara a poner los diagramas. Es lo que me resulta
llamativo.


Acuerdate que AMD ya oculto el HWS en las fury hasta la hotchips de este año.

Igual que sabemos que en ONE hay 47 megas de memoria en el SOC y solo se conocen 36.
papatuelo escribió:
cercata escribió:Será 2016 el año de la Xbox ONE Slim ? Yo creo que estrategicamente a Microsoft le interesa sacarla para estas navidades ... la pregunta estará AMD lista para fabricar la misma APU pero en 14/16nm ?

Yo apostaría a que la presentan en el E3, y en su tercer aniversario sale a la venta ...


Imagen
@Darksch

Os presento a polaris.
Imagen
Imagen
Imagen

The GPU design was modified to include new logical blocks. What’s new is Command Processor, Geometry Processor, Multimedia Cores, Display Engine and upgraded L2 Cache and Memory Controller.

Y todo esto para que una persona normal como yo entienda,que resultados podriamos ver en nuestros juegos de xbox one?.
Gracias
darksch escribió:Lo del H265 es para estar mosca, si está ahí, ¿por qué no se puso en el diagrama?. En principio el H265 si podría decodificarse por software, estas máquinas van sobradas de potencia para hacerlo (H265 y los que vengan después vamos). Lo que no podrías es comprimir en tiempo real para emitir y cosas así, o usarlo en un entorno de pocos recursos, como con una app acoplada.


Por aquí se solía decir que Microsoft cambia el nombre a las cosas, solo que se decía para mal, para decir que era igual que GCN 1.1 en todo. Pero en la hotchips mintieron (omitieron cosas) como con el H264 y con el Dx11.1+.
Parece que se vuelve a poner divertido esto, a ver si van sacando más info y vamos viendo más cositas en concreto. [buenazo]
darksch escribió:
papatuelo escribió:Os presento a polaris.
Imagen
Imagen
Imagen

The GPU design was modified to include new logical blocks. What’s new is Command Processor, Geometry Processor, Multimedia Cores, Display Engine and upgraded L2 Cache and Memory Controller.

No me digas! Eso es un cuento chino:
Imagen
Command Processor -> Compute Command Processors.
Scheduler -> se sabe que se tiene por la documentación.
Glabal Data Share + L2 Cache -> eSRAM.
Geometry Processor -> se tiene (en naranja).
Rasterizer -> se tiene (amarillo).
Memory controller -> se tiene (verde MMU).
GCN y backend -> son algo común así que se tiene claro, aunque los núcleos GCN son de anterior generación.
Multimedia cores -> se tienen en H264.
Display engine -> se tienen en forma de coprocesadores (como escalado y composición).

Vemos que es lo mismo pero con lo que había en 2013, cambiando los cores GCN por los que había o estaban a punto de salir, y el multimedia en H264 porque el H265 aún no estaba con una implementación hardware.

Casualidad, casualidad [cof, cof].


Otra coincidencia:

Imagen
jajaja, como dice el compañero de arriba!!! Se puede explicar para que lo entienda un ser humano medio? [+risas] [+risas]
mekausmal escribió:jajaja, como dice el compañero de arriba!!! Se puede explicar para que lo entienda un ser humano medio? [+risas] [+risas]


De momento poco se puede explicar, solo que parece haber coincidencias entre la nueva arquitectura de AMD y la arquitectura de XBOX ONE, pero de momento eso no significa nada.
Sí, significa que se basa en la arquitectura de las nuevas AMD pero hecho con lo que había entonces, por así decirlo.
Al parecer "Polaris" es la nomenclatura que asigna Netflix al dispositivo , en éste caso , a Xbox One

por ejemplo PS4 y WII U son denominadas "Pollux" y "Luma" respectivamente.

Feliz Año nuevo , hacía eones que no posteaba en EOL.

un saludo.
josemayuste escribió:Al parecer "Polaris" es la nomenclatura que asigna Netflix al dispositivo , en éste caso , a Xbox One

por ejemplo PS4 y WII U son denominadas "Pollux" y "Luma" respectivamente.

Feliz Año nuevo , hacía eones que no posteaba en EOL.

un saludo.


IWii U no es pollux. Pollux es solo para PS4

Eso lo dijimos ya un par de páginas atrás.

Ahora estamos con AMD Polaris.
papatuelo escribió:
cercata escribió:Será 2016 el año de la Xbox ONE Slim ? Yo creo que estrategicamente a Microsoft le interesa sacarla para estas navidades ... la pregunta estará AMD lista para fabricar la misma APU pero en 14/16nm ?

Yo apostaría a que la presentan en el E3, y en su tercer aniversario sale a la venta ...


Imagen
@Darksch

Os presento a polaris.
Imagen
Imagen
Imagen

The GPU design was modified to include new logical blocks. What’s new is Command Processor, Geometry Processor, Multimedia Cores, Display Engine and upgraded L2 Cache and Memory Controller.



Veo que el NDA a acabado efectivamente xD
En el CES igual sabemos mas cosas.
Os acrodáis de Doug Burger???

El tio del proyecto catapulta, es proyecto en el que se proponía usar FPGAs para aumentar brutalmente el rendimiento.

Aquel proyecto fue presentado por primera vez en una sesión del ISCA 2014 que comenzó con esta charla.
Imagen

Bonito nombre para una charla, no?

En aquel entonces se dijo que no tenía anda que ver con XBOX ONE puesto que Doug Burger no tenía anda que ver con el desarrollo de videoconsolas, a pesar del nombrecito de la charla.

Pues bien, he topado con una patente suya.

Imagen

Como podéis ver habla de una consola con memoria flash MLC tal y como se ve en el leak de 2012. Eso indicaría dos cosas, que Doug Burger si está involucrado y que hay más memoria en el SOC.

Recordad que es solo una hipotesis y que yo de techi tengo poco, asi que si alguien quiere echarle un ojo que se lo eche.
La cosa es saber si ha cambiado respecto a eso, como la RAM que son 8gb de DDR3 en vez de 4 de DDR4.

El chip de 8Gb de flash que tiene, es la MLC o la SLC?
En el SOC hay 4GB de HBM
Horizonte de sucesos escribió:En el SOC hay 4GB de HBM


En que SoC?
cercata escribió:La cosa es saber si ha cambiado respecto a eso, como la RAM que son 8gb de DDR3 en vez de 4 de DDR4.

El chip de 8Gb de flash que tiene, es la MLC o la SLC?


Claro, puede haber cambiado. Pero en general todo lo que salio en aquel leak está en la XBOX ONE. Hay pequeños cambios pero el concepto sigue.

No tienes dos CPUs y dos GPUs pero tienes los dos SO y se reservan recursos para uno u otro, no tienes DDR4 pero tienes un quad channel de DDR3 y la eDRam se ha convertido en eSram. Todo lo demás está, los aceleradores, la flas de fuera del SOC (que es la SLC), hasta el PSP (sistema de seguridad).

Aun así, parece demostras que Dough Burger está involucrado en el proyecto que no es moco de pavo,

Hace tiempo hablé del Fast Forward. En este proyecto está implicado por el lado de las memorias Gabriel H. Loh, este hombre ha trabajado en bastantes ocasiones con Dug Burguer. La solución que se da desde fast forward a las limitaciones de las memorias es:
Imagen

To illustrate, the reconfigurable logic fabric 134 could be implemented as an SRAM-based FPGA architecture


Asi que el PIM se haría en un bloque de memoria que podría llevar un FPGA y que en este caso es la SRam.
En nuestro caso sabemos que en ONE realmente pueden hacer PIM en la eSRam, o eso creo. ¿No sería esto una confirmación de que se esta haciendo "processing in memory"?
Imagen

Hipótesis (solo hipótesis):

Como he dicho muchas veces el tamaño de los supuestos 32 megas de ram no coinciden con el tamaño que deberían tener los 32 megas eSRam 6T. Que ni se sabe si es 6T se postulo que era 6T xq de otra forma faltaban transistores en el conteo y la gente desde los foros empezaron a decir que era 6T.

Sin embargo si considerámos eSram 1T como candidata en lugar de la 6T los 32 megas podrían ser perfectamente el bloque de memoria que hay entre los dos jaguar. De hecho creo que la evolucion directa de la eDram es la eSram 1T y es la que por ejemplo usa AMD en WiiU, si no me equivoco.

Pues ahora imagina que esa esram en los jaguar son los 32 megas y que las dos pastillas son la MLC, montalos en un interposer y tienes lo mismo que plantea el proyecto fast forward pero en 2,5D en lugar de 3D.

The IC package of claim 1, wherein the set of one or more stacked memory dies and the set of one or more logic dies are disposed in a side-split arrangement whereby the set of one or more logic dies is connected to the set of one or more stacked memory dies via an interposer.


Imagen

Que por cierto si os dais cuenta lo han sacado fuera para que se vea, pero iría dentro del SOC.

Os pongo las diapositivas del proyecto fast forward y veréis que hay muchas coincidencias en el planteamiento:

https://asc.llnl.gov/fastforward/AMD-FF.pdf

Y aquí cito a @KinderRey que hace mucho que no se pasa pero creo que con el fue con uno de los primeros que habé del fast forward.
salocin21 escribió:
Horizonte de sucesos escribió:En el SOC hay 4GB de HBM


En que SoC?


Pues en el de ONE. :-?

Cómo indica papatuelo la gente está ubicando mal la eSRAM
Horizonte de sucesos escribió:
salocin21 escribió:
Horizonte de sucesos escribió:En el SOC hay 4GB de HBM


En que SoC?


Pues en el de ONE. :-?

Cómo indica papatuelo la gente está ubicando mal la eSRAM


Hombre, eso es solo una especulación. Yo no puedo asegurar más que que las dimensiones no cuadran y que nadie sabe el tipo de eSram que lleva.
darksch escribió:Casualidad, casualidad [cof, cof].


Casualidad ninguna, no hay ningun bloque extra repecto a GCN 1.1, solo indican los bloques renovados.
Acabo de entrar en este hilo, el cual me parece de lo mejorcito que he visto en mucho tiempo en EOL, no es que entienda mucho del temas, sobre todo porque hay unas cuantas nomenclaturas que desconozco, pero creo que tengo un símil como que la xbox one es como un Caterham seven frente a un Big block americano que sería la competencia. (O eso es lo que he entendido)

Os leeré desde las sombras.
papatuelo escribió:
Muchas gracias, pero eso ya se ha hablado muchas veces.

El quid del asunto en este caso es que eso de XBOX ONE como F_L_12_1, que habéis negado en infinidad de ocasiones, salvo error en ese slide parece que podría ser cierto.


No necesariamente, el feature level del hardware es uno, pues cada FL incluye los anteriores, el slide sin embargo muestra 3. Eso significa que esos son los FL que soporta el software.

Aun así parece logico que si el soft soporta 12.1 es que el hard debe hacerlo, pero el caso es que ONE tambien soporta la creacion de dispositivos WARP que es un renderer D3D por software, así que el que el soft soporte 12.1 no implica que el hard lo haga. Lo del WARP de hecho ya lo ha dejado caer alguien no se si en tono ironico pero no quita lo dicho.
Shynobyn escribió:
darksch escribió:Casualidad, casualidad [cof, cof].


Casualidad ninguna, no hay ningun bloque extra repecto a GCN 1.1, solo indican los bloques renovados.


The GPU design was modified to include new logical blocks. What’s new is Command Processor, Geometry Processor, Multimedia Cores, Display Engine and upgraded L2 Cache and Memory Controller.

¿Te parece poco? ¿No ves ningún parecido con Xbox One?

Por otro lado segun la diapositiva de Dx12_1, son features soportadas por hardware. Lo dice claramente.
Shynobyn escribió:
darksch escribió:Casualidad, casualidad [cof, cof].


Casualidad ninguna, no hay ningun bloque extra repecto a GCN 1.1, solo indican los bloques renovados.


La última iteración de GCN es la 1.2 que ya presenta cambios respecto a la 1.1, la que estáis empecinados en decir que es la que monta ONE.

Estos cambios como bien dices son renovaciones, pero eso no quita que esas renovaciones coincidan con los puntos que se han tocado en XBOX ONE. La disposición de los compute engines en ONE es diferente, y tiene cosas en comun con GCN 1.2 ¿Donde ves tú el Hardware Scheduler en GCN 1.1? Te recuerdo que en GCN 1.1 tienes 8 aces, mientas que en GCN 1.2 tienes 4 aces + 2 hardware schedulers, en ONE tienes 2 Aces y 1 hardware scheduler. Si el compute engine en XBOX ONE fuera GCN 1.1, la consola solo manejaría 16 colas de trabajo, esta confirmado que soporta 32, vamos como GCN 1.2.

Otro de los bloques que se tocan en polaris es el CP, el CP se ha tocado por que en DX12 se convierte en un cuello de botella, y como bien sabes si has leido la entrevista de digital foundry a los arquitectos de ONE está tiene un comand processor altamente modificado.

Por otro lado hasta GCN 1.2 ninguna arquitectura GCN codifificaba H265 por hardware, XBOX ONE codifica al vuelo en H265 al mismo tiempo que ejecuta un juego. Si alguna vez has echado un ojo para ver lo que cuesta codificar eso por software entenderas que no es posible ese camino en XBOX ONE. Esa es una característica compartida con polaris que probablemente se hace en los multimedia cores, ¿dónde dices que están los multimedia cores en GCN 1.1?

Por otro lado ya han dicho que se vienen nuevos compute units, en este sentido aun no sabemos que hay o como son, lo que sí sabemos es que los de ONE no son normales.

XBOX ONE
Imagen

GCN
Imagen
Szasz escribió:
Shynobyn escribió:
darksch escribió:Casualidad, casualidad [cof, cof].


Casualidad ninguna, no hay ningun bloque extra repecto a GCN 1.1, solo indican los bloques renovados.


The GPU design was modified to include new logical blocks. What’s new is Command Processor, Geometry Processor, Multimedia Cores, Display Engine and upgraded L2 Cache and Memory Controller.

¿Te parece poco? ¿No ves ningún parecido con Xbox One?

Por otro lado segun la diapositiva de Dx12_1, son features soportadas por hardware. Lo dice claramente.

http://www.elotrolado.net/viewtopic.php?p=1740563345

Casualidad.
papatuelo escribió:
Shynobyn escribió:
darksch escribió:Casualidad, casualidad [cof, cof].


Casualidad ninguna, no hay ningun bloque extra repecto a GCN 1.1, solo indican los bloques renovados.


La última iteración de GCN es la 1.2 que ya presenta cambios respecto a la 1.1, la que estáis empecinados en decir que es la que monta ONE.

Estos cambios como bien dices son renovaciones, pero eso no quita que esas renovaciones coincidan con los puntos que se han tocado en XBOX ONE. La disposición de los compute engines en ONE es diferente, y tiene cosas en comun con GCN 1.2 ¿Donde ves tú el Hardware Scheduler en GCN 1.1? Te recuerdo que en GCN 1.1 tienes 8 aces, mientas que en GCN 1.2 tienes 4 aces + 2 hardware schedulers, en ONE tienes 2 Aces y 1 hardware scheduler. Si el compute engine en XBOX ONE fuera GCN 1.1, la consola solo manejaría 16 colas de trabajo, esta confirmado que soporta 32, vamos como GCN 1.2.

Otro de los bloques que se tocan en polaris es el CP, el CP se ha tocado por que en DX12 se convierte en un cuello de botella, y como bien sabes si has leido la entrevista de digital foundry a los arquitectos de ONE está tiene un comand processor altamente modificado.

Por otro lado hasta GCN 1.2 ninguna arquitectura GCN codifificaba H265 por hardware, XBOX ONE codifica al vuelo en H265 al mismo tiempo que ejecuta un juego. Si alguna vez has echado un ojo para ver lo que cuesta codificar eso por software entenderas que no es posible ese camino en XBOX ONE. Esa es una característica compartida con polaris que probablemente se hace en los multimedia cores, ¿dónde dices que están los multimedia cores en GCN 1.1?

Por otro lado ya han dicho que se vienen nuevos compute units, en este sentido aun no sabemos que hay o como son, lo que sí sabemos es que los de ONE no son normales.

XBOX ONE
Imagen

GCN
Imagen


Para mi hay algunos pasos lógicos q se tienen q dar en GCN. Ahora q nos vamos a librar de la GDDR5 en las GPUs ya no necesitamos q no sean sensibles a la latencia. Ya no hay q alargar algunas etapas para q ello suceda.
Hasta ahora las GPUs con GDDR5 a parte de para gfx, es cierto q se habían utilizado para computar en grandes estaciones de trabajo con rendimientos increíbles. Sin embargo, en esta nueva era de la computación lo q se necesita es "irregularidad", "granulidad" o como queráis llamarlo. Es necesario trabajar con pequeños datos y no solo con grandes bloques de datos. Es necesario q se parezcan más y más a una CPU.
Esta idea es la q he defendido desde el día 0 con One y su polémica Sram.


Las memorias HBM permiten dar ese paso con la seguridad q da poder trabajar tanto con grandes bloques de datos como con pequeños bloques de datos y por lo tanto iremos viendo poco a poco ese cambio en los juegos. Para ello no basta con modificar el tipo de memoria, hay q hacer algunos retoques más y uno de ellos muy importante es la coherencia y el controlador de memoria (hola GPUMMU).

*Esta información esta basada en opinión personal del autor, cualquier parecido con la realidad será pura coincidencia.

"2016 will be a very exciting year for Radeon fans driven by our Polaris architecture, Radeon Software Crimson Edition and a host of other innovations in the pipeline from our Radeon Technologies Group.”


When it comes to the GCN ( Graphics Core Next ) engine itself, AMD outlined a number of fundamental features that define the architecture and they include :

– Primitive Discard Accelerator
– Hardware Scheduler
– Instruction Pre-Fetch
– Improved Shader Efficiency
– Memory Compression



In addition to the foundation of AMD’s current generation GCN architecture, 4th generation GCN introduces new features. One notable new feature is primitive discard acceleration, which in no certain terms is AMD’s way of revealing that its upcoming GPUs will add support for additional key DirectX12 features such as Conservative Rasterization.

Furthermore, this list does a great job of showcasing just how advanced modern GPUs have become. Instruction pre-fetch is a technology that’s long been employed in CPUs and it works to improve performance by reducing stalls and unnecessary wait times. So it’s quire remarkable that this technology is now part of modern graphics engines. Which really goes to show just how complex these beasts have become.

It’s important to note though that instruction pre-fetching in GPUs isn’t an entirely new addition, current graphics architectures do support various implementations of it. However, these implementations have been traditionally quite limited in nature and it’s AMD’s plan to push for a more robust implementation to realize all the compute benefits that instruction pre-fetching entails.

http://wccftech.com/amd-polaris/
Si claro va todo de la mano.

HSA para computación mixta.

Para computación puramente GPU (porque convenga) la GDDR es digamos rentable para computación más bien grandes, mientras que la SRAM es buena tanto para grandes como para computaciones más pequeñas, dada su nula latencia y posibilidad simultánea de lectura-escritura. Pero esto suponía que ya estaba claro.
Soy seguidor del hilo y todo muy bien y tal pero... ¿Entonces dónde ha quedado aquello q se decía de q veríamos unos gráficos del nivel de la película Avatar? Nos olvidamos de ésto o seguimos creyendo en q es posible?
Eso se llama marketing y lo usan todas las marcas. Quien se piense que en 17-33ms se puede renderizar lo mismo que en 10 horas (por poner un ejemplo) tan a la ligera pues no es muy creíble.

Por poner un ejemplo:
http://blenderartists.org/forum/showthread.php?262925-Rendering-Time
Lord Of The Rings. The render time for one frame of Treebeard was 48 hours( 2 Days)

48 horas por cada fotograma de Bárbol en el SdlA.
duazizou escribió:Soy seguidor del hilo y todo muy bien y tal pero... ¿Entonces dónde ha quedado aquello q se decía de q veríamos unos gráficos del nivel de la película Avatar? Nos olvidamos de ésto o seguimos creyendo en q es posible?


Pues depende, está claro que eso era un poco exageración para llamar la atención.

Lo que si que es cierto es que se está trabajando muy mucho para mejorar los temas de iluminación que son los que más afectan al realismo de la escena.

Si has jugado a Tomb Raider te habrás dado cuenta de la iluminación tan soberbia que tiene, llegando en muchas a ocasiones a superar lo que en otros juegos es CGI.

Y tiene que haber aun mejores cosas por venir, a quien no lo recuerdo se lo recuerdo. Se ha investigado el uso de ray-tracing en XBOX ONE y existen demos que ya han utilizado esa tecnología en XBOX.
duazizou escribió:Soy seguidor del hilo y todo muy bien y tal pero... ¿Entonces dónde ha quedado aquello q se decía de q veríamos unos gráficos del nivel de la película Avatar? Nos olvidamos de ésto o seguimos creyendo en q es posible?

Lo de gráficos de Avatar lo dijo AMD 2 años antes de que saliese la ONE, y no han vuelto a decir nada parecido.

Hace no tanto, como cosa de un año, el Bocachancla, esto quiero decir Brad Wardell dijo que con DX12 se conseguirían gráficos con calidad CGI:
http://forums.anandtech.com/showthread.php?t=2420210

Yo a tanto no creo que lleguen, pero sí que espero que haya una mejora ... es cuestión de esperar. De momento los juegos van teniendo cada vez una iluminación mas realista, como el tomb raider o el star wars.
cercata escribió:
duazizou escribió:Soy seguidor del hilo y todo muy bien y tal pero... ¿Entonces dónde ha quedado aquello q se decía de q veríamos unos gráficos del nivel de la película Avatar? Nos olvidamos de ésto o seguimos creyendo en q es posible?

Lo de gráficos de Avatar lo dijo AMD 2 años antes de que saliese la ONE, y no han vuelto a decir nada parecido.

Hace no tanto, como cosa de un año, el Bocachancla, esto quiero decir Brad Wardell dijo que con DX12 se conseguirían gráficos con calidad CGI:
http://forums.anandtech.com/showthread.php?t=2420210

Yo a tanto no creo que lleguen, pero sí que espero que haya una mejora ... es cuestión de esperar. De momento los juegos van teniendo cada vez una iluminación mas realista, como el tomb raider o el star wars.


Brad Wardell matizo aquello y dijo que lo que veríamos serían soluciones de iluminación mucho más complejas. Precisamente por eso yo he contestado lo que contestado.

Vino a decir: Puedes ver una imagen rederizada con una calidad bestial y sin embargo tu cerebro siempre notara que no es real, aunque lo no lo sepas lo que nota es que la iluminación no es la que debería ser. Eso es por que en pantalla solo pueden tenerse unos cuantos focos de luz mientras que en la realidad tienes miles de focos. DX12 permitirá que con el mismo hardware que antes solo movia unos pocos focos puedas mover todos esos puntos de luz que necesitas.

Y puso como ejemplo las pelis precuela de star wars, dijo que la iluminación era muy pobre y que en videojuegos veriamos iluminaciones mucho más potentes que esa.

Por cierto: Boca chancla como le llamáis junto con Dan Baker son los developers que más han estado metidos en el ajo durante todo el proceso de desarrollo de DX12.
papatuelo escribió:Por cierto: Boca chancla como le llamáis junto con Dan Baker son los developers que más han estado metidos en el ajo durante todo el proceso de desarrollo de DX12.

Si de verdad mejora tanto la iluminación con DX12 dejare de llamarle bocachancla y le adoraré ...

Ademas del numero de luces, esta el numero de rebotes que puede tener cada luz, y me conformaría con que aumentasen eso.

Lo dicho, deseoso de ver los resultados, y ojala me trague lo de bocachancla !!!!!
Lo de la luz tiene mucha tela detras, no son solo rebotes, que tambien, sino que cada cuerpo desprende una luz, y aunque es minima, afecta a los colores ambientales.

Yo lo que creo es que esta gen es transitoria, hay muchas nuevas tecnologias que dentro de 3-4 años van a dejarnos asombrados, por eso pienso que esta gen es transitoria y la proxima va a tener un enorme salto
Nuhar escribió:por eso pienso que esta gen es transitoria y la proxima va a tener un enorme salto

Por mucho salto que haya en la próxima, no te vas a dar mucha cuenta, los graficos de los ultimos juegos son de escandalo ...

La proxima gen toda Realidad Virtual, o si hay mucha suerte, Realidad Aumentada.
17587 respuestas