Hablemos del interior de Xbox One

Lo que daria yo por recuperar mi coleccion de juegos arcade de 360 o al PGR3 o al Ninja Gaiden Black o a Bayonetta, lamentablemente la 360 no es una opcion hoy dia.

Yo siempre he pensado que la retro de la 360 no la tendriamos jamas porque la retro cuando realmente supone un empujon es los primeros años luego no creo que el esfuerzo economico les reportara casi nada pero siempre que en cualquier conferencia anunciarian la retro de la primera Xbox.

Y recuerdo que en su momento, como usuario tambien de pc, lei informaciones sobre que Ms estaba trabajando en un servicio de streaming con el que podrias jugar los juegos de 360 en PC y en otras plataformas, aqui dejo un par de enlaces despues de una busqueda rapida en google

http://www.pcworld.com/article/2605423/ ... laims.html

http://www.gamespot.com/articles/micros ... 0-6422323/
eloskuro escribió:Sería muy dificil que se llegase a una solucion como la de que te deje instalar el juego de xbox 360 con el dvd, y que la xbox one hiciese llamadas a la nube que emularia el hard?


Mas que muy dificil...

- Para que tomarse el trabajo de desarrollar eso y tener una emulacion always-online solo para one cuando puedes dedicar esos recursos a desarrollar un gaming por streaming que valdria para juegos de distintas plataformas en clientes diferentes?

Que ventajas te aporta? Total, depende de la nube y la latencia para poder jugar, y limitas el sistema solo a x360 como origen de juegos y la one como destino de reproduccion.

Yo no le veo sentido practico. Es mucho mas practico escalable y versatil una solucion puramente de stream a thin-clients.

@eloskuro: postee tu aporte de la entrevista sobre las resoluciones en el hilo de multi y lo hice como [quote] tuyo para mantenerte la autoria del aporte. Te los quito para que se vaya la pelotilla? xD
Zokormazo escribió:+1 a Nuhar.

Y no solo a pc, a cualquier dispositivo compatible. Desde un pc, a la one, a un movil con wp o al "donglecast" de microsoft.

El futuro esta ahi, se ahorra mucho en hardware client-side, es mucho mas facil llegar a muchisima mas gente y en las condiciones que esa gente quiera.

Y no solo vender, puedes tener una plataforma tipo netflix donde puedas vender, alquilar, prestar o lo que sea.

Que para el core gamer no sea muy atractivo esto de que todo sea cloudside no creo que vaya a parar esa tendencia a medio plazo.


Para el juascore dices?

Quitando los amantes de lo fisico, tanto de los juegos como del hardware, a los demás en cuanto les des juegos en ultra y a buen precio te van como moscas.

Seguramente para acceder al servicio necesitaras una cuenta Gold, que es lo que puede echar algo para atrás a menos que sigan regalando juegos.
Habria una oleada de criticas brutal al principio.

Eso si, como despues pongas a la venta un pincho hdmi + mando por 100$ y puedas ejecutar juegos a 4k en ultra, adios lloros y chorradas xD

EDIT: ofc, me da a mi que seria una plataforma con cuota. Un netflix del gaming
Zokormazo escribió:Habria una oleada de criticas brutal al principio.



Nada que no se arregle haciendo una beta (gratis) y/o añadiendo alguna promoción tipo, registrate ahora y el primer mes es gratis con A, B y C juegos (valido hasta XX/YY/ZZ).

Siempre que no haya lag y los juegos se vean mínimo en High. Todo lo demás lo hace el boca a boca.

De todas formas, si los usuarios de Xbox lo tienen "gratis", ya va a ser un servicio muy usado.
hadock0 escribió:
¿Alguien puede explicar que significa " 768 op with 1536 ALU !!!!!"?
Gracias - No lo entiendo bien.


Realmente hay poco q explicar. 768 operaciones con 1536 ALUs.

Lo q pasa q lo normal es q haya una operación por ALU. Es decir, q si tienes 1536 ALUs, tendrías q tener 1536 operaciones. Una ALU es una unidad aritmética logica.

http://es.m.wikipedia.org/wiki/Unidad_a ... %C3%B3gica

Lo "curioso", es q One tiene 768ops por ciclo, pero se pueden ver 1536 ALUs.

¿Me puedes mandar el enlace de la fuente? Aunque sea por privado. Quiero echarle un vistazo.

Gracias
Mas madera!!!

Professors Mark Hill and David Wood will be giving a talk on Tuesday November 11th titled: "Making Graphics Processing Unit Memory Systems More General Purpose". Details are provided below.

When: Tuesday, November 11th - 4:00pm
Where: 1240 CS

Description:

Graphics Processing Units (GPUs) are being re-purposed to perform general-purpose computations as they offer the potential for better performance and and lower energy than conventional CPUs for some workloads. Effective use of GPGPUs, however often requires the programmer and/or runtime software to explicitly manage the logical name (address) and/or physical location of data. It is our hypothesis--shared by some--that GPGPUs can be made more generally effective if all CPU-GPU program threads can access data via a uniform virtual address backed by hardware data movement support. To this end, this talk discuss three advances by researchers at Wisconsin and AMD.

LOW-OVERHEAD GPU ADDRESS TRANSLATION. For increased programmability (e.g., pointer-based data structures), memory accessed by CPUs and GPUs should be uniformly virtualized, necessitating compatible address translation support for GPU memory references. However, even a modest GPU might need 100s of translations per cycle with memory access patterns designed for throughput more than locality. We show how a judicious combination of extant CPU MMU ideas satisfies GPU MMU: per-compute unit TLBs, a shared highly-threaded page table walker, and a shared page walk cache. See Power et al. HPCA 2014.

FAST GPU SYNCHRONIZATION. GPUs have specialized throughput-oriented memory systems optimized for streaming writes but that make expensive currently-rare synchronization (e.g., a flush). A challenge is how to better support irregular applications with finer-grain synchronization without abandoning the throughput-oriented memory systems that differentiate GPUs from CPUs. We offer QuickRelease (QR) that (a) uses a FIFO to enforce the partial order of writes so that synchronization operations can complete without frequent cache flushes and (b) partitions read and write resources to reduce the penalty of writes on read performance. See Hechtman et al. HPCA 2014.

HETEROGENEOUS MEMORY MODELS. Many future heterogeneous systems (e.g., integrated CPUs and GPUs) will (a) support a global memory address space for all components, but (b) have non-global "scoped" synchronization operations since global synchronization is expensive and often unnecessary. We formalize scoped synchronization use by building on conventional data-race-free models (e.g., C++ and Java). Called sequential consistency for heterogeneous-race-free (SC for HRF), the new models guarantee SC for programs with "sufficient" synchronization (no data races) of "sufficient" scope. See Hower et al. ASPLOS 2014.


Un saludo!
@argam

Traduce, no al español, al ignorante.

¿Eso esta relacionado con ONE?
Nuhar escribió:Y aunque pudiera la Xbox One emular por hardware, si les sale muy caro y estan desarrollando la tecnología por la nube, seguramente tampoco lo haran.


Difícil. Recuerda que con la primera xbox ya tuvieron problemas. Esto es trabajo de ingeniería de software y les puede llevar meses y, luego, ves depurando. Pero, bueno, ya veremos que deciden.

Hay una diferencia muy grande entre jugar por streaming o que la nube emule el powerpc. En el primero no todo el mundo tiene una buena conexión y jugar de forma estable a 720p y 30fps es complicado (al menos en España y con la tecnología actual). Lógicamente, tiene sus ventajas pues puede jugar cualquiera sin necesidad de tener la consola, pero no sé si eso les va a interesar. Tal como dice Nuhar (creo que es) puede que cobren el servicio a quien no use una one o que el servicio sea gratis, pero se paguen los juegos. Con lo cual, todo el que tenía una 360, puede acceder a sus juegos de forma gratuita.
papatuelo escribió:@argam

Traduce, no al español, al ignorante.

¿Eso esta relacionado con ONE?


Es una charla en la universidad. En principio es algo generico ya que ese trabajo lo han hecho con AMD, pero me suena que Mark Hill ha estado en alguna que otra conferencia de Microsoft y ha trabajado con ellos.

Ademas se cita lo siguiente:

"CPU-GPU program threads can access data via a uniform virtual address backed by hardware data movement support"

Esto suena algo a la arquitectura de la One por el tema de los data movers. Pero tampoco soy un experto en el tema y puede que los data movers sean algo mas generico que los move engines de la one.

Un saludo!
framed escribió:
Nuhar escribió:Y aunque pudiera la Xbox One emular por hardware, si les sale muy caro y estan desarrollando la tecnología por la nube, seguramente tampoco lo haran.


Difícil. Recuerda que con la primera xbox ya tuvieron problemas. Esto es trabajo de ingeniería de software y les puede llevar meses y, luego, ves depurando. Pero, bueno, ya veremos que deciden.

Hay una diferencia muy grande entre jugar por streaming o que la nube emule el powerpc. En el primero no todo el mundo tiene una buena conexión y jugar de forma estable a 720p y 30fps es complicado (al menos en España y con la tecnología actual). Lógicamente, tiene sus ventajas pues puede jugar cualquiera sin necesidad de tener la consola, pero no sé si eso les va a interesar. Tal como dice Nuhar (creo que es) puede que cobren el servicio a quien no use una one o que el servicio sea gratis, pero se paguen los juegos. Con lo cual, todo el que tenía una 360, puede acceder a sus juegos de forma gratuita.

Menuda burrada , emular un PowerPC en la nube .... Y el resto como la GPU quien la xboxone , como piensas conectar la CPU emulada por la nube con la GPU de la consola , cuantos es el ancho de banda de la CPU y GPU de la xbox360 ....
nanoxxl escribió:
framed escribió:
Nuhar escribió:Y aunque pudiera la Xbox One emular por hardware, si les sale muy caro y estan desarrollando la tecnología por la nube, seguramente tampoco lo haran.


Difícil. Recuerda que con la primera xbox ya tuvieron problemas. Esto es trabajo de ingeniería de software y les puede llevar meses y, luego, ves depurando. Pero, bueno, ya veremos que deciden.

Hay una diferencia muy grande entre jugar por streaming o que la nube emule el powerpc. En el primero no todo el mundo tiene una buena conexión y jugar de forma estable a 720p y 30fps es complicado (al menos en España y con la tecnología actual). Lógicamente, tiene sus ventajas pues puede jugar cualquiera sin necesidad de tener la consola, pero no sé si eso les va a interesar. Tal como dice Nuhar (creo que es) puede que cobren el servicio a quien no use una one o que el servicio sea gratis, pero se paguen los juegos. Con lo cual, todo el que tenía una 360, puede acceder a sus juegos de forma gratuita.

Menuda burrada , emular un PowerPC en la nube .... Y el resto como la GPU quien la xboxone , como piensas conectar la CPU emulada por la nube con la GPU de la consola , cuantos es el ancho de banda de la CPU y GPU de la xbox360 ....


No digo que vaya a ser así pero esto tendría algo que ver:
Imagen
Emulación en la nube es una cagada, tienes un bajón en la línea porque otro la use y el juego se resiente. Encima por qué tengo que jugar a 30 fps al After Burner o Guardian Heroes, ya si vamos a juegos como Ikaruga, que horror.

La única forma interesante es si sale gratis, es decir que siendo Gold puedas jugar por streaming a los juegos que tuvieras en X360, eso sí serían los digitales porque los físicos no hay manera de comprobar en el sistema de X360 si los tienes o no.

Se podría intentar virtualizar, los 6 núcleos para el SO de juegos los puedes juntar a pares para emular 1 núcleo del PPC, además que 2 núcleos comparten caché L3 por lo que es más fácil que puedan funcionar así. Y para la GPU, una es la evolución de la otra así que seguramente bastaría con un traductor de instrucciones, incluso puedes reservar 10MB de eSRAM para emular la eDRAM.
framed escribió:Hay una diferencia muy grande entre jugar por streaming o que la nube emule el powerpc. En el primero no todo el mundo tiene una buena conexión y jugar de forma estable a 720p y 30fps es complicado (al menos en España y con la tecnología actual). Lógicamente, tiene sus ventajas pues puede jugar cualquiera sin necesidad de tener la consola, pero no sé si eso les va a interesar. Tal como dice Nuhar (creo que es) puede que cobren el servicio a quien no use una one o que el servicio sea gratis, pero se paguen los juegos. Con lo cual, todo el que tenía una 360, puede acceder a sus juegos de forma gratuita.


Y con la segunda no? Si el ppc esta emulado en la nube y la gpu en el hardware no tenemos aun mas consumo de bandwidth y latencia?

wikipedia escribió:The eDRAM internal logic to its internal memory bandwidth is 256 GB/s. The high bandwidth is used primarily for z-buffering, alpha blending, and antialiasing; it saves time and space on the GPU die. Between the eDRAM die and the GPU, data is transferred at 32 GB/s.[7] The memory interface bus has a bandwidth of 22.40 GB/s and the Southbridge a bandwidth of 500 MB/s.


Eso es bastante mas consumo que lo que supone un video a 720p con 30fps. Obviamente no sera todo eso ni todo el rato, pero vamos, un stream es mucho mas viable en cuanto a bandwidth y latencia que la computacion hibrida que proponeis.

Como afectaria el tener un RTT de 50ms entre gpu/ram y cpu a la ejecucion del juego? Y solo 50ms eh, no me estoy iendo a >100ms.

Sinceramente, yo no le veo ningun sentido tecnologico a estos montajes que os ideais con una emulacion de la cpu en nube, el data del juego en local y la gpu en local.

El unico sentido que le veo es el deseo de que podais meter vuestro dvd de x360 para poder jugar en la one.

@papatuelo: de poco te sirve bajar la latencia ethernet<->cpu en este caso, puesto que la mayor latencia la tendras entre la ethernet y el servidor remoto que esta en manos de la isp. En que te beneficia reducir la latencia ethernet<->cpu en 0,2 ms (por decir un numero) si despues tenemos un RTT de 50+ ms al servidor donde se ejecuta la cpu emulacion del ppc?

@darksch: Quizas sea viable, pero uf, yo veo MUY dificil emular un core del ppc sobre dos cores de jaguar. Seran capaces los jaguar de sacar las operaciones a tiempo? Aqui no nos sirven las medias tintas, o sacas cada instruccion a tiempo o se resentira muy mucho el juego, y emular ya es bastante costoso computacionalmente para que ademas tengas que alcanzar clocks que cada core no es capaz de alcanzar. Aun usando dos, yo lo veo muy complicado por no decir imposible
darksch escribió:La única forma interesante es si sale gratis, es decir que siendo Gold puedas jugar por streaming a los juegos que tuvieras en X360, eso sí serían los digitales porque los físicos no hay manera de comprobar en el sistema de X360 si los tienes o no.

Yo ni aun así lo querría ... la nube para los que es !!!!!
Ya que aqui se habla de hardware, efectivamente al principio, aparte de las diferencias de hard (lo que incluye potencia de calculo, arquitectura etc) era totalmente cierto que Xbox One contaba con unas herramientas nefastas. Me ha sorprendido para bien que COD: AW tenga un mejor rendimiento en XBO, y de forma considerable ademas, unos 60 mucho mas solidos y en la version de PS4 con mas caidas frecuentes a 50/40 fps.

Imagen

Y esto es altamente frecuente si veis el video de la comparativa.

https://www.youtube.com/watch?v=NxLr0vcoFLk


Se comenta que en Xbox One hay un ligerisimo tearing en ocasiones muy puntuales, ya que tiene v-sync adaptable, pero no justifica para nada esa diferencia en el framerate.


Por no hablar de la mejora brutal respecto a Ghost, que tenia un motor grafico mucho mas old-gen e iba a 720p. Un muy buen rendimiento de la maquina.
Estas comparaciones son las que crean polemicas infructuosas e indeseables.

En Ps4 la resolucion es fija y en Xb1 variable y menor justamente para mantener el framerate, no hay version estrictamente mejor, no son comparables.
Ya sabéis cual es el topic del hilo, por favor, centraros en el.

Gracias.
ahona escribió:Ya sabéis cual es el topic del hilo, por favor, centraros en el.

Gracias.


Hola, por curiosidad, por quien lo dices exactamente? espero que no sea por mi, porque creo que en un hilo sobre el hardware de la consola, tiene perfectamente cabida hablar de los resultados de ese hardware, vamos, digo yo.
Hablar del hardware si tiene cabida. Una comparativa face-off con ps4 no.

Un mensaje de ese pelo es mucho mas incendiario de lo que pueda parecer a priori xD
Pero es que para hablar de hardware, lo mas adecuado es precisamente ver los resultados de ese hardware. Es como si hablamos de calculos matematicos y no se dejan poner los resultados.

De hecho, no hay nada mejor para medir el hardware que los resultados que este pueda dar. Si quereis se quita la comparativa con PS4 (que es el hardware mas parecido y el mas comparable en cuanto a consolas), pero es casi inevitable la comparacion, pero para hablar de hardware se tiene que hablar inevitablemente de los resultados que puede dar. De hecho en PC los benchmarks estan para algo.
No, a ver, que parece de broma tener que explicar esto a estas alturas del hilo.

Se pueden poner resultados del hardware, por supuesto, pero NO se pueden poner comparativas.
Es que como andan los nervios por estos foros eso es como fumar en una gasolinera.

A mí no me molestan pero hay mucha "sensibilidad" por aquí.
nanoxxl escribió:Menuda burrada , emular un PowerPC en la nube .... Y el resto como la GPU quien la xboxone , como piensas conectar la CPU emulada por la nube con la GPU de la consola , cuantos es el ancho de banda de la CPU y GPU de la xbox360 ....


Hay varias formas de hacerlo. Primero, la GPU no necesita emularse. Segundo, tú puedes emular la cpu que son sólo instrucciones y convertirlas a las que necesita la consola. Todo lo demás (texturas, audio, etc) ya lo tienes en el juego. De todos modos, es sólo una idea, hay más formas de hacerlo. Lo bueno de la programación es que lo puedes hacer todo, sólo necesitas potencia (y en la nube tienes de sobra). No veo la diferencia entre emular una 360 en One o emular parte de ella o toda en la nube. Recuerda que un emulador lo que hace es capturar la instrucciones del hardware original y convertirlas a instrucciones del nuevo hardware. Incluso se podría cargar todo el nivel en la nube, hacer el proceso de emulación, devolverlo a la one y empezar a jugar.
Zokormazo escribió:Bueno volvamos al topic.

@Nuhar @papatuelo @eloskuro @darksch @nopuedomencionaramas: A K o R?

¿En la CPU de la consola o de la nube?.
Una pregunta. Podría MS subir la potencia otra vez de la GPU a unos digamos, hipoteticos 1Ghz?

Una vez leí que posiblemente los juegos de la Xbox One llevasen su propia copia del SO "game os" para asegurarse que no hubiese nunca fallo en este a la hora de ejecutar el juego, y que fuese uno de los posibles motivos de tener 3 SO
Imagen

Podria darse el caso que un juego actual forzase con su SO propio a jugar a 853 Mhz y los hipoteticos juegos futuros forzasen la GPU a 1Ghz?

Tecnicamente sería posible?
Tecnicamente si.

En pc puedo tener 4 linux distintos en el pc que cambien el max_freq en sysctl y cambiar la frecuencia maxima. Porque no en one? Si el bootloader y el hypervisor lo permiten...
Y no se quema nada por el camino xD
eloskuro escribió:Y no se quema nada por el camino xD


La arquitectura GCN aguanta 1Ghz fácilmente. Al igual q los jaguar superan los 2Ghz con facilidad.

El problema q se genera es el aumento de consumo y temperatura. Especialmente el de consumo, q se dispara de forma drástica.

Así q técnicamente es posible. Y recuerdo q Dx12 reduce el consumo y el calor generado. Por lo q podría pretarse un poco más por ahí. Además de q el sistema de refrigeración de One ha demostrado ser potente.
Eso ya es otra cosa. Obviamente si el hard no da para subir de clock porque quemaria el salon no hay mucho que hacer
El tema de la resolucion variable me parece muy interesante y no entiendo como no se aplica mas a menudo. Si tienes un juego que va en el 90% del tiempo a 60fps, me parece una cagada sufrir caidas cuando se podrian evitar reduciendo algo la resolucion. Me da que veremos esta solucion implementada en mas juegos conforme avance la generacion.

Por cierto, lo raro es que lo hayan implementado en una maquina y no en la otra...

Ah, y para mi es una K de todas todas [hallow]

Un saludo!
You probably know that DirectX 12 is designed for performance.

What you may not know is that the same design decisions that make DirectX 12 so performant also make it incredibly power efficient. This allows you to play all of your favorite games on portable devices without having an uncomfortably hot device on your lap or as much of a need to carry around a cumbersome power adapter.

http://blogs.msdn.com/b/directx/archive ... vings.aspx

Sinceramente, no creo q toquen los clocks de la consola. Pero subir la GPU a 900mhz y la CPU a 1,9ghz se podría hacer con bastante facilidad.
Gasta menos energia por que necesita menos tiempo de proceso para hacer lo mismo que antes pero si les subes los relojes los picos de consumo y de temperatura tienen que subir independientemente de que el cpu y gpu rindan mas.

Supongo que la consola se podra subir por que se ejecuta fresquita lo que no se es si es una buena dinamica, si con directx12, suponiendo que no este usando ya alguna mejora que la iguale mucho, consigue mejor rendimiento igual una subida de relojes no es necesaria.

Si subes relojes sin subir voltaje¿el aumento de consumo y temperatura no es un poco marguinal?
argam escribió:El tema de la resolucion variable me parece muy interesante y no entiendo como no se aplica mas a menudo. Si tienes un juego que va en el 90% del tiempo a 60fps, me parece una cagada sufrir caidas cuando se podrian evitar reduciendo algo la resolucion. Me da que veremos esta solucion implementada en mas juegos conforme avance la generacion.

Por cierto, lo raro es que lo hayan implementado en una maquina y no en la otra...

Ah, y para mi es una K de todas todas [hallow]

Un saludo!


Pues sencillamente por que el método utilizado requiere un pool de memoria de baja latencia, para gdrr5 no es es viable tecnicamente.
salocin21 escribió:
argam escribió:El tema de la resolucion variable me parece muy interesante y no entiendo como no se aplica mas a menudo. Si tienes un juego que va en el 90% del tiempo a 60fps, me parece una cagada sufrir caidas cuando se podrian evitar reduciendo algo la resolucion. Me da que veremos esta solucion implementada en mas juegos conforme avance la generacion.

Por cierto, lo raro es que lo hayan implementado en una maquina y no en la otra...

Ah, y para mi es una K de todas todas [hallow]

Un saludo!


Pues sencillamente por que el método utilizado requiere un pool de memoria de baja latencia, para gdrr5 no es es viable tecnicamente.


No digas tonterias, no lo han implementado porque no han querido, seguramente porque las bajadas eran "aceptables" y si Xbox One hubiera ido a 1080p en momentos de carga la bajada habria sido algo mayor.

Pero el uso de resolucion dinamica no tiene nada de especial, ya RAGE lo hacia en PS3. No es algo positivo desde luego, no nos pasemos xD.
Cuando se miro de upgrear la gpu los ingeniros testearon que era mas conveniente,subir frecuencia o activar los 2 CUs para redundancia,se opto por subir frecuencia y si se pararon en 853 no seria por caualidad,algun motivo tendrian,alomejor mas de eso solo generaba cuellos...
salocin21 escribió:
argam escribió:El tema de la resolucion variable me parece muy interesante y no entiendo como no se aplica mas a menudo. Si tienes un juego que va en el 90% del tiempo a 60fps, me parece una cagada sufrir caidas cuando se podrian evitar reduciendo algo la resolucion. Me da que veremos esta solucion implementada en mas juegos conforme avance la generacion.

Por cierto, lo raro es que lo hayan implementado en una maquina y no en la otra...

Ah, y para mi es una K de todas todas [hallow]

Un saludo!


Pues sencillamente por que el método utilizado requiere un pool de memoria de baja latencia, para gdrr5 no es es viable tecnicamente.


Wolfenstein: The new order tiene resolucion dinamica en pc, corriendo en gddr5, supongo que en gddr3 tambien, afirmas cosas por tus deseos, tus deseos de que Xbox One sea superior y sin ninguna base tecnica y no es la primera vez, seguramente no sea la ultima, la eSRAM es mejor tenerla que no tenerla pero ni es magica ni es infinita.
Wolfenstein de hecho tiene resolucion dinamica en PS4 tambien.
jose1024 escribió:Wolfenstein: The new order tiene resolucion dinamica en pc, corriendo en gddr5, supongo que en gddr3 tambien, afirmas cosas por tus deseos, tus deseos de que Xbox One sea superior y sin ninguna base tecnica y no es la primera vez, seguramente no sea la ultima, la eSRAM es mejor tenerla que no tenerla pero ni es magica ni es infinita.


En PC todos los programas se ejecutan en memoria de sistema (DDR), que es de baja latencia. Y todos saben que GDDR es más apropiada para otros usos (por ancho de banda)

Por otro lado el algunos piensan que GDDR5 es una memoria venida del futuro junto a una botella de lejía y es algo que ni con la reciente DDR4 tiene comparación, cuando la realidad es que tecnológicamente se parece más a la DDR3 que a otra.

Sobre la emulación de juegos X360, no seria posible que la consola descargase un ejecutable recompilado para la nueva arquitectura y que el gamedata lo sacase del disco original (siempre metido en la bandeja)? Lo digo desde el desconocimiento de si MS tiene acceso al código de los juegos.
CalvinWatterson escribió:
jose1024 escribió:Wolfenstein: The new order tiene resolucion dinamica en pc, corriendo en gddr5, supongo que en gddr3 tambien, afirmas cosas por tus deseos, tus deseos de que Xbox One sea superior y sin ninguna base tecnica y no es la primera vez, seguramente no sea la ultima, la eSRAM es mejor tenerla que no tenerla pero ni es magica ni es infinita.


En PC todos los programas se ejecutan en memoria de sistema (DDR), que es de baja latencia. Y todos saben que GDDR es más apropiada para otros usos (por ancho de banda)

Por otro lado el algunos piensan que GDDR5 es una memoria venida del futuro junto a una botella de lejía y es algo que ni con la reciente DDR4 tiene comparación, cuando la realidad es que tecnológicamente se parece más a la DDR3 que a otra.

Sobre la emulación de juegos X360, no seria posible que la consola descargase un ejecutable recompilado para la nueva arquitectura y que el gamedata lo sacase del disco original (siempre metido en la bandeja)? Lo digo desde el desconocimiento de si MS tiene acceso al código de los juegos.


¿Quieres decir que el uso de ddr3 (baja latencia) es una situacion sine qua non para la resolucion adaptativa?
No lo se, pregunto.

Por cierto, el que ha venido del futuro es Mister Proper "la limpieza del futuro ya esta aqui"
salocin21 escribió:Pues sencillamente por que el método utilizado requiere un pool de memoria de baja latencia, para gdrr5 no es es viable tecnicamente.


Fuente?

En wolfenstein que usan, una tecnica distinta? Alli fueron capaces de hacerlo en ambas consolas
jose1024 escribió:
salocin21 escribió:
argam escribió:El tema de la resolucion variable me parece muy interesante y no entiendo como no se aplica mas a menudo. Si tienes un juego que va en el 90% del tiempo a 60fps, me parece una cagada sufrir caidas cuando se podrian evitar reduciendo algo la resolucion. Me da que veremos esta solucion implementada en mas juegos conforme avance la generacion.

Por cierto, lo raro es que lo hayan implementado en una maquina y no en la otra...

Ah, y para mi es una K de todas todas [hallow]

Un saludo!


Pues sencillamente por que el método utilizado requiere un pool de memoria de baja latencia, para gdrr5 no es es viable tecnicamente.


Wolfenstein: The new order tiene resolucion dinamica en pc, corriendo en gddr5, supongo que en gddr3 tambien, afirmas cosas por tus deseos, tus deseos de que Xbox One sea superior y sin ninguna base tecnica y no es la primera vez, seguramente no sea la ultima, la eSRAM es mejor tenerla que no tenerla pero ni es magica ni es infinita.


Lo de la SRAM te lo sacas de la manga no??

Haber COD esta desarollado sobre la api 11.2 y que ocurre? Esta API está optimizada para usar una cadena de "baja latencia" en la cual, los objetos colocados en la orbita del DOV lejana bajan su resolución ("horizontal" para no perder la proporción) eliminando líneas que "no se muestran en la distancia". El resultado es el mismo que usando el DOV lejano con el FB original, ya que el ojo humano no lo distingue, pero ahorras un porcentaje de BW y cálculo, ventajas? Mejor framerate (lo habéis visto) y mejores asset.

Por que digo que en ps4 no es rentable? Pues te explicó como funciona; se asigna un dato en mls como limitación para gestionar el rate, y todo lo que haga sobrepasar el tiempo de cálculo, es mandado a través de un canal hábil de memoria de baja latencia para procesarlo de forma dinámica a través de un sistema tileado, en ps4 una gestión de cola optimizada no es buena idea al no tener una memoria de baja latencia ( que podría ser ddr3), para esta arquitectura es mejor procesarlo todo junto en cada frame y aprovechar el ancho de banda mayor, aunque claro en contrapartida tienes mayor caida de frames.

Este tipo de gestión de colas va a venir genial en 2-3 años cuando el HW empiece a quedarse corto o simplemente en juegos en que prima la estabilidad.

Es cierto que se a utilizado en ps4, por poder todo se puede hacer, pero se trata de encontrar la solución mas optima..
Al decir baja latencia pense en la eSRAM, supongo que la latencia ahi tiene que ser ridicula no pense en la ddr3, pido perdon, tu explicacion no la he entendido y no se en que difiere de la usada en Wolfenstein, a mi un framerate entre 60 y 50 me parece correcto yo no distingo tirones por debajo de 30 algunas veces incluso menos, sin embargo el tearing lo veo a la primera, tampoco me importa que la resolucion no sea 1080p.
jose1024 escribió:Al decir baja latencia pense en la eSRAM, supongo que la latencia ahi tiene que ser ridicula no pense en la ddr3, pido perdon, tu explicacion no la he entendido y no se en que difiere de la usada en Wolfenstein, a mi un framerate entre 60 y 50 me parece correcto yo no distingo tirones por debajo de 30 algunas veces incluso menos, sin embargo el tearing lo veo a la primera, tampoco me importa que la resolucion no sea 1080p.


En wf se ajustaba la resolución en función de la carga gráfica y se ejecutaba en una sola cola, cosa que si es positiva al usar gdrr5 y de echo la versión de one era algo inferior.

Pero en COD es una técnica mas avanzada, varias colas ejecutando tareas diferentes y eso sobre gddr5 no es una buena opción.
salocin21 escribió:
jose1024 escribió:Al decir baja latencia pense en la eSRAM, supongo que la latencia ahi tiene que ser ridicula no pense en la ddr3, pido perdon, tu explicacion no la he entendido y no se en que difiere de la usada en Wolfenstein, a mi un framerate entre 60 y 50 me parece correcto yo no distingo tirones por debajo de 30 algunas veces incluso menos, sin embargo el tearing lo veo a la primera, tampoco me importa que la resolucion no sea 1080p.


En wf se ajustaba la resolución en función de la carga gráfica y se ejecutaba en una sola cola, cosa que si es positiva al usar gdrr5 y de echo la versión de one era algo inferior.

Pero en COD es una técnica mas avanzada, varias colas ejecutando tareas diferentes y eso sobre gddr5 no es una buena opción.


Solo por curiosidad, cual es la fuente donde se menciona eso de las multiples colas y tal?

Un saludo!
Y digo yo...porque se llama el hilo Hablemos del interior de Xbox One... cuando debería llamarse el Hilo de las Fuentes! :-|

Fuentes, fuentes por doquier :p :p

Es solo una bromeja eh, quietos paraos.
chris76 escribió:Cuando se miro de upgrear la gpu los ingeniros testearon que era mas conveniente,subir frecuencia o activar los 2 CUs para redundancia,se opto por subir frecuencia y si se pararon en 853 no seria por caualidad,algun motivo tendrian,alomejor mas de eso solo generaba cuellos...

Se puso exactamente a esa velocidad por la sincronía con la memoria, es lo que mejor resultados daba. Si se quiere subir habría que subirlo todo, incluyendo el reloj de la memoria, para que funcionen con buena sincronía. Como está todo debajo del mismo disipador no es problema, éste tiene aún rpm de sobra para disipar, pero el problema realmente es el ruido, qué tan ruidosa quieren que sea la consola.
Estais hablando de la resolución dinámica de CoD como si fuese una maravilla:

Digital Foundry escribió:Right off the bat, we can confirm that while we do see the Xbox One version creeping to a full 1920x1080 resolution in the campaign's less taxing scenes, the same is not true of multiplayer. When pixel-counting screenshots gleaned from all 13 available stages, the 1360x1080 resolution is a constant fixture. Even with non-intensive, small maps featuring no players on-screen, the Xbox One refuses to increase its native frame-buffer dynamically based on load. Meanwhile, the PS4 remains locked at full 1080p, just like its campaign counterpart.


http://www.eurogamer.net/articles/digitalfoundry-2014-call-of-duty-advanced-warfare-multiplayer-performance-analysis
cercata escribió:Estais hablando de la resolución dinámica de CoD como si fuese una maravilla:

Digital Foundry escribió:Right off the bat, we can confirm that while we do see the Xbox One version creeping to a full 1920x1080 resolution in the campaign's less taxing scenes, the same is not true of multiplayer. When pixel-counting screenshots gleaned from all 13 available stages, the 1360x1080 resolution is a constant fixture. Even with non-intensive, small maps featuring no players on-screen, the Xbox One refuses to increase its native frame-buffer dynamically based on load. Meanwhile, the PS4 remains locked at full 1080p, just like its campaign counterpart.


http://www.eurogamer.net/articles/digitalfoundry-2014-call-of-duty-advanced-warfare-multiplayer-performance-analysis


Eso es el multi, donde no usa resolución dinámica.
17587 respuestas