Hablemos del interior de Xbox One

Ahi lo q dice es que va a maximizar la reutilizacion de codigo de renderizado entre pc y one, de dual gpu en one yo al menso no veo nada en ese slide
Efectivamente yo tampoco veo nada, de primera también me ha llamdo la atención por lo de varios command (recordemos que one los tiene doblados). Pero lo único que viene a decir la slide es que va a utilizar todo como si solo fuera un GPU con varios command.

En cuanto a las mejoras del wusu en DX12:
Imagen
Imagen
Imagen
Imagen

Si os parece poco para dos tios en seis semanas apaga y vamonos...
Es lo que dice @papatuelo . el segundo slide dice q la configuracion de dual gpu en pc se vera a nivel de api como si fueran dos colas
Zokormazo escribió:Es lo que dice @papatuelo . el segundo slide dice q la configuracion de dual gpu en pc se vera a nivel de api como si fueran dos colas


Pero no deja de confirmar que DX12 trabajará con dos command processor, no sé si DX11 también podía, pero el caso es que XBOX ONE tiene dos command processors...

En el caso de que DX11 no pudiera, ¿para que los pusieron en one?
Dice que a nivel de API para el programador las dos tarjetas graficas fisicas se verán como una sola con dos command processors.

La one tiene una GPU con dos command processors, y además los 12 CUs están divididos en 6+6, haciendo una configuración similar a un SLI de dos tarjetas de 6 CUs cada una. Es como si hubiesen partido la GPU en dos, que no quiere decir que sean dos GPUs.

Visto estas peculilaridades, que por algo lo habrán hecho, y vista la nueva manera de tratar las configuraciones SLI de dx12, y visto el artículo de anandtech en el que decía que dx12 satura el command processor que llevan todas las gráficas "normales" de PC y otras consolas. Pues oye, como mínimo es curiosa la decisión de microsoft a la hora de configurar el hardware de la one. No tan descabellado pensar que esta configuración esté pensada para explotar mejor la API, un locurón imaginar algo así.

Últimamente tus aportaciones zokor en el hilo rozan un poco el trolleo, solo te falta llegar y decir "el hardware es el que es". Nadie habló de dos GPUs.
Lo interesante no es si hay una o dos GPU.
Lo interesante es cómo encaja DX12 en la filosofía HSA (CPU + GPU + aceleradores)
Es como dice @Pada lo de la GPU. Es curioso que se decidiera partirla en 2 para asegurarse que no se saturaria la cola. Pero de cara a programar verás una sola. El reparto entre los 2 bloques se hará a nivel de driver o hardware.
Las colas y separación son en el hardware, la planificación es software. Con DX12 el planificador agrupa las tareas de Render o Compute de forma eficiente.

La magia viene cuando gracias al esquema 6+6 pueden ejecutarse tareas de Render y Compute simultáneamente, siempre que ninguno de estos grupos necesite mas de 6CU en ese momento.

Teóricamente se maximiza el tiempo de ocupación de los recursos.
Eso ya se hace sin falta de dividir. DX12 tiene 3 colas (render, computación y transferencias) que pueden ejecutarse en paralelo aún sin estar la GPU dividida. Busca por asynchronous shaders.

Lo de dividirlo me suena más a optimizar el encolamiento y evitar saturaciones.

No es requerimiento que una tarea ocupe de máximo 6CU, puede usar los que necesite. Comparten memoria y todo lo demás. El único aspecto es que 6 están conectados a un set de command processors y 6 a otro. Pero en realidad es una GPU.
Con 6 CU para una tarea de render al mismo tiempo sería imposible ver cosas como Ryse o FH2 realmente.
El problema viene con el aumento de los Draw Calls en DX12, llega un momento en que tu CPU y GPU se ven limitados por el Command.

Asi que es mejor tener dos grupos de CU con dos command processor.

Lo del cuello de botella lo advirtio Dan Baker a anandtech cuando aparecieron los primeros test DX12.

Y ya lo hemos dicho muchas veces aquí, que los de micro son unos potrudos que colocaron dos command processor sin saber, al tuntutn.

La escena sería algo así:

-Oyeeee! Alguien ha pedido el doble de command processor de los que necesitamos.
-No jodas, como los jefes vean que sobra algo nos cortan los huevos por derrochar, despúes del parche que hemos colocado en la memoria para ahorrar...
-Pues lo que vamos a hacer es ponerlos en la GPU. Mejor que tirarlos será, digo yo.
-¿Y si nos preguntan por que los hemos puesto?
-Si preguntan tu te haces el ofendido y les respondes: ¿Quién es el ingeniero aquí?

Porque como todos sabemos XBOX ONE se empezo a desarrollar hace tanto tiempo que Microsoft no había ni empezado a pensar en DX12... [chulito]
papatuelo escribió:El problema viene con el aumento de los Draw Calls en DX12, llega un momento en que tu CPU y GPU se ven limitados por el Command.

Asi que es mejor tener dos grupos de CU con dos command processor.

Lo del cuello de botella lo advirtio Dan Baker a anandtech cuando aparecieron los primeros test DX12.

Y ya lo hemos dicho muchas veces aquí, que los de micro son unos potrudos que colocaron dos command processor sin saber, al tuntutn.

La escena sería algo así:

-Oyeeee! Alguien ha pedido el doble de command processor de los que necesitamos.
-No jodas, como los jefes vean que sobra algo nos cortan los huevos por derrochar, despúes del parche que hemos colocado en la memoria para ahorrar...
-Pues lo que vamos a hacer es ponerlos en la GPU. Mejor que tirarlos será, digo yo.
-¿Y si nos preguntan por que los hemos puesto?
-Si preguntan tu te haces el ofendido y les respondes: ¿Quién es el ingeniero aquí?

Porque como todos sabemos XBOX ONE se empezo a desarrollar hace tanto tiempo que Microsoft no había ni empezado a pensar en DX12... [chulito]


Afirmar que Microsoft ha diseñado ONE y DX12 por separado es una autentica troleada, no le des ni bola al asunto.
Horizonte de sucesos escribió:Afirmar que Microsoft ha diseñado ONE y DX12 por separado es una autentica troleada, no le des ni bola al asunto.

Qué dices hombre.. Microsoft diseñó XBOX ONE en su momento y DX12 empezó a plantearse la semana pasada en el bar que tienen allí al lado.

...................
papatuelo escribió:El problema viene con el aumento de los Draw Calls en DX12, llega un momento en que tu CPU y GPU se ven limitados por el Command.

Asi que es mejor tener dos grupos de CU con dos command processor.

Lo del cuello de botella lo advirtio Dan Baker a anandtech cuando aparecieron los primeros test DX12.

Y ya lo hemos dicho muchas veces aquí, que los de micro son unos potrudos que colocaron dos command processor sin saber, al tuntutn.

La escena sería algo así:

-Oyeeee! Alguien ha pedido el doble de command processor de los que necesitamos.
-No jodas, como los jefes vean que sobra algo nos cortan los huevos por derrochar, despúes del parche que hemos colocado en la memoria para ahorrar...
-Pues lo que vamos a hacer es ponerlos en la GPU. Mejor que tirarlos será, digo yo.
-¿Y si nos preguntan por que los hemos puesto?
-Si preguntan tu te haces el ofendido y les respondes: ¿Quién es el ingeniero aquí?

Porque como todos sabemos XBOX ONE se empezo a desarrollar hace tanto tiempo que Microsoft no había ni empezado a pensar en DX12... [chulito]

Las graficas de hoy en dia van sobradas con un solo command processor, ten en cuenta que antes de saturarlo llegan hasta las 600.000 drawcalls por frame a 30 fps muy lejos de como trabajan los juegos nextgen y de las 50.000 por frame que según Brad Wardell puede manejar One supongo que en un entorno real.
Imagen
Millones de drawcalls a 30fps.
http://www.anandtech.com/show/9112/expl ... ure-test/3

Por otro lado alos tests solo buscan lo limites de las gráficas en lo que a drawcalls se refiere en juegos reales cualquier gráfica encontraria antes su factor limitante en otra parte que en el procesador de comandos.
Ok, entonces todos de acuerdo no?

Lo echaron a cara o cruz y decidieron poner dos en lugar de uno.
papatuelo escribió:Ok, entonces todos de acuerdo no?

Lo echaron a cara o cruz y decidieron poner dos en lugar de uno.

Si como dicen la grafica esta dividida en dos doblando sus componentes quizá tiene sentido que cada zona tenga su procesador de comandos como si de una configuracion dual se tratase y operar de forma independiente.

Anandtech:

But on the opposite side of the coin, this means they have the most to gain from DirectX 12. The R9 290X sees a 16.8x increase in draw call throughput switching from DX11 to DX12. At 18.5 million draw calls per second this is the highest draw call rate out of any of our cards, and we have good reason to suspect that we’re GPU command processor limited at this point. Which is to say that our CPU could push yet more draw calls if only a GPU existed that could consumer that many calls. On a side note, 18.5M calls would break down to just over 300K calls per frame at 60fps, which is a similarly insane number compared to today’s standards where draw calls per frame in most games is rarely over 10K.

Digamos que One puede igualar a la grafica mas rapida existente que es capaz de gestionar 600K por frame (en teoría limite del procesador de comandos) ¿de que le serviria a One ir hasta el millon y medio de drawcalls cuando los juegos utilizan como un 5% de eso?
Para mi esta claro que la gráfica de One no esta limitada por su commad processor y la existencia de otro igual se debe a otro motivo como el que he mencionado.
Esas gráficas no tienen 1 command processor, tienen varios ACE (hasta 8 ahora mismo) que es por así decirlo el repartidor global de tareas. Varios ACE para repartir "algún tipo" de tarea entre los CU.

En MS se basan en el mismo concepto, pero de forma mas especializada y especifica a las 3 tipos de colas de DX12, en lugar de usar algo mas global y generalizado. Es normal ya que su consola iba a funcionar si o si con DX12 pues poner algo especifico siempre será preferible.

La idea al final siempre es la misma, crear el hardware basado en la máxima eficiencia posible. Poniendo 2 set de repartidores específicos puede que ahorres algunos ms cuando toque repartir muchísimas tareas. Y de ir sacando ms por allí y ms por allá es de lo que trata esta arquitectura.
darksch escribió:Esas gráficas no tienen 1 command processor, tienen varios ACE (hasta 8 ahora mismo) que es por así decirlo el repartidor global de tareas. Varios ACE para repartir "algún tipo" de tarea entre los CU.

En MS se basan en el mismo concepto, pero de forma mas especializada y especifica a las 3 tipos de colas de DX12, en lugar de usar algo mas global y generalizado. Es normal ya que su consola iba a funcionar si o si con DX12 pues poner algo especifico siempre será preferible.

La idea al final siempre es la misma, crear el hardware basado en la máxima eficiencia posible. Poniendo 2 set de repartidores específicos puede que ahorres algunos ms cuando toque repartir muchísimas tareas. Y de ir sacando ms por allí y ms por allá es de lo que trata esta arquitectura.


Creo que no funciona asi, los ACEs no intervienen en la gestión de drawcalls fijate como explican el test:
The test is NOT designed to punish the GPU’s shaders or memory bandwidth, instead it squarely places the focus on two components – the systems CPU and the video cards Graphics Command Processor.
The GPU’s GCP (Graphic Command Processor) meanwhile must do something a bit different – it must accept those instructions and then issue them to the GPU. If you’re thinking “how bad can that be?” cast your minds back to March 2015’s GDC, where Max McCullen pointed out that the new API can actually flood the GCP and cause it to ‘choke’.

Ahora la arquitectura:
Tonga, la mas moderna de AMD
Imagen
Tahiti la primera de AMD
Imagen
ONE
Imagen

Los ACEs tienen una funcion diferente al procesador de comandos grafico, estan ahi para aprovechar los huecos que quedan libres mandando tareas o comandos de computo a los CU cuando estos estan parcialmente ocupados en tareas graficas.
Por lo demas pues tendrás razón.
Lo que esta claro es que si one tiene esa arquitectura es por algo y ese algo es dx12, nadie de los que andamos por los foros sabe mas que microsoft de su criatura xd, si microsoft a dividido su gpu es por algo, si tiene dobles comand processor es por algo y la sram esta ahi por algo, lo que esta claro es que no son parches ni humo como alguno vendia hace poco
Cuando va a mostrar MS un juego en one con dx11 y dx12 para que veamos las mejoras?

Es que siempre estoy leyendo que si tal y cual y no vea ninguna prueba( he visto demos en pc pero quiero en one )
En el desarrollo de Durango se rumoreó que la consola tenía dos gpu funcionando en paralelo.tambien se rumoreó que la gpu se basaba en una hd6670

Vamos que si la gpu realmente se basaba en 2 hd6670 en paralelo y ahora vemos todo esto pues a mi me explica parte de los rumores de la época

http://www.techpowerup.com/mobile/16345 ... i-gpu.html

http://m.neogaf.com/showthread.php?p=35468578
Neo_86 escribió:Cuando va a mostrar MS un juego en one con dx11 y dx12 para que veamos las mejoras?

Es que siempre estoy leyendo que si tal y cual y no vea ninguna prueba( he visto demos en pc pero quiero en one )

Solo tienes que probar el fable leyens,tiene unos graficos de flipar y unos efectos de luces increibles,lo unico que en one esta en sub hd creo que no esta ni a 720p,pero aun asi el juego es una belleza.
yosu888 escribió:
Neo_86 escribió:Cuando va a mostrar MS un juego en one con dx11 y dx12 para que veamos las mejoras?

Es que siempre estoy leyendo que si tal y cual y no vea ninguna prueba( he visto demos en pc pero quiero en one )

Solo tienes que probar el fable leyens,tiene unos graficos de flipar y unos efectos de luces increibles,lo unico que en one esta en sub hd creo que no esta ni a 720p,pero aun asi el juego es una belleza.

Como sabes que el legens no llega a 720p?,por curiosidad digo
chris76 escribió:
yosu888 escribió:
Neo_86 escribió:Cuando va a mostrar MS un juego en one con dx11 y dx12 para que veamos las mejoras?

Es que siempre estoy leyendo que si tal y cual y no vea ninguna prueba( he visto demos en pc pero quiero en one )

Solo tienes que probar el fable leyens,tiene unos graficos de flipar y unos efectos de luces increibles,lo unico que en one esta en sub hd creo que no esta ni a 720p,pero aun asi el juego es una belleza.

Como sabes que el legens no llega a 720p?,por curiosidad digo


Por los serruchos, no sé si estaba confirmado.
Yo tengo la beta del Fable y se ve borrosisimo, dientes de sierra como nunca antes se a visto y una tasa de fps que dudo mucho pase de 20, se que es una beta pero es bastante lamentable, imagino que hasta que no salga dx12 este juego ira como el culo.
chris76 escribió:En el desarrollo de Durango se rumoreó que la consola tenía dos gpu funcionando en paralelo.tambien se rumoreó que la gpu se basaba en una hd6670

Vamos que si la gpu realmente se basaba en 2 hd6670 en paralelo y ahora vemos todo esto pues a mi me explica parte de los rumores de la época

http://www.techpowerup.com/mobile/16345 ... i-gpu.html

http://m.neogaf.com/showthread.php?p=35468578


Hace años se parecía a una hd6670, el año pasado a una 7770, y el año que viene ( inserte aquí una GPU nextgen DX12).

Es lo que tiene ser una hardware custom, que crees saber lo que es o lo que se le parece pero contra mas datos vas conociendo menos se parece a lo que creías y te toca buscar otro modelo de GPU.

Algún día la gente entenderá que no hay nada igual en el mercado ni lo va a haber.
Neo_86 escribió:Cuando va a mostrar MS un juego en one con dx11 y dx12 para que veamos las mejoras?

Es que siempre estoy leyendo que si tal y cual y no vea ninguna prueba( he visto demos en pc pero quiero en one )

Si eso es lo que esperas la respuesta es NUNCA. No van a gastar medios en hacer un juego duplicado para que la gente de 4 foros se quede feliz. Habrá juegos DX11, DX11 portados a DX12 (lo cual no lo aprovecha adecuadamente), y juegos DX12 (sin correspondiente DX11 con el cual comparar).

Las mejoras es que se pueden hacer más cosas, DX11 está ya a su límite y no permite mejorar de cierto punto, no hay que darle más vueltas.
Yo creo como bien dice algun compañero que directx11 ya no se le puede sacar mas jugo,las desarrolladoras acabaran haciendo juegos full directx12 anunque al principii les cueste mas,pero cuando la dominen directx12 se convertira en el estandar de los videojuegos,ha pasado con todos los drirectx y ahora igual.Las empresas y desarrolladoras de videojuegos no creo que se quieran estancar a la hora de hacer sus videojuegos y cuando se vea un juego 100%directx12 y lo que es capaz entonces es cuando se empezara a abrir la veda,microsoft esta poniendo mucgo de su parte para que eso suceda y cuando lo tenga listo empezara a romper mandibulas.
yosu888 escribió:Yo creo como bien dice algun compañero que directx11 ya no se le puede sacar mas jugo,las desarrolladoras acabaran haciendo juegos full directx12 anunque al principii les cueste mas,pero cuando la dominen directx12 se convertira en el estandar de los videojuegos,ha pasado con todos los drirectx y ahora igual.Las empresas y desarrolladoras de videojuegos no creo que se quieran estancar a la hora de hacer sus videojuegos y cuando se vea un juego 100%directx12 y lo que es capaz entonces es cuando se empezara a abrir la veda,microsoft esta poniendo mucgo de su parte para que eso suceda y cuando lo tenga listo empezara a romper mandibulas.

No rompas tanto que el foro esta lleno de visionarios,que vallan saliendo los juegos y ya hablaremos,de momento,al menos para mi,un cagote,haber este e3 que tal el f6,h5 y Tomb Raider,pero no empezemos a vender la piel del oso antes de cazarlo,o como se diga..
chris76 escribió:
yosu888 escribió:Yo creo como bien dice algun compañero que directx11 ya no se le puede sacar mas jugo,las desarrolladoras acabaran haciendo juegos full directx12 anunque al principii les cueste mas,pero cuando la dominen directx12 se convertira en el estandar de los videojuegos,ha pasado con todos los drirectx y ahora igual.Las empresas y desarrolladoras de videojuegos no creo que se quieran estancar a la hora de hacer sus videojuegos y cuando se vea un juego 100%directx12 y lo que es capaz entonces es cuando se empezara a abrir la veda,microsoft esta poniendo mucgo de su parte para que eso suceda y cuando lo tenga listo empezara a romper mandibulas.

No rompas tanto que el foro esta lleno de visionarios,que vallan saliendo los juegos y ya hablaremos,de momento,al menos para mi,un cagote,haber este e3 que tal el f6,h5 y Tomb Raider,pero no empezemos a vender la piel del oso antes de cazarlo,o como se diga..


Ni visionarios ni magia, se llama tecnología.

Hasta ahora aquellos que menosprecias con esos términos han demostrado estar más cerca de la realidad de lo que estaban los sabios.

Gradualmente las trincheras se van moviendo y eso nos roba la percepción de lo que se ha estado cociendo y lo que se cuece. Pero las posiciones en las que empezarón algunos estan tremendamente lejos de las posiciones en las que se atrincheran ahora.

Poco a poco, todo caerá por su peso.

Alguien ha visto este twit?

Imagen

Como véis en el X D K de XBOX ONE hay referencias a algo llamado NANO XBOX. Pues bien, Build 2015, microsoft presenta Nano Server:
Imagen

Es curioso que en el X D K al mencionar Nano Xbox se mencionen parametros como la resolución y el bitrate, no?

A mi me huele demasiado a streaming de juegos a redes no locales, de ahí que tenga que controlar la calidad, la resolucion y el bitrate en función del dispositivo y el ancho de banda.

Por otro lado, ¿para que queremos encender la consola con smartglass si no es para algo así?

Espero opiniones de los que de verdad sabéis.
@papatuelo: tiene toda la pinta de referirse a un thin-client de streaming si.

Eso si, el poder elegir bitrate y refresco no tiene porque ser por usarse redes wan. Emitir 1080@60 por 802.11b por ejemplo no es viable y sigue siendo red local.
Zokormazo escribió:@papatuelo: tiene toda la pinta de referirse a un thin-client de streaming si.

Eso si, el poder elegir bitrate y refresco no tiene porque ser por usarse redes wan. Emitir 1080@60 por 802.11b por ejemplo no es viable y sigue siendo red local.


No tiene por qué, pero es mi apuesta personal.

Imaginad que os vais al pueblo, que a raiz del always online decubrí que el 99% de los españoles se va al pueblo, podríais hacer streaming al movil y conectar este a la tele.
Veis? Estas cosas me ponen más que los direct pollas en vinagre. Estamos hablando de tener de la noche a la mañana millones de xbox portables sin necesidad de hard. Tremendo.
papatuelo escribió:Imaginad que os vais al pueblo, que a raiz del always online decubrí que el 99% de los españoles se va al pueblo, podríais hacer streaming al movil y conectar este a la tele.


El problema de esto es el input lag xDD

Sumale a cada pulsacion de tu boton el input lag de la tele + de la red gsm/3g/4g + el routeo entre la ISP del movil y el ISP de casa + el de la conexion de casa . Hay que optar por opciones como la del proyecto aquel de microsoft cuyo nombre no recuerdo y que renderizaba 3/4 opciones distintas de imagen en base a posibles inputs. Eso si, consumiendo el cuadruple de recursos para el host (xbox one en este caso)
Zokormazo escribió:
papatuelo escribió:Imaginad que os vais al pueblo, que a raiz del always online decubrí que el 99% de los españoles se va al pueblo, podríais hacer streaming al movil y conectar este a la tele.


El problema de esto es el input lag xDD

Sumale a cada pulsacion de tu boton el input lag de la tele + de la red gsm/3g/4g + el routeo entre la ISP del movil y el ISP de casa + el de la conexion de casa . Hay que optar por opciones como la del proyecto aquel de microsoft cuyo nombre no recuerdo y que renderizaba 3/4 opciones distintas de imagen en base a posibles inputs. Eso si, consumiendo el cuadruple de recursos para el host (xbox one en este caso)


Microssoft está en ello, project delorean.

De todas formas, por supuesto que inicialmente cada tecnología tiene sus limitaciones, lo que no quiere decir que no se vaya a ofertar por ello.

De hecho ya se oferta y se seguira ofertando, nvidia grid o sony con sus juegos PS3 on streaming.

No vas a ser el mejor jugando al COD pero oye echarte un sunset overdrive o alguna otra cosilla si puedes.
Al final es jugar a distancia, como si fuera un juego online. He jugado arcades de acción (SoR, Ikaruga) a multi online y se juegan perfectamente, no es para tanto ese "retraso". Así que podrías seguir perfectamente tu partida de Dragon Age o Max desde internet, siendo juegos de mucho menos requerimientos en cuanto a velocidad de respuesta.
El juego en la nube, de una forma u otra, va a ser el futuro.

Les falta la tecnología para obtener la calidad que desean/deseamos, pero ya se ve que Microsoft esta apostando mucho por Azure.
papatuelo escribió:Microssoft está en ello, project delorean.


Ese es el proyecto que decia. Pero vamos, project delorean renderiza 4 frames distintos en vez de 1 para despues elegir uno. Habria que sacar un frame cada 4ms para poder usar project delorean a 60fps. One puede sacar un frame cada 4ms de sus juegos a 60fps? Uf, mucho churro para la maquina eh xD

De todas formas, por supuesto que inicialmente cada tecnología tiene sus limitaciones, lo que no quiere decir que no se vaya a ofertar por ello.

De hecho ya se oferta y se seguira ofertando, nvidia grid o sony con sus juegos PS3 on streaming.

La opcion que mas se asemeja es la de ps4 y vita y sufre del mismo problema de input lag. nvidia grid o el streaming de sony de ps3 tiene una gran diferencia sobre esto: funcionan con conexiones WAN de muy bajo lag y sobre hardware con muchisimos recursos.

Esto es mucho mas viable a la larga que usar nuestra propia maquina para el streaming. Y mucho mas goloso para venderlo comercialmente.

No vas a ser el mejor jugando al COD pero oye echarte un sunset overdrive o alguna otra cosilla si puedes.


Es mucho mejor opcion para esto un streaming vs azure que un streaming vs nuestra one de casa con nuestra conexion WAN de casa.

Nuhar escribió:El juego en la nube, de una forma u otra, va a ser el futuro.

Les falta la tecnología para obtener la calidad que desean/deseamos, pero ya se ve que Microsoft esta apostando mucho por Azure.

+1

Como decia arriba, es mucho mejor opcion atacar a servidores que hacerlo a nuestra casa.
Zokormazo escribió:
papatuelo escribió:Microssoft está en ello, project delorean.


Ese es el proyecto que decia. Pero vamos, project delorean renderiza 4 frames distintos en vez de 1 para despues elegir uno. Habria que sacar un frame cada 4ms para poder usar project delorean a 60fps. One puede sacar un frame cada 4ms de sus juegos a 60fps? Uf, mucho churro para la maquina eh xD

De todas formas, por supuesto que inicialmente cada tecnología tiene sus limitaciones, lo que no quiere decir que no se vaya a ofertar por ello.

De hecho ya se oferta y se seguira ofertando, nvidia grid o sony con sus juegos PS3 on streaming.

La opcion que mas se asemeja es la de ps4 y vita y sufre del mismo problema de input lag. nvidia grid o el streaming de sony de ps3 tiene una gran diferencia sobre esto: funcionan con conexiones WAN de muy bajo lag y sobre hardware con muchisimos recursos.

Esto es mucho mas viable a la larga que usar nuestra propia maquina para el streaming. Y mucho mas goloso para venderlo comercialmente.

No vas a ser el mejor jugando al COD pero oye echarte un sunset overdrive o alguna otra cosilla si puedes.


Es mucho mejor opcion para esto un streaming vs azure que un streaming vs nuestra one de casa con nuestra conexion WAN de casa.

Nuhar escribió:El juego en la nube, de una forma u otra, va a ser el futuro.

Les falta la tecnología para obtener la calidad que desean/deseamos, pero ya se ve que Microsoft esta apostando mucho por Azure.

+1

Como decia arriba, es mucho mejor opcion atacar a servidores que hacerlo a nuestra casa.


Algo hay, ya veremos lo que es, quiza trabajen conjuntamente Azure y nuestra consola o vete tu a saber, pero algo hay. Recordad que tenemos en el aire el termino nube local, que no hemos descifrado aun.

Imagen
el project delorean seguramente funcione solo desde azure en juegos en streaming (estilo psnow) y juegos que usen cloud compute (estilo crackdown 3).

Ahora mismo ya hay streaming desde la one a otros dispositivos en una red local, es muy posible que oficialmente lo abran a streaming por internet (extraoficialmente se podrá desde el dia 1 obviamente, tan facil como montar una vpn). Pero que vayan a soportar un streaming por internet desde la consola de uno mismo no quiere decir que el delorean sea estrictamente necesario. Es evidente que si se puede con una ps4 sin delorean se podrá con una one, simplemente que si microsoft no da soporte de inicio a ello es porque prefieran hacerlo de forma escalonada y mejorar la experiencia de usuario antes de permitir el streaming por internet desde la one casera.
Zokormazo escribió:
papatuelo escribió:Microssoft está en ello, project delorean.


Ese es el proyecto que decia. Pero vamos, project delorean renderiza 4 frames distintos en vez de 1 para despues elegir uno. Habria que sacar un frame cada 4ms para poder usar project delorean a 60fps. One puede sacar un frame cada 4ms de sus juegos a 60fps? Uf, mucho churro para la maquina eh xD

De todas formas, por supuesto que inicialmente cada tecnología tiene sus limitaciones, lo que no quiere decir que no se vaya a ofertar por ello.

De hecho ya se oferta y se seguira ofertando, nvidia grid o sony con sus juegos PS3 on streaming.

La opcion que mas se asemeja es la de ps4 y vita y sufre del mismo problema de input lag. nvidia grid o el streaming de sony de ps3 tiene una gran diferencia sobre esto: funcionan con conexiones WAN de muy bajo lag y sobre hardware con muchisimos recursos.

Esto es mucho mas viable a la larga que usar nuestra propia maquina para el streaming. Y mucho mas goloso para venderlo comercialmente.

No vas a ser el mejor jugando al COD pero oye echarte un sunset overdrive o alguna otra cosilla si puedes.


Es mucho mejor opcion para esto un streaming vs azure que un streaming vs nuestra one de casa con nuestra conexion WAN de casa.

Nuhar escribió:El juego en la nube, de una forma u otra, va a ser el futuro.

Les falta la tecnología para obtener la calidad que desean/deseamos, pero ya se ve que Microsoft esta apostando mucho por Azure.

+1

Como decia arriba, es mucho mejor opcion atacar a servidores que hacerlo a nuestra casa.

Te olvidas de WiiU que utiliza wireless 802.11n con codificación h.264 y bitrate variable.
Pipitagamer escribió:
Zokormazo escribió:
papatuelo escribió:Microssoft está en ello, project delorean.


Ese es el proyecto que decia. Pero vamos, project delorean renderiza 4 frames distintos en vez de 1 para despues elegir uno. Habria que sacar un frame cada 4ms para poder usar project delorean a 60fps. One puede sacar un frame cada 4ms de sus juegos a 60fps? Uf, mucho churro para la maquina eh xD

De todas formas, por supuesto que inicialmente cada tecnología tiene sus limitaciones, lo que no quiere decir que no se vaya a ofertar por ello.

De hecho ya se oferta y se seguira ofertando, nvidia grid o sony con sus juegos PS3 on streaming.

La opcion que mas se asemeja es la de ps4 y vita y sufre del mismo problema de input lag. nvidia grid o el streaming de sony de ps3 tiene una gran diferencia sobre esto: funcionan con conexiones WAN de muy bajo lag y sobre hardware con muchisimos recursos.

Esto es mucho mas viable a la larga que usar nuestra propia maquina para el streaming. Y mucho mas goloso para venderlo comercialmente.

No vas a ser el mejor jugando al COD pero oye echarte un sunset overdrive o alguna otra cosilla si puedes.


Es mucho mejor opcion para esto un streaming vs azure que un streaming vs nuestra one de casa con nuestra conexion WAN de casa.

Nuhar escribió:El juego en la nube, de una forma u otra, va a ser el futuro.

Les falta la tecnología para obtener la calidad que desean/deseamos, pero ya se ve que Microsoft esta apostando mucho por Azure.

+1

Como decia arriba, es mucho mejor opcion atacar a servidores que hacerlo a nuestra casa.

Te olvidas de WiiU que utiliza wireless 802.11n con codificación h.264 y bitrate variable.


Y a 5ghz para pasar señales en ambas direcciones por debajo de los 16ms de lag.

Pero no es que me olvide. Eso no es red no local, es una lan dedicada
Morepawer está baneado por "hater, flames y clones"
Alguien sabe para que están esos 8Gb de memoria flash y si se están usando?
Morepawer escribió:Alguien sabe para que están esos 8Gb de memoria flash y si se están usando?

Yo creo que tiene varios usos, por ejemplo cuando estás instalando un juego y guadando información temporal, o cuando apagas la consola en modo para que se parta rápido (se guarda ahí la sesión y el programa abierto). Es posible que se use esa memoria para swapeo también o cuando se van grabando los videos..etc..
Morepawer está baneado por "hater, flames y clones"
shineon escribió:
Morepawer escribió:Alguien sabe para que están esos 8Gb de memoria flash y si se están usando?

Yo creo que tiene varios usos, por ejemplo cuando estás instalando un juego y guadando información temporal, o cuando apagas la consola en modo para que se parta rápido (se guarda ahí la sesión y el programa abierto). Es posible que se use esa memoria para swapeo también o cuando se van grabando los videos..etc..


8Gb es mucha tela. Puede ser que sea algo relacionado para el tema del cloud computer?
Lo único que se sabe de la memoria flash es lo que respondieron en la entrevista, que por cierto es interesante de leer hoy en día sin todo el ruído y FUD que había de aquellas por todo lo relacionado con el reveal y las políticas iniciales.

Digital Foundry: Another thing that came up from the Hot Chips presentation that was new information was the eMMC NAND which I hadn't seen any mention of. I'm told it's not available for titles. So what does it do?

Andrew Goossen: Sure. We use it as a cache system-side to improve system response and again not disturb system performance on the titles running underneath. So what it does is that it makes our boot times faster when you're not coming out of the sleep mode - if you're doing the cold boot. It caches the operating system on there. It also caches system data on there while you're actually running the titles and when you have the snap applications running concurrently. It's so that we're not going and hitting the hard disk at the same time that the title is. All the game data is on the HDD. We wanted to be moving that head around and not worrying about the system coming in and monkeying with the head at an inopportune time.


Sinceramente me parece poco uso para esa memoria, por no decir que poco cachean las apps cuando prácticamente todas refrescan la información de internet (de ahi esa lentitud al acoplar). De momento seguro que poco mas que ese uso le darán, pero pienso que podrían tener mas planes para ella.
La flash es para cachear. Sin embargo cuando se arranca tras un limpiado de caché yo no noto para nada que cargue más lento. Así que debe estar hecho un poco con el culo porque en mi PC que tengo una mSATA que es para eso mismo sí que se nota tela.
En la preview han mejorado la tasa de frames de los videos del GAME DVR. Ahora pueden ir a 60 fps

The bit rate seems higher too.
Info from that Halo clip: -
Video: MPEG4 Video (H264) 1280x720 59.94fps 10024kbps [V: h264 main L3.1, yuv420p, 1280x720, 10024 kb/s]
Audio: AAC 48000Hz stereo 156kbps [A: SoundHandler (aac lc, 48000 Hz, stereo, 156 kb/s)]
Info from a Game DVR clip I captured a few days ago: -
Video: MPEG4 Video (H264) 1280x720 29.97fps 3892kbps [V: h264 main L3.1, yuv420p, 1280x720, 3892 kb/s]
Audio: AAC 48000Hz stereo 157kbps [A: SoundHandler (aac lc, 48000 Hz, stereo, 157 kb/s)]
eloskuro escribió:En la preview han mejorado la tasa de frames de los videos del GAME DVR. Ahora pueden ir a 60 fps

The bit rate seems higher too.
Info from that Halo clip: -
Video: MPEG4 Video (H264) 1280x720 59.94fps 10024kbps [V: h264 main L3.1, yuv420p, 1280x720, 10024 kb/s]
Audio: AAC 48000Hz stereo 156kbps [A: SoundHandler (aac lc, 48000 Hz, stereo, 156 kb/s)]
Info from a Game DVR clip I captured a few days ago: -
Video: MPEG4 Video (H264) 1280x720 29.97fps 3892kbps [V: h264 main L3.1, yuv420p, 1280x720, 3892 kb/s]
Audio: AAC 48000Hz stereo 157kbps [A: SoundHandler (aac lc, 48000 Hz, stereo, 157 kb/s)]


Y lo mas importante, ahora el bitrate será de 10 mbits frente los 4 actuales, básicamente eliminando las pixelaciones en la imagen cuando hay bastante movimiento.
Pero y las conexiones necesarias para ver esos videos, hay gente que aún no tiene 10 megas en casa, y si la red está compartida (algo muy normal) no digamos. Y para subirlo ¡no veas!.
Deberian poner modo 1080p, aunque fuera con un bitrate de 5-6mbps respecto a los 10mbps de 720p.
17587 respuestas