Hablemos del interior de Xbox One

@darksch: eso es lo que me gustaria a mi ver. Que a nivel de sistema se paralelizaran las calls de dx11 por ejemplo, montando la API de dx11 sobre dx12 o alguna interfaz intermedia.
HeRoMoN escribió:En serio hay gente que sigue dudando del combo Win10+Dx12 ??

Mismo Hardware, rendimiento superior en Windows10 sobre Windows8.1 y hablamos de Hardware NO nativo para DX12


https://www.youtube.com/watch?v=XzFe5OOHZko


Y tambien tomar en cuenta de que Pcars aun no es nativo DX12 ... y vemos mejoras de 10-20 frames

Que bomba, no ???? :O :O :O
Y con Drivers Nativos W10 (WDDM 2.0) y juegos aun DX11 ya no me quiero imaginar ...

Aunque estoy de acuerdo con la actitud general del hilo, mejor no hypearse mucho, pero con ganas de ver mas comparativas del estilo.
En multi he puesto otro test, w7 vs w10. Ganancias entre el 25% y el 30%
Interesante la mejoría del rendimiento en los juegos con Windows 10, a ver si esto también se traslada a la One.
Dx12 = Dx2.0
W10= Dx12

Nueva gestión de los recursos. El cambio de Dx11 a Dx12 del q hablaban es ese.

Solo faltan los drivers optimizados de los fabricantes a WDM2.0 tanto de AMD como de Nvidia y tendremos probablemente otro 20\25% más de ganancia. El 50% hablado por Phil Spencer.

Luego a parte tendrán q construir motores para adaptarse a esa nueva filosofía y tendremos mejoras de..........bastante más.

Para el verdadero cambio se necesita al trio "maldito":
- Api (Dx12), SO (W10) y middleware (motores). (Realmente W10 y Dx12 son indivisibles)
En todo caso, el futuro es prometedor. :)
No me quiero hypear pero promete, siendo comedidos. Lo que no tengo claro es que versión de Windows 10 recibiremos. Quiero decir, sé que no será una para desktop porque no tiene sentido en One pero si el core es el mismo podemos suponer que sus ventajas se trasladarán a One, ¿verdad?

No me lo quiero ni imaginar, viendo que ahora la interfaz va a pedales. Puede ser la bomba.
Scopata escribió:No me quiero hypear pero promete, siendo comedidos. Lo que no tengo claro es que versión de Windows 10 recibiremos. Quiero decir, sé que no será una para desktop porque no tiene sentido en One pero si el core es el mismo podemos suponer que sus ventajas se trasladarán a One, ¿verdad?

No me lo quiero ni imaginar, viendo que ahora la interfaz va a pedales. Puede ser la bomba.


Muchas cosas se están dejando para cuando venga el kernel de W10, por ejemplo la reproducción de musica de fondo sin acoplar, algo que se hará con la app music universal.

La interfaz también mejorará en rendimiento, es algo en lo que están trabajando fuerte, no creo que tardemos mucho en empezar a ver las bondades de W10 en One ;)
URTYK escribió:
Scopata escribió:No me quiero hypear pero promete, siendo comedidos. Lo que no tengo claro es que versión de Windows 10 recibiremos. Quiero decir, sé que no será una para desktop porque no tiene sentido en One pero si el core es el mismo podemos suponer que sus ventajas se trasladarán a One, ¿verdad?

No me lo quiero ni imaginar, viendo que ahora la interfaz va a pedales. Puede ser la bomba.


Muchas cosas se están dejando para cuando venga el kernel de W10, por ejemplo la reproducción de musica de fondo sin acoplar, algo que se hará con la app music universal.

La interfaz también mejorará en rendimiento, es algo en lo que están trabajando fuerte, no creo que tardemos mucho en empezar a ver las bondades de W10 en One ;)


Gracias por la info, compañero...

Una duda que siempre me corroe en círculos donde comentamos cosillas de la One y tal, ¿hasta qué punto es posible o, de hecho, es real la limitación que tiene el SO para usar la CPU, GPU y otros recursos?

Me refiero... sobre el papel la One es un PC decente en specs así que el hecho de que en iniciar un grupo tengas a veces delays de 10-20 segundos debe deberse a que "no se le deja" que use más de un core -por ejemplo- o más de un módulo de RAM para que así los juegos puedan tirar de recursos.

O igual lo que digo es una gilipollez... me pregunto cómo irá W10 sobre esos mismos recursos "limitados".
Yo creo que los recursos dedicados al SO son excesivos, y es muy posible reducirlos considerablemente. Basta con ver por ejemplo un iPhone 6, que tiene un procesador de 2 cores (ARM) y 1 GB de RAM para TODO el sistema, esto es, SO+apps/juegos... y va como un tiro. Ahora mismo en la one se tiene reservado exclusivamente para el SO y apps 1.5 cores (x86, mas potentes que ARM) y 1.5 GB de RAM (antes tenía 2 cores y 2 GB creo recordar).

Con win10 es muy posible que se reduzca más el uso de cores y de RAM por parte del SO, además que con la introducción de las apps universales estoy convencido de que será más flexible y se podrán acceder al mismo número de cores y de RAM que un juego tradicional (obviamente mientras un juego no se esté ejecutando), que sería muy útil para el uso de apps mas complejas y la ejecución de juegos de móvilles/tabletas, que aunque obviamente no necesiten toda la potencia de la consola, los hay lo bastante exigentes como para necesitar varios núcleos y bastante RAM.
Pada escribió:Yo creo que los recursos dedicados al SO son excesivos, y es muy posible reducirlos considerablemente. Basta con ver por ejemplo un iPhone 6, que tiene un procesador de 2 cores (ARM) y 1 GB de RAM para TODO el sistema, esto es, SO+apps/juegos... y va como un tiro. Ahora mismo en la one se tiene reservado exclusivamente para el SO y apps 1.5 cores (x86, mas potentes que ARM) y 1.5 GB de RAM (antes tenía 2 cores y 2 GB creo recordar).

Con win10 es muy posible que se reduzca más el uso de cores y de RAM por parte del SO, además que con la introducción de las apps universales estoy convencido de que será más flexible y se podrán acceder al mismo número de cores y de RAM que un juego tradicional (obviamente mientras un juego no se esté ejecutando), que sería muy útil para el uso de apps mas complejas y la ejecución de juegos de móvilles/tabletas, que aunque obviamente no necesiten toda la potencia de la consola, los hay lo bastante exigentes como para necesitar varios núcleos y bastante RAM.


Gracias por la información, compañero.

Eso que comentas es fundamental. Yo con que bajo las mismas condiciones (1.5 cores y 1.5 GB) funcione mejor me conformaba.
Pada escribió:Yo creo que los recursos dedicados al SO son excesivos, y es muy posible reducirlos considerablemente.

Yo creo que por lo menos hay 1GB sin usar, que se reservan su asignación para el futuro, y en función de lo que observen se lo darán a Exclusive OS para los juegos, o al Shared OS para las Apps.

Scopata escribió:Gracias por la info, compañero...

Una duda que siempre me corroe en círculos donde comentamos cosillas de la One y tal, ¿hasta qué punto es posible o, de hecho, es real la limitación que tiene el SO para usar la CPU, GPU y otros recursos?

Desde Windows XP, el kernel de NT es capaz de asignar la afinidad de cada Proceso y Thread que se esta ejecutando, de forma que puedes controlar que se ejecuta en cada núcleo de la CPU a la perfección. Y la ONE ademas tiene una capa de hypervisor, con lo que hay aun mas control.

De GPU no chano, pero imagino que también.
He probado en mi pc win 8.1 vs 10 y no noto ese 20% de boost
Zokormazo escribió:He probado en mi pc win 8.1 vs 10 y no noto ese 20% de boost

Tienes AMD?
darksch escribió:
Zokormazo escribió:He probado en mi pc win 8.1 vs 10 y no noto ese 20% de boost

Tienes AMD?

Si, una 6990, quizas sea eso, o pcars porque yo probe otros juegos, o el i7 o a saber. Pero amos, yo no tengo ese boost en juegos dx9/11
Zokormazo escribió:
darksch escribió:
Zokormazo escribió:He probado en mi pc win 8.1 vs 10 y no noto ese 20% de boost

Tienes AMD?

Si, una 6990, quizas sea eso, o pcars porque yo probe otros juegos, o el i7 o a saber. Pero amos, yo no tengo ese boost en juegos dx9/11


No es cuestión de notarse o no notarse.

Coge el fraps y hazle un bench.

Por otro lado, como has hecho la prueba?

Dos instalaciones limpias?

Dos particiones?

Se aceptaría que aportaras pruebas de lo que dices.
De todas formas en teoría debería notarse en los hardware que usen ese tipo de tecnologías, a partir de la familia 7000 me parece que son.
papatuelo escribió:No es cuestión de notarse o no notarse.

Coge el fraps y hazle un bench.

Por otro lado, como has hecho la prueba?

Dos instalaciones limpias?

Dos particiones?

Se aceptaría que aportaras pruebas de lo que dices.


Tampoco pretendo hacer una review, no tengo tiempo para ello xD.

W10 lleva un par de build updateados asi q limpio del todo no esta. W8.1 unos meses.

Arrance 8.1 y abri un juego cualquiera - saints row 4 - con el marcador de fps de steam y fui a openworld a un cruce. Los fps rondaban los 51 fps. Guarde la partida, reinicie a w10 y cargue en el mismo sitio. Los fps rondaban los 51.

W8.1 lleva las catalyst beta. W10 en teoria tmb, pero como windows update los pisa cada vez que le apetece...
Zokormazo escribió:
papatuelo escribió:No es cuestión de notarse o no notarse.

Coge el fraps y hazle un bench.

Por otro lado, como has hecho la prueba?

Dos instalaciones limpias?

Dos particiones?

Se aceptaría que aportaras pruebas de lo que dices.


Tampoco pretendo hacer una review, no tengo tiempo para ello xD.

W10 lleva un par de build updateados asi q limpio del todo no esta. W8.1 unos meses.

Arrance 8.1 y abri un juego cualquiera - saints row 4 - con el marcador de fps de steam y fui a openworld a un cruce. Los fps rondaban los 51 fps. Guarde la partida, reinicie a w10 y cargue en el mismo sitio. Los fps rondaban los 51.

W8.1 lleva las catalyst beta. W10 en teoria tmb, pero como windows update los pisa cada vez que le apetece...


Es que el tema es ese, no es que pretendas hacer una review o no, pero si quieres desmentir algo como minimo tendrás que ser riguroso.

No puedes decir: No, yo no lo aprecio y no tengo tiempo para hacer una review. Cuando pasar un log de fraps es darle a una tecla...

Por otro lado tampoco puedes decir que ni sabes que drivers tienes...

Evidentemente para que lo que nos comentas sirva de algo, deberías como mínimo sabes si tus instalaciones están lo suficientemente limpias y cuidadas para funcionar al máximo ambas.

De la misma forma si se ha planteado un escenario en el P. Cars experimenta un aumento del 20% no puedes llegar y decir no, con Saint Rows no pasa, eso no demuestra nada. Igual que el boost en P. Cars no demuestra que ocurra en todos los juegos.
@papatuelo: no pretendo desmentir nada, simplemente he compartido mi experiencia xD

Me picaba la curiosidad y me dio por probarlo con un juego dx11 random. Abri en un lado y luego en otro, chof, no veo diferencia y mi gozo en un pozo.

Y los drivers, reinstale las beta de catalyst y reinicie antes de probar, pero w10 tiene la mania de meter las gpu drivers como actualizacion obligatoria no desactivable. asi que no me fio un pelo, no seria la primera vez con w10 creo tener los drivers de la web de amd pero que wupdate me los haya pisado a media tarde xD
Zokormazo escribió:@papatuelo: no pretendo desmentir nada, simplemente he compartido mi experiencia xD


Muchas gracias por tu experiencia.

Pero no creo que en este caso sirva de mucho.
papatuelo escribió:
Zokormazo escribió:@papatuelo: no pretendo desmentir nada, simplemente he compartido mi experiencia xD


Muchas gracias por tu experiencia.

Pero no creo que en este caso sirva de mucho.


Siento que a ti no te sirva de mucho, pero no creo que puedas extrapolarlo al 100% de los lectores del hilo
Zokormazo escribió:@papatuelo: no pretendo desmentir nada, simplemente he compartido mi experiencia xD

Me picaba la curiosidad y me dio por probarlo con un juego dx11 random. Abri en un lado y luego en otro, chof, no veo diferencia y mi gozo en un pozo.

Y los drivers, reinstale las beta de catalyst y reinicie antes de probar, pero w10 tiene la mania de meter las gpu drivers como actualizacion obligatoria no desactivable. asi que no me fio un pelo, no seria la primera vez con w10 creo tener los drivers de la web de amd pero que wupdate me los haya pisado a media tarde xD


La opcion de los drivers sí es desactivable, no me preguntes como pero cuando yo estuve trasteando la beta lo desactivé. Y no me digas que a estas alturas del cuento no sabes mirar que versión tienes...

De todas formas al menos el tiempo que estuve con la beta de windows 10, el propio SO metía los driver de amd sin problema, los oficiales quiero decir.
¿Qué os dice esta foto?

Imagen

CPU bound en Dx11 con una 750ti (que no es ninguna bestia). Claro, si le metes un i7 a 4Ghz el CPU bound desaparece, por lo que el cambio a Dx12 (W10) no se notara nada o casi nada en juegos desarrollados en Dx11.
En juegos multis en Xbox One se ve claramente un CPU bound.

En el video de la comparación de W10 vs W8.1 tmb se puede ver que el uso de la GPU aumenta. Por lo que mejora la comunicación CPU/GPU.

https://www.youtube.com/watch?v=XzFe5OOHZko
Szasz escribió:¿Qué os dice esta foto?

Imagen

CPU bound en Dx11 con una 750ti (que no es ninguna bestia). Claro, si le metes un i7 a 4Ghz el CPU bound desaparece, por lo que el cambio a Dx12 (W10) no se notara nada o casi nada en juegos desarrollados en Dx11.
En juegos multis en Xbox One se ve claramente un CPU bound.

En el video de la comparación de W10 vs W8.1 tmb se puede ver que el uso de la GPU aumenta. Por lo que mejora la comunicación CPU/GPU.

https://www.youtube.com/watch?v=XzFe5OOHZko


Sí, es bastante posible.

Desde luego lo que esa imagen sugiere es CPU bound.

Puff, que grande como se salten el CPU bound de los juegos en DX11 con solo ejecutar W10.

XBOX según Wardell sigue comunicandose de forma serializada entre CPU y GPU.
Yo sigo pensando lo mismo. La mejora de la que estáis hablando es la mejora de Dx12 sobre un juego con path Dx11. Los que más ventaja van a sacar son ordenadores con CPUs AMD con muchos núcleos y bajo IPC (los FX van a sufrir una transformación bestial).

Recordad que Dx12 no es una iteración más de Dx. Es un cambio de software que cambia la forma de comunicarse entre los diferentes componentes. Cualquier tarjeta Dx11 que ejecute W10 sufrirá una mejora (unas más que otras, parece que las GCN se adaptan especialmente bien). Pero no debéis confundirlo con los juegos programados para Dx12 desde 0.
Zokormazo escribió:
papatuelo escribió:
Zokormazo escribió:@papatuelo: no pretendo desmentir nada, simplemente he compartido mi experiencia xD


Muchas gracias por tu experiencia.

Pero no creo que en este caso sirva de mucho.


Siento que a ti no te sirva de mucho, pero no creo que puedas extrapolarlo al 100% de los lectores del hilo


Hombre si no detallas las cosas y haces un analisis de lo que has hecho, que drivers has usado y todo eso, pues es dificil creerte, por lo tanto puede que sí sea extrapolable a que el resto de los lectores del hilo dude de ti y mas teniendo en cuenta que tú mismo dices que no sabes que driver usas y tal.

Si te has tomado la molestia de hacer la prueba, que según tú contradice lo que se venia hablando antes, como minimo aporta los datos, no digo que sea mentira, pero si que es dificil creerte sin los datos...fuentes que se dice XD.

Edito: Creo que si explicas la prueba podrias demostrar que no vale con solo poner W10 para que los juegos ganen esa mejora, si no que hay que configurarlo de cierta manera o tener cierto hardware para obtener ese boost.
Szasz escribió:Yo sigo pensando lo mismo. La mejora de la que estáis hablando es la mejora de Dx12 sobre un juego con path Dx11. Los que más ventaja van a sacar son ordenadores con CPUs AMD con muchos núcleos y bajo IPC (los FX van a sufrir una transformación bestial).

Recordad que Dx12 no es una iteración más de Dx. Es un cambio de software que cambia la forma de comunicarse entre los diferentes componentes. Cualquier tarjeta Dx11 que ejecute W10 sufrirá una mejora (unas más que otras, parece que las GCN se adaptan especialmente bien). Pero no debéis confundirlo con los juegos programados para Dx12 desde 0.

Lo voy a preguntar por que no se si ando en lo cierto...

''CPU-Bound'' es cuando el procesador esta hasta las trancas de trabajo ¿no? Como ejemplo, siempre se ha dicho que el WoW es un juego dependiente de procesador mucho mas que de grafica (70/30 o asi)

Y la idea es que con DX12 los procesadores con mas potencia bruta por nucleo (intel) pero menos nucleos, notaran menos mejoria que los FX ¿no?

Si mis conocimientos estaban en lo cierto, ahora pregunto... el procesador de la xone es mas como un fx que como un i3/i5/i7 ¿no? muchos nucleos pero sin ''potencia bruta'' ¿no? mas como los procesadores de movil ¿no? Y por eso se espera una gran mejoria ¿cierto? (bueno, por eso y por las mejoras de la grafica ¿no?)

Iba a preguntarlo en el foro de pc en el hilo que habla de DX12, pero como lleva ''parado'' desde hace dias, y este tiene mas movimiento, y entiendo que no todos los que entramos a leer aqui tenemos el nivel de conocimiento tan alto, he optado por preguntarlo aqui para aclarar ideas...

Un salu2
@vihuquinpa: mas arriba explique que y como hice xD
FoxFurius escribió:
Szasz escribió:Yo sigo pensando lo mismo. La mejora de la que estáis hablando es la mejora de Dx12 sobre un juego con path Dx11. Los que más ventaja van a sacar son ordenadores con CPUs AMD con muchos núcleos y bajo IPC (los FX van a sufrir una transformación bestial).

Recordad que Dx12 no es una iteración más de Dx. Es un cambio de software que cambia la forma de comunicarse entre los diferentes componentes. Cualquier tarjeta Dx11 que ejecute W10 sufrirá una mejora (unas más que otras, parece que las GCN se adaptan especialmente bien). Pero no debéis confundirlo con los juegos programados para Dx12 desde 0.

Lo voy a preguntar por que no se si ando en lo cierto...

''CPU-Bound'' es cuando el procesador esta hasta las trancas de trabajo ¿no? Como ejemplo, siempre se ha dicho que el WoW es un juego dependiente de procesador mucho mas que de grafica (70/30 o asi)

Y la idea es que con DX12 los procesadores con mas potencia bruta por nucleo (intel) pero menos nucleos, notaran menos mejoria que los FX ¿no?

Si mis conocimientos estaban en lo cierto, ahora pregunto... el procesador de la xone es mas como un fx que como un i3/i5/i7 ¿no? muchos nucleos pero sin ''potencia bruta'' ¿no? mas como los procesadores de movil ¿no? Y por eso se espera una gran mejoria ¿cierto? (bueno, por eso y por las mejoras de la grafica ¿no?)

Iba a preguntarlo en el foro de pc en el hilo que habla de DX12, pero como lleva ''parado'' desde hace dias, y este tiene mas movimiento, y entiendo que no todos los que entramos a leer aqui tenemos el nivel de conocimiento tan alto, he optado por preguntarlo aqui para aclarar ideas...

Un salu2


Sí, estas en lo cierto. Pero no es q la CPU este hasta las trancas en muchas ocasiones, sino q esta siendo saturado un único core. Mi predicción es q la mejor CPU calidad precio para jugar va a ser el Fx de 8 núcleos. La elección de Sony y Microsoft por 8 low cores no es casualidad, sabían q vamos hacía más núcleos y menos potencia por núcleo.

Tenemos declaraciones de Nick Baker donde dice q el mayor cuello de botella q encontraron cuando testearon la maquina era en la CPU, por ello añadieron el Shape, retocaron los CPs e hicieron algunos tweaks menores en algunos componentes. Tmb tenemos declaraciones de Bradwell diciendo q One con Dx11 satura un único core.
Zokormazo escribió:@vihuquinpa: mas arriba explique que y como hice xD


Me refiero a una explicación seria con pruebas, no esa en la que no estás seguro de los drivers ni nada.
Zokormazo escribió:@vihuquinpa: mas arriba explique que y como hice xD

A mi si me parece interesante tu aporte compañero,posiblemente si hubieses tenido ese boost o algo parecido no harían falta tantas explicaciones ahora,posiblemente....
Szasz escribió:Mi predicción es q la mejor CPU calidad precio para jugar va a ser el Fx de 8 núcleos. La elección de Sony y Microsoft por 8 low cores no es casualidad, sabían q vamos hacía más núcleos y menos potencia por núcleo

AMD lleva mucho retraso en CPUs, tanto en tecnología de fabricación (32nm sus CPUs de gama alta), como en Instrucciones por ciclo comparandolo con Intel. Esta por ver si al final saltan a 20nm, o esperan y saltan a 14nm directamente, pero aun así tienen que ponerse las pilas con las IPC.

Microsoft y Sony yo creo que han elegido AMD, pq les daba una APU con la GPU incluida y memoria unificada, pero en CPUs Intel barre actualmente. Pero Intel no podía darles una APU con GPU decente, y NVIDIA no podía darles una APU con CPU decente ...
Lo del IPC es normal, AMD no ha querido centrarse tanto en lo que es CPU pura sino en la migración a un modelo HSA. Más unidades especializadas y que entre en acción la más conveniente en cada caso. De ahí el origen del proyecto AMD Fusion.

Esta es una comparativa un tanto antigua, pero sirve para comprobar el camino que eligió AMD hace mucho tiempo.

http://www.tomshardware.com/reviews/photoshop-cs6-gimp-aftershot-pro,3208-13.html

Ellos pensaron que el futuro iba por ese camino, solo que está costando bastante su implantación. ¿Quién si no está trabajando en eliminar todos los problemas de cuellos de botella en cuanto a accesos CPU <-> GPU, accesos simultáneos a la memoria compartida, etc.?. El objetivo final es una APU que lo haga todo y sea transparente, sin cargas adicionales, porque sea una unidad u otra dentro de ésta la que haga el trabajo.
@darksch, 100% de acuerdo contigo, y aun voy mas lejos, con los benchmarck de libreoffice usando HSA:

http://www.tomshardware.com/reviews/amd-a10-7800-kaveri-apu-efficiency,3899-5.html

Pero eso no quita que molaría que AMD mejorase las IPC de sus CPU.
Y lo de la tecnología de fabricación aun mas, ya que aunque las a APU las lleven mejor que las CPU, a 28nm, Intel lleva ya unos meses a 14nm ...

Y no lo digo por echar mierda sobre AMD, lo digo pq me encanta el camino que ha elegido AMD, creo que ha sido muy acertado que las consolas lo elijan, en PC acabara imponiendose pero tardará un poco ya que para navegar, ofimatica, etc no presenta ventajas, pero para juegos y demas programas que requieran muchos calculos va a ser la bomba.

PD: Parece que se repite la historia de AMD64 y los opteron ... esperemos que no les jodan esta vez con malas artes.

PD2: Lo que va a rematar el camino de AMD yo creo que es la memoria HBM ... ya que actualmente si haces que CPU y GPU compartan memoria, tienes que poner o DDR3 que le va mejor a la CPU, o GDDR5 que le va mejor a la GPU, con HBM las 2 contentas.
@cercata ya si nos gustaría que se tuviera todo, pero AMD dispone de bastante menos dinero que Intel con lo cual si son mejores en GPUs, en integración de éstas, y ya encima se les subieran a las barbas en CPU, pues donde quedaba Intel. Hay que tener en cuenta que Intel se gastará pastones en I+D su gran mayoría para mejoras de CPU, en algo tiene que notarse. Es lo normal digamos que Intel destaque en ese aspecto.

PD: WAAAH! que pasada lo del HSA mode ¿no?.
darksch escribió:y ya encima se les subieran a las barbas en CPU, pues donde quedaba Intel.

Si no pido tanto, sólo que reduzcan la ventaja que les sacan ... aunque si se les vuelven a subir a las barbas como hicieron con los Opteron Perfecto.

darksch escribió:Hay que tener en cuenta que Intel se gastará pastones en I+D su gran mayoría para mejoras de CPU, en algo tiene que notarse. Es lo normal digamos que Intel destaque en ese aspecto.

Dinero para I+D, y dinero para sobornar a directivos de fabricantes de PC para que no integren CPUs de AMD en sus equipos aunque sean mejores, como ya pasó con los Opteron :(

Aun así, con tanta pasta en I+D, la arquitectura Itanium se fue al carajo pq la arquitectura AMD64 era muchisimo mejor, y al final se ha convertido en el standard x86-64

darksch escribió:PD: WAAAH! que pasada lo del HSA mode ¿no?.

Sí, pero esa ganancia solo es para cosas que requieren una colaboracion muy estrecha entre CPU y GPU. Yo "creo/imagino/quiero" que las físicas de los juegos es una de las cosas en los juegos que podrían mejorar a este nivel, pero está el lastre del PC, ya que en PC los equipos de gama alta no tienen HSA y los DEVs no creo que se mojen. Lo de las bailarinas de Ubisoft era parecido.
En principio cualquier proceso candidato de GPGPU es válido para HSA. El HSA es la versión final y real del GPGPU, ya que en lugar de elegir se usan ambos y además sobre la misma memoria, sin necesidad de copiados.

Ahora que todas las consolas van a llevar AMD con HSA esperemos que sirva de empujón.
Y retomando el tema del Wifi-Direct.... estuve leyendo el tema de la VR en beyond3D y se me ha ocurrido una cosa bastante interesante. A parte de que se da por hecho que habrá una versión de hololens para X1, y que es posible que MS se meta en el tema de la VR con una colaboración con oculus/htc, o directamente haciendo compatibles ambos al serlo con win10. Lo que se me ha ocurrido y que tiene que ver con Wifi-Direct es lo siguiente, no sería posible que microsoft crease una especie de gear VR, es decir, una montura para utilizar móviles como cascos de VR, pero sin necesidad de utilizar el procesamiento del móvil para ejecutar los juegos, sino utilizar la consola para ejecutarlos y hacer el streaming por Wifi-Direct? Bastaría con instalar la app de smartglass en cualquier móvil para recibir el stream del vídeo directo a la pantalla del móvil, y al ser wifidirect la latencia debería de ser de menos de 1 ms, vamos sería como tener conectado por cable un casco.... sin cable... y mucho más barato que comprarte un casco de VR dedicado, ya que todo el mundo tiene un smartphone hoy en día con un mínimo de calidad para recibir vídeo a 1080p.
Pero yo sigo pensando que eso de ponerse el móvil a 4 cm de la cara tiene que ser mortal para la salud ocular. Tampoco es que sean pantallas especiales pensadas para eso. No me fio un pelo.
Pada escribió:Y retomando el tema del Wifi-Direct.... estuve leyendo el tema de la VR en beyond3D y se me ha ocurrido una cosa bastante interesante. A parte de que se da por hecho que habrá una versión de hololens para X1, y que es posible que MS se meta en el tema de la VR con una colaboración con oculus/htc, o directamente haciendo compatibles ambos al serlo con win10. Lo que se me ha ocurrido y que tiene que ver con Wifi-Direct es lo siguiente, no sería posible que microsoft crease una especie de gear VR, es decir, una montura para utilizar móviles como cascos de VR, pero sin necesidad de utilizar el procesamiento del móvil para ejecutar los juegos, sino utilizar la consola para ejecutarlos y hacer el streaming por Wifi-Direct? Bastaría con instalar la app de smartglass en cualquier móvil para recibir el stream del vídeo directo a la pantalla del móvil, y al ser wifidirect la latencia debería de ser de menos de 1 ms, vamos sería como tener conectado por cable un casco.... sin cable... y mucho más barato que comprarte un casco de VR dedicado, ya que todo el mundo tiene un smartphone hoy en día con un mínimo de calidad para recibir vídeo a 1080p.

Eso lo he hecho yo con PC y un movil a traves de USB 3.0 Tethering ... la cosa tiene mucho potencial.

Lo del streaming en mi caso era un poco problematico, las zonas oscuras quedaban un poco jodidas por la compresión, usando Trynus Gyre, pero este tema entiendo que Microsoft ya lo tiene resuelto actualmente.

Lo complicado es el tema del posicionamiento sin usar hardware extra. Los smartphones actuales tienen acelerometros y giroscopios, entonces con Trynus también el movil manda de vuelta al PC/Juego la información de posicionamiento, pero se va acomulando error. Por ejemplo, el eje de giro vertical, empiezas mirando de frente en la realidad, y corresponde a mirar de frente en el juego, pero entonces pegas varios giros rápidos de cabeza a izquierda y derecha, y ecuando tú vuelves a mirar de frente, el personaje ya mira 45º grados hacia uno de los lados.

Tendrian que hacer algo con kinect para ir compensado ese error de los sensores del movil ...
darksch escribió:Pero yo sigo pensando que eso de ponerse el móvil a 4 cm de la cara tiene que ser mortal para la salud ocular. Tampoco es que sean pantallas especiales pensadas para eso. No me fio un pelo.


El oculus DK2 utiliza la pantalla del Note 3, una de las funcionalidades de las lentes es fijar el punto focal en el infinito para quitar esa sensación de mirar a un punto delante de tus narices. El tema de la salud seguro que se mirará con lupa :P, pero vamos es algo que afecta por igual a toda la VR (si es que realmente hay algún tipo de problema).

@cercata te iba a decir lo del kinect, pero ya lo dijiste tu xD. Por otra parte, seguro que si explota el tema de la VR y de monturas estilo gear VR los móviles empezarán a tener mejores sensores y giroscopios para evitar que se acumule el error. Entiendo que sony resuelve el problema con su cámara, ¿no?, vamos que es indispensable para utilizar morpheus.
Hololens lleva un atom, gpu y vpu (o algo asi lo llamaron) para el procesamiento en la pantalla. Un movil da para procesar todo eso? No parecen pocas tareas para meter dos coprocesadores junto a un atom
Pada escribió:los móviles empezarán a tener mejores sensores y giroscopios para evitar que se acumule el error. Entiendo que sony resuelve el problema con su cámara, ¿no?, vamos que es indispensable para utilizar morpheus.

Si mejoran los sensores, se reducirá el error, pero no desaparecerá. Hace falta algo que detecte posicionamiento absoluto.

  • Oculus lleva una camara infraroja creo, que detecta unas luces infrarojas que van en el oculus.
  • Morpheus supongo que utilizara el PS4 Eye, que detectara alguna luz del morpheus y del move. SI al final no es PS Eye, sera algun derivado similar.
  • En sistemas DiY en PC, la gente utiliza TrackIR con hardware dedicado, o FreeTrack con una Webcam, pero tienes que poner algo especial en la cabeza.
Es totalmente factible, pero en el mundo de las consolas tienes que hacer algo que sea muy fácil de usar, es la filosofia. Entonces sólo funcionaría con el accesorio de Microsoft, que ademas de las lentes y poder encajar el móvil, tendría que tener unas luces o algo que Kinect pudiese identificar facilmente.

Esto es lo que te dan los de trackIr por ejemplo. Eso y un sensor/camara, claro:

Imagen

Como Kinect emite luz infraroja al igual que trackIR, sería suficiente con poner algo así encima de sus gafas, no harian falta luces, y te ahorras la necesidad de bateria en las gafas.

Eso sí, al hacerlo sin cables, tendrías el problema de la autonomía del móvil.
cercata escribió:
Pada escribió:los móviles empezarán a tener mejores sensores y giroscopios para evitar que se acumule el error. Entiendo que sony resuelve el problema con su cámara, ¿no?, vamos que es indispensable para utilizar morpheus.

Si mejoran los sensores, se reducirá el error, pero no desaparecerá. Hace falta algo que detecte posicionamiento absoluto.

  • Oculus lleva una camara infraroja creo, que detecta unas luces infrarojas que van en el oculus.
  • Morpheus supongo que utilizara el PS4 Eye, que detectara alguna luz del morpheus y del move. SI al final no es PS Eye, sera algun derivado similar.
  • En sistemas DiY en PC, la gente utiliza TrackIR con hardware dedicado, o FreeTrack con una Webcam, pero tienes que poner algo especial en la cabeza.
Es totalmente factible, pero en el mundo de las consolas tienes que hacer algo que sea muy fácil de usar, es la filosofia. Entonces sólo funcionaría con el accesorio de Microsoft, que ademas de las lentes y poder encajar el móvil, tendría que tener unas luces o algo que Kinect pudiese identificar facilmente.

Esto es lo que te dan los de trackIr por ejemplo. Eso y un sensor/camara, claro:

Imagen


Y todo eso lo veis viable para un lanzamiento como producto de consumo en consola?
Zokormazo escribió:Y todo eso lo veis viable para un lanzamiento como producto de consumo en consola?

El producto serian unas gafas de este estilo, que ademas tuviesen unos reflectores o algo que Kinect detectase con facilidad, Microsoft lo podría vender a 50 Euros con un buen margen.

Imagen

El resto sería software, que debería ser casi transparente para el usuario.
zokor el tema del móvil sería para usar como pantalla, el procesado quedaría para la consola. Por otra parte, como dice @cercata si se necesita hacer un tracking de luces infrarojas simplemente se añaden sobre la montura que venda microsoft, el usuario lo único que se tendría que preocupar es de saber si su móvil es compatible y que tendría que tener kinect. Pero vamos mientras se haga una montura adaptable a diferentes tamaños y con conector microusb para alimentar los infrarojos desde la batería del móvil (o cargar el móvil si la montura incorporase alguna batería).... no sé yo no lo veo tan descabellado, cualquier móvil grandecito hoy en día te dura horas encendido utilizándolo solo como pantalla. El mayor inconveniente que vería es la no compatibilidad con iPhone ya que no dispone de wifi-direct, y eso en USA y UK es un gran problema, aunque supongo que siempre se podría utilizar el wifi "normal".

Pero vamos son pajas mentales que me hago de cosas que podría presentar micro en el E3, por cierto, curioso: http://www.neowin.net/news/irides-micro ... ty-headset
Pada escribió:por cierto, curioso: http://www.neowin.net/news/irides-micro ... ty-headset

Sonaba de PM hasta que leido "nube"; y cada vez que oigo esa palabra, me pongo enfermo ... [+risas] [carcajad]
cercata escribió:
Pada escribió:por cierto, curioso: http://www.neowin.net/news/irides-micro ... ty-headset

Sonaba de PM hasta que leido "nube"; y cada vez que oigo esa palabra, me pongo enfermo ... [+risas] [carcajad]


El tema es que nube puede significar muchas cosas también, no es la primera vez que se habla del concepto de "local cloud" en artículos de microsoft. Vamos la X1 podría ser una "local cloud", aunque también puede ser azure..... o ambas cosas a la vez :).

Como se ha hablado muchas veces en este hilo, parece ser que la X1 tiene la GPU virtualizada, que parece ser un elemento importante para ser compatibles con el cloud computing (o ser utilizada la X1 como nube local). Por supuesto esto es tema tabú cuando viene de microsoft, pero vamos que nvidia ya en el 2012 hablaba del tema (y nadie se reía de ello).
17587 respuestas