Hablemos del interior de Xbox One

chris76 escribió:Busca por el foro privado que tiene montado por 3djuegos y lo encontraras,junto a otras barbaridades,papatuelo te lo puede confirmar tambien....

Eres tu el que ha afirmado tal cosa . Por lo que deberías ser tu el que aportes el link afirmando eso o el que quedara como mentiroso seras tu.

Cuando alguien a firma algo de otra persona lo mínimo es tener pruebas no decir : busca por ahí .

( y conste que no se si es vedad o no . Y dudo que multiplique x4 la consola ). Pero las cosas como son. Si acusas . Pon pruebas .
Yo lo lei en su momento y no voy a perder el tiempo con esas tonterias,el que le interese el tema ya sabe donde buscar,incluso creo que en este mismo hilo por detras esta puesto

P.D: y por la misma regla de tres,no me llames mentiroso gratuitamente y un poco de respeto
Yo lo de la potencia x4 me lo creo, me acabo de comprar una One y la tengo en mi dormitorio, alguna vez me levanté por la noche de repente, aunque seguí haciéndome el dormido y para mi sorpresa vi algunos duendecillos metiendo chips en mi consola, yo te creo :-|
Dicoleo escribió:
chris76 escribió:Busca por el foro privado que tiene montado por 3djuegos y lo encontraras,junto a otras barbaridades,papatuelo te lo puede confirmar tambien....

Eres tu el que ha afirmado tal cosa . Por lo que deberías ser tu el que aportes el link afirmando eso o el que quedara como mentiroso seras tu.

Cuando alguien a firma algo de otra persona lo mínimo es tener pruebas no decir : busca por ahí .

( y conste que no se si es vedad o no . Y dudo que multiplique x4 la consola ). Pero las cosas como son. Si acusas . Pon pruebas .


Es muy fácil decir q los demás dicen tonterías y uno mismo tiene la razón.

Efectivamente flash ha hablado de x4 de rendimiento. Pero nunca de una forma lineal. Según él, el hardware de One puede atacar varios procesos al mismo tiempo, 2 por hardware y 2 por "software" (similar al hypertreading). Así lo entiendo yo al menos. Cojo una frase suya:

"Si lo que quieres, es usar toda la potencia de la arquitectura de XBox One, no solo necesitas a DX12 para entenderla, necesitas un Engine que comprenda como optimizar desde la base a la máquina. Ya no estamos hablando de optimizar llamadas, tampoco de usar la e/SRAM para acelerar ciertos procesos del GPU que simplemente son meros parches al vuelo que siguen usando la arquitectura de una manera incorrecta. Hablamos de que es necesario de que el Engine en concreto sea capaz de ver, que la arquitectura funciona de una manera distinta a la que se la está forzando a funcionar en estos instantes.

Si X1 es capaz de meter en 1 ciclo, un total de 4 pases... porqué seguir usando solo 1?
Si X1 tiene 4+4 controladores de memoria, porqué usar solo 2?
Si la e/SRAM tiene capacidad de lanzar el frame tileado, tanto en textura, como en shadowmap, como en resolución directamente en pantalla sin pasar por la DDR3, porqué se sigue usando como un prepass?"
Imagen

Extraido de la propia pagina web de XBOX.

Un saludo! ;)
chris76 escribió:Yo lo lei en su momento y no voy a perder el tiempo con esas tonterias,el que le interese el tema ya sabe donde buscar,incluso creo que en este mismo hilo por detras esta puesto

P.D: y por la misma regla de tres,no me llames mentiroso gratuitamente y un poco de respeto


El que has empezado faltando el respeto a un usuario que no puede defenderse por que no se pasa por aqui eres tu.

Acusar con el dedito pero luego decir es verdad pero no os busco donde lo ha dicho tiene un nombre.

Si quieres acusar a alguien busca link. Yo por ejemplo para acusarte a ti solo tendria que coger tu comentario de mas arriba y demostrar que lo haces . Tu sin embargo has afirmado que un usuario ha dicho que aumentaria la potencia por 4x y sin pruebas ha sido solo tu.

SIno quieres que se te tache te mentiroso simplemente prueba lo que dices cuando alguien te ha pedido pruebas. Sino las pones es normal que la gente piense que lo eres.

Y conste en ningun momento te estoy diciendo que mientes. Pero tu tampoco en ningun momento demuestras que no lo haces.

Un saludo y dejo el offtopic. Pero es que me jode mucho la gente que señala con el dedito y grita "bruja bruja" . Pero luego no aporta las pruebas
Os quería preguntar si ha habido varias versiones de placa u otros cambios internos desde su salida, como si ha tenido la ps4 [comor?]
@chris76 No inventes cari

Vamos ha hacer una cosa, si vas a venir aquí a señalar, a acusar, o a poner palabras en la boca de la gente, te vienes con los deberes hechos y pones los enlaces y las frases. Porque si te vas a limitar a mentir, difamar y calumniar te pido moderación y santas pascuas.

@Jugueton No, esta consola está bien hecha.
Horizonte de sucesos escribió:@chris76 No inventes cari

Vamos ha hacer una cosa, si vas a venir aquí a señalar, a acusar, o a poner palabras en la boca de la gente, te vienes con los deberes hechos y pones los enlaces y las frases. Porque si te vas a limitar a mentir, difamar y calumniar te pido moderación y santas pascuas.

@Jugueton No, esta consola está bien hecha.

Más directo imposile [carcajad] [carcajad] [carcajad]
Horizonte de sucesos escribió:@chris76 No inventes cari

Vamos ha hacer una cosa, si vas a venir aquí a señalar, a acusar, o a poner palabras en la boca de la gente, te vienes con los deberes hechos y pones los enlaces y las frases. Porque si te vas a limitar a mentir, difamar y calumniar te pido moderación y santas pascuas.

@Jugueton No, esta consola está bien hecha.

Cuanto escozor hay por aqui no?

http://www.3djuegos.com/comunidad-foros ... ion-final/

Ahora pintarlo del color que querais pero hay pone que xbox one multiplicara por 4 su potencia,y yo no acuso a nadie de nada,solo expongo lo que leo..
Es decir, que no entiendes lo que lees.
Llevaba bastantes meses sin pasar por aqui, desde los meses previos al e3 cuando nos vendieron la moto de lo que iba a poder presentar Ms. Ahora con la salida de Halo me lo estoy volviendo a pensar

Como esta ahora mismo la cosa en cuestion de rumores de la retrocompatibilidad?
papatuelo escribió:
argam escribió:
Cosas interesantes:
-Microsoft lleva anyos utilizando la validacion del disenyo HW a traves de cosimuladores SW/HW, en lo que dijo que llevan mucha ventaja al resto de fabricantes.
-Tienen un emulador HW, hecho por Cadence, que puede emular la friolera de 1/3 del SoC de Xbox One :D. Hablamos de un cacharro que cuesta muchos millones de dolares.
-Remarco como cosa fundamental (y esto ya lo habia remarcado alguien por aqui por el foro, pero no recuerdo quien) el tema de la memoria coherente entre CPU y GPU.

En fin, que estuvo muy interesante.

Un saludo!


Puedes explicar algo más? Por ejemplo ¿que es eso de un emulador HW que emula un tercio del soc???


Cuando estan trabajando en el disenyo de la microarquitectura de la one (o de otro hw), en la que van a tener que fabricar nuevos circuitos integrados, expecialmente uno como el SoC de la One, con 5 billones de transistores, no haces el disenyo y te lanzas a fabricarlo sin validar el disenyo antes. Esta validacion se puede hacer de varias formas, entre ellas simulando el HW del circuito integrado o emulandolo en un hardware "reconfigurable". El problema es que estos hardwares reconfigurables (FPGAs mayormente) tienen una capacidad limitada, con lo que no puedes emular un chip tan grande como el SoC de One. Para ello utilizan un hw especifico (el que mostraban era proporcionado por Cadence, seguramente el principal suministrador de SW para disenyo de circuitos integrados). Este hardware es un monstruo con el tamanyo de varios frigorificos y con un consumo bestial de energia. En esencia es como una mega-FPGA. Pero aun siendo asi de tocha, no es capaz de emular al completo un SoC con tantos transistores como el de One, por lo que tienen que emular diferentes partes por separado. Y no solo eso, sino que es bastante mas lento de lo que acaba siendo el Chip una vez fabricado, tardando en cargar solo el sistema operativo de One varias horas (y si, no me he equivocado, son varias horas..).

Todo esto es necesario porque lanzarte a fabricar un IC supone muchos millones de dolares, y claro, es deseable poder validar el disenyo para evitar errores antes de fabricarlo.

Segun nos contaron en la fase de validacion detectaron un error que, de no haberlo hecho, habria resultado en que el SoC se habria acabado fundiendo al cabo de unos 20-30 minutos de uso. Imaginad la papeleta.

Un saludo!
Pero bueno, pero bueno nos estamos volviendo locos o que??

Que yo sepa aquí somos usuarios no desarrolladores, solo entendemos de juegos y queremos buenos juegos, y son las compañías las que tienen que sacar partido a la máquina. Hoy por hoy eso solo lo hacen los juegos AAA y esos juegos son contados, por ejemplo GTA que en este caso saldrá dentro de poco el V... ya se verá en qué plataforma corre mejor y por supuesto lo han realizado con las herramientas que disponen AHORA... luego podrán sacar otro más en esta generación pero no esperemos mucho pues necesitan tanto tiempo para ello que por mucho que enredemos ellos trabajan con las herramientas actuales y no las que salgan en cuanto tiempo....el que sea...

Podrán sacar otra IP por ejemplo un Red Dead y eso tardaaaa muchoooo y se realiza con las herramientas que disponen AHORA, así que todo lo que está sobre la mesa es lo que disponen para realizar esos juegos, pongámonos como nos pongamos son ellos los que tienen que averiguar como sacar partido al Hardware y no nosotros...luego seremos nosotros los que juzguemos como les ha ido la cosa, pero debatir que si una es mejor porque X lo tiene y por Y tiene esto otro es dar sermones en el desierto.

Y por mucho que nos puedan prometer tan M. como S. ellos quieren vender su plataforma, pero nosotros como usuarios vemos los resultados en los JUEGOS y no en sus bonitos y bien colocados chips, por mucho que divaguen y prometan nuevas herramientas... esas que se las den a quienes tengan que darlas y lo antes posible mejor, porque lo proyectos se alargan mucho en el tiempo y en esta generación aún más. Dejemos que sean ellos los que realicen sus proyectos y seremos nosotros los que los juzguemos comprándolos o literalmente dejarlos en el olvido... :-?
@argam

Muchas gracias por la respuesta.

Podrias hacer una valoracion del hardware a partir de esa simulacion?

Creo q podriamos decir entonces q no es hardware AMD al uso, no?

De lo contrario seria AMD el q lo testara, o no?
http://community.arm.com/groups/soc-implementation/blog/2014/06/11/dac-2014-five-mega-trends-for-system-design-and-verification

the complexity of chips with 20+ processor cores (Microsoft)

Microsoft's Victor Tirva on time to market challenges: 20+ processors per chip, SW shift left for early development

https://twitter.com/fschirrmeister/status/473853745474715648
papatuelo escribió:@argam

Muchas gracias por la respuesta.

Podrias hacer una valoracion del hardware a partir de esa simulacion?

Creo q podriamos decir entonces q no es hardware AMD al uso, no?

De lo contrario seria AMD el q lo testara, o no?



Si están emulando mediante FPGA es por que el diseño es radicalmente diferente a lo que tenían en amd, si tu coges una tarjeta existente y la modificas sabes que la base de computacion es igual y solo te queda preocuparte por la generación de calor.

Las pruebas las estaba haciendo la propia microsoft no?, no se si sera por hacer un control mas exhaustivo o simplemente por que han quiero mantener el HW bajo control por el tema de NDA.

Dicho esto.. Joder simular todos los transistores de la One con FPGA, es una jodida puta locura

Eloskuro.. 200x speed con configuraciones híbridas en AMD; Y la One con sus 50 FPGA esperando a ser usados.

Al final va a resultar que la maquina si estaba algo pensada y no era una chapuza como se decía por aquí
Horizonte de sucesos escribió:@chris76 No inventes cari

Vamos ha hacer una cosa, si vas a venir aquí a señalar, a acusar, o a poner palabras en la boca de la gente, te vienes con los deberes hechos y pones los enlaces y las frases. Porque si te vas a limitar a mentir, difamar y calumniar te pido moderación y santas pascuas.

@Jugueton No, esta consola está bien hecha.



@jugueton, diferentes marcas de discos duros, pequeñas variaciones del lector, y los cambios por el "molesto" Coil Whine Noise, que en los últimos modelos practicamente eliminaron, pero deben ser mínimos, hasta donde he podido ver, diferentes marcas en algunos componentes internos, supongo que por eso cuando hace unas semanas, paso el problema que la actualización dejo los lectores de varias unidades inútiles. aparte de eso no veo muchas diferencias.
mañana saco fotos.
saludos
marx666 escribió:Yo lo de la potencia x4 me lo creo, me acabo de comprar una One y la tengo en mi dormitorio, alguna vez me levanté por la noche de repente, aunque seguí haciéndome el dormido y para mi sorpresa vi algunos duendecillos metiendo chips en mi consola, yo te creo :-|



Yo puedo tener mi opinión, aunque hasta que no se demuestre no tiene validez alguna. Pero en todo caso, dejo que los compañeros que debaten o esperen una serie de características, y expongan sus puntos de vista, tengan la libertad de hacerlo, y no reciban burlas de gnomos o duendes como dices.

No intervengo porque estos campos se me quedan grandes, pero los leo con respeto, y no malmeto. Te recomendaría que hiceras lo mismo.

Un saludo
Aqui hay carnaza de la buena

Ubisoft GDC Presentation of PS4 & X1 GPU & CPU Performance

http://www.redgamingtech.com/ubisoft-gd ... rformance/
Nuhar escribió:Aqui hay carnaza de la buena

Ubisoft GDC Presentation of PS4 & X1 GPU & CPU Performance

http://www.redgamingtech.com/ubisoft-gd ... rformance/


¿Un resumen para torpes como yo ?
Dicoleo escribió:
Nuhar escribió:Aqui hay carnaza de la buena

Ubisoft GDC Presentation of PS4 & X1 GPU & CPU Performance

http://www.redgamingtech.com/ubisoft-gd ... rformance/


¿Un resumen para torpes como yo ?


Que por lo visto Ubi confirma algo que en principio ya se sabia... la GPU de la PS4 viene a ser el doble de potente que la de Juana
Pero esa gente es que:

- No está usando la eSRAM para computar y está tirando de DDR3, cuando dice bien claro "bottleneck = memory bandwidth" [facepalm]

- Encima han hecho una versión específica optimizada para PS4, mientras que en XOne ni se han molestado en intentar buscar por donde optimizar, ni siquiera a ver en que usamos la eSRAM como dije antes [facepalm]

Cojonudo, apilamos eSRAM sobre la APU para tener PIM y nos lo pasamos por el forro... [facepalm]

Que les pregunten a Remedy como han hecho esa magia...¡BRUJERÍA!

Y más aún, como resulta que la PS3 les sale el TRIPLE [facepalm] que la X360, y luego ya lo vemos en los juegos. Si lo que querían era hacer publicidad a cierta marca, lo llevan bien.
Ay madre estos de Ubi [facepalm]
darksch escribió:Pero esa gente es que:

- No está usando la eSRAM para computar y está tirando de DDR3, cuando dice bien claro "bottleneck = memory bandwidth" [facepalm]

- Encima han hecho una versión específica optimizada para PS4, mientras que en XOne ni se han molestado en intentar buscar por donde optimizar, ni siquiera a ver en que usamos la eSRAM como dije antes [facepalm]

Cojonudo, apilamos eSRAM sobre la APU para tener PIM y nos lo pasamos por el forro... [facepalm]

Que les pregunten a Remedy como han hecho esa magia...¡BRUJERÍA!

Y más aún, como resulta que la PS3 les sale el TRIPLE [facepalm] que la X360, y luego ya lo vemos en los juegos. Si lo que querían era hacer publicidad a cierta marca, lo llevan bien.
Ay madre estos de Ubi [facepalm]


No nos engañemos, "a bote pronto" la GPU de la PS4 es el doble de rápida. Cierto que la Juana se guarda un par de ases en la manga y va a sacar un full pero la PS4 empezó con un poquer.
Es que el doble NO es ni sobre el papel, así que el test de Ubi tiene que estar un poco mal. Me remito al test X360/PS3 para reafirmarme, ¿el TRIPLE, en serio?.

Atentos, según sus propias pruebas, las pruebas de Ubi, PS3 es el triple que X360, cuando precisamente sus propios juegos corrían peor en esta última. ¿Qué pasa, qué tenían ahí el motor para correr en PS3 el triple de rápido que en X360, pero luego en los juegos los ralentizaban para que fueran más lentos?. A mí que me lo explique alguien [facepalm]

Por otra parte, ¿cómo están programando en DirectX para la PS4?, ¿qué tienen ahí la API oculta mangoneada a M$ o qué? [qmparto]
Imagen
Para mí que han cogido PCs con GPU "parecidas" una con DDR3 y otra GDDR5 etc.etc. y ale ahí están nuestras pruebas [facepalm]
I feel bad for my tech friends who follow me. Sorry so much game stuff lately. Win10, DX12 stuff soon. Lots coming.


good stuff coming. That's about all I can say. MS is doing some amazing stuff.



https://twitter.com/draginol/status/523250403584929793
Tiene mas Ace y mas Cu, normal que rinda mas en GPGPU, de todos modos la Gpu tambien tiene que dibujar.
jose1024 escribió:Tiene mas Ace y mas Cu, normal que rinda mas en GPGPU, de todos modos la Gpu tambien tiene que dibujar.


tambien están ahí los coprocesadores, los move engines y el shape :P , que no se cuentan nunca. Algo harán :P Porque exactamente lo que hacen es quitar trabajo a la CPU y GPU
El Cell era increiblemente potente, una autentica bestia parda de la epoca. y muchisimo mas potente que el Xenon de 360. lo que era una autentica porqueria era el RSX de nVidia. de hecho, muchos juegos AAA y first party de PS3 usaban el RSX para rasterizar y 'cocinaban' la iluminacion defered en un par de SPEs mientras el RSX estaba ocupado.

de hecho, la filosofia de Cell era la que deberia haber continuado, pero ambas compañias han vuelto a x86.
eloskuro escribió:
jose1024 escribió:Tiene mas Ace y mas Cu, normal que rinda mas en GPGPU, de todos modos la Gpu tambien tiene que dibujar.


tambien están ahí los coprocesadores, los move engines y el shape :P , que no se cuentan nunca. Algo harán :P Porque exactamente lo que hacen es quitar trabajo a la CPU y GPU


Los Ace en Gcn estan para reprogramar los Cu para tareas de GPGPU, en Xbox One tambien, pero Ps4 tiene mas, no hay que darle mas vueltas, el mismo programa con mas recursos rinde mas.
f5inet escribió:El Cell era increiblemente potente, una autentica bestia parda de la epoca. y muchisimo mas potente que el Xenon de 360. lo que era una autentica porqueria era el RSX de nVidia. de hecho, muchos juegos AAA y first party de PS3 usaban el RSX para rasterizar y 'cocinaban' la iluminacion defered en un par de SPEs mientras el RSX estaba ocupado.

de hecho, la filosofia de Cell era la que deberia haber continuado, pero ambas compañias han vuelto a x86.


No entiendo a que viene Cell ahora mismo... pero volver, solo habra vuelto microsoft a x86 no? Sony cuando ha usado x86 en sus consolas? Aparte de que a mi me da que x86 estara capadisimo en la actual gen no? Solo tendra libs y api en x86_64, que no es lo mismo.
Un poco de información sobre como hacer las cosas en XOne que Ubi se ha pasado enteramente por el forro.

http://www.redgamingtech.com/inside-xbox-one-amd-microsoft-developer-day-analysis-breakdown-tech-tribunal-part-1/

ESRAM “Makes everything better” – a few common uses would be Render Targets, Compute Tasks, Textures and Geometry

The final is Asynchronously DMA resources in/out of the ESRAM, which could well leverage the power of the compute commands the the Xbox One’s move engines. This would ensure that there’s always a flow of the most important data inside the ESRAM, and would help to optimize its use

Eso como que ni lo habrán tocado, para qué. Porque bien que dejan claro ambos artículos que para optimizar hay que conocer bien el hardware, incluso en PS4 donde dice que el desarrollador lo tiene que hacer todo a bastante bajo nivel, considerando incluso cosas como el "Volatile Bit" o el "sync". Y desde luego que los de Ubi bien que se han molestado en optimizar para una con todo eso, y la otra es que ni mirarlo. Basta leer en el artículo la falta de información absoluta en torno, ni dan datos ni cómo lo han hecho ni nada de nada.
It’s unfortunate Ubisoft were rather quiet on the Xbox One front – we do have a little information

Pero bueno.
En realidad es bastante sencillo.

Han comparado las GPU (no todo el conjunto que conforma la consola) y la de PS4 es superior, ninguna sorpresa para nadie, pero que la Juana tenga varios componentes que puedan paliar la falta de GPU esa otra cosa totalmente diferente.
mitardo escribió:
darksch escribió:Pero esa gente es que:

- No está usando la eSRAM para computar y está tirando de DDR3, cuando dice bien claro "bottleneck = memory bandwidth" [facepalm]

- Encima han hecho una versión específica optimizada para PS4, mientras que en XOne ni se han molestado en intentar buscar por donde optimizar, ni siquiera a ver en que usamos la eSRAM como dije antes [facepalm]

Cojonudo, apilamos eSRAM sobre la APU para tener PIM y nos lo pasamos por el forro... [facepalm]

Que les pregunten a Remedy como han hecho esa magia...¡BRUJERÍA!

Y más aún, como resulta que la PS3 les sale el TRIPLE [facepalm] que la X360, y luego ya lo vemos en los juegos. Si lo que querían era hacer publicidad a cierta marca, lo llevan bien.
Ay madre estos de Ubi [facepalm]


No nos engañemos, "a bote pronto" la GPU de la PS4 es el doble de rápida. Cierto que la Juana se guarda un par de ases en la manga y va a sacar un full pero la PS4 empezó con un poquer.



Claro claro por eso los juegos exclusivos de one se ven tan mal.. Ryse, FH2, y sobre todo el brutal gameplay de QB que requiere el doble de potencia de la usada en Ryse e incluye iluminacion raytracing... Y por el mismo motivo los juegos en ps4 se ven mucho mejor no? Es que las cosas que hay que oír.

Bueno sobre el estudio este,la propia ubisoft explico que la versión de ps4 estaba adaptada para usar todos los nucleos de la GPU mientras que la de one era un port dx11 que solo usaba dos de los núcleos y sin usar además la SRAM, así que de coña.

Lo que pasa es que claro si lo hacían bien se le daban la vuelta los resultados y Sony ya no te lo paga.
salocin21 escribió:
mitardo escribió:
darksch escribió:Pero esa gente es que:

- No está usando la eSRAM para computar y está tirando de DDR3, cuando dice bien claro "bottleneck = memory bandwidth" [facepalm]

- Encima han hecho una versión específica optimizada para PS4, mientras que en XOne ni se han molestado en intentar buscar por donde optimizar, ni siquiera a ver en que usamos la eSRAM como dije antes [facepalm]

Cojonudo, apilamos eSRAM sobre la APU para tener PIM y nos lo pasamos por el forro... [facepalm]

Que les pregunten a Remedy como han hecho esa magia...¡BRUJERÍA!

Y más aún, como resulta que la PS3 les sale el TRIPLE [facepalm] que la X360, y luego ya lo vemos en los juegos. Si lo que querían era hacer publicidad a cierta marca, lo llevan bien.
Ay madre estos de Ubi [facepalm]


No nos engañemos, "a bote pronto" la GPU de la PS4 es el doble de rápida. Cierto que la Juana se guarda un par de ases en la manga y va a sacar un full pero la PS4 empezó con un poquer.



Claro claro por eso los juegos exclusivos de one se ven tan mal.. Ryse, FH2, y sobre todo el brutal gameplay de QB que requiere el doble de potencia de la usada en Ryse e incluye iluminacion raytracing... Y por el mismo motivo los juegos en ps4 se ven mucho mejor no? Es que las cosas que hay que oír.

Bueno sobre el estudio este,la propia ubisoft explico que la versión de ps4 estaba adaptada para usar todos los nucleos de la GPU mientras que la de one era un port dx11 que solo usaba dos de los núcleos y sin usar además la SRAM, así que de coña.

Lo que pasa es que claro si lo hacían bien se le daban la vuelta los resultados y Sony ya no te lo paga.


XDDDD

Dime donde esta la iglesia de los adoradores de la Infinita Magnificencia de Microsoft que en google maps no me aparece.

Creo que nadie ha hablado de juegos y mucho menos de exclusivos... se comparan las GPU y punto pelota. Son ganas de buscarle los 3 pies al gato para justificar la compra de un trasto.
salocin21 escribió:Bueno sobre el estudio este,la propia ubisoft explico que la versión de ps4 estaba adaptada para usar todos los nucleos de la GPU mientras que la de one era un port dx11 que solo usaba dos de los núcleos y sin usar además la SRAM, así que de coña.

Lo que pasa es que claro si lo hacían bien se le daban la vuelta los resultados y Sony ya no te lo paga.

Es que coincido en esos aspectos, que son:

- Computación en XOne usando sólo la DDR3, menudo despropósito, ni hecho aposta.
- No nos quieren decir ni cómo lo han hecho ni nada en relación a la prueba en XOne, NO DICEN NADA.
- Que tipo de sortilegio ha usado entonces Remedy en Quantum Break.
.
Editado por ahona. Razón: Faltas de respeto
jose1024 escribió:
eloskuro escribió:
jose1024 escribió:Tiene mas Ace y mas Cu, normal que rinda mas en GPGPU, de todos modos la Gpu tambien tiene que dibujar.


tambien están ahí los coprocesadores, los move engines y el shape :P , que no se cuentan nunca. Algo harán :P Porque exactamente lo que hacen es quitar trabajo a la CPU y GPU


Los Ace en Gcn estan para reprogramar los Cu para tareas de GPGPU, en Xbox One tambien, pero Ps4 tiene mas, no hay que darle mas vueltas, el mismo programa con mas recursos rinde mas.


Eso esta en la GPU. Está ya comparado hombre...
.
Editado por ahona. Razón: Faltas de respeto
A ver... quien ha dicho nada de solo la GPU? Tu estas diciendo una cosa el resto hablando de otra. No hay nada que discutir.
Aqui solo estamos diciendo que por mucho que los numeros en frio de las GPU y CPU puedan ser esos, en la practican eso no demuestra nada.
Editado por ahona. Razón: Quote
No trataba de crear polémica sobre rivalidades.

La idea era ver las incoherencias de Ubisoft, donde en Agosto dice A, y ahora dice B.
mitardo escribió:
salocin21 escribió:Que rápido te has quedado sin argumentos verdad campeón?
Tu sigue defendiendo la superioridad técnica de ps4.. Que te esperan 10 años largos y duros.

Yo te esperare jugando a los juegos realmente nexgen en One.

Venga un saludo machote


Pero que estas ladrando ?

La GPU es un único componente y vosotros creéis que la GPU es un conjunto de CPU+GPU+MEM+API.

No se para que me molesto si la compresión lectora de algunos es equivalente a la de un niño de 4 años.


Te he ido a reportar y ya estabas reportado así que sigue así campeon.

Puedes explicarme como funciona una GPU? Por que veo que pilotas del tema, lo que la GPU es un componente único me ha parecido "curioso" podrías desarollarlo por favor?

Debatamos
Nuhar escribió:No trataba de crear polémica sobre rivalidades.

La idea era ver las incoherencias de Ubisoft, donde en Agosto dice A, y ahora dice B.

Ya si lo entendí desde el principio, de ahí mis dudas van en precisamente esa dirección.

Creo que lo que @mitardo quería decir es que como componente único, cerrado y en plan prueba de laboratorio cargando todo en un único componente les da esos resultados.
De todas formas detrás sigue todo el secretismo y el hecho que no han usado el hardware de XOne para nada, sólo en su forma más básica, mientras que en la otra sí que se han molestado en estudiarla a fondo.
Nuhar escribió:No trataba de crear polémica sobre rivalidades.

La idea era ver las incoherencias de Ubisoft, donde en Agosto dice A, y ahora dice B.


+1 . Para mi al menos, la credibilidad de ubi es nula. Caso rayman con wii u, WD y el video del E3, AC parity y el recule de lo dicho... en fin, demasiados casos de mentiras y donde dije digo digo diego como para que sus chorradas tengan algo de credibilidad.

@salocin21: los post de mitardo los he reportado yo al igual que los tuyos, porque estais creando un flame que aporta 0 al hilo entre uno y otro. Porque sus mensajes no aportan, pero los tuyos tampoco.
A partir de aquí empezamos con los baneos.

Parece mentira que cada 3 días tengamos que repetir cual es el topic del hilo.
salocin21 escribió:
Te he ido a reportar y ya estabas reportado así que sigue así campeon.

[ok]

darksch escribió:
Creo que lo que @mitardo quería decir es que como componente único, cerrado y en plan prueba de laboratorio cargando todo en un único componente les da esos resultados.


Exacto. Menos mal que aun hay gente que sabe leer y no se siente ofendida por cosas que nadie ha dicho.
mitardo escribió:
salocin21 escribió:
Te he ido a reportar y ya estabas reportado así que sigue así campeon.

[ok]

darksch escribió:
Creo que lo que @mitardo quería decir es que como componente único, cerrado y en plan prueba de laboratorio cargando todo en un único componente les da esos resultados.


Exacto. Menos mal que aun hay gente que sabe leer y no se siente ofendida por cosas que nadie ha dicho.



Pero es que probar un GPU sin tener en cuenta tanto la api como el pool de memoria no tiene ni pies ni cabeza, ya que la GPU al final vive precisamente de como la atacas con datos y sobre todo como es capaz de sacarlas a la memoria.

Pensar que con la GPU que supuestamente tiene One en ese estudio se puede mover HF2 o QB es simplemente de chiste, así que la credibilidad de ubisoft pues nula para mi francamente.

Y mitardo no me ofende lo que no dices, si no las faltas de respeto, cosa que yo no he echo.
salocin21 escribió:
mitardo escribió:
salocin21 escribió:
Te he ido a reportar y ya estabas reportado así que sigue así campeon.

[ok]

darksch escribió:
Creo que lo que @mitardo quería decir es que como componente único, cerrado y en plan prueba de laboratorio cargando todo en un único componente les da esos resultados.


Exacto. Menos mal que aun hay gente que sabe leer y no se siente ofendida por cosas que nadie ha dicho.



Pero es que probar un GPU sin tener en cuenta tanto la api como el pool de memoria no tiene ni pies ni cabeza, ya que la GPU al final vive precisamente de como la atacas con datos y sobre todo como es capaz de sacarlas a la memoria.

Y mitardo no me ofende lo que no dices, si no las faltas de respeto, cosa que yo no he echo.


[ok]

Bajo mi punto de vista decirle a alguien "campeón" y tratarlo con prepotencia y soberbia es una falta de respeto.

Volviendo al origen la GPU de PS4 tiene un 50% mas de CU que no sirven para nada. Larga vida a Microsoft !
Cuando todo salga a la luz estos de Ubi se van a pegar un hostión...

Y si lo que querían era conseguir una mala relación con una de las marcas principales, lo han conseguido a base de bien.

Pero ellos solitos se lo han buscado.
Ubisoft perdió su credibilidad hace mucho tiempo. Yo el unico problema que veo es que dado que las ventas de One no son tan espectaculares (son buenas pero no exageradas) dejen de lado la optimizacion para esa plataforma, porque esta comprobado que con un poco de esfuerzo se consiguen resultados similares. No obstante creo que en 1 año poco podemos ver real, habra que esperar minimo 2 mas para ver lo que realmente dan de si las plataformas.
17587 respuestas