MISTERXMEDIA (INTERESANTE INFORMACION)

1, 2, 3, 4, 5, 6
Triste, has puesto lo mismo en los 2 hilos que hacen referencia al hardware de one...
Sí, los dos hilos más cachondos que hay. Peña llamando injinieros a los que intentan explicar cosas y haciendo ellos esas funciones injinieriles con supuesta información contrastada por los expertos de Telecinco.

Como digo, paso a reirme. No por el hardware, que tengo clarisímo como es, y lo más importante, porqué lo compré.

Lo que me da la risa son los fanatismos y los personajes con afán de protagonismo. Seguid, por favor.
b_e_ne está baneado por "Saltarse el baneo con un clon"
Gracias, una aportacion fenomenal....

[fiu] [fiu] [fiu]
No tengo ninguna obligación de aportar. Cuando lo he hecho se me ha faltado al respeto porque en estos hilos lo que se quiere leer es que One es mejor que PS4.

Mi opinión es que la mayor parte de lo que se pone aquí es para reirse, y para eso lo uso.
b_e_ne está baneado por "Saltarse el baneo con un clon"
Enhorabuena entonces.... pero entonces al escribir aqui ya sabras que formas parte de eso de lo que tanto te ries....

[fiu] [fiu] [fiu]
Ale, de aquí en adelante, cualquier offtopic trae de regalo un baneo.
ESPMuD-XBONE escribió:Sí, los dos hilos más cachondos que hay. Peña llamando injinieros a los que intentan explicar cosas y haciendo ellos esas funciones injinieriles con supuesta información contrastada por los expertos de Telecinco.

Como digo, paso a reirme. No por el hardware, que tengo clarisímo como es, y lo más importante, porqué lo compré.

Lo que me da la risa son los fanatismos y los personajes con afán de protagonismo. Seguid, por favor.


En realidad, eso es más falso que un sello de madera. Jamás he leído a nadie asegurar o querer que la One sea superior a ningún otro hardware (de su generación, por supuesto). Lo que da por saco son todos los mesías y profetas que vienen aquí soltando sus "verdades". Con pruebas en la mano, no tengo ningún problema, pero chorradas no. Además, por cada tontería que sueltan hay varias respuestas para refutarlo, pero luego nos sueltan lo mismo que tú dices. El sonier siempre tiene la mejor consola, lo sea o no, eso da igual (y, hasta la fecha, ninguna de las lanzadas por sony lo ha sido). La primera vez tenía su gracia. Como un farsa-mandril. Luego, ya cansa.
 Misterxmedia dice:
"MS haters think AMD made Mantle by their own while in reality it is MS who helped AMD with Mantle and gave this low level access from console Directx version."

Creéis que es cierto?
X-DDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDD
Insider Daily. Seeking alpha as mystery continues. MS tell full DX12 support. Impossible with 7790

March 23rd, 2:43

Insider: Gpu is not standard gcn... hsa full support .. And the gpu is effectively dual logic. Multi threaded gpu core..

Each thread is 1.3tf 2.6 with out optimisation. Dp

Look here is the clue that matters most to everybody .. Its the accelerator it is the secret I do not know the real name for it.
Its not on the hot chips slides. Other then a red line from gpummu to cpu.. its not on the slides its been in the patents .. it all evolves around the oban..
I honestly cant go any further with this it is in your hands guys .. the whole soc is built on this.. it is why gpu can do the things it can why esram is so scaled. And why there is 36 micro processor that are no wear to be found its also the missing edram that is no where to be found. And its never been used ..

You know what to do.. if the community all works together they cant hide this

Misterx: So, configuration 3?
12/14 cus with smaller die space could not be more powerful than ps4 bigger CUs?

Misterx: No clears answer for config 1 or config 2 is the answer too. Config 1 is wrong?
Insider: Totally different gpu.. cu are way more powerful. . Waaaay more powerful

I need to find time to answer all the questions. . Woooooooorrrrkkkk

Misterx: Smaller die size(for GPU) but way more powerful(to PS4)? Chipworks photo shows all CUs?
Insider: Chip work does not show all cu.. they do not even bring cpu cu into account..

12/14 x 2x to 4x but it has to be engine specific. Like the gpu core logic cu are way beyond... this is not the same specification as ps4 off the shelf..

ms did the same thing with 360 architect

ps4 has an extra 4 cu for comput specific stuff .. but think kinect 2 cpu only x1 has it off board..

Misterx: "Each thread is 1.3tf 2.6 with out optimisation. Dp"
That means 2.6 DP? Am i read it correct? 2.6DP for 2 threads??? wow that a number...SP number could be 2.6 x 3-4?

Misterx: That is pretty big...not all CUs are on 1st layer...that means there is other CUs must be somewhere else...

Misterx: Still a little bit of mystery for me how 14CU on Chipwork diagram could be smaller in size, smaller overal square and be 2-3 more powerfull than PS4...
I still beleive more in Mictercteam digging about thouse 12 CUs on 1st layer are Dxcore only(for apps and UI). By HSA paradigm Dxcore is supporting GPU for CPU...i asked you many times about Dxcore and 1st layer...there was allways no clear answer from you... :( should be NDA...but a hint that on 1st layer there is not all CUs means that there is another layer with CUs...
Also what about sdk hardware? why MS provided 2x7970 SDKs while developers could only use 1st 1.31TF SP layer?

Misterx: Also you told about hight frequincy for xbox one. Official numbers see much lower frequency...
Is turbo clock tech(future clock upgrade) is still possible and planned? that means that 1.3TF DP is not final number for real GPU?

Misterx: Is it save continue to say there is 1.3Tf SP DXcore(1st layer in HSA terms equals CPU) and 1.3Tf DP GPU inside Xbox One?

What do you mean by DP?
a) x2 = 2 treads
or
b) floating point double precision that equals x3x4 more power needed compared for SP?

Misterx: So basivally new info confirms all Mistercteam digging...because it is impossible to have on Chipwork diagrams to have smaller and less CUs and be more 2-4 times more powerfull than PS4...

Misterx: Another theory that it is 1.3TF DP we see on 1st layer of Chipworks but thouse little CUs could do 3-4 times more that bigger CUs of PS4. Something like engine specific that produces less idlle and stalls and do more work due to hardware help of 2nd layer. Also there is 2 of 1.3Tf DP cores...the second one on 2nd layer.

Now Xbox One uses only one 1.31Tf part of first layer without engine specific stuff and produces 1.31TF SP output. With engine specific tools and better management(use of all DX12 features)) it could produce 1.31TF DP values( or 1.31Tf SP x3-x4 with help of DX12). Stereo means there will be access to second 1.31 Tf DP part...with DX12 in engine that will allow to render 3-4 objects compared to 1 of standart GCN core.

It is something like this:
(1.31TF SP - mono driver + 1.31TF SP - stereo driver) x 3 or 4 by DX12 optimised engines

= (1.31SP-mono + 1.31SP-stereo) x3 or x 4 by DX12 special hardware to render 3 or 4 more objects because of:
- less stalls and idle
- new command buffer management
- with help of new memory management(like ESRAM, move engines, EDRAM and etc).

How that hardware is distributed by hardware layers is another question...and Mistercteam has all the answers. But seems like we have 2.6DP here...DP is not double precission of floating point calculations but it equals to that perfomance gain if use DX12 new features that allows to render 3-4 times more objects with the help of new co-processors and new management system while TF number stay the same.

Mystery continues...

But we can be sure that 7790 GPU as Digital Foundry and other clueeless journos told us could not have full DX12 hardware support.

By their logic al better than 7790 GPUs including PS4 77850 GPU is full DX12 compatable. By their logic that means that DX12 is nothing special and only reduces overlays.

There is still strong beleive in that and MS should show all DX12 features other than 50% less CPU Mantle like utilisation. MS haters think AMD made Mantle by their own while in reality it is MS who helped AMD with Mantle and gave this low level access from console Directx version.
O se me escapa algo o me parece mucho humo. No sé, quizá alguien me lo pueda explicar.
Este hilo si que no se debe tomar en serio, es curioso, pero ya esta.

MisterX miente como un bellaco y está más que asumido.
hadock0 escribió: Misterxmedia dice:
"MS haters think AMD made Mantle by their own while in reality it is MS who helped AMD with Mantle and gave this low level access from console Directx version."

Creéis que es cierto?



Pues es posible, Anandtech ya insinuaba desde hace tiempo que Mantle estaba basada en la API de One.

Y como detalle decir que Mantle solo funciona en Windows y saca mas partido para las GCN 1.1 que las GCN 1.0, la gpu de One es GCN 1.1
Buenas gente. He empezado a leer el post q ha puesto el eloskuro sobre la entrada de misterxmedia y en el primer párrafo ya se me ha escapado la primera sonrisa...sobre la mitad alguna carcajada...para terminar las últimas líneas pensando q estaba perdiendo el tiempo, pq ya no compensa ni por las risas.

Pregunto sin maldad ni mofa, de verdad alguien de aquí le da un mínimo de credibilidad o se cree algo de lo q este señor cuenta?.

Un saludo.
Polyteres escribió:Buenas gente. He empezado a leer el post q ha puesto el eloskuro sobre la entrada de misterxmedia y en el primer párrafo ya se me ha escapado la primera sonrisa...sobre la mitad alguna carcajada...para terminar las últimas líneas pensando q estaba perdiendo el tiempo, pq ya no compensa ni por las risas.

Pregunto sin maldad ni mofa, de verdad alguien de aquí le da un mínimo de credibilidad o se cree algo de lo q este señor cuenta?.

Un saludo.


De momento creo que no acierta mucho xD Así que es dificil creerle
espero no ofender a nadie, para que sirve este hilo?
bampirokai escribió:espero no ofender a nadie, para que sirve este hilo?


Simplemente para debatir y pasarlo bien.
b_e_ne está baneado por "Saltarse el baneo con un clon"
b_e_ne escribió:
b_e_ne escribió:Ojo una cosita.... y se que solo es especular, antes de que alguno salte al cuello....

http://techreport.com/news/26210/direct ... t-gen-gpus

Sino he entendido mal, en el articulo dice que directx 12 tambien traera nuevas aplicaciones para las gpus de nueva generacion.....

Imagen

Nuestro amigo Spencer nos dice que directx12 sera full en ONE, es decir, soportara todas sus caracteristicas...


Parece que ya no soy el unico que lo piensa.......
Quiza al final ONE, lleve alguna sorpresa en sus tripitas...... [reojillo] [reojillo] [reojillo]


Alguien lo explique detalladamente.....
Para eso sirve este hilo..... [oki] [oki] [oki]
bampirokai escribió:espero no ofender a nadie, para que sirve este hilo?


eso digo yo jejeje veo un sin sentido este hilo , ya ke todo lo ke se habla en el... ya esta expuesto en otros hilos.
Polyteres escribió:Pregunto sin maldad ni mofa, de verdad alguien de aquí le da un mínimo de credibilidad o se cree algo de lo q este señor cuenta?.


Yo no me creo nada :) .. pero el tio parece que le cargan las pilas todas las semanas, jejeje.. tiene mucha moral e imaginación. Esto es como leer un comic de superheroes, te lo pasas bien, sirve para pasar el rato pero sabes que todo es fantasía.. ¿hay alguna posibilidad de que sea real?, cero o ninguna, pero nunca se sabe :)

Ahora en serío, hay alguna vez que puede que diga cosas que son verdad o que simplemente acierte, pero tampoco se decir que porcentaje, seguramente muy poco.
Microsoft desmiente que Xbox One tenga una GPU oculta
Durante algunos meses, se vino rumoreando que Microsoft podría tener un as guardado en la manga con Xbox One, y que su consola no estaría aprovechando su arquitectura al máximo durante sus primeros pasos.

Los rumores pasaban desde una GPU limitada intencionadamente a una segunda GPU oculta, que "destaparían" más adelante a través de actualizaciones de la propia consola y de los kits de desarrollo.

Estos rumores han vuelto a dispararse con el anuncio de DirectX 12, que daría un importante empujón a la potencia de la máquina. Alberto Penello, ejecutivo de Microsoft, ha querido desmentir la existencia de esta hipotética GPU a través de Twitter.

fuentes:
http://www.vandal.net/noticia/1350649116/microsoft-desmiente-que-xbox-one-tenga-una-gpu-oculta/
https://twitter.com/albertpenello
Bueno, ahí queda zanjado el tema de la 2ª GPU, ahora solo queda saber si estamos ante una ATI 7XXX o una ATI 8XXXX o 8.5XXXX etc...
OTRA VEZ, desmiente otra vez.

Eso ya estaba más que claro la primera vez que lo dijo. Ahora lo ha tenido que volver a decir por Thuway:

http://misterxmedia.livejournal.com/160240.html
Mas madera en el blog de Misterxmedia.

Insider Daily. Everyone thinks 1.31TF is SP while it is DP
Gerard.RB escribió:Microsoft desmiente que Xbox One tenga una GPU oculta
Durante algunos meses, se vino rumoreando que Microsoft podría tener un as guardado en la manga con Xbox One, y que su consola no estaría aprovechando su arquitectura al máximo durante sus primeros pasos.

Los rumores pasaban desde una GPU limitada intencionadamente a una segunda GPU oculta, que "destaparían" más adelante a través de actualizaciones de la propia consola y de los kits de desarrollo.

Estos rumores han vuelto a dispararse con el anuncio de DirectX 12, que daría un importante empujón a la potencia de la máquina. Alberto Penello, ejecutivo de Microsoft, ha querido desmentir la existencia de esta hipotética GPU a través de Twitter.

fuentes:
http://www.vandal.net/noticia/1350649116/microsoft-desmiente-que-xbox-one-tenga-una-gpu-oculta/
https://twitter.com/albertpenello


En Vandal están a la última. Día 25 noticia sobre un Twitter del día 20...
Jur...

Cuantas páginas ha llenado este tipo en el hilo General de Xbox One XD

Misterxmedia (y su supuesto insider, si es que existe) sí tuvo alguna declaración que se ha acercado mucho a la realidad final en septiembre de 2012, cuando afirmó que la consola traería 8 cores con 4 hilos, una Radeon serie 8000 con 8 o 6 gb de Ram.

Fuera de ese merito y a partir de ese momento, o bien sonó la flauta y acertó de suerte o bien a partir de ahí empezó a inventarse de todo.

Algunas de sus joyas:

- 720 is deffently 30% more powerfull thrn PS4 (Octubre de 2012)
- The console has 8gig of ram. But 6 gig is ddr4 system ram.. The other 3gig is gddr5. This is not including cach or edram (Enero de 2013)
- Insider said Xbox One will feature tech not available in PCs till 2014-2015. That could only be DX12 tech. Xbox One will feature things will be avalaible in DX12 before everyone else (agosto de 2013)
- Sony desperately try to upgrade PS4 for dGPU now to make it like Xbox One (agosto de 2013)
- MainSOC will have eDRAM/SRAM, dGPU will have it too; dGPU will have 2GB of DDR5 stacking, not know what the final will have (septiembre de 2013)
- 80% of developers do not have access to dGPU part yet (septiembre de 2013)



Cuando se "presenta" la consola y empiezan a salir algunas informaciones que sí tienen total garantía Misterxmedia comienza a marear la perdiz para que no se lo coman ( o para que lo sigan leyendo)

- DDR3 RAM inside Xbox One acts like DDR4 from 2014 PCs and really have 272 GB/s BW (septiembre de 2013)
- Albert Pennelo is correct as dGPU inside Xbox One is not single big discrete GPU (septiembre, tras desmentir Penello los rumores de Dgpu)
- PS4 and Xbox One power consumption. Xbox One have more under the hood (hace una suposición basada en la fuente de alimentación de cada consola)
- Microsoft helped AMD to create Volcanic Islands and will use its tech inside Xbox One (septiembre de 2013)



Aquí ya empieza a ser de reir o de llorar:

- Main GPU is R9 280x based 3.2TF RAW+ DXcore GPU as guest APU for apps+ ESRAM+other for 4TF total (finales de septiembre de 2013)
- Xbox One have 4 old CUs and 12 new CUs. 4 old CUs are 10% of perfomance. Do the math (octubre de 2013)


Ya a finales de octubre empieza a venirse abajo:

- Xbox One is more powerfull but is really harder to programm for then PS4 at start (25 de octubre de 2013)
- PS4 shoots down every 35 minutes because of overheating (29 de octubre de 2013)


Y para no alargar el tema el gran final:

- Hana 2 has a 1200/1200 motion engine that is direct to the frame buffer out put.. Yes I am talking television technology but hana2 or in the development world that scaler. 30fps can be enhanced up to 60fps. And every interpolation frame can in corporate 2x aa. Which will get ride of shimmering and smoother edges. So when you hear somebody say 30fps your not going to be getting that last gen 30fps.. And I prefer the enhanced motion (29 de octubre de 2013)


Yo no sé si lo que dirá desde hoy este personaje es (o puede ser) verdad. Lo que sí sé es que ha inventado, mentido y fantaseado a lo grande durante meses.

Lo mejor es tomárselo con humor.

Un saludo.
Buf. Yo sí que no he dado, ninguna, ¿no? Lo clavé.

Y en el general me voy a callar porque he decidido jugar y pasar de polémicas, pero me sigo partiendo.

Os voy a hacer un vídeo y un Powerpoint y me vais a dar la razón. Los colorines es lo que te dan la razón.

:)

:D
MisterXMedia se flipa:

Insider Daily. Xbox One is 2.6TF DP GPU@853Mhz+special hardware make it 4-5TF DP for whole system

y, luego, se cabrea XD

ms_xbotx1: Hidden Power

Prove the PS4 is more powerful then the XB1.

MS has the only 1080p/60fps game that actually has textures so far this gen

The Order needs 2 black bars on screen forcing the player to have to play within an 800p gaming area just for Sony to say the game is 1080p. Linear gameplay and no multi player coop.

Driveclub....went back to the drawing board as the devs were having a hard time to keep a solid 30fps.

Infamous is an empty city with no life and full of fog to blur the textures in order for Sony to hit 1080p and it's still only 30fps

Sony LIED about KZ being 1080p/60fps. Not only did KZ turn out to struggle at 30fps, Titanfall's BETA had a higher resolution then KZ.

So I ask you, what proof do you have that the PS4 is more powerful then the XB1?

Multiplats? LMFAO since when do multiplats dictate the strengths of a system? Especially last gen ports that are using last gen dev tools.

I hate ignorant people.


Leyendo entre líneas se entiende que quiere decir que liberando a la APU de trabajos como el audio, etc. esta puede utilizar sus recursos para manejar más información, pero debería explicarlo mejor. Así sólo parece un yonki.
Igual que muchos compis no se si creermelo
La unica realidad sobre One es que tiene mucho hard especifico para liberar de cargas tanto a la cpu como a la gpu, de ahi que su gpu no tenga la misma potencia que la de ps4, y hasta que no se empiecen a derivar los trabajos a esos chips adicionales y se empiece a usar la esram como buffer las diferencias disminuiran entre los 2 sistemas drasticamente hasta tal punto que apenas habra diferencias. Pero que lo hagan es otra historia.
Del último post publicado de mrxmedia:

AMD said last week at GDC: DX12 is like 4 generational leap.

OMG :O
Si cambian la manera de trabajar como dicen es un cambio muy grande (no sé si tanto, pero se notará).
framed escribió:Si cambian la manera de trabajar como dicen es un cambio muy grande (no sé si tanto, pero se notará).


Notar se va a notar, un ejemplo claro tienes a un grupo de 5 tios para hacer un trabajo, pero si siempre se lo mandas al mismo, vas a conseguir 2 cosas, una vas a tardar mas y encima al ser uno solo se va a cansar mas rapido por mas fuerte que sea que el resto y la segunda que vas a tener a 4 tocandose los cojones.
Ahora si se reparte el trabajo se hara no solo mas rapido y mas eficiente, si no que el que es mas capaz al tener menos carga de trabajo lo hara mucho mejor y encima dedicarse a alguna otra cosa.
Pero esto es lo de siempre y como dije antes hasta que no se pongan.......
Y por mucho que se empeñen Ps4 como One son muy muy parejas, mucho mas que Ps3 y 360, y quien piense que el equipo de hardware de Ms son unis tolais, van listos.
Aun asi lo importante son los juegos, y alla dinde saquen uno que me nole alli estare este en la plataforma que este.
SangReal está baneado del subforo por "Flamer anti Xbox One"
A este hilo le faltan conspiraciones alienigenas
papatuelo escribió:Eso q significa?


k si es verdad, la x1 lo peta...!
b_e_ne está baneado por "Saltarse el baneo con un clon"
http://www.dsogaming.com/news/avalanche ... -consoles/

Eso esta sacado de AMD directamente... Basicamente lo que dice es que ONE consigue una ancho de banda mayor que ps4..... Si ha esto le sumamos que lo consigue con una latencia muxo mas baja, la cantidad de procesadores extra que tiene ONE, y Directx 12......
Pues como ha dicho el compañero..... que ONE LO PETA!!! XD XD XD
Si ha salido de la pagina de misterx lo mas probable es q sea mentira.
b_e_ne está baneado por "Saltarse el baneo con un clon"
papatuelo escribió:Si ha salido de la pagina de misterx lo mas probable es q sea mentira.


Arriba esta el enlace papa.....
OK, no lo habia visto.

Gracias.
papatuelo escribió:Eso q significa?


Buenas gente. El paper es de una ponencia de Emil Persson (Avalanche Studios creadores de Just Cause). Me encantan los papers/ponencias de este tío (he aprendido más con el que con todos los libros del mundo). Lo digo pq no es nada de AMD como ha dicho b_e_n_e.

En una GPU las ROPs se usan en el último lugar del pipeline gráfico antes d escribir el resultado a memoria. Básicamente se encargan de coger los datos (fragmentos) que le llegan de los pixels/fragment shader y "pasarlos" a pixeles (se decide si el fragmento es visible o no, si se tiene que hacer blending con otros pixeles, se encargan de hacer el antialiasing...). Una vez hecho esto, se escriben en un buffer de salida (el resultado se escribe en memoria).

A más ROPs tengas, más pixeles serás capaz de procesar por segundo, pero tb mas ancho de banda vas a necesitar para poder escribir en memoria el resultado de dichas ROPs. Si te pasas en el número de pixeles que las ROPs pueden comerse estarás limitado por el número de ROPs (ROP bound). Del mismo modo si tienes un número de ROPs que "sacan" mas datos de los que puedes escribir en memoria (saturas el bus pq te comes el ancho de banda) estarás limitado por el ancho de banda (bandwidth bound).

El número máximo de pixeles que podemos sacar por segundo es igual a a la frecuencia * numero ROPs. Ahora bien, cada pixel puede tener de 1 a 4 componentes (R-G-B-A) y estos pueden ser de diferente tamaño en bits y tipo (unsigned_byte, halft_float_10, int_16, float_16, float_32...).

Una vez dicha toda esta parrafada xD, en el caso de XboxOne y mas concretamente lo q pone la transparencia en cuestion, para un buffer de 4 componentes (lo normal en un buffer/imagen) de 8 bits cada una RGBA8 (buffer básico para una imagen):

853Mhz * 16 ROPs * 4 bytes = 54GB/s

Esto sería el pico máximo teórico en el caso de que la GPU en cada ciclo de reloj esté usando las ROPs para escribir en memoria.

Qué quiere decir esto?. Que tanto si escribimos en DDR3 (68GB/s) como si escribimos en la eSRAM (109GB/s, y si usamos los números que dieron los ingenieros de Microsoft en la entrevista con Digital Foundry, serían 95GB/s) no estaremos limitados por el ancho de banda de la memoria, sino que estaremos limitados por las ROPs (es decir por el numero de pixels q podemos hacer por segundo).

Qué pasa si aumentamos el tamaño de los datos y en vez de 4 bytes es un render target tenemos flotantes de 16 bits (un HDR):

853Mhz * 16 ROPs * 8 bytes = 109GB/s

En este caso si escribimos en DDR3 estaríamos limitados por el ancho de banda (no podemos escribir mas de 68GB/s y estamos intentando escribir 109GB/s por lo que el rendimiento empezaría a decaer. Si queremos escribir en la eSRAM estamos en el límite justo de escritura, por lo que estaríamos limitados por las ROPs. Si nos vamos más allá nos limita el ancho de banda.

Resumiendo, lo único q dice en esas transparencias es cual va a ser el muro que te vas a encontrar antes con dicha configuración, si el ancho de banda o el número de pixeles por segundo. Nada de que One consigue un ancho de banda mayor que Ps4, ni q One lo peta... Y no tiene nada que ver con Ps4.

Un saludo.
marjalone está baneado por "Saltarse el ban con un clon"
yo solo se que cuando mas ROPS o pipelines que es lo mismo mas potencia y por lo que veo la ps4 tiene el doble
marjalone escribió:yo solo se que cuando mas ROPS o pipelines que es lo mismo mas potencia y por lo que veo la ps4 tiene el doble


Buen argumento si señor
papatuelo escribió:Eso q significa?


Significa que en una consola el número de ROPS está ajustado al ancho de banda disponible, y en la otra no.
Una consola (One console) está equilibrada, la otra no. Un fill-rate elevado no sirve de nada si la memoria no tiene el ancho de banda suficiente.
En el caso de la One un formato de 64 bit no satura el ancho de banda, en el otro caso sí. Y en esas diapositivas ni siquiera se tiene en cuenta un uso optimizado de la ESRAM, utilizando render targets comprimidos con 6e4 o 7e3, o bien dividiéndolos entre la DDR3 y la ESRAM.

A partir de aquí, se puede intentar hacer "downgrade" de los datos como se quiera, como el caso de alguno que parece poner todo su empeño en ello. :-|
KinderRey escribió:
papatuelo escribió:Eso q significa?


Significa que en una consola el número de ROPS está ajustado al ancho de banda disponible, y en la otra no.
Una consola (One console) está equilibrada, la otra no. Un fill-rate elevado no sirve de nada si la memoria no tiene el ancho de banda suficiente.
En el caso de la One un formato de 64 bit no satura el ancho de banda, en el otro caso sí. Y en esas diapositivas ni siquiera se tiene en cuenta un uso optimizado de la ESRAM, utilizando render targets comprimidos con 6e4 o 7e3, o bien dividiéndolos entre la DDR3 y la ESRAM.

A partir de aquí, se puede intentar hacer "downgrade" de los datos como se quiera, como el caso de alguno que parece poner todo su empeño en ello. :-|


Buenas gente. No, no dice eso. Si quieres ver lo q quieres ver allá tú, pero no engañes al personal. No hay downgrade, y no es poner empeño, es explicar las cosas lo mas claras posibles para que la gente entienda las cosas y no acabe diciendo que en esas transparencias lo que dice es q XboxOne tiene el doble de ancho de banda o que una consola esta balanceada y la otra no.

Si tienes 12 CUs generando datos, y tu ancho de banda máximo de escritura es de 109GB/s para que coño quieres mas de 16ROPs?. Otra cosa es si tienes mas CUs y más ancho de banda q tb tendrás que subir el número de ROPs para que no hagan cuello de botella, pero obviamente este aumento hará q tb seas capaz de hacer más trabajo en el mismo tiempo, tendrás más throughput (la clave en una GPU).

En un ciclo podré hacer 32 pixeles simultáneos y en otra solo 16, necesitaré 2 ciclos (el doble de tiempo) para hacer lo mismo en una que en otra. En que se traduce eso?. Problemas de resolución, efectos de postprocesado, antialiasing...

Por último, y por favor que no se me malinterprete que es solo un ejemplo, un Fiat Panda está balanceado para la potencia que tiene y no por eso hace mejor tiempo en Nurburgring que un Seat Ibiza Cupra.

Un saludo.
b_e_ne está baneado por "Saltarse el baneo con un clon"
Algo bueno de ONE , alguna vez.....? Por cierto, Polyteres, parece que sabes del asunto, eso es cierto, pero los ingenieros de MS deben ser gilipollas y ganar millonadas, para no darse cuenta de esas cosas......
Un consejo Polyteres, elimina el tufillo condescendiente en tus explicaciones.
Le restan credibilidad.
Por lo demás, tu argumentación, aunque peca de alguna inexactitud, no hace sino dar la razón a mi post anterior.
No se por qué razón te pones tan tenso... Nadie ha dicho que hagan falta más ROPS, sino que hay los que tiene que haber para tener un sistema equilibrado. Conclusión a la que tú también has llegado, aunque te hayas puesto un poco nervioso en el proceso.
b_e_ne escribió:Algo bueno de ONE , alguna vez.....?


Buenas gente. Claro q tiene cosas buenas, una cosa no quita la otra. La eSRAM por ejemplo, no solo trae problemas tb tiene ventajas. El tener 2 buses de 1024 bits uno para escritura y otro para lectura, y poder usarlos de forma simultánea, aunq tenga pocas ROPs, no será un factor limitante para hacer transparencias o para componer un Deferred Rendering por ejemplo. Toda operación que necesite de lecturas/escrituras entrelazadas se beneficiará de esta arquitectura.

Por otra parte, la eSRAM tiene muy poca latencia, por lo que ciertas tareas de GPGPU (si consigues meter los datos ahí dentro sin estorbar) podrían beneficiarse de esta memoria.

No me entendais mal. La eSRAM de por sí no es un problema, es una solución correcta. El problema es el espacio. Si metes mucha eSRAM te comes espacio en el chip que puedes usar para meter mas potencia de cálculo, si metes poca te quedas corto.

Por otro lado, q una consola sea a priori mas "musculosa" xD no significa q los juegos q vaya a sacar vayan a ser basura!. Tendrá (y ya tiene) joyas gráficas, veremos cosas realmente impresionantes. Lo dije hace tiempo y lo vuelvo a repetir muchos motores abandonarán los deferred rendering y se pasarán al Fordward+ casi seguro (The Order lo usará, tiene lo mejor de los dos mundos ;) ), y bajo ese escenario el tamaño de la eSRAM no será un problema.

@KinderRey no me he puesto nervioso ni tenso. Ya sabes que no deberías juzgar el tono de un mensaje pq nunca se sabe como se ha dicho. Yo elimino el tufillo condescendiente en mis explicaciones y tu eliminas los tiritos velados en los mensajes hacia mi persona [beer] trato?.

EDITO:
b_e_ne escribió:Por cierto, Polyteres, parece que sabes del asunto, eso es cierto, pero los ingenieros de MS deben ser gilipollas y ganar millonadas, para no darse cuenta de esas cosas......


Los ingenieros de Microsoft no tienen la culpa, de hecho son los que menos culpa tienen. A ellos les han dado unas especificaciones y con las restricciones que tenían han hecho lo q han podido y lo han hecho bien. Es más, si XboxOne tiene cosas buenas en su hardware es por ellos. En realidad me compadezco de ellos pq los han atado de pies y manos, aunq tener un reto de ese calibre seguro ha sido emocionante y los ha llevado más allá. Si quieres echarle la culpa a alguien hazlo a los directivos y directores del proyecto, que fueron los visionarios q decidieron el camino a seguir...

Un saludo.
293 respuestas
1, 2, 3, 4, 5, 6