Articulo sobre la GPU de x360 (#3)

1, 2, 3, 4, 57
Allá va un copy paste completo en inglé, q tengo cosas como para traducirlo, y tampoco lo he leido más que por encima muy rapidamente...

Para la gente esta, frikis del hard, la gpu es un puto monstruo...

fuente: http://www.hardocp.com/article.html?art=NzcxLDE=

Xbox 360 GPU Features : More facts make their way to the surface concerning the Xbox 360 graphics processor, codenamed XENOS. This time ATI’s Vice President of Engineering chimes in on the unique technology that is powering the pixels behind Microsoft’s new gaming console.

Introduction

Our goal here is to give you a better working knowledge of the video technology inside the Xbox 360 in “plain English.” While there is going to be some technogeek babble, we will try to keep it to a minimum. There will surely be more in-depth articles posted in the coming days and as usual, we will be linking those on the HardOCP news page, so keep your eyes peeled if we have only piqued your inner geek interests.

Earlier this week we got to speak candidly with Bob Feldstein, VP of Engineering at ATI, and lead sled dog on the Xbox 360 GPU development team. While Microsoft owns the technology that powers the graphics of the Xbox 360, ATI very much engineered the GPU internally codenamed XENOS. After a 3,200 mile round trip to the Microsoft offices last week, I came home a bit stunned to spend the day with their Xbox 360 team and not see any sort of gaming demo on their new gaming console. While there are tons of cool features embodied in the Xbox 360, it is a gaming platform…thankfully. And thankfully this week at E3, we have been given more than a few sneak peaks at the upcoming games that will be available for the Xbox 360 platform.

Without a doubt, if you have broadband, and are a gamer or computer enthusiast, you owe it to yourself to head over the FileShack and check out their E3 2005 Hi Def Coverage. The level of graphic detail in these upcoming titles looks to be generations ahead of the current Xbox and other aging consoles. As for comparing it to PC titles, I will have to make that call November when the Xbox 360 is due for release and see what games and hardware are out for the PC at that time. If I had to make a call now though, I would have to say that the Xbox 360 graphics I have seen are just as impressive as any 3D PC game title I have ever seen. Then again, we have to remember that currently we are being thoroughly kicked in the head by the size 15 Microsoft Marketing Boot, so of course we are not going to be shown crappy clips of games. As for the how much content, we are hearing from several industry insiders that there will be between 25 and 45 titles available for the Xbox 360 at launch. A lofty goal says many insider naysayers. But let's get back on topic…

A GPU is a GPU, Right?

If I have read it once, I have read it a thousand times, “The Xbox 360 is just ATI’s next generation (fill in favorite code name here) GPU.” The simple answer to that is, “No it is not.” While most modern GPUs share many architectural similarities, Bob Feldstein and Chris Evenden of ATI went out of their way to explain to me, no matter how hard I tried to convince them otherwise, that the Xbox 360 GPU is very much an original creation. While some will try to tell you that is it simply a souped up DirectX 9 GPU, you might be interested to learn that the only API spec that the Xbox 360 hardware meets is its own API. That is correct, the Xbox 360 GPU only meets it own Xbox 360 API specifications. While of course some lessons learned in DX9 and upcoming DX10 were applied, the GPU of the Xbox 360 is very much its own and comparing it directly to anything in the PC world is simply “not right” according to Mr. Feldstein. Obviously the Xbox 360 can be thought of as a very innovative solution specifically for the Xbox and only the Xbox.

One interesting thing that was said to me during our conversation was that 3D game content developers were relied on along the way as the GPU was designed. Not consulted with or talked to once in a while, but relied upon for their GPU functionality requests and feedback as to the GPU’s implementation. Also keep in mind that Microsoft owns this technology and while there is certainly a good amount of technology sharing between ATI and Microsoft, Microsoft does have the ability to make their own changes and take the part anywhere in the world to be fabricated. So while it is ATI’s design, it is Microsoft’s GPU and all of this even more makes the Xbox 360 GPU its own.





About the Hardware

While we have tried our best to get better pictures of the Xbox 360 internals, we have pulled up short. While folks at Microsoft and ATI will definitely not like to have the comparison made, there really is “just” a PC inside the Xbox 360...that happens to be a Mac. You can find a full table of Xbox 360 specifications here, but in the interest of speeding things up a bit, below is the short list covering video.


GPU & Northbridge in One!

Many of you read that the Xbox 360 will have 512MB of GDDR3 RAM and that is 100% correct. But how exactly does this work with the CPU and GPU. Once you learn that the Xbox 360 GPU also acts as the system’s memory controller, much like the Northbridge in an Intel PC, the picture becomes a bit clearer. ATI has been making and designing chipsets for a good while now that use GDDR3 RAM. Add to this that Joe Macri (go cart racing fiend extraordinaire), who was a pivotal factor in defining the GDDR3 RAM specification at JEDEC is also a big fish at ATI, and it only makes sense that ATI could possibly put together one of the best GDDR3 memory controllers in the world. So while it might seem odd that the Xbox 360 Power PC processor is using “graphics” memory for its main system memory and a “GPU” as the “northbridge,” once you see the relationship between the three and the technology being used it is quite simple. So, we have the 700MHz GDDR3 RAM acting as both system RAM and as GPU RAM, connected to the GPU via a traditional GDDR3 bus interface that can channel an amazing 25 Gigabytes per second of data.

Now between the GPU and the CPU things get a bit fuzzier. And by “fuzzier,” I mean that they would not tell me much about it at all. The bus between the CPU and GPU was characterized as unique and proprietary. Mr. Feldstein did let on that the bus could shuttle up to 22 Gigabytes of data per second. Much like GDDR3, this would be a full duplex bus, or one that “goes both ways” at one time. Beyond that, not much was shared.

Viewing the Xbox 360 GPU as the “northbridge” should give you a better idea of how the Xbox works and answer some of the overall architecture questions. It is my own opinion that it is very likely that the CPU/GPU bus is very similar to the GPU/RAM bus as it was stressed to me by Mr. Feldstein that the CPU/RAM pathway was very free of any latency bottlenecks. The world may never know for sure...till some crazy Mac guys hack the thing and run a Stream benchmarks.





GPU Features & Buzzwords

There are always tons of buzzwords flying around in the technology and gaming communities, but what we wanted to dig into here is what exactly all these Xbox 360 technologies do for you. The three that you are going to hear the most are “Smart / Intelligent 3D Memory,” “Adaptable / Unified Shader Approach,” and the “Modeling Engine.” Another buzz word that you are going to hear a lot of is “Fluid Reality.” While this is not a new approach in the PC world, it is new to consoles. This Fluid Reality refers to the way the fabrics of clothing might flow with movement or how hairs on a character's head fall into place or how a monster’s fur may rustle as it stomps toward you. It also refers to lifelike facial animations that have been recently made famous by games like Half Life 2.


Smart / Intelligent 3D Memory

Notice the slash above? Not even ATI had a solid name for this technology but for the sake of this explanation we are just going to call is “Smart 3D Memory.” Smart 3D Memory is the biggest standout and innovative feature I saw inside the entire Xbox 360. To give you an idea of what it would look like first hand, think of any normal GPU you might see, something much like this Mobility Radeon X700 chipset. That is pretty much what any modern GPU looks like. Now think of that same chipset as having a single piece of DRAM sitting off to one side, much like seen in this ATI slide below, but with one less piece of RAM (and no arrows).



Keep in mind, ATI is not a stranger to adding memory to a chipset, but remember this is “smart” memory.

The Xbox 360 Smart 3D Memory is a relatively small piece of DRAM sitting off to the side of the GPU but yet on the same substrate. The Smart 3D Memory weighs in at only 10MB. Now the first thing that you might think is, “Well what the hell good is 10MB in the world of 512MB frame buffers?” And that would be a good line of questioning. The “small” 10MB of Smart 3D memory that is currently being built by NEC will have an effective bus rate between it and the GPU of 2GHz. This is of course over 3X faster that what we see on the high end of RAM today.

Inside the Smart 3D Memory is what is referred to as a 3D Logic Unit. This is literally 192 Floating Point Unit processors inside our 10MB of RAM. This logic unit will be able to exchange data with the 10MB of RAM at an incredible rate of 2 Terabits per second. So while we do not have a lot of RAM, we have a memory unit that is extremely capable in terms of handling mass amounts of data extremely quickly. The most incredible feature that this Smart 3D Memory will deliver is “antialiasing for free” done inside the Smart 3D RAM at High Definition levels of resolution. (For more of just what HiDef specs are, you can read here. Yes, the 10MB of Smart 3D Memory can do 4X Multisampling Antialiasing at or above 1280x720 resolution without impacting the GPU. So all of your games on Xbox 360 are not only going to be in High Definition, but all will have 4XAA applied as well.

The Smart 3D Memory can also compute Z depths, occlusion culling, and also does a very good job at figuring stencil shadows. You know, the shadows in games that will be using the DOOM 3 engine, like Quake 4 and Prey?

Now remember that all of these operations are taking place on the Smart 3D Memory and having very little workload impact on the GPU itself. So what exactly will the GPU be doing?

Adaptable / Unified Shader Approach

First off, we reported on page 2 in our chart that the capable “Shader Performance” of the Xbox 360 GPU is 48 billion shader operations per second. While that is what Microsoft told us, Mr. Feldstein of ATI let us know that the Xbox 360 GPU is capable of doing two of those shaders per cycle. So yes, if programmed for correctly, the Xbox 360 GPU is capable of 96 billion shader operations per second. Compare this with ATI’s current PC add-in flagship card and the Xbox 360 more than doubles its abilities.

Now that we see a tremendous amount of raw shader horsepower, we have to take into account that there are two different kinds of shader operations that can be programmed by content developers. There are vertex shaders and pixels shaders. These are really just what they sound like. Vertex shader operations are used to move vertices, which shape polygons, which make up most objects you, see in your game, like characters or buildings or vehicles. Pixel shader operations dictate what groups of pixels do like bodies of water or clouds in the sky or maybe a layer of smoke or haze.

In today’s world of shader hardware, we have traditionally had one hardware unit to do pixel shaders and one hardware unit to do vertex shaders. The Xbox 360 GPU breaks new ground in that the hardware shader units are intelligent as well. Very simply, the Xbox 360 hardware shader units can do either vertex or pixel shaders quickly and efficiently. Just think of the Xbox 360 shaders as being agnostic SIMD shader units (Single Instructions carried out on Multiple Data).

The advantage of this would not be a big deal if every game were split 50/50 in terms of pixel and vertex shaders. That is not the case though. While most games are vertex shader bottlenecked, some others are pixel shader bottlenecked. When you combine the Xbox 360 Unified Shader Approach and its massive shader processing power, you end up with a GPU that is built to handle gaming content far beyond what we see today in terms of visual quality.






Modeling Engine

The Xbox 360 modeling engine is quite frankly something that is really not explainable in layman’s terms. At least I am not smart enough to explain most of it. That said, I can share with you some of the things it does while being able to endlessly loop and manipulate shader data.

Some of the global illumination effects you might have seen in years past at SIGGRAPH have been put into motion on the Xbox 360 GPU in real time. For the most part, global illumination is necessary to render a real world picture quality 3D scene. The Xbox 360 also makes using curved surfaces possible in-game, meaning that it can calculate the polygons from the proper curved surface math in order to draw it on your screen “correctly.” Much in line with this is the ability to do high order surface deformation. And if you are familiar with high order surfaces, you are likely familiar with what gamers and hardware enthusiasts commonly refer to as “LOD” or Level of Detail. Mr. Feldstein shared with us that the Xbox 360 GPU has some “really novel LOD schemes.” So we are thinking that the days of cars in the distance with pentagonal shaped wheels in new Grand Theft Auto titles is a thing of the past.

GPU Power

ATI would not share with us the power displacement numbers for the Xbox 360 GPU, but if you have seen the heatsink on it in our low quality picture linked here (heatsink on the right), you will know that the total power displacement is not much by today’s standards. In fact I would compare the heatsink on that GPU to the ones we used to see on Voodoo 3 3000 video cards back in 1999 that were running a whopping 200MHz when overclocked. ATI has implemented “lots” of their mobile power saving features in this Xbox 360 GPU. Clock gating is even more efficient in this chipset than what we were aware of being implemented in Mobility Radeons of the recent past. Sorry, but here again we were light on specifics.

Conclusions

ATI took their Xbox 360 GPU project from the ground floor to a working piece of silicon in 2 years. It is obvious that that there is much more to this GPU than what is being shared with us here, but even considering just the features shared here, a 2 year project time seems amazing. This can easily be considered a ground breaking GPU in terms of 3D gaming regardless of platform.

We should expect to see many of the Xbox 360 GPU technologies shared with the PC desktop market. Unfortunately it does not look like Smart 3D Memory will be one of the things that make the crossover, at least immediately. A shame really, but the impact of a desktop Unified Shader Model will be hugely benefiting to the PC gamer as well.

From what I have seen coming from this year’s Electronic Entertainment Expo coverage, there is no doubt that the future of the Xbox 360 in terms of pure gaming fun looks very promising. But of course the marketing fluff always does. The truth will be known sometime before the Christmas buying season. It is highly likely though that we will not see the real fruits of ATI’s and Microsoft’s labor till a couple of years have passed and game content developers have had ample time to learn to exploit the incredible power of the Xbox 360. Programmability and flexibility are two of ATI’s Xbox 360 GPU features that will not be realized immediately and it looks as if the GPU has plenty of both.

I fully expect that we will see more details float to the surface throughout the rest of the year as this is not the full Xbox 360 GPU story.


Imagen
Continuación de 'Articulo sobre la GPU de x360 (#2)'

pink_chocobo escribió:q putada no sabia yo eso de las tft, yo tengo una crt de 19 pero aora mismo no sabria cm encontrarle la resolucion nativa, y cm q no me voy a poner a contar los puntos jeje
WE! [looco]


los CRT no tienen resolución nativa, solo una "recomendada", busca en tu manual..
Normalmente si es de 19" un crt suele llegar a 1600*1200
joer, ya ha llegado al 3er hilo la historia esta...endevé...

saludos cordiales.
Kamainae escribió:Normalmente si es de 19" un crt suele llegar a 1600*1200


Mi 17" se hace 1800 y pico por 1300 algo :P
Queria decir los "normales", y ademas a una tasa de refresco aceptable y sin que sufra daños.
Yo probe un 14" viewsonic hace poco a 1600*1200, no se veia una mierda y hacia un ruidillo raro hasta que plofffff!!! [qmparto]
No conviene forzar los monitores...
Kamainae escribió:Queria decir los "normales", y ademas a una tasa de refresco aceptable y sin que sufra daños.
Yo probe un 14" viewsonic hace poco a 1600*1200, no se veia una mierda y hacia un ruidillo raro hasta que plofffff!!! [qmparto]
No conviene forzar los monitores...


Ya, yo con mi 17" lo uso o a 1600x1200 a 75hz o a 1280x960 a 95.
Jus, interesantes noticias provenientes del loco de Itagaki sobre Xenon. En una entrevista con famitsu, ha descrito a Xenon como una bestia, que aún trabajando un único core, es mucho más potente que cualquier otra cosa vista hasta ahora.
Dice que dentro de lo que cabe es fácil trabajar con Xenon gracias al software proporcionado por M$, pero que para poder sacar partido a toda la potencia de Xenon va a ser necesario trabajar muy duro, y que puede dar mucho de sí, pero hay que currarselo.
Por otra parte dice que le gustaría que M$ optase por el HDDVD, y que espera que lo adopten (siempre pensando en las FMV).
De Sony dice que más le vale que cumpla con lo que ha prometido
[qmparto], pero sabemos que no pasará.
Itagaki es un rato bocas, pero los comentarios porlo menos dejan entrever que Xenon va a ser bastante más que las 2xCeleron a 733MHZ [qmparto]
La fuente es gamespot.
Phellan, has conseguido el articulo de tu cache? Es que yo no lo tengo y me gustaria enseñarselo a mis amigos X-D X-D X-D

Sobre las declaraciones de Itagaki, pues bueno, al menos esta vez por lo que veo se ha contenido un poco. El tio es un bocas, pero me hace gracia su forma de expresarse :p :p . Lo que dice del HDDVD es interesante, ya que si lo comenta quiere decir que al menos estan dudando entre ponerlo o no ponerlo. Si no suben el precio de los teoricos 300$ me parece de puta madre que lo pongan (llegaria a pagar hasta 50€ por una x360 con lector HDDVD).
si quieren por menos de 50€ te montan el HD-DVD si quieren...
pos si solo fueran 50euros de diferencia claro q cundia.

los CRT no tienen resolución nativa, solo una "recomendada", busca en tu manual..

joer pa mi si tiene resolucion nativa y es igual al numero de puntos q tiene, no me valen la interpolaciones tontas q puedan hacer solo las resoluciones reales q da.
pink_chocobo escribió:joer pa mi si tiene resolucion nativa y es igual al numero de puntos q tiene, no me valen la interpolaciones tontas q puedan hacer solo las resoluciones reales q da.


tienen una resolución nativa, por que no poseen un amatriz fija, si no variable.

Cada monitor tiene un "maximo recomendado"...

suele ir así lo logico, pero pueden dar más, a mayor resolución, empieza a ser molestro el trabajo estandar salvo q ya estes acostumbrado a dejarte los ojos:

15--> 800x600
17--> 1024x768
19--> 1280x1024
21--> 1600x1200

todos los monitores CRT superan esas resoluciones, pero suelen ser esas las indicadas para un trabajo estandar por no cansar la vista demasiado y otros detalles...
Phellan_Wolf escribió:Jus, interesantes noticias provenientes del loco de Itagaki sobre Xenon. En una entrevista con famitsu, ha descrito a Xenon como una bestia, que aún trabajando un único core, es mucho más potente que cualquier otra cosa vista hasta ahora.


tambien hay que tener en cuenta que este pavo no ha programado para PC en su vida...que una cosa es que xenon es tela marinera y otra cosa es decir barbaridades.

de todas formas, que se puede esperar de un boca chancla :-P

saludos cordiales.
GXY escribió:
tambien hay que tener en cuenta que este pavo no ha programado para PC en su vida...




y?
Lo que dice sobre la potencia es que el middleware que proporciona microsoft es muy bueno y te facilita mucho las cosas, pero que para ellos eso no es suficiente el rendimiento que pueden lograr con esas herramientas. Ellos quieren exprimir a tope la consola y les va a resultar mucho mas complicado que en la plataforma anterior.

Tambien ha dicho que MS va a hacer un anuncio importante en japón a finales de este mes, y que ahora que tienen los kits beta están "jugueteando" con ellos y no saben si hacer un nuevo trailer del DOA4 para el susodicho evento o concentrarse de lleno en terminar el juego.

A mi me molaria ver un trailer hecho con el hardware cuasi definitivo, que el trailer anterior tampoco era pa matarse.
La verdad...no entiendo eso de matriz variable o fija.

Si te refieres a matriz activa tft o pasiva,,,pues la verdad no le encuentro lo de variable y fijo.

Las lcd y todas las del tipo visual-digital desplegan la imagen de una sola vez....por eso no tienen problemas de parpadeos como los crt.

Con respecto a las resoluciones nativas (lcd) . cada pixel es una combinacion de tres subpixeles (rojo, verde y azul) controlados por un microtransistor por cada subpixel (tft). (Los pixeles muertos vienen cuando se daña algun microtransistor).

En consecuencia "hay" una cantidad limitada de pixeles por panel lcd....y esa cantidad (que es su resolucion nativa) es la que normalmente se recomienda usar para una tv o monitor lcd...con una resolucion menor en la señal digital, lo que se hace es emular y/o interpolar las resoluciones por consiguiente se pierde calidad de imagen. (por eso hay estandares fijos).

En un crt , que desplega una imagen por un barrido vert-horiz (circuitos de sincronia y deflexion) de señal analoga no tiene una cantidad de pixeles activable fijos. Tiene una x cantidad de puntos de fosforos visuales en la pantalla, pero cada punto no se activa independiente como pasa con los lcd, sino que se activan por una exploracion del haz de electrones linea por linea. (por eso tiene parpadeos, de ahi viene lo de la fatiga visual)

De las resoluciones en un crt, tienes razon en las resoluciones recomendadas, pero esas recomendaciones es en relacion al tamaño de la pantalla, pudiendo esos mismos tamaños desplegar mayores resoluciones, dependiendo de la tarjeta grafica o la señal de entrada (y de la capacidad del monitor)

Y por supuesto a mayor resolucion mucho mejor....en los crt tienen que tener resoluciones especificas estandarizadas por cuestiones de sincronias (horiz-vert). Por eso siempre se vera resoluciones especificas.

Un saludo.
shadow land escribió:y?


que por tanto, nunca ha programado para una plataforma donde él puede poner el limite de rendimiento, y no los ingenieros del hardware, que es lo habitual en una consola. ;)

es solo una apreciacion, de todos modos.

saludos cordiales.
GXY escribió:
que por tanto, nunca ha programado para una plataforma donde él puede poner el limite de rendimiento, y no los ingenieros del hardware, que es lo habitual en una consola. ;)

es solo una apreciacion, de todos modos.

saludos cordiales.



... y?
shadow land escribió:... y?


a donde quieres llegar hoy, shadow?

saludos cordiales.
es que lo pregunto en serio, q puñetas tiene q "no" haya programado para una plataforma "sin limite" con el PC, con estar habituado a programar en consola?

es que más q un defecto,lo veo una virtud
en serio, para mi lo que diga ese loco de Itagaki, VA A MISA

despues de parir cosas como el DOA y el Ninja Gaiden tiene el privilegio de fardar lo que le salga de los mismisimos, siempre se le perdonan las excentricidades a los genios



[bad]
Cambiando de tema...¿ya se sabe algo sobre los kits de desarroyo finales?,dijeron que para verano los tendrian y en ign he visto algo pero no me entero de mucho
Sobre itagaki, pues en su caso, me parece creible, que la cpu de x360 le parezca lo más potente que ha probado nunca...Se referírá a las cpus de xbox y ps2.
Al menos, no ha asegurado que la ps3, no podrá mover ni siquiera una mano de uno de los personajes de su DOA4.
No se, pero soy de los que piensa, itagaki, no es un guru para nada, y que probablemente para tecmo, las consolas de siguiente generación se le queden grandes tecnicamente( como a otras cuantas de las japas, salvo algunas honrosas excepciones).
Desde luego, no es de casi ninguna compañía japa de quien espero los mayores hitos técnicos en consola ( salvo tal vez poolyphony en su propia máquina, o from software, que para mi gusto, esta evolucionando muy favorablemente)
pues fijate que tecnicamente, de quien menos espero es de Poliphony Digital se deicarán a fakear los sistemas de iluminación, lanzaran sombras reales, y poco más, de fijo, o eso, o 6 años de proyecto, q con sistemas de luces dinamicos, no sirve sacar fotos de la pintura del coche para emplastarla despues [tomaaa]

De las japas, las más tochas tecnicamente:

Konami (Team MGS y SH)
Tecmo Team Ninja
SmileBit (el estudio en que se integrasen los programadores)
Cualquiera de las 2nd/1st de Microsoft Games por allí, q las llenan de programadores experimentados en DirectX :P
de fijo, o eso, o 6 años de proyecto

Hombre es que yo abogo por 6 años de proyecto, a la mitad, sacan el gt5 con lo que tienen, y al final, sacan el gt6 [jaja] . ( No creo que con la ps3, tengan que fakear tanto, doy por sentado, que estos con potencia en las manos, pueden hacer mucho).
SmileBit (el estudio en que se integrasen los programadores)

Cierto, los smilies tambien son de lo mejor.
Aunque mantengo mi excepticismo con team ninja ( cuando vea algo que no sea más poligonos y texturas en mayor resolución, tal vez cambie de opinion)

Más sobre chips: el r520, tras esos pequeños problemillas, traslada su salida del early summer, a late summer ( en beyond3d especulan con principios de septiembre) con un lanzamiento probable conjunto con los low end rv530 y rv515.

En beyond3d, tambien especulan que el g70, podría ser en inicio un 32 pipe arquitechture, pero que debido al enorme die, y al probable porcentaje de chips defectuosos, lanzan el 7800 gtx, con 24 pipes, mientras recolectan los chips "buenos", para anunciar posteriormente una versión ultra con 32 pipes....Cuantos tendría el rsx???? [discu]

PD: Lo del r520 creo que ya lo había comentado pellan wolf, tiempo atrás, los problemas, pero yo al menos no había leido el retraso de fecha.
Sobre el g70, en algún lado había leido que nvidia podría sacar un chip con 32 pipes para competir con fudo, pero no había visto esta explicación al rumor.
El g70 no tiene 24 pipes reales, solo tiene 24 unidades de pixel shader, pero ROPs solo 16.
Bueno, la explicación para los "solo" 16 rops está más atras en este mismo hilo creo recordar (según nvidia, suficientes, e innecesario el aumento equitativo de rops, ). Pon pixel shaders donde había puesto pipes, y ya ta ( creo que se entiende, no? [looco]
ya tio pero creo q esta mas q demostrao q los cuellos de botella no se producen en los ROP por lo q ponia en la review de beyond3d, de exo a saber cuantos rop tendra xenos o ya se sabe?
filetefrito escribió:Bueno, la explicación para los "solo" 16 rops está más atras en este mismo hilo creo recordar (según nvidia, suficientes, e innecesario el aumento equitativo de rops, ). Pon pixel shaders donde había puesto pipes, y ya ta ( creo que se entiende, no? [looco]


Si, pero es que no es lo mismo, sigue teniendo el mismo fillrate que una 6800 ultra (a la misma velocidad), cuando se supone que Fudo vendrá con 24 o 32 pipes (que obviamente le daran una manta de palos en fillrate a la g70).
Yo te digo q tampoco creo q sean pipes completos (aunq igual me confundo), simplemente variaran la salida pero si el fillrate que da les llega de sobra yo creo.
Primero, creo que la forma correcta que debería haber utilizado yo sería pixel shading pipeline, jejeje.

cuando se supone que Fudo vendrá con 24 o 32 pipes (que obviamente le daran una manta de palos en fillrate a la g70).

Si viene con 24 pipes "completos" (insisto, que creo que esa no sería la denominación correcta) si que debería darle una manta de palos en fillrate.(en cualquier caso no estaba comprando el g70 con nada, solo me preguntaba cuantos pixel shading pipelines, tendría el rsx).
Cuantos rops gasta xenos?
Y cuantos pixel shaders se le suponen a fudo?
Para mencionar otra cosilla ya podian salir monitores que se encargaran ellos de poder activar antialias cuando quieras eso si cundia, jeje...

Itagaki escribió:The screen resolution for Xbox 360 games will be in high definition, so the prerendered movies are going to be pretty large. If we encoded the Dead or Alive 4 trailer from E3 in high definition in a quality acceptable to us, it will easily be about 2GB.

La verda es q visto asi si q hace falta un formato como el blueray o hd-dvd si quieren poner CGs con la resolucion q va usar la consola (a esas resoluciones cm minimo se doblaria el tamaño q ocupan los videos)
Que los fabrique sony, para su ps3, que si no, que me cuenten lo divertido que va a ser sus queridos 1080p con anti aliasing ( dejando el rendimiento de su chip gráfico a la mitad)
Con la potencia gráfica disponible no veo necesidad de meter CG's. Sin tener que procesar otra cosa que los gráficos las nuevas consolas podrán hacer cosas MUY bestias.
Si muy bestias pero te digo yo q no creo q lleguen a la calidad de las CGs de algunos final fantasy p ejemplo u otros juegos de Square y de otras compañias, en CG siempre van a estar por delante por muxa potencia q tenga la consola.
Las cg's, siempre estarán presentes, sino mira killzone2 ( a no, que eso era tiempo real, XDDD).
DVD9+ compresión, no es la solución optima, tal vez si sea válida, pero no es la óptima, y no creo que nadie lo pueda dudar.
las cinemáticas en HD se las pueden ahorrar, o reservar para aquellos títulos donde el dvd9 va muuuy sobrado ;)

para el resto, por mi que usen los futuros motores gráficos, que a buen seguro serán flipantes


[boing]
la verdad es que si se lo curran no tienen porque usar CGs en esta generacion, pero creo que algunas que otras si caeran.

y por cierto, las mejores que se han visto en juegos, son las de blizzard ;)

saludos cordiales.
Pink_chocobo, el pixel fillrate de Xenos es de 4 billones de pixeles/s, pero no disminuye al aplicarle el AA, de hecho se va duplicando el nº de gigasamples, no así con el RSX.
Lo de las especulaciones sobre el RSX de ser una tarjeta de 32 pipes, está solucionado creo recordar, porque en realidad no es de 32. Es la versión completa de el Nv48 que en teoría Nvidia iba a sacar (iba a ser de 24 pipes, pero les salían defectuosos) y que al final resultaron ser las últimas versiones de las 6800 Ultra. Que al pasar de 130nm a 110, sobra espacio, pero al final no es de 32, si no 24, activando los pipes defectusoso de las Nv48 aunque aumentando en algo el rendimiento de los pipes (de ahí que sean 16 reales).
En esta generación no hacen falta CG's, de hecho sobran. La potencia que tienen estas másquinas, nos pueden dar escenas con motor ingame muy bestias. Como lo que sucedía con Halo2 pero unas cuantas veces más, y encima en HD. El problema lo tienen los japos que les mola fliparse demasiado, son muy peliculeros ellos [qmparto]
pink_chocobo escribió:La verda es q visto asi si q hace falta un formato como el blueray o hd-dvd si quieren poner CGs con la resolucion q va usar la consola (a esas resoluciones cm minimo se doblaria el tamaño q ocupan los videos)



pero es que ese video del DOA del E3 esta en HD y ocupa solo 453 MB, asi que no se que resolucion es "aceptable" para el tio este la verdad.


Y sobre desarrolladores que les sacaran partido a la potencia yo espero ansioso al gran Yu Suzuki y su VF5, o cualquier otro proyecto serio en el que se meta.
Ashtyr escribió:

pero es que ese video del DOA del E3 esta en HD y ocupa solo 453 MB, asi que no se que resolucion es "aceptable" para el tio este la verdad.


hablá de lo que ocuparia en MPEG 2, o sea, a pelo sin compresión
shadow land escribió:
hablá de lo que ocuparia en MPEG 2, o sea, a pelo sin compresión


Mmmmmm MPEG2 lleva compresión, y bastánte gorda por cierto, no deja nada que sea superior a 8000 de bitrate según la norma (si no recuerdo mal).
Fraludio escribió:
Mmmmmm MPEG2 lleva compresión, y bastánte gorda por cierto, no deja nada que sea superior a 8000 de bitrate según la norma (si no recuerdo mal).


al lao de mpeg4 o derivados, esa "compresión" no es na ;)
No se no se por muxo q se lo curren a mi un final con videos del motor en vez de CGs prerenderizadas no es lo mismo, q por muxo q digan de potencia ni PS3 y x360 juntas llegarian para un raytracing real y decente p muxo q nos intenten colar, y en las CGs se pueden emplear rayracing y incluso tecnicas q requieren muxo mas procesamiento.

Asi q para otros juegos puede ser q llegue pero para mi me cunden los RPGs y aventuras con peacho cinematicas. En el resto de los juegos se las pueden ahorrar sin fallo.
shadow land escribió:
al lao de mpeg4 o derivados, esa "compresión" no es na ;)


Weno claro, asi si.

Y pink, yo prefiero escenas renderizadas con el motor del juego, las escenas hechas por CG bestias solo sirven para reafirmarme que estoy delante de un juego y sacarme de la "inmersion".
No tio eso depende de lo integradas q esten y desde tiempos del FF8 ya nos han dado alguna lecciones de cm hacerlo muy pero q muy bien incluso metiendo a los personajes c el motor del juego sin dar el cante, a mi q se pasen sobrecargando en los videos me mola siempre y cuando este bien "encajado" en el juego.
pink_chocobo escribió:No tio eso depende de lo integradas q esten y desde tiempos del FF8 ya nos han dado alguna lecciones de cm hacerlo muy pero q muy bien incluso metiendo a los personajes c el motor del juego sin dar el cante, a mi q se pasen sobrecargando en los videos no me mola siempre y cuando este bien "encajado" en el juego.


A mi las cg's de los FF siempre me han dado más bien asco, ver ese cacho de cg's para luego ver la MIERDA de gráficos que tenia el juego.... no se, cortaba el rollo totalmente.
Si no te molan los final entonces no tenemos nada q discutir, a mi me encantan los engines guapos pero nunka le dire q no a juegos a base de fondos prerenderizados siempre y cuando los juegos esten muy currados cm los final de antes o los resident, solo hay q ver lo q hicieron aun no hace muxo con el RE0 y el RE1 remake.

Y lo de mierda de graficos para nada lo comparto, de cual hablas exactamnt?
pink_chocobo escribió:Si no te molan los final entonces no tenemos nada q discutir, a mi me encantan los engines guapos pero nunka le dire q no a juegos a base de fondos prerenderizados siempre y cuando los juegos esten muy currados cm los final de antes o los resident, solo hay q ver lo q hicieron aun no hace muxo con el RE0 y el RE1 remake.

Y lo de mierda de graficos para nada lo comparto, de cual hablas exactamnt?


Del 7 y del 8. El 9 estaba más pasable para mi gusto.El X ni lo comento por vergüenza ajena, y ojo, hablo de los gráficos, ya no me meto en la calidad del juego (que tampoco me hace mucho chiste lo de los combates aleatorios por la cara).
324 respuestas
1, 2, 3, 4, 57