Articulo sobre la GPU de x360

1, 2, 3, 4, 511
Allá va un copy paste completo en inglé, q tengo cosas como para traducirlo, y tampoco lo he leido más que por encima muy rapidamente...

Para la gente esta, frikis del hard, la gpu es un puto monstruo...

fuente: http://www.hardocp.com/article.html?art=NzcxLDE=

Xbox 360 GPU Features : More facts make their way to the surface concerning the Xbox 360 graphics processor, codenamed XENOS. This time ATI’s Vice President of Engineering chimes in on the unique technology that is powering the pixels behind Microsoft’s new gaming console.

Introduction

Our goal here is to give you a better working knowledge of the video technology inside the Xbox 360 in “plain English.” While there is going to be some technogeek babble, we will try to keep it to a minimum. There will surely be more in-depth articles posted in the coming days and as usual, we will be linking those on the HardOCP news page, so keep your eyes peeled if we have only piqued your inner geek interests.

Earlier this week we got to speak candidly with Bob Feldstein, VP of Engineering at ATI, and lead sled dog on the Xbox 360 GPU development team. While Microsoft owns the technology that powers the graphics of the Xbox 360, ATI very much engineered the GPU internally codenamed XENOS. After a 3,200 mile round trip to the Microsoft offices last week, I came home a bit stunned to spend the day with their Xbox 360 team and not see any sort of gaming demo on their new gaming console. While there are tons of cool features embodied in the Xbox 360, it is a gaming platform…thankfully. And thankfully this week at E3, we have been given more than a few sneak peaks at the upcoming games that will be available for the Xbox 360 platform.

Without a doubt, if you have broadband, and are a gamer or computer enthusiast, you owe it to yourself to head over the FileShack and check out their E3 2005 Hi Def Coverage. The level of graphic detail in these upcoming titles looks to be generations ahead of the current Xbox and other aging consoles. As for comparing it to PC titles, I will have to make that call November when the Xbox 360 is due for release and see what games and hardware are out for the PC at that time. If I had to make a call now though, I would have to say that the Xbox 360 graphics I have seen are just as impressive as any 3D PC game title I have ever seen. Then again, we have to remember that currently we are being thoroughly kicked in the head by the size 15 Microsoft Marketing Boot, so of course we are not going to be shown crappy clips of games. As for the how much content, we are hearing from several industry insiders that there will be between 25 and 45 titles available for the Xbox 360 at launch. A lofty goal says many insider naysayers. But let's get back on topic…

A GPU is a GPU, Right?

If I have read it once, I have read it a thousand times, “The Xbox 360 is just ATI’s next generation (fill in favorite code name here) GPU.” The simple answer to that is, “No it is not.” While most modern GPUs share many architectural similarities, Bob Feldstein and Chris Evenden of ATI went out of their way to explain to me, no matter how hard I tried to convince them otherwise, that the Xbox 360 GPU is very much an original creation. While some will try to tell you that is it simply a souped up DirectX 9 GPU, you might be interested to learn that the only API spec that the Xbox 360 hardware meets is its own API. That is correct, the Xbox 360 GPU only meets it own Xbox 360 API specifications. While of course some lessons learned in DX9 and upcoming DX10 were applied, the GPU of the Xbox 360 is very much its own and comparing it directly to anything in the PC world is simply “not right” according to Mr. Feldstein. Obviously the Xbox 360 can be thought of as a very innovative solution specifically for the Xbox and only the Xbox.

One interesting thing that was said to me during our conversation was that 3D game content developers were relied on along the way as the GPU was designed. Not consulted with or talked to once in a while, but relied upon for their GPU functionality requests and feedback as to the GPU’s implementation. Also keep in mind that Microsoft owns this technology and while there is certainly a good amount of technology sharing between ATI and Microsoft, Microsoft does have the ability to make their own changes and take the part anywhere in the world to be fabricated. So while it is ATI’s design, it is Microsoft’s GPU and all of this even more makes the Xbox 360 GPU its own.





About the Hardware

While we have tried our best to get better pictures of the Xbox 360 internals, we have pulled up short. While folks at Microsoft and ATI will definitely not like to have the comparison made, there really is “just” a PC inside the Xbox 360...that happens to be a Mac. You can find a full table of Xbox 360 specifications here, but in the interest of speeding things up a bit, below is the short list covering video.


GPU & Northbridge in One!

Many of you read that the Xbox 360 will have 512MB of GDDR3 RAM and that is 100% correct. But how exactly does this work with the CPU and GPU. Once you learn that the Xbox 360 GPU also acts as the system’s memory controller, much like the Northbridge in an Intel PC, the picture becomes a bit clearer. ATI has been making and designing chipsets for a good while now that use GDDR3 RAM. Add to this that Joe Macri (go cart racing fiend extraordinaire), who was a pivotal factor in defining the GDDR3 RAM specification at JEDEC is also a big fish at ATI, and it only makes sense that ATI could possibly put together one of the best GDDR3 memory controllers in the world. So while it might seem odd that the Xbox 360 Power PC processor is using “graphics” memory for its main system memory and a “GPU” as the “northbridge,” once you see the relationship between the three and the technology being used it is quite simple. So, we have the 700MHz GDDR3 RAM acting as both system RAM and as GPU RAM, connected to the GPU via a traditional GDDR3 bus interface that can channel an amazing 25 Gigabytes per second of data.

Now between the GPU and the CPU things get a bit fuzzier. And by “fuzzier,” I mean that they would not tell me much about it at all. The bus between the CPU and GPU was characterized as unique and proprietary. Mr. Feldstein did let on that the bus could shuttle up to 22 Gigabytes of data per second. Much like GDDR3, this would be a full duplex bus, or one that “goes both ways” at one time. Beyond that, not much was shared.

Viewing the Xbox 360 GPU as the “northbridge” should give you a better idea of how the Xbox works and answer some of the overall architecture questions. It is my own opinion that it is very likely that the CPU/GPU bus is very similar to the GPU/RAM bus as it was stressed to me by Mr. Feldstein that the CPU/RAM pathway was very free of any latency bottlenecks. The world may never know for sure...till some crazy Mac guys hack the thing and run a Stream benchmarks.





GPU Features & Buzzwords

There are always tons of buzzwords flying around in the technology and gaming communities, but what we wanted to dig into here is what exactly all these Xbox 360 technologies do for you. The three that you are going to hear the most are “Smart / Intelligent 3D Memory,” “Adaptable / Unified Shader Approach,” and the “Modeling Engine.” Another buzz word that you are going to hear a lot of is “Fluid Reality.” While this is not a new approach in the PC world, it is new to consoles. This Fluid Reality refers to the way the fabrics of clothing might flow with movement or how hairs on a character's head fall into place or how a monster’s fur may rustle as it stomps toward you. It also refers to lifelike facial animations that have been recently made famous by games like Half Life 2.


Smart / Intelligent 3D Memory

Notice the slash above? Not even ATI had a solid name for this technology but for the sake of this explanation we are just going to call is “Smart 3D Memory.” Smart 3D Memory is the biggest standout and innovative feature I saw inside the entire Xbox 360. To give you an idea of what it would look like first hand, think of any normal GPU you might see, something much like this Mobility Radeon X700 chipset. That is pretty much what any modern GPU looks like. Now think of that same chipset as having a single piece of DRAM sitting off to one side, much like seen in this ATI slide below, but with one less piece of RAM (and no arrows).



Keep in mind, ATI is not a stranger to adding memory to a chipset, but remember this is “smart” memory.

The Xbox 360 Smart 3D Memory is a relatively small piece of DRAM sitting off to the side of the GPU but yet on the same substrate. The Smart 3D Memory weighs in at only 10MB. Now the first thing that you might think is, “Well what the hell good is 10MB in the world of 512MB frame buffers?” And that would be a good line of questioning. The “small” 10MB of Smart 3D memory that is currently being built by NEC will have an effective bus rate between it and the GPU of 2GHz. This is of course over 3X faster that what we see on the high end of RAM today.

Inside the Smart 3D Memory is what is referred to as a 3D Logic Unit. This is literally 192 Floating Point Unit processors inside our 10MB of RAM. This logic unit will be able to exchange data with the 10MB of RAM at an incredible rate of 2 Terabits per second. So while we do not have a lot of RAM, we have a memory unit that is extremely capable in terms of handling mass amounts of data extremely quickly. The most incredible feature that this Smart 3D Memory will deliver is “antialiasing for free” done inside the Smart 3D RAM at High Definition levels of resolution. (For more of just what HiDef specs are, you can read here. Yes, the 10MB of Smart 3D Memory can do 4X Multisampling Antialiasing at or above 1280x720 resolution without impacting the GPU. So all of your games on Xbox 360 are not only going to be in High Definition, but all will have 4XAA applied as well.

The Smart 3D Memory can also compute Z depths, occlusion culling, and also does a very good job at figuring stencil shadows. You know, the shadows in games that will be using the DOOM 3 engine, like Quake 4 and Prey?

Now remember that all of these operations are taking place on the Smart 3D Memory and having very little workload impact on the GPU itself. So what exactly will the GPU be doing?

Adaptable / Unified Shader Approach

First off, we reported on page 2 in our chart that the capable “Shader Performance” of the Xbox 360 GPU is 48 billion shader operations per second. While that is what Microsoft told us, Mr. Feldstein of ATI let us know that the Xbox 360 GPU is capable of doing two of those shaders per cycle. So yes, if programmed for correctly, the Xbox 360 GPU is capable of 96 billion shader operations per second. Compare this with ATI’s current PC add-in flagship card and the Xbox 360 more than doubles its abilities.

Now that we see a tremendous amount of raw shader horsepower, we have to take into account that there are two different kinds of shader operations that can be programmed by content developers. There are vertex shaders and pixels shaders. These are really just what they sound like. Vertex shader operations are used to move vertices, which shape polygons, which make up most objects you, see in your game, like characters or buildings or vehicles. Pixel shader operations dictate what groups of pixels do like bodies of water or clouds in the sky or maybe a layer of smoke or haze.

In today’s world of shader hardware, we have traditionally had one hardware unit to do pixel shaders and one hardware unit to do vertex shaders. The Xbox 360 GPU breaks new ground in that the hardware shader units are intelligent as well. Very simply, the Xbox 360 hardware shader units can do either vertex or pixel shaders quickly and efficiently. Just think of the Xbox 360 shaders as being agnostic SIMD shader units (Single Instructions carried out on Multiple Data).

The advantage of this would not be a big deal if every game were split 50/50 in terms of pixel and vertex shaders. That is not the case though. While most games are vertex shader bottlenecked, some others are pixel shader bottlenecked. When you combine the Xbox 360 Unified Shader Approach and its massive shader processing power, you end up with a GPU that is built to handle gaming content far beyond what we see today in terms of visual quality.






Modeling Engine

The Xbox 360 modeling engine is quite frankly something that is really not explainable in layman’s terms. At least I am not smart enough to explain most of it. That said, I can share with you some of the things it does while being able to endlessly loop and manipulate shader data.

Some of the global illumination effects you might have seen in years past at SIGGRAPH have been put into motion on the Xbox 360 GPU in real time. For the most part, global illumination is necessary to render a real world picture quality 3D scene. The Xbox 360 also makes using curved surfaces possible in-game, meaning that it can calculate the polygons from the proper curved surface math in order to draw it on your screen “correctly.” Much in line with this is the ability to do high order surface deformation. And if you are familiar with high order surfaces, you are likely familiar with what gamers and hardware enthusiasts commonly refer to as “LOD” or Level of Detail. Mr. Feldstein shared with us that the Xbox 360 GPU has some “really novel LOD schemes.” So we are thinking that the days of cars in the distance with pentagonal shaped wheels in new Grand Theft Auto titles is a thing of the past.

GPU Power

ATI would not share with us the power displacement numbers for the Xbox 360 GPU, but if you have seen the heatsink on it in our low quality picture linked here (heatsink on the right), you will know that the total power displacement is not much by today’s standards. In fact I would compare the heatsink on that GPU to the ones we used to see on Voodoo 3 3000 video cards back in 1999 that were running a whopping 200MHz when overclocked. ATI has implemented “lots” of their mobile power saving features in this Xbox 360 GPU. Clock gating is even more efficient in this chipset than what we were aware of being implemented in Mobility Radeons of the recent past. Sorry, but here again we were light on specifics.

Conclusions

ATI took their Xbox 360 GPU project from the ground floor to a working piece of silicon in 2 years. It is obvious that that there is much more to this GPU than what is being shared with us here, but even considering just the features shared here, a 2 year project time seems amazing. This can easily be considered a ground breaking GPU in terms of 3D gaming regardless of platform.

We should expect to see many of the Xbox 360 GPU technologies shared with the PC desktop market. Unfortunately it does not look like Smart 3D Memory will be one of the things that make the crossover, at least immediately. A shame really, but the impact of a desktop Unified Shader Model will be hugely benefiting to the PC gamer as well.

From what I have seen coming from this year’s Electronic Entertainment Expo coverage, there is no doubt that the future of the Xbox 360 in terms of pure gaming fun looks very promising. But of course the marketing fluff always does. The truth will be known sometime before the Christmas buying season. It is highly likely though that we will not see the real fruits of ATI’s and Microsoft’s labor till a couple of years have passed and game content developers have had ample time to learn to exploit the incredible power of the Xbox 360. Programmability and flexibility are two of ATI’s Xbox 360 GPU features that will not be realized immediately and it looks as if the GPU has plenty of both.

I fully expect that we will see more details float to the surface throughout the rest of the year as this is not the full Xbox 360 GPU story.


Imagen
Para la gente esta, frikis del hard, la gpu es un puto monstruo...


En poco mas de 10 palabras que bien se resume semejante tocho tecnico en el idioma de Shakespeare XD. Pues nada, a esperar a ver que opinais vosotros, los frikis del hard de EOL [poraki]
pues que efectivamente, parece que la cifra q circulaba por ahí si no he leido mal, se duplica en potencia.

Y q la edram (es un chip externo) posee una logica de calculo especial que libera a la GPU de varios calculos, entre ellos los mas pesados: Stencil Shadows (Doom 3 y cia), calculos Z, FSAA 4x by the face...

"This is literally 192 Floating Point Unit processors inside our 10MB of RAM."

192 "coprocesadores" como los SPE de cell (más especializados, obviamente), trabajando para liberar de tareas a la GPU...

es interesante leerlo, en serio, pasarlo por un tradcutor, q no tiene mucha gilipollez tecnica :)

y las operaciones por segundo:

First off, we reported on page 2 in our chart that the capable “Shader Performance” of the Xbox 360 GPU is 48 billion shader operations per second. While that is what Microsoft told us, Mr. Feldstein of ATI let us know that the Xbox 360 GPU is capable of doing two of those shaders per cycle. So yes, if programmed for correctly, the Xbox 360 GPU is capable of 96 billion shader operations per second.

en definitiva, no es casi nada inferior a la RSx de los "envidiosos", y junto a la edram, quizas la "barra" en muchas tareas...


tiempo al tiempo señores... tiempo al tiempo!
La arquitectura de este chip es una pequeña maravilla, pensada por y para una consola nada de versiones capadas de chips gráficos made in PC.
Muchos se quejaban de que no sabrían como funcionaría esa tasa de 256Gb entre Gpu y la edram, pero eso de que la memoria inteligente amplie el ancho de banda a 2 terabits [looco] , vamos como que lo deja to claro.
En 2 años de desarrollo, M$ y Ati han creado una joya vamos, una bestia parda muy bien pensada, y vamos que todavía sigue el silencio por parte de M$ y Ati respecto a muchos aspectos de la gráfica, más que nada para no acojonar más a Envidia, y a la máquina del Hype, usease Sony.
Si os queréis reir, el cell de a 3,2 Ghz de Sony ofrece un total de 186 Gflops (nada de 215) [jaja] . En fin pienso que la X360 es una máquina pensada a conciencia, que esconde muchos secretos que se iran revelando poco a poco, con una arquitectura muy, muy flexible y en la que es muy difícil encontrarle algún cuello de botella. Muy bien por M$, y muy mal por Sony, que teniendo una ventaja de 6 meses respecto a M$ va a vender gato por liebre una vez más. Como bien dice Shadow, tiempo al tiempo [jaja]
por lo que me ha dicho mi amiwito babel fish(creo que no es de aqui, habla un español mu raro [carcajad] ), parece que la clave de esta gpu es su memoria edram de 10 mb. no entiendo mucho de lo que pone aqui, pero si es verdad que esta memoria hace que los juegos vayan con antialias a 4x, con algunos efectos graficos que no entiendo, a 720p y a 60 frames constantes sin que la gpu se resienta nada, solo puedo decir que diohhh miooohhhhharrrrghhhh [babas] [babas] [babas] [babas]

vale, sigo leyendo: esta memoria pasara los datos a la gpu a una velocidad de 2terabytes por segundo? y eso ke decian ke al ser externa habria problemas... ufff ke maquinon jesus.

hasta aqui he llegao, entre el babelfish y todas esos jeroglificos tecnicos no me he podido enterar de nada mas, aver si alguien lo traduce a un castellano legible para que lo podamos leer con calma :)

las partes del texto Modelling engine y gpu power parecen muy interesantes, pero no me entero de nada.

señores, estos son datos tecnicos reales como dios manda y lo demas son tonterias (vereis como ya saltan los aludidos [burla2] )

un saludo.
Por cierto una duda que tengo, actualmente cuales son las gráficas más bestias de ambas compañías??
Como ya comentaban en los sitios donde he visto el articulo antes el tio se raya con lo de los shaders, la GPU calcula 96 por ciclo lo que a 500 Mhz sale 48.000 millones de operaciones de shader por segundo, la GPU de la PS3 hace 136 operaciones de shader por ciclo a 550 Mhz.

Los procesadores vectoriales de la eDram (que de embebed tiene poco por que segun comentan en ese articulo la tubieron que poner aparte por que no les entraba en el chip) no se parecen en nada a las SPU que son core CPU con capacidad de calculo de vectores (exactamente iguales que las core de la CPU de la Xbox 360 en ese sentido).

Es muy interesante la potencia que puedan aportar esa memoria inteligente y la calidad del AA que consiga, lo unico que no me hace gracia es que utilice su propio API aunque era necesario para introducir innovaciones. Todo es demasiado nuevo como para saber lo bueno que es con simples comparaciones con lo actual, parece muy potente.
lo que se nota es que MS ha metido mogollon del I+D realizado en la inidia en el estudio que tienen dedicado a hard y soft 3D en tiempo real, gente que solo se dedica al I+D en el sector.

LA GPU esta repleta de detallitos que no hacen si no demostrar que nvidia a dia de hoy es incapaz de seguir un camino que no sea el de la fuerza bruta.


Otro detallito de la maquina, es que el sonido se trata todo comprimido en Window Media Audio, el sonido, aunque sea "procesador" por la cpu, es manejado por un chip externo dedicado solo a esa tarea, decodificar y codificar decenas o cientos de ficheros comprimidos de audio a la vez al vuelo.

Yo sigo diciendo que me parece mejor maquina x360 q PS3, aunque PS3 tenga ventaja real sobre la cpu para tareas de calculo, tiene un tercio de la potencia para tareas triviales (como IA o interactividad)


deathkiller, los SPE de CELL no son cpu, son simples unidades simd, solo son apoyos de calculo y son incapaces de realizar tareas triviales, no confundamos cosas :)


lo del api no es que sea propietario, es que es un api a medio camino de DirectX9 y DirectX 10, solución? eliminar de la gráfica todo lo innecesario, y lo mismo del API. Solo es eso, En Xbox el DirectX tampoco es exactamente igual que en PC, eliminaron de la ecuacion el polvo y la paja
nvidia a dia de hoy es incapaz de seguir un camino que no sea el de la fuerza bruta.


Nvidia lleva muchos años sin innovar, de ahí que Ati se la esté comiendo con patatas fritas, no hay más que ver como Ati con menores frecuencias supera a nvidia. Además, la arquitectura unificada de shaders que presenta la GPU de X360, es el futuro de las GPU's de Pc, pues no te limita a tener tantos pixels shaders por unlado y tantos vertex por otros, da una flexibilidad muy grande.
Además, todavía quedan por ver los cuellos de botella que se pueden producir, cuando el RSX intente acceder a la memoria principal XDR a través del Cell y mediante un único sentido (vaya hombre, parece un fallo de arquitectura por las prisas no Sony?)
Además, queda por ver como va a refrigerar Sony la PS3, porque es un horno pero de los wenos.
This logic unit will be able to exchange data with the 10MB of RAM at an incredible rate of 2 Terabits per second. So while we do not have a lot of RAM, we have a memory unit that is extremely capable in terms of handling mass amounts of data extremely quickly. The most incredible feature that this Smart 3D Memory will deliver is “antialiasing for free” done inside the Smart 3D RAM at High Definition levels of resolution.


Asi que cuando decian que la ram va a 256 GB/s (2Tbits/segundo)
se refieren a esos calculos internos de la unidad de RAM.
¿no dicen a que velocidad va el bus fisico entre la GPU y la ERAM?
O si los SPU son solo capaces de cosas como ¿Ejecutar un Sistema Operativo independiente del resto de los Cores? ¿Recuerdas cuando anunciaron que el Cell podia ejecutar multiples sistemas operativos simultaneamente?

A los SPU se les a quitado algunas operaciones de coma flotante de uso poco frecuente pero no ninguna capacidad logica o de decision de las propias de las CPU. Por favor dime una sola cosa que pueda hacer cualquier CPU que no pueda hacer una SPU.

Ya sabremos de los detallitos de las Gforce 7 cuando las presenten proximamente.
que yo sepa los SPU son unidades tipo SIMD, que son cpus recortadas y bla bla bla como cosas q no tienen cache ni capacidad de decision de que hay q ejecutar ahora, si no de tal como le viene el invento.

Pero que yo sepa, no son procesadores triviales, si no "coprocesadores" con mucha potencia, pero coprocesadores.


Y usar más de un SO en la misma maquina se puede hacer con una sola CPU, se llama virtualización de software y es totalmente transparente al usuario.

CELL solo lleva un procesador trivial, y ese es un PowerPC G5 completo a 3,2GHz y 512k de cache, luego va acompañado de 7 SPUs.
parece que se le va a dar la vuelta a la tortilla ;)
Que alguien me corrija si meto la pata:

ATI: apuesta por la innovación con su gpu de la xbox360, que si shaders unificados, pipelines a porrillo y memoria-cache-inteligente para el antiliasing. Una gpu que no deriva de nada conocido, más bien parece un prototipo de lo que nos depara los futuros PCs.

Supongo que eso favorecerá la conversión de juegos de PC-tocho-año-2007 hacia la xbox360... ¿si o no?

NVIDA: gpu 6800 tunizada, lo mismo que hasta ahora, pero subido de vueltas un par de pueblos.

CONCLUSION: Según sony, su gpu da el doble de gigaflops que el de la xbox360... ¿en que quedamos?

¿es mejor la fuerza bruta?
¿es hype del bueno por parte de sony?
¿puede mocosoft esconder algun as en la manga?

que alguien me aclare
Shadowland escribió:Yo sigo diciendo que me parece mejor maquina x360 q PS3


Shadowland escribió:tiempo al tiempo señores... tiempo al tiempo!




***********************************************************************************

Es una verdadera lástima que no podamos saber como es la verdadera arquitectura interna de las CPUś y GPUS de ambas consolas, sus intrucciones y el efecto que producen en la práctica..una lástima por que asi no sabremos nada de la nueva generación o saber cuál es la mejor consola , hasta unos 2 o 3 años por ahora solo nos podemos conformar con supuestos videos ingame, imagenes renders, numeros técnicos producto del marketing que hasta ahora no nos demuestran nada real, absolutamente nada..a esperar hasta el 2007 para tomar una verdadera decición por lo menos por mi lado...
Saludos.
oestrimnio escribió:Que alguien me corrija si meto la pata:

ATI: apuesta por la innovación con su gpu de la xbox360, que si shaders unificados, pipelines a porrillo y memoria-cache-inteligente para el antiliasing. Una gpu que no deriva de nada conocido, más bien parece un prototipo de lo que nos depara los futuros PCs.

oestrimnio escribió:Supongo que eso favorecerá la conversión de juegos de PC-tocho-año-2007 hacia la xbox360... ¿si o no?


nope, la arquitectura de r500 no se parece en nada a los pc's (y esa "mega memoria" no la veras en PC en muchos años seguramente). MS facilitará los ports via XNA y API's globales, no via hard. Además una consola no tiene los cuellos de botella que tiene un PC (los G5 tienen casi 25GB/s de bus para ellos solos... un PC... una quinta parte real).

Y no, dudo que un PC tenga una cpu equivalente a xbox2 o ps3 de aquí a menos de 4 años. 115+ Gigaflops... je



oestrimnio escribió:NVIDA: gpu 6800 tunizada, lo mismo que hasta ahora, pero subido de vueltas un par de pueblos.


sip. Como siempre que saca una arquitectura:

GF1 -> GF2
GF3 -> GF4
GF 5800 -> GF 5900
GF 6800 -> G70/RSX



oestrimnio escribió:CONCLUSION: Según sony, su gpu da el doble de gigaflops que el de la xbox360... ¿en que quedamos?


en que la 6800U requiere el doble de gigaflops y casi de transistores para hacer lo mismo que una ATi a igualdad de Shaders en PC. Y la 6800U según la propia nvidia posee aprox 1,2TeraFlops de potencia

oestrimnio escribió:¿es mejor la fuerza bruta?


Nunca lo ha sido, por eso hay ingenieros, y matemáticos....


oestrimnio escribió:¿es hype del bueno por parte de sony?


Sony y nvidia son los reyes del Hype. MS y ATi no son mancos, pero son principiantes al lado de Sony y NV.

oestrimnio escribió:¿puede mocosoft esconder algun as en la manga?


el as es la concepcion del hardware pensando exclusivamente en los juegos e intentando eliminar por completo los cuellos de botella y añadiendo transistores allí donde realmente hacen falta y para lo que hace falta. Recuerda, MS es una empresa de software, y tienen ingenieros de hardware, expertos en crear hardware para sacar el maximo provecho a dicho software (o viceversa). En definitiva, saben como hay que hacer una maquina para aprovecharla al maximo. Sony solo sabe de hardware, pero no de software, ya lo han demostrado muchas veces.

oestrimnio escribió:que alguien me aclare


con más numeros encantado, con lo que hay, para mi es todo media incognita y solo me fio de la arquitectura base...
mas chicha pal asunto xD

megagames.com escribió:ATI New Board With 32 Pipelines
Wednesday March 30, 2005
post a comment : 312 total

click to enlarge

Description
The latest information released from Canada regarding ATIs monstrous R520 board, also known as Fudo, mentions the magic 'pipeline' word, a key element of the battle for graphical supremacy last year. Many might remember how the number 16 seemed to be the holy grail of both manufacturers and how stunned we all were that the companies involved could produce such monstrous boards carrying so many transistors and not be responsible for the melting of the polar ice caps.

Well this time ATI claims that its new range of boards will carry in excess of 300 million transistors meaning that, at least in theory, it will be able to feature 32 pipelines. It's time for gamer jaws to drop again as this will mean that the boards will feature twice as many pipelines as their predecessors. The current line of thinking at ATI is to have all boards with 32 pipelines but to restrict the first few versions to 24 functioning ones and to gradually introduce the full 32 enabled versions when market conditions and competitor products demand them.

ATI is rather keen to begin making its presence felt on the Top 20 3DMark hall of fame, as the recent failed attempt in Texas clearly demonstrated. The R520 could be the card to bring that success to ATI since it should be capable of performing at least twice as fast as the X850 meaning it should outperform even current SLI setups.

If ATI also manages to introduce its dual-GPU configuration this summer as expected, the resulting performance should run away with the 3DMark crown. I will leave you with the thought of two 32 pixel pipeline R520s running in tandem a game of your choice, how's that for starters?


según parece ser la nueva R520 es al menos 2 veces más potente que una ATI X850XT!!!.. no es por malmeter más en este asunto pero es que no hay nada claro a día de hoy.

un saludo

info sacada de megagames.com

por cierto he encontrado este diagrama sacado de un reportaje sobre la GPU de X360 hecho por techreport.com

Imagen

puede que os aclare dudas a algunos ;D
según parece ser la nueva R520 es al menos 2 veces más potente que una ATI X850XT!!!.. no es por malmeter más en este asunto pero es que no hay nada claro a día de hoy.



Parece que no estás puesto. La GPU de X360 no se basa en la R520, es una GPU desarrollada en conjunto por M$ y Ati, y se llama R500 y no tiene nada que ver con las arquitecturas actuales de las gráficas de Pc. Su arquitectura se basa en la unificación de los shaders, algo en lo que Ati lleva trabajando años, y se incluye por primera vez en el mundo de las consolas.
Tiene que quedar claro, que la arquitectura está pensada única y exclusivamente (hablo de la R500 por supuesto) para su funcionamiento en un sitema cerrado (consola), y todavía es muy pronto para saber el rendimiento real de la misma porque con las cuentas de la vieja no sale su rendimiento real.
lo que me llama la tención, es que ni Ati ni M$ han dado datos sobre el nº de transistores que lleva, curioso curioso. Me pregunto si ocultan algo más para hacer temblar todavía más sus competidores.
ya se que la GPU de XBOX no es una R520, pero sí que sé que la R520 es la que llevaban los kits alpha.. de hecho es la que llevaban las máquinas que ha llevado MS al E3, y si en teoría la GPU que llevará la consola es más potente que la que lleva el actual kit alpha.. pues ya podemos ir haciendonos una idea..

un saludo
Lo que es absurdo es la mierda de conferencia que han dado en el E3 cuando tienen semejante aparato entre manos y dar la sensacion de todo lo contrario.

P.D:Aunque lo mismo lo que pretenden es alargar lo maximo posible la incognita para dejar el menor tiempo posoble a sony para responder no???


Saludos
R520 en los kit alpha?¿ Pero no eran XT850? En qué se queda entonces la cosa?
leete este interesante reportaje de anandtech y te encontrarás con esto:

anandtech escribió:The machine was running ATI's R520 Ruby demo, which took about a week to port to the 360 from the original PC version. The hardware in this particular box wasn't running at full speed, but ATI mentioned that they could if need be.

ATI has had Xbox 360 GPU silicon back since last November, so we tend to believe them.


aunque creo que se referirá a una demo, o no sé arfff =P

perdón si he metido la pata XP
para mi la X-360 está mas cerca de la Ps3 de lo que nosotros pensamos.

aveces ni la potencia ni los dispositivos dee performance hace la diferencia. La diferencia la hace los programadores y sus tecnicas...

por ejemplo:

-el gt4 se ve mejor que el forza

-a partir del ridick hemos visto como la Xbox a despegado graficamente sobre las demas consolas.


ahora yo veo que la proxima generacion puede ganar mucho la X360 en facilidad de programacion, aunque el publico de sony puede hacer opacar las ventajas de M$.(espero no encontrarme con una nueva dreamcast).

a la final pienso tener las dos, y los fines de semana le pediré al vecino prestada la revolution para jugar al Revolzelda.
MAs madera sacadod e Anandtech, esto te lo dedico a ti especialmente Shadow land a ver si asi terminais de poneros de acuerdo tu y Ferdopa sobre los 1080p.

Sacado de Anandtech.

ATI did clarify that although Microsoft isn't targetting 1080p (1920 x 1080) as a resolution for games, their GPU would be able to handle the resolution with 4X AA enabled at no performance penalty.



Articulo completo aqui.

http://www.anandtech.com/tradeshows/showdoc.aspx?i=2423&p=2

Me parece a mi que se estan guardando mucha informacion sobre la GPU para que SONY se confie. nu se nu se.

Un saludo.
Copy paste de mi respuesta en otro hilo:

a mi realmente eso de numeros, cifras y que hace no se que cosas, y que es el doble que la otra y que la CPU de esta es mucho más potente de lo que aparenta y que es una 6800 tuneada que el ati supera no se a quien........ ya me lo está partiendo! ..... cansino con tanto marketing y tanto fanatismo queriendo justificar el gusto propio, sepan y entienda que por más sabios que hallan en este foro sobre hardware y software lo que opinen es un mero pensamiento propio que no pasa de ser eso "pensamiento" por que si conocieramos cada CPU y GPU de ambas consolas al 100% ojo que digo al 100% ya sabríamos cuál es la mejor consola, por ahora son solo PAJASOS MENTALES DE MARCA MAYOR...
Asi pues que ,aconsejo dejar a un lado esto que hasta que no veamos juegos que aprovechen al máximo cada consola no sabremos cuál es la mejor y para eso creo que hay que esperar 2 o 3 años......sigan disfrutando de lo que tienen ahora y diviertanse sin perder el tiempo en coacholadas que en la prácitca no dicen absolutamente nada.....
Saludos.

[lapota] [lapota] [lapota] MARKETING [lapota] [lapota] [lapota]
lo de 1080p es por el puerto HDMI, si los amigos de M$ le colocan ese vendito puerto será muy facil tener tal calidad de video.

el HDMI es propiedad conjunta de Samsung,Sony, Pillips entre otras, si M$ paga los derechos, tiene 1080p.

ahora... de que sirve 1080p sin antialiasing, queremos que los juegos se vean como las novelas de la tv y la TV lo que tiene es 480I(pero es una señal netamente analogica)

del 1080i al 1080p es algo dificil distingir por debajo de las 36 pulgadas
Mas datos sobre la GPU.

http://www.techreport.com/etc/2005q2/xbox360-gpu/index.x?pg=1


Aqui hay cosas que ya no pillo, que vengan los entendios y me expliquen.

eso si saco cosas claras, 48 shaders, 4 ALUS por Shader, pero no eran 2???

Un saludo.
Phellan_Wolf escribió:R520 en los kit alpha?¿ Pero no eran XT850? En qué se queda entonces la cosa?



R520 son nombres de los chips no de las tarjetas graficas, y es X850 NO XT850, el XT va al final, es como decir que es la super potente asi!!

X850se
X850PRO
X850TX

es un ejemplo, no lo tomes a que existen ya!!pero son para espeficar siertas caracteristicas!!

bye!!
R520 son nombres de los chips no de las tarjetas graficas, y es X850 NO XT850, el XT va al final, es como decir que es la super potente asi!!



Tanto monta, monta tanto Isabel como Fernando ;), o lo que es lo mismo me da ponerlo delante que detrás.
M$ está escondiendo muchas cosas de su GPU, sólo cuando se conozca por completo todos los datos de la misma estaremos en disposición de hacer un verdadero análisis de la misma, pero no sé porque me da que poco a poco, según se van revelando más datos me parece que esta R500 va a cabar merendándose al RSX.
Esperemos a las specs finales y sobre todo verdaderas de la misma.
shadow land escribió:que yo sepa los SPU son unidades tipo SIMD, que son cpus recortadas y bla bla bla como cosas q no tienen cache ni capacidad de decision de que hay q ejecutar ahora, si no de tal como le viene el invento.

Pero que yo sepa, no son procesadores triviales, si no "coprocesadores" con mucha potencia, pero coprocesadores.


Y usar más de un SO en la misma maquina se puede hacer con una sola CPU, se llama virtualización de software y es totalmente transparente al usuario.

CELL solo lleva un procesador trivial, y ese es un PowerPC G5 completo a 3,2GHz y 512k de cache, luego va acompañado de 7 SPUs.


¿Sabes lo que es un SIMD?

Esas siglas solo significan que un procesador utiliza un solo flujo de instruciones para tratar multiples datos, un Athlon es un SIMD

Los SPU tiene control absoluto control sobre lo que hace no necesita ninguna supervision, muestrame un solo articulo posterior a la presentacion detallada del Cell de febrero en el que se afirme lo que dices.

Los SPU no utilizan ni virtualizancion ni nada por el estilo para ejecutar un sistema operatibo completo (tiene hardware para que cada SPU tenga su propio sistema de tradccion de direcciones algo necesario para ejecutar un Sistema Operativo) por si mismos son capaces de hacer todas las tareas tribiales que quieras, el PPU no es un Power G5 como tampoco lo son los cores de la CPU de la Xbox 360.

En vez de cache llevan una memoria local sobre la que tienen control absoluto sobre lo que hay en ella. Esto si se usa bien es mejor que una cache por que es más predecible. El flujo de instrucciones que ejecutan lo controla la propia SPU no necesitan que la PPU les diga lo que tienen que hacer.
al final no estava corriendo en el xbox360, segun este site los juego estaban corriendo en dos Apple G5 PowerMacs con los que los desarolladores trabajan se puede ver la parte frontal del xbox no estan conectado.

para mi al final ms y sony solo quieren hipe.

http://gizmodo.com/
saludos
para mi al final ms y sony solo quieren hipe.


hombre segun lo que tu dices, microsoft creo que hace hype pero a la inversa :). Los juegos los ha mostrado en un sistema que es inferior a su consola.


ACTUALIZACION: parace ser que ATI ha hablado sobre su GPU y lo podeis leer aqui
deathkiller escribió:
¿Sabes lo que es un SIMD?

Esas siglas solo significan que un procesador utiliza un solo flujo de instruciones para tratar multiples datos, un Athlon es un SIMD


Estas equivocado en el significado del SIMD(Single Instruction Multiple Data, una sola intruccion multiples datos) y no hace referencia al procesador si no a un tipo especial de intruciones, que pertenecen a la familia de instruciones vectoriales, las cuales son capaces de aplicar la misma accion a un grupo de datos de forma simultanea en paralelo.
Ademas que cualquier procesador hace lo que dices ya sea RISC, CISC o VLIW.

Un Athlon es un procesdor CISC con un conjunto mixto de intrucciones SISD(Single Instruction Single Data, una solo intrucion un solo dato) y SIMD, y no es un procesador vectorial como las SPUS en las cuales poseen intruciones SIMD y un conjunto basico SISD para control de bucles.
Si de verdad os creeis que Ati a desarrollado algo venido de las galaxias.... [jaja]

Segun algunos Ati se ha guardado información en la manga...segun mi opinión si alguien ha dado datos esa a sido Ati y quien a penas los ha dado a sido Ndivia (salvo los tropecientos mil transistores).....

Luego me asombra que saque una grafica MAS DEL DOBLE de potente que una 6800 y a la gente le parezca que eso es una 6800 'dopadisima'....

No tengo ni zorra de cual de las 2 GPU es mejor y poco me importa pero hacerme caso, la tecnologia EXTRATERRESTRE sera para la siguiente generación... [fumeta]

Aqui lo que se trataba es de comerse a la competencia CON DATOS y generar expectación...y $ony ha dado una clase de MARKETING a M$...nadie se va a guardar datos 'secretos' pq es ahora cuando empieza la carrera...

Y por ahora todas las elucubraciones mentales solo son eso, elucubraciones, NADIE (ni el mas entendido de por aqui) sabe A CIENCIA CIERTA como van a funcionar las arquitecturas de las nuevas consolas, tanto el CELL como las nuevas GPU son incognitas que hasta que no esten las maquinas en la calle no seran resueltas...

Un saludo.
takeda escribió:
Y por ahora todas las elucubraciones mentales solo son eso, elucubraciones, NADIE (ni el mas entendido de por aqui) sabe A CIENCIA CIERTA como van a funcionar las arquitecturas de las nuevas consolas, tanto el CELL como las nuevas GPU son incognitas que hasta que no esten las maquinas en la calle no seran resueltas...

Un saludo.


a Maicrochosf le quedan 4 meses para rellenar su cajita..... a ver que pasa.
nxname escribió:
a Maicrochosf le quedan 4 meses para rellenar su cajita..... a ver que pasa.


Efectivamente, y resulta que despues de la conferencia de $ony empiezan a salir diciendo que las demos que han mostrado corren en Kits de desarrollo que son un 30% o 40% de la versión final y que como no van a soportar las GPU de Ati 1080p... [bad] ...¿incluso los que mejor se veian como el Gears of War?¿Me estan diciendo que eso era solo un 40% de como sera el juego definitivo?.... ¬_¬

Vamos que el Hype se apodera de la industria, yo no dudo que ambas seran maquinones, pero que en vez de eso no las quieren vender como naves espaciales esta mas claro que el agua de la bañera de los patitos de $ony...
Aqui se ve como las demos efectivamente corren bajo Mac. Como se nota lo que da de sí una máquina cuando se hacen las cosas como dios manda, si en el catálogo de juegos de Mac hubiese algo parecido...
Si de verdad os creeis que Ati a desarrollado algo venido de las galaxias


de eso no se trata hombre, se trata de atajar el problema por otro camino y no por el de siempre al cual estamos acostumbrados. Cuanto mas rapidez mejor ;)
Takeda, en el E3 no iba a haber ningúna x360 final, ATi ni siquiera a comenzado a fabricar en masa los chips. Si tu creias lo contrario es tu problema.

Y si, por que diablos no va a soportar 1080p? te crees que es muy dificil? cualquier gráfica de PC se mea en el 1080p, no es un logro tan importante, sobretodo si tienes en cuenta que puedes lanzar 720p y más incluso desde una PS2


deathkiller escribió:
¿Sabes lo que es un SIMD?

Esas siglas solo significan que un procesador utiliza un solo flujo de instruciones para tratar multiples datos, un Athlon es un SIMD


desde luego, tu no lo sabes. Una unidad SIMD (como ya te han dicho, Single Instruction Multiple Data) tiene una funcion de calculo matemático vectorial, nada más. Solo sirve para eso, para calculo de datos vectoriales (matrices/ecuaciones). Te has lucido.

Los Athlon o P4 son procesadores inicialmente CISC y en el fondo se ejecuta todo en funciones RISC mediante traducciones varias. Aparte tienen las diferentes unidades de calculo vectorial con nombres variopintos como MMX, SSE o 3DNow que ayudan en el calculo de tareas vectoriales, cruciales para plantar polígonos en uan pantalla, tratar audio o video rapidamente, etc.



deathkiller escribió:Los SPU tiene control absoluto control sobre lo que hace no necesita ninguna supervision, muestrame un solo articulo posterior a la presentacion detallada del Cell de febrero en el que se afirme lo que dices.


Las SPU no tienen control absoluto sobre nada. El nombre "cell" viene de los subprogramas "cells" que cada SPU ejecuta, con un tamaño maximo igual a la SRAM que poseen en cada unidad. En el momento que un programa necesita más de ese espacio, cada unidad pierde cientos o miles de ciclos para acceder a la ram principal y traer los datos, y volverlos a llevar.



deathkiller escribió:Los SPU no utilizan ni virtualizancion ni nada por el estilo para ejecutar un sistema operatibo completo (tiene hardware para que cada SPU tenga su propio sistema de tradccion de direcciones algo necesario para ejecutar un Sistema Operativo) por si mismos son capaces de hacer todas las tareas tribiales que quieras, el PPU no es un Power G5 como tampoco lo son los cores de la CPU de la Xbox 360.


La virtualizacion solo es la ejecucion de dos programas o más a la vez en memoria compartiendo tiempo de ejecución, ni más, ni menos. El nucleo de de CELL es un G5 relativamente modificado (nuevo bus y otras cositas más), y el de x360 es un G5 totalmente modificado en el sistema de ejecución de instrucciones (menos ciclos para la mayoría de ellas, y otras nuevas). Y una SPU no es capaz de hacer una tarea trivial por si mismo, si no, ya hubieses visto el sector profesional de aplicaciones cliente/servidor INUNDADO de este tipo de procesadores desde hace años (por que esto esta desde mediados de los 60).


deathkiller escribió:En vez de cache llevan una memoria local sobre la que tienen control absoluto sobre lo que hay en ella. Esto si se usa bien es mejor que una cache por que es más predecible. El flujo de instrucciones que ejecutan lo controla la propia SPU no necesitan que la PPU les diga lo que tienen que hacer.


La cache es más rapida que la ram, para empezar. Y efectivamente, sacarle partido es aparente más simple por que tienes control de lo que hay, el problema viene cuando el tamaño supera el hard, y tienes que seguir controlando eso, para saber cuanto tiempo de proceso queda libre en cada spu. Y obviamente, el flujo de instrucciones lo controla la SPU, pero no controla el flujo igual que un procesador trivial, simplemente por que no le hace falta, no esta diseñado para calculos triviales, esta diseñado para sacar calculos en coma flotante a toda leche.

Y es el PE el que dicta que ejecuta cada SPU, no la SPU. EL PE controla los nuevos paquetes, y los va mandando a los SPU libres de forma aparentemente transparente, luego se olvida.
Elohe escribió:
Estas equivocado en el significado del SIMD(Single Instruction Multiple Data, una sola intruccion multiples datos) y no hace referencia al procesador si no a un tipo especial de intruciones, que pertenecen a la familia de instruciones vectoriales, las cuales son capaces de aplicar la misma accion a un grupo de datos de forma simultanea en paralelo.
Ademas que cualquier procesador hace lo que dices ya sea RISC, CISC o VLIW.

Un Athlon es un procesdor CISC con un conjunto mixto de intrucciones SISD(Single Instruction Single Data, una solo intrucion un solo dato) y SIMD, y no es un procesador vectorial como las SPUS en las cuales poseen intruciones SIMD y un conjunto basico SISD para control de bucles.

Bueno no tenia tan claro el termino como tu pero vamos el conjunto basico de SISD de las SPU tambien incluye calculo entero, load/store y cosas asi. Por que incluya las instrucciones SIMD de los VMX no se convierte en un coprocesador. La diferencia que yo queria destacar es que al contrario que los coprocesadores vectoriales los SPU pueden actuar independientemente, su independencia es parte de la base de los Cell.

Repito, que alguien me muestre un articulo posterior a febrero cuando se detallo el funcionamiento del Cell en el que se afirme que los SPU aparte de calcular vectores solo puede calcular saltos o cosas asi.

Intel solo critico que utilizaran dos tipos de core distintos en vez de usar un solo tipo y que la arquitectura no era buena para los PC pero si para una consola, pero nunca hizo afirmaciones asi.
deathkiller escribió:Bueno no tenia tan claro el termino como tu pero vamos el conjunto basico de SISD de las SPU tambien incluye calculo entero, load/store y cosas asi. Por que incluya las instrucciones SIMD de los VMX no se convierte en un coprocesador. La diferencia que yo queria destacar es que al contrario que los coprocesadores vectoriales los SPU pueden actuar independientemente, su independencia es parte de la base de los Cell.


precisamente por que la funcion de los SPU es liberar al core principal de las tareas pesadas de calculo, no de las tareas "triviales". Un SPU esta para calcular cosas a piñon fijo, nada más. EL PE esta ahí para coordinar todo eso, coordinarse con otros CELL y ejecutar lo que tenga que ejecutar.


deathkiller escribió:Repito, que alguien me muestre un articulo posterior a febrero cuando se detallo el funcionamiento del Cell en el que se afirme que los SPU aparte de calcular vectores solo puede calcular saltos o cosas asi.


Mira las patentes y dejate de articulos.

deathkiller escribió:Intel solo critico que utilizaran dos tipos de core distintos en vez de usar un solo tipo y que la arquitectura no era buena para los PC pero si para una consola, pero nunca hizo afirmaciones asi.


por que en PC se necesita multitud de calculo TRIVIAL, y la propia IBM descarta CELL para muchas tareas, entre ellas ordenadores personales o servidores de aplicaciones cliente/servidor para seguros o banca, por ejemplo.
por cierto shadow land, arriba he puesto un enlace en donde hay una entrevista a ATI. No se si dicen algo nuevo o es mas de lo mismo ya que mi nivel de ingles y encima tecnico es nulo :P
takeda escribió:[...]

Luego me asombra que saque una grafica MAS DEL DOBLE de potente que una 6800 y a la gente le parezca que eso es una 6800 'dopadisima'....

[...]


Nvidia no ha dicho eso, ha dicho que era más potente que dos Geforce Ultras corriendo en paralelo, que es algo totalmente distinto, te dejo la diferencia en esta imagen:

Imagen

Como ves, la potencia es un 25% mayor que de la una sóla tarjeta.

Las comparaciones entre GPUs son difíciles de hacer, porque ATi ha usado cosas no vistas todavía en el mundo del PC y que son más propias de una arquitectura cerreda como lo es una consola.
A ver una cosa si que me queda clara y es que a Sony lo cogió el tiempo. Primero porque el ciclo de vida de una consola ha sido acortado por M$ y creo que S$ no lo esperaba (a la X todavía le queda un margen de mejora). La verdad es que Sony ha cambiado los planes sobre la marcha (Nvidia) y que no le ha salido mal (hay que reconocer que el CELL es una maravilla), pero poco a poco estamos viendo info del R500, que nos hace pensar que es otra maravilla, que hoy por hoy es una incognita (los unicos ven aquí con perspectiva son M$ y ATI). Sony vende potencia bruta + hype y M$ nos venda magia y coherencia.

Porque el R500 "puede" ser brutal.
*Tiene un balanceo de potencia para las necesidades "in time" y además el programador ni se entera. Se supone que el R500 va a saber tener siempre ocupado (siempre que le den trabajo). Hace un día lei que el ploblema de la unificación iba a hacer que por la propia estructura de unificación solo cuando se programe un juego especifico para la X360 se veria la potencia del chip. Ahora comprendo que quien lo comentó se equivocó (perdonad pero no tengo tiempo para buscar el link, era fuera del eol).
*Tiene parcelada (se puede decir que son 2 die) la GPU de una forma que es toda una revolución, unificación de shaders, una memoria inteligente con 192 copros para determinadas opraciones, un estudio depuradisimo de anchos de banda. Es una GPU que se ha especializado un poco mas delegando ciertos trabajos (memoria inteligente que pasada).
* Una GPU no PC. Aqui han marcado un hito para mi gusto. Desde el nacimiento de las aceleradoras 3D, ya siempre han ido enfocadas a la tecnología PC (GS de la PS2 no fue orietado a la consola pero fue una cagada). Ya que se ha generado desde sus inicios pensando en un sistema cerrado. No es un adaptación. Tiene soluciones dificilmente implmetables en un sistema PC.

Entiendo perfetamente que el hype Sony venda muy bien porque los numeros de potencia bruta son contundentes, pero ya veremos "si pueden meter una bandada de mamuts por la puerta de una casa".

LA R500 es un concepto nuevo y que es dificilmente medible por ahora.
Tal como lo veo uno es un coche con picos 200 y media de 120 y otro es un coche sencillamente con velocidad constante de 130.

Quieo mas info ;)
bueno, la "Xenos" es capaz de hacer 196 instrucciones por ciclo de reloj, 4 por cada unidad de shader, q son 48. mas otras 192 instrucciones aparte dedicadas a Z, , alpha, FSAA y Stencil Shadows.


Creo que esto deja claro que x360 es más potente que la RSX, no?
mirad lo que he encontrado en xboxyde

The quasi final Xbox 360 was on display in the ATI Booth, especially with the Xenos GPU and not some older ATI card. This system is only available since a few weeks or even days so the only demo that was ported yet is the Ruby tech demo they had created as a demonstration of their new R520 GPU. Op_ivy was kind enough to film the presentation, many thanks to him!


LINK
shadow land escribió:Takeda, en el E3 no iba a haber ningúna x360 final, ATi ni siquiera a comenzado a fabricar en masa los chips. Si tu creias lo contrario es tu problema.

Y si, por que diablos no va a soportar 1080p? te crees que es muy dificil? cualquier gráfica de PC se mea en el 1080p, no es un logro tan importante, sobretodo si tienes en cuenta que puedes lanzar 720p y más incluso desde una PS2


¿Mi problema?, estas muy equivocado, el problema lo tiene M$ con declaraciones como 'aqui esta la Xbox 360, enchufada y FUNCIONANDO'....a mi no me dan de comer ni $ony ni M$...claro que se pilla antes a un mentiroso que a un cojo...

Yo no digo que no soporte 1080p, si eres capaz de leer eso en mi comentario te doy un R500 hecho con 2 botes... [idea] , lo curioso del tema es que han salido como limas a decirlo cuando se anuncia en la conferencia de $ony.....si tan seguros estas de su 'creción'...y sobre los kits de desarrollo y el '30% o 40%' otro tanto....¿me estan diciendo que con esa potencia han hecho lo que nos han mostrado? ¿que haran cuando tengan el 100%?¿esto no es hype?

shadow land escribió:Creo que esto deja claro que x360 es más potente que la RSX, no?


Tu lo has dicho...TODA la Xbox 360 es mas potente que SOLO el RSX...no que la PS3.... [sonrisa]

CapiXbox escribió:Sony vende potencia bruta + hype y M$ nos venda magia y coherencia.


Si es que se os ve el plumero... [bye]

Edito:
Len Tao escribió:Nvidia no ha dicho eso, ha dicho que era más potente que dos Geforce Ultras corriendo en paralelo, que es algo totalmente distinto, te dejo la diferencia en esta imagen:

Como ves, la potencia es un 25% mayor que de la una sóla tarjeta.

Las comparaciones entre GPUs son difíciles de hacer, porque ATi ha usado cosas no vistas todavía en el mundo del PC y que son más propias de una arquitectura cerreda como lo es una consola.


Es decir, que 2 tarjetas en paralelo dan solo un 25 % mas de potencia...pero eso en un PC ¿verdad?.....aun asi me estais diciendo que la GPU de Nvidia es 'solo eso'...en que datos os apoyais, por favor (dados oficialmente, sin suposicones de la pitonisa Lola)

Yo que me trague la conferencia de Sony y el responsable de Nvidia dijo que su nueva GPU estaba especialmente orientada a trabajar junto al CELL...¿eso se ha visto en el mundo de los PC o tiene todo la pinta de arquitectura cerrada?¿o es que alguien ha visto alguna vez un arquitectura como la del CELL al lado de una grafica com la RSX? si es asi decirme donde...

Vamos a ver, yo no dudo que la GPU de Ati sea MAS POTENTE que la de Nvidia, sobre todo por que no lo se....pero de ahi a que algunos les parezca que es MUCHISIMO mas potente...para algunos TODO de la Xbox 360 al final va a ser mas potente....yo, hasta que no lo vea... ein?
takeda escribió:
¿Mi problema?, estas muy equivocado, el problema lo tiene M$ con declaraciones como 'aqui esta la Xbox 360, enchufada y FUNCIONANDO'....a mi no me dan de comer ni $ony ni M$...claro que se pilla antes a un mentiroso que a un cojo...

Yo no digo que no soporte 1080p, si eres capaz de leer eso en mi comentario te doy un R500 hecho con 2 botes... [idea] , lo curioso del tema es que han salido como limas a decirlo cuando se anuncia en la conferencia de $ony.....si tan seguros estas de su 'creción'...y sobre los kits de desarrollo y el '30% o 40%' otro tanto....¿me estan diciendo que con esa potencia han hecho lo que nos han mostrado? ¿que haran cuando tengan el 100%?¿esto no es hype?



Tu lo has dicho...TODA la Xbox 360 es mas potente que SOLO el RSX...no que la PS3.... [sonrisa]



Si es que se os ve el plumero... [bye]

Edito:


Es decir, que 2 tarjetas en paralelo dan solo un 25 % mas de potencia...pero eso en un PC ¿verdad?.....aun asi me estais diciendo que la GPU de Nvidia es 'solo eso'...en que datos os apoyais, por favor (dados oficialmente, sin suposicones de la pitonisa Lola)

Yo que me trague la conferencia de Sony y el responsable de Nvidia dijo que su nueva GPU estaba especialmente orientada a trabajar junto al CELL...¿eso se ha visto en el mundo de los PC o tiene todo la pinta de arquitectura cerrada?¿o es que alguien ha visto alguna vez un arquitectura como la del CELL al lado de una grafica com la RSX? si es asi decirme donde...

Vamos a ver, yo no dudo que la GPU de Ati sea MAS POTENTE que la de Nvidia, sobre todo por que no lo se....pero de ahi a que algunos les parezca que es MUCHISIMO mas potente...para algunos TODO de la Xbox 360 al final va a ser mas potente....yo, hasta que no lo vea... ein?


takeda estamos hablando de la arquitectura de la gráfica, el RSX no deja de basarse en el NV40->G70, por contra el R500 difiere del R520. Sobre la potencia, fue lo que afirmó NVIDIA, que el RSX era más potente que dos Geforce 6800 Ultra en paralelo.

Para ver cual es más potente y cual se aprovecha mejor, esperamos a los juegos y que ellos dicten sentencia :).
Len Tao escribió:
takeda estamos hablando de la arquitectura de la gráfica, el RSX no deja de basarse en el NV40->G70, por contra el R500 difiere del R520. Sobre la potencia, fue lo que afirmó NVIDIA, que el RSX era más potente que dos Geforce 6800 Ultra en paralelo.

Para ver cual es más potente y cual se aprovecha mejor, esperamos a los juegos y que ellos dicten sentencia :).


Evidentemente hablamos de la arquitectura de las GPU`s...y yo q creia que lo estaba haciendo...[buuuaaaa]

Como tu bien dices la R500 parece no ser una evolución si algo 'distinto' y la RSX si parece ser una evolución (no sabemos que salto evolutivo, claro)....pero lo que a mi me parece claro es que ambas estan preparadas para trabajar en 'su' entorno cerrado (otra cosa es que luego, con sus consiguentes modificaciones lleguen al mercado del PC) y que hay cada una tendra sus puntos fuertes y sus debilidades....y me directamente no me creo que Ati sea tan INFINITAMENTE superior en su tecnologia a Nvidia, mejor, puede ser, pero dentro de unos canones, no nos vayamos a volver locos....

Y respecto a tu segundo parrafo ---> [oki]
shadow land escribió:
precisamente por que la funcion de los SPU es liberar al core principal de las tareas pesadas de calculo, no de las tareas "triviales". Un SPU esta para calcular cosas a piñon fijo, nada más. EL PE esta ahí para coordinar todo eso, coordinarse con otros CELL y ejecutar lo que tenga que ejecutar.




Mira las patentes y dejate de articulos.



por que en PC se necesita multitud de calculo TRIVIAL, y la propia IBM descarta CELL para muchas tareas, entre ellas ordenadores personales o servidores de aplicaciones cliente/servidor para seguros o banca, por ejemplo.


Yo me he leido las patentes, informes de IBM y demas y no dice nada de lo que tu afirmas, un SPU es capaz de hacer procesamiento TRIVIAL aunque no sea muy bueno en esto por eso no seria un buen PC, insisto pon un link a una pagina con la patente en la que diga lo que afirmas por que yo no puedo demostrar que es falso simplemente por que no se menciona en ningun sitio.
501 respuestas
1, 2, 3, 4, 511