Articulo sobre la GPU de x360 (#2)

1, 2, 3, 4, 511
Allá va un copy paste completo en inglé, q tengo cosas como para traducirlo, y tampoco lo he leido más que por encima muy rapidamente...

Para la gente esta, frikis del hard, la gpu es un puto monstruo...

fuente: http://www.hardocp.com/article.html?art=NzcxLDE=

Xbox 360 GPU Features : More facts make their way to the surface concerning the Xbox 360 graphics processor, codenamed XENOS. This time ATI’s Vice President of Engineering chimes in on the unique technology that is powering the pixels behind Microsoft’s new gaming console.

Introduction

Our goal here is to give you a better working knowledge of the video technology inside the Xbox 360 in “plain English.” While there is going to be some technogeek babble, we will try to keep it to a minimum. There will surely be more in-depth articles posted in the coming days and as usual, we will be linking those on the HardOCP news page, so keep your eyes peeled if we have only piqued your inner geek interests.

Earlier this week we got to speak candidly with Bob Feldstein, VP of Engineering at ATI, and lead sled dog on the Xbox 360 GPU development team. While Microsoft owns the technology that powers the graphics of the Xbox 360, ATI very much engineered the GPU internally codenamed XENOS. After a 3,200 mile round trip to the Microsoft offices last week, I came home a bit stunned to spend the day with their Xbox 360 team and not see any sort of gaming demo on their new gaming console. While there are tons of cool features embodied in the Xbox 360, it is a gaming platform…thankfully. And thankfully this week at E3, we have been given more than a few sneak peaks at the upcoming games that will be available for the Xbox 360 platform.

Without a doubt, if you have broadband, and are a gamer or computer enthusiast, you owe it to yourself to head over the FileShack and check out their E3 2005 Hi Def Coverage. The level of graphic detail in these upcoming titles looks to be generations ahead of the current Xbox and other aging consoles. As for comparing it to PC titles, I will have to make that call November when the Xbox 360 is due for release and see what games and hardware are out for the PC at that time. If I had to make a call now though, I would have to say that the Xbox 360 graphics I have seen are just as impressive as any 3D PC game title I have ever seen. Then again, we have to remember that currently we are being thoroughly kicked in the head by the size 15 Microsoft Marketing Boot, so of course we are not going to be shown crappy clips of games. As for the how much content, we are hearing from several industry insiders that there will be between 25 and 45 titles available for the Xbox 360 at launch. A lofty goal says many insider naysayers. But let's get back on topic…

A GPU is a GPU, Right?

If I have read it once, I have read it a thousand times, “The Xbox 360 is just ATI’s next generation (fill in favorite code name here) GPU.” The simple answer to that is, “No it is not.” While most modern GPUs share many architectural similarities, Bob Feldstein and Chris Evenden of ATI went out of their way to explain to me, no matter how hard I tried to convince them otherwise, that the Xbox 360 GPU is very much an original creation. While some will try to tell you that is it simply a souped up DirectX 9 GPU, you might be interested to learn that the only API spec that the Xbox 360 hardware meets is its own API. That is correct, the Xbox 360 GPU only meets it own Xbox 360 API specifications. While of course some lessons learned in DX9 and upcoming DX10 were applied, the GPU of the Xbox 360 is very much its own and comparing it directly to anything in the PC world is simply “not right” according to Mr. Feldstein. Obviously the Xbox 360 can be thought of as a very innovative solution specifically for the Xbox and only the Xbox.

One interesting thing that was said to me during our conversation was that 3D game content developers were relied on along the way as the GPU was designed. Not consulted with or talked to once in a while, but relied upon for their GPU functionality requests and feedback as to the GPU’s implementation. Also keep in mind that Microsoft owns this technology and while there is certainly a good amount of technology sharing between ATI and Microsoft, Microsoft does have the ability to make their own changes and take the part anywhere in the world to be fabricated. So while it is ATI’s design, it is Microsoft’s GPU and all of this even more makes the Xbox 360 GPU its own.





About the Hardware

While we have tried our best to get better pictures of the Xbox 360 internals, we have pulled up short. While folks at Microsoft and ATI will definitely not like to have the comparison made, there really is “just” a PC inside the Xbox 360...that happens to be a Mac. You can find a full table of Xbox 360 specifications here, but in the interest of speeding things up a bit, below is the short list covering video.


GPU & Northbridge in One!

Many of you read that the Xbox 360 will have 512MB of GDDR3 RAM and that is 100% correct. But how exactly does this work with the CPU and GPU. Once you learn that the Xbox 360 GPU also acts as the system’s memory controller, much like the Northbridge in an Intel PC, the picture becomes a bit clearer. ATI has been making and designing chipsets for a good while now that use GDDR3 RAM. Add to this that Joe Macri (go cart racing fiend extraordinaire), who was a pivotal factor in defining the GDDR3 RAM specification at JEDEC is also a big fish at ATI, and it only makes sense that ATI could possibly put together one of the best GDDR3 memory controllers in the world. So while it might seem odd that the Xbox 360 Power PC processor is using “graphics” memory for its main system memory and a “GPU” as the “northbridge,” once you see the relationship between the three and the technology being used it is quite simple. So, we have the 700MHz GDDR3 RAM acting as both system RAM and as GPU RAM, connected to the GPU via a traditional GDDR3 bus interface that can channel an amazing 25 Gigabytes per second of data.

Now between the GPU and the CPU things get a bit fuzzier. And by “fuzzier,” I mean that they would not tell me much about it at all. The bus between the CPU and GPU was characterized as unique and proprietary. Mr. Feldstein did let on that the bus could shuttle up to 22 Gigabytes of data per second. Much like GDDR3, this would be a full duplex bus, or one that “goes both ways” at one time. Beyond that, not much was shared.

Viewing the Xbox 360 GPU as the “northbridge” should give you a better idea of how the Xbox works and answer some of the overall architecture questions. It is my own opinion that it is very likely that the CPU/GPU bus is very similar to the GPU/RAM bus as it was stressed to me by Mr. Feldstein that the CPU/RAM pathway was very free of any latency bottlenecks. The world may never know for sure...till some crazy Mac guys hack the thing and run a Stream benchmarks.





GPU Features & Buzzwords

There are always tons of buzzwords flying around in the technology and gaming communities, but what we wanted to dig into here is what exactly all these Xbox 360 technologies do for you. The three that you are going to hear the most are “Smart / Intelligent 3D Memory,” “Adaptable / Unified Shader Approach,” and the “Modeling Engine.” Another buzz word that you are going to hear a lot of is “Fluid Reality.” While this is not a new approach in the PC world, it is new to consoles. This Fluid Reality refers to the way the fabrics of clothing might flow with movement or how hairs on a character's head fall into place or how a monster’s fur may rustle as it stomps toward you. It also refers to lifelike facial animations that have been recently made famous by games like Half Life 2.


Smart / Intelligent 3D Memory

Notice the slash above? Not even ATI had a solid name for this technology but for the sake of this explanation we are just going to call is “Smart 3D Memory.” Smart 3D Memory is the biggest standout and innovative feature I saw inside the entire Xbox 360. To give you an idea of what it would look like first hand, think of any normal GPU you might see, something much like this Mobility Radeon X700 chipset. That is pretty much what any modern GPU looks like. Now think of that same chipset as having a single piece of DRAM sitting off to one side, much like seen in this ATI slide below, but with one less piece of RAM (and no arrows).



Keep in mind, ATI is not a stranger to adding memory to a chipset, but remember this is “smart” memory.

The Xbox 360 Smart 3D Memory is a relatively small piece of DRAM sitting off to the side of the GPU but yet on the same substrate. The Smart 3D Memory weighs in at only 10MB. Now the first thing that you might think is, “Well what the hell good is 10MB in the world of 512MB frame buffers?” And that would be a good line of questioning. The “small” 10MB of Smart 3D memory that is currently being built by NEC will have an effective bus rate between it and the GPU of 2GHz. This is of course over 3X faster that what we see on the high end of RAM today.

Inside the Smart 3D Memory is what is referred to as a 3D Logic Unit. This is literally 192 Floating Point Unit processors inside our 10MB of RAM. This logic unit will be able to exchange data with the 10MB of RAM at an incredible rate of 2 Terabits per second. So while we do not have a lot of RAM, we have a memory unit that is extremely capable in terms of handling mass amounts of data extremely quickly. The most incredible feature that this Smart 3D Memory will deliver is “antialiasing for free” done inside the Smart 3D RAM at High Definition levels of resolution. (For more of just what HiDef specs are, you can read here. Yes, the 10MB of Smart 3D Memory can do 4X Multisampling Antialiasing at or above 1280x720 resolution without impacting the GPU. So all of your games on Xbox 360 are not only going to be in High Definition, but all will have 4XAA applied as well.

The Smart 3D Memory can also compute Z depths, occlusion culling, and also does a very good job at figuring stencil shadows. You know, the shadows in games that will be using the DOOM 3 engine, like Quake 4 and Prey?

Now remember that all of these operations are taking place on the Smart 3D Memory and having very little workload impact on the GPU itself. So what exactly will the GPU be doing?

Adaptable / Unified Shader Approach

First off, we reported on page 2 in our chart that the capable “Shader Performance” of the Xbox 360 GPU is 48 billion shader operations per second. While that is what Microsoft told us, Mr. Feldstein of ATI let us know that the Xbox 360 GPU is capable of doing two of those shaders per cycle. So yes, if programmed for correctly, the Xbox 360 GPU is capable of 96 billion shader operations per second. Compare this with ATI’s current PC add-in flagship card and the Xbox 360 more than doubles its abilities.

Now that we see a tremendous amount of raw shader horsepower, we have to take into account that there are two different kinds of shader operations that can be programmed by content developers. There are vertex shaders and pixels shaders. These are really just what they sound like. Vertex shader operations are used to move vertices, which shape polygons, which make up most objects you, see in your game, like characters or buildings or vehicles. Pixel shader operations dictate what groups of pixels do like bodies of water or clouds in the sky or maybe a layer of smoke or haze.

In today’s world of shader hardware, we have traditionally had one hardware unit to do pixel shaders and one hardware unit to do vertex shaders. The Xbox 360 GPU breaks new ground in that the hardware shader units are intelligent as well. Very simply, the Xbox 360 hardware shader units can do either vertex or pixel shaders quickly and efficiently. Just think of the Xbox 360 shaders as being agnostic SIMD shader units (Single Instructions carried out on Multiple Data).

The advantage of this would not be a big deal if every game were split 50/50 in terms of pixel and vertex shaders. That is not the case though. While most games are vertex shader bottlenecked, some others are pixel shader bottlenecked. When you combine the Xbox 360 Unified Shader Approach and its massive shader processing power, you end up with a GPU that is built to handle gaming content far beyond what we see today in terms of visual quality.






Modeling Engine

The Xbox 360 modeling engine is quite frankly something that is really not explainable in layman’s terms. At least I am not smart enough to explain most of it. That said, I can share with you some of the things it does while being able to endlessly loop and manipulate shader data.

Some of the global illumination effects you might have seen in years past at SIGGRAPH have been put into motion on the Xbox 360 GPU in real time. For the most part, global illumination is necessary to render a real world picture quality 3D scene. The Xbox 360 also makes using curved surfaces possible in-game, meaning that it can calculate the polygons from the proper curved surface math in order to draw it on your screen “correctly.” Much in line with this is the ability to do high order surface deformation. And if you are familiar with high order surfaces, you are likely familiar with what gamers and hardware enthusiasts commonly refer to as “LOD” or Level of Detail. Mr. Feldstein shared with us that the Xbox 360 GPU has some “really novel LOD schemes.” So we are thinking that the days of cars in the distance with pentagonal shaped wheels in new Grand Theft Auto titles is a thing of the past.

GPU Power

ATI would not share with us the power displacement numbers for the Xbox 360 GPU, but if you have seen the heatsink on it in our low quality picture linked here (heatsink on the right), you will know that the total power displacement is not much by today’s standards. In fact I would compare the heatsink on that GPU to the ones we used to see on Voodoo 3 3000 video cards back in 1999 that were running a whopping 200MHz when overclocked. ATI has implemented “lots” of their mobile power saving features in this Xbox 360 GPU. Clock gating is even more efficient in this chipset than what we were aware of being implemented in Mobility Radeons of the recent past. Sorry, but here again we were light on specifics.

Conclusions

ATI took their Xbox 360 GPU project from the ground floor to a working piece of silicon in 2 years. It is obvious that that there is much more to this GPU than what is being shared with us here, but even considering just the features shared here, a 2 year project time seems amazing. This can easily be considered a ground breaking GPU in terms of 3D gaming regardless of platform.

We should expect to see many of the Xbox 360 GPU technologies shared with the PC desktop market. Unfortunately it does not look like Smart 3D Memory will be one of the things that make the crossover, at least immediately. A shame really, but the impact of a desktop Unified Shader Model will be hugely benefiting to the PC gamer as well.

From what I have seen coming from this year’s Electronic Entertainment Expo coverage, there is no doubt that the future of the Xbox 360 in terms of pure gaming fun looks very promising. But of course the marketing fluff always does. The truth will be known sometime before the Christmas buying season. It is highly likely though that we will not see the real fruits of ATI’s and Microsoft’s labor till a couple of years have passed and game content developers have had ample time to learn to exploit the incredible power of the Xbox 360. Programmability and flexibility are two of ATI’s Xbox 360 GPU features that will not be realized immediately and it looks as if the GPU has plenty of both.

I fully expect that we will see more details float to the surface throughout the rest of the year as this is not the full Xbox 360 GPU story.


Imagen
Continuación de 'Articulo sobre la GPU de x360'

shadow land escribió:lo que dice ese parrafo es que con codigo "estandar" (el que hace todo hijo de vecino, o sea, escrito con el culo y sin pensar en la maquina de destino), al no estar optimizado, CELL o Xenon lo procesaran entre 1/3 y 1/10 de rapido que el mismo core con una unidad de ejecución out-of-order (que le toca la cola como le vengan los datos, mientras le vengan).

La cosa es que en una consola puedes controlar como ejecutar el codigo, y como escribirlo, y el compilador se puede optimizar también para ello.

Simplemente en cierto modo, quieren que se vuelva un poco a la vieja escuela:

"Te damos 10 veces más de potencia, pero te pedimos a cambio que plantees correctamente el codigo, nada más, del resto nos encargamos nosotros (compiladores incluidos :P)"
GXY escribió:pues si metemos multiples nucleos para que cada uno de ellos individualmente sea un cascajo, no le pillo yo el punto a hacer procesadores multinucleo...estabamos mejor antes con los procesadores que iban saliendo.

alguien me lo explica? ¬_¬

saludos cordiales.


No son cascajos, que el desarrollador ese diga que "las malas lenguas" (vamos que no es por su propia experiencia) es de 1/3 a 1/10 de potente, es una cosa, que sea cierta es otra.

En el caso de AMD, si un micro single core tiene un rendimiento de 100%, el X2 tiene un 95%, pero si nos encontramos con varias tareas, el single estará en un 50% del rendimiento inicial mientras que el X2 se queda en un 94%.

Yo creo que las ventajas son obvias, aunque no sé si los X2 son in order, out order, out of stock o que carajo serán :?.
Yo esta noche he soñado con la XBOX360... esto ya no es serio, me va a dar algo... yo quiero que salga ya... :(
SureThing escribió:Yo esta noche he soñado con la XBOX360... esto ya no es serio, me va a dar algo... yo quiero que salga ya... :(


X-D X-D q gracia me ha hecho cnd he leido esto. X-D

Yo tb estoy deseando q salga, pero no creo q tanto como tu :p

Saludos
SureThing escribió:Yo esta noche he soñado con la XBOX360... esto ya no es serio, me va a dar algo... yo quiero que salga ya... :(


[qmparto]
shadow land escribió:lo que dice ese parrafo es que con codigo "estandar" (el que hace todo hijo de vecino, o sea, escrito con el culo y sin pensar en la maquina de destino), al no estar optimizado, CELL o Xenon lo procesaran entre 1/3 y 1/10 de rapido que el mismo core con una unidad de ejecución out-of-order


todo hijo de vecino como por ejemplo EA haciendo un fifita multiplataforma? :-P

saludos cordiales.

pd. si, creo que estos dias estoy un poco mas puñetero de lo habitual :-P
GXY escribió:
todo hijo de vecino como por ejemplo EA haciendo un fifita multiplataforma? :-P


no si el multiplataforma es PS3 Vs x360, te recuerdo que es el mismo core base :P
Por cierto, en ign, encontre esto, y como ya se hablo en la primera parte del hilo, acerca de las ventajas/desventajas de un disco duro en las nuevas consolas, copio/pego:

Sony Undecided on Hard Disk
Head of technology unsure if hard disk will be included as standard.
by IGN Staff

June 1, 2005 - Sony has been somewhat vague on the inclusion of a hard disk with the PlayStation 3. The system's specifications reveal a slot for a detachable hard disk unit, but there's still not been any talk of a hard disk being included with the system from the start.

It seems that we're going to have to wait for confirmation. In an interview featured in the latest issue of Famitsu, Sony Computer Entertainment chief technical officer Masayuki Chatani, when asked if a hard disk will be included with the system from the start, replies "It has yet to be decided."

Chatani also reveals Sony's reasoning for going with a removable hard disk setup. The company believes that people will want to both upgrade to higher capacity drives in the future and carry their hard disks with them to attach to other PS3 units.

Moving away from the hard disk, Chatani is asked to comment a little on the system's controversial controller. "I don't think there will be any fundamental changes," he answers in response to a question on the possibility of changes to the controller's design, "but it's a prototype, so there could be some small adjustments."

Chatani also gives some hints into PS3 network gaming. Internet-based communication functionality will be a big part of the PS3, Chatani reveals. He belives it important to come up with communication tools for all ages.

Finally, those looking forward to more news on the PS3 should turn to the PSP for an estimated schedule. Sony debuted the portable system at E3, shared first fully playable games at the Tokyo Game Show, then launched in Japan on 12/12. Chatani reveals that the PS3 is set for Japanese release in Spring, so we can expect, to a certain level, a similar flow. This seems to suggest playable PS3 units at the September Tokyo Game Show.

And we can, hopefully, expect confirmation on the inclusion of a hard drive by around the same time.


En definitiva, si ya de por si se hablaba de un posible precio de salida de 600€ contando con que no trajese disco duro , ¿cuanto nos clavaran de mas si terminan incluyendolo? me da a mi que de esta generacion solo me voy a pillar la 360 [+furioso]
Sí sí y no os riais que la culpa es vuestra por hacerme leer entero este hilo... XD

En fin... xD

A ver si va saliendo más información a cuentagotas para que mis sueños puedan ser cada vez más precisos... no vemos!
me parece que el hype de la tarjeta grafica es mas grande que la de la misma consola..... llevamos 510 respuestas!!!!!!!.


por cierto he estado un poco perdido.... alguien sabe alguna confirmacion del Hdmi ??????
Fraludio escribió:No hay HDMI.


eso significa que seguirán de moda los famosos X2vga....
nxname escribió:
eso significa que seguirán de moda los famosos X2vga....


No, la salida VGA está más que confirmada, el HDMI está por confirmar si lo lleva o no.
Len Tao escribió:
No, la salida VGA está más que confirmada, el HDMI está por confirmar si lo lleva o no.



COÑO QUE DEPINGA!!!! (traduccion: Ohh eso si que flipa)
Bueno una cosa que me está comiendo un poco según la segunda parte del artículo sobre Xenon, es que no me queda muy claro si los registros de los Vmx son de 128bits nativos o son 4x32, ya que yo sepa me parece muy extraño que fuesen de 128bits pues me parece que actualmente no hay.
Me gustaría comentar que hay algo en lo que no estoy deacuerdo con el redactor y es en que Xenon estaría muy por debajo frente a actuales Cpu's respectos a cálculos esenciales, sin embargo discrepo pues eso es más bien un problema del software no del hardware porque la gran mayoría no están acostumbrados a programar con multicores y aquí creo que es donde entra en juego XNA que facilitará dicha tarea, porque esta CPU es una bestia parda [boing]
Akrae está baneado por "usar clon para saltarse baneo"
Pon el enlace al que te refieres, de la segunda parte del articulo para poder leerlo. He leido algunas partes en otros foros y creo que son un poco peceros. No dan apenas explicaciones de lo que afirman o las que dan son muy vagas. Por ejemplo lo que dicen del Mega de L2 compartido. Y tampoco saben las instrucciones que llevaran Xenon. Pues eso a falta de leerlo completo y traducido no lo veo muy claro.

Si no me equivoco son 2x64.

Tu lo has dicho solo se basan en anticipar que los programadores no van a aprovechar los multicores. Y si los aprobechan desde el principio(con XNA o sin el), que pasa?

Tampoco justifican por que 1Mega es poco.

Saludos.
Hay bastantes cosas que no tienen sentido en ese artículo, como por ejemplo que el autor da a entender que cualquiera de los 3 cores de Xenon es inferior a un P4 actual, cosa que ni por el forro vamos, al igual que dice que tiene mucha potencia para hacer streaming frente al cálculos triviales, cosa que tampoco la veo más teniendo en cuenta que esta CPU se diseñó por y para los juegos y trabajar en conjunto con Xenos.
También me gustaría decir, una cosa que no sé si había mencionado que la comunnicación entre Xenon y Xenos es de 21,5 GB/s full duplex lo que hace un total de 43 GB/s efectivos, frente a los 35 que hay entre Cell y el RSX.
Aquí el enlace a la 2ª parte de la review de Xenon
¿¿!! un pentium4 superando un solo core PPC a 3.2 Ghz !!?? [qmparto]

creo que no ha nacido aún la madre que parirá al genio capaz de hacer eso con un pentium4 [bad]
EN OCASIONES.........VEO.............XBOX___es 360´S....(SEXTO SENTIDO)

HAS VISTO LO QUE HA ECHO LA GUARRA DE LA PS3?::(EXORXISTA

esto es un infierno ,no siento el CELL....(RAMBO)


HASTA LA VISTA.............PS2.........(BABY)....TERMINATOR 2.
dejemosnos de chorradas. ¬_¬

YO TAMBIEN sueño con las consolas,pero como me encanta el cine lo suelo mezclar un poco.....bueno lo del canuto tambien ayuda.

¿el disco duro de la consola sera de los de andar por casa o uno especial para las consolas?....especialmente pa la x360.
¿el disco duro de la consola sera de los de andar por casa o uno especial para las consolas?....especialmente pa la x360.


Pues simple y llanamente es un HDD de 20 GB de 2,5", vamos un HDD de portátil.
Por cierto muy wenas las peliconsolas [qmparto]
Akrae escribió:Si no me equivoco son 2x64.


Son 2x128 registros




editado: A ver si así le queda claro de una vez a uno que yo me se:

Arstechnica escribió:The Cell has only one PPE to the Xenon's three, which means that developers will have to cram all their game control, AI, and physics code into at most two threads that are sharing a very narrow execution core with no instruction window. (Don't bother suggesting that the PS3 can use its SPEs for branch-intensive code, because the SPEs lack branch prediction entirely.)

http://arstechnica.com/articles/paedia/cpu/xbox360-2.ars/7



Imagen
Si son 2x128, las cuentas que ha hecho son en base a esos registros, sin embargo las de Sony las han hecho contando con registros de 32bits pues los SPE's no dan más de sí. Jur, Jur
que más sorpresas se guarda M$ bajo la manga.
Por cierto comentar que Ati y M$ han llegado a un acuerdo, de tal modo que seguirán sus relaciones en el futuro, vamos que la siguiente GPU será de Ati también, no podrían habernos dado más alegría.
Hola a todos amigos que tal hay una cosa que me ronda por la cabeza es el tema de las t graficas de ambas compañias que estan trabajando tanto ATI para xbox2 como para NVIDIA ps3 a mi personalmente muchos amigos mios siempre tengo entendido y me han aconsejado la NVIDIA y tengo una Geforce 6800 ultra SLI 256Mb y yo queria una radeon X850 XT PE 256 Mb pero me dijeron loa ingenieros que era muchisimo peor dijo esto por si entre las dos consolas hay mucha diferencia de grafico y la verdad en las dos tarjetas si que habia mucha diferencia y me lo demostraros habra entonses esta diferencia en las graficas de las 2 consolas o no tiene nada que ver.

Saludos a todos amigos
al final ya han firmado?

los ingenieros que te rodean son gilipollas. Basicamentey para empezar pro recomendarte un setup SLI, el cual, acaba de cepillarse en rendimiento ATi lanzando el "crossfire" y que funciona en TODOS los juegos, no como nVIDIA, que funciona cuando y con quien quiere.

ahora mismo nVIDIA es algo más rapida que ATi en PC, pero ATi sigue tirando de un "apaño" en los chips desde la serie 9700 ,nVIDIA para alcanzar y ganar ha tenido que lanzar 2 arquitecturas diferentes y un refresco, y aún así, no le saca mucha ventaja
En resumen lo que te han dicho como que no. La 850Xt es lo más que te vas a encontrar ahora en el mercado y le mete un buen repasito a la 6800 de eNvidia. Te puedes pillar la de Ati o esperarte a la R520, y decirte que Xenon ya existe, y al RSX le quedan 2 días como quien dice para que lo pasen a silicio.
Sip Shadow, ya han firmado por lo que me parece que la sucesora de laX360 va a tener otra bestia en cuanto a GPU. No descarto una portátil de M$ con GPU de Ati en un futuro no muy lejano.
Entonces a nivel de compañia y tarjeta la que tengo es mala hace algun tiempo que la tengo me la compre por la empresa me lo aconsejaron.

Saludos
KILLZONE escribió:Entonces a nivel de compañia y tarjeta la que tengo es mala hace algun tiempo que la tengo me la compre por la empresa me lo aconsejaron.

Saludos


Perdona si te molesta pero no hay Dios quien te entienda por la forma que escribes, no este mensaje en particular, que es bastante obvio lo que dices pero si en anteriores.

Salu2
No me molesta la razón es que hago al mismo tiempo otras cosas perdona tio y a todos estare mas atento en ello ;)
atiendo a mi ¿amiga intima? [ginyo]

Saludos [ginyo]
apoyo a triki1 en lok dice en cuanto a tu forma de escribir, KILLZONE, he leido varios post tuyos y la cohesion, ademas de las comas, puntos y cualkier signo de puntuacion k ayude a la comprension de la lectura brillan x su ausencia, puede k tu lo entiendas al leerlo.. pero solo tu.

Puede k si la 360 es bien acogida microsoft se plantee hacer una portatil xra no dar ventaja a sus competidoras en ningun campo.

salu2
Akrae está baneado por "usar clon para saltarse baneo"
Me he leido el articulo de arstech y he sacado las siguientes conclusiones asumiendo que lo que dicen es cierto, ya que ellos son profesionales y yo aficionado a secas.

La primera es que esta claro que el Xenon se cruje al Cell en todo. Tan solo se quedaria un poco por debajo del Cell en calculo de comaflotante y vectores. En esto ultimo, la moderada ventaja del Cell solo le vale para ayudar a la GPU en el calculo de vectores. PERO dicha desventaja del Xenon podria ser suplida gracias a que la R500 podria asistirle en estos calculos con la potencia que le sobre.

Respecto a lo de un post anterior que se comentaba que en este articulo se decia que seria inferior al Xenon, queda totalmente claro que muy muy inferior. Lo que dice es que si los juegos no aprobechan la capacidad multicore del Xenon estos serian superiores(pero seria absurdo pensar que no aprovecharan esto). Otra cosa que dice en favor del Pentium es que su HT esta mas elaborado que el del Xenon, pero que no lo necesita por que es el SO el que gestiona que Threat. Vamos que depende del progamador, si lo he entendido bien.

Lo segundo es que si sera bastante superior al Cell, en fisicas, IA y control del juego. Pero aun asi, esta capacidad se ve bastante mermada por la Cache de L2 que es solo de 1 Mega. Esta carencia puede ser suplida en parte por que usaria compresión y lo descomprimirian las VMX en palabras de 128bits.Lo que dicen es que no saben como trabajaran estos 128bits con los 32 del PPC, COÑO, ¿PERO EL XENON NO ERA DE 64 BITS COMO EL ATHLON 64 O EL G5?
Tambien ayudaria que el hardware es cerrado y los programadores con el tiempo podrian optimizar el codigo para que trabajen mejor.Dicen que es casi seguro que en la segunda remesa de juegos abran aprendido a aprovechar mejor la cache disponible.
No se ha metido mas tamaño de cache por que habria un problema con la temperatura del procesador.

Tambien dicen que el XENON es una mala bestia con multimedia en stream,ya que para esto no necesita la Cache L2 Sera una puta maquina codificando sonido en 5.1 o 7.1 en tiempo real. Tambien para reproducir DVD, VIDEOS HDTV etc. El Cell lo seria para calculos cientificos y por ejemplo procesaminto de señal de video, filtros, scalar imagenes etc.

Excepto en lo de la cache,que es un problema con solucion, dicen cosas buenisimas de el, sobre todo tiene unos refinamientos muy avanzados.

Vamos es como la R500 pero en CPU. Quitan unas cosas y ponen otras para adaptarlo a su uso exclusivo para consolas, no para televisores, lavadoras, batidoras o barbacoas.

Yo no soy muy bueno con el Ingles y tampoco un experto en hardware, a si que corregidme si hace falta para no llevar a la confusion a nadie.

Es lo que yo he entendido.

Madremia lo que esta haciendo MS de ser cierto esto.

Saludos.
El trabajar con una CPU multicore requiere buenos compiladores y soft para que se le pueda sacar partido, y en ese artículo en mi opinión como dije antes, el redactor mezcla el como se trabaja actualmente con un único core a como se verá afectada la CPU al trabajar con métodos tradicionales. Pero hay muchas cosillas que no comparto, como el simple hecho de decir que los cores son una patata cosa que no estoy de acuerdo en absoluto.
Xenon es una mala bestia y ha sido creada por y para los juegos como Xenos no hay que olvidarlo por lo tanto se crujirá al Cell sin ninguna duda para lo que se van a usar que no es otra cosa que los videojuegos. Estoy de acuerdo contigo en lo de las VMX y es que me parece muy raro que sean nativas de 128 bits.
Por cierto no sé si sabías que Xbox 360 va a llevar implementada la función de PiP (picture in picture) por lo que podremos ver la tele al mismo tiempo que jugamos entre otras cosillas.
Akrea ¿de donde sacas que el articulo es una comparativa PS3 vs Xbox 360?

El articulo como mucho se puede decir que hace la comparativa al ejecutar codigo de juegos de PC pero que se hagan en los PC las cosas de una manera no significa que solo se puedan hacer asi.

Por ejemplo la IA puedes hacerla con redes neuronales con lo que necesitarias un monton de flops, ahora eso no lo vas a ver en la mayoria de los juegos de PC (el Black and White si tiene una IA de este tipo) por que un Pentium 4 o un Athlon se moririan si le metes eso masivamente.

El articulo se centra en la Xbox 360 con algun que otro comentario sobre el Cell.

Ya lo he dicho antes pero el Xenos no puede ayudar a hacer calculos a la CPU, de hecho en este articulo y en el anterior se habla mucho de la colaboriación y siempre es en un sentido -> CPU ayuda a GPU no al reves.
Viene del hilo cerrado anteriormente ....

Despues de leer el articulo, se pueden llegar a las siguientes conclusiones ... (si no son así que alguien lo diga):
*En pos de abaratar costes, refrigerar, y un uso mas orientado a juegos, la XCPU, no estan buena como podria haber sido en aspectos como para lo que has sido concebida, IA, fisicas....
*"Algunas" de estas endebles caracteristicas se subsanan con la sapiencia de los programadores y por el mercado al que va dirigido ... una consola.
* Todos los aspectos negativos de que posee el XCPU se estrapolan al PS3CELL pero por 3. La potencia de CELL para IA, Fisicas, ... es bastenate inferior a la de XCPU.
*Es la mejor CPU de consola (para la CPU lo que es de CPU y para la GPU lo que es de la GPU).

Queda por saber que ha implementado M$ en su cpu a nivel de instrunciones (alguna hay como se describe en el link).

Mis preguntas ...

*¿Un VMX-128 se puede asemejar a un SPE de CELL pero con menor independencia?.
*¿Esto queria decir que la cosa quedaría así a grandes rasgos?
1 CELL - | 1PPU=1PPC+1 VMX128 (no altivec menos rendimiento)
| 7SPE=7 VMX128 de mas rendimiento
| Thread = 1 PPU = 2 + 2 thread
| 7 SPE = 7 thread
| Total thread= 11 thread
-------------------------------------------------------
1 XCPU- | 1PPU=3PPC+3 VMX128 (no se sabe).
| Thread = 1 PPU = 6 + 6 thread
| Total thread= 12 thread.

*¿No creeís que las Cell 3.2 con 7SPEs son las Cell 4.0 con 8SPEs que no han pasado los test de calidad?

EDITADO:
*¿La CELL es una CPU + algo de GPU, como fue el EE?

Salduos
:)
deathkiller escribió:Por ejemplo la IA puedes hacerla con redes neuronales con lo que necesitarias un monton de flops, ahora eso no lo vas a ver en la mayoria de los juegos de PC (el Black and White si tiene una IA de este tipo) por que un Pentium 4 o un Athlon se moririan si le metes eso masivamente.


explicame eso, por que no veo la relación entre ramificar, y hacer calculos en coma flotante.



deathkiller escribió:Ya lo he dicho antes pero el Xenos no puede ayudar a hacer calculos a la CPU, de hecho en este articulo y en el anterior se habla mucho de la colaboriación y siempre es en un sentido -> CPU ayuda a GPU no al reves.


esto no te lo crees ni tu, campeón. Se nota que no tienes ni idea de lo que es la GPGPU, y de que Xenos es capaz de leer y ESCRIBIR cualquier cosa en cualquier parte de la memoria del sistema.
Nada macho, el asesino muerto sigue con lo mismo [qmparto]
¿Trabajará para Sony o algo? [ein]
Phellan_Wolf escribió:Nada macho, el asesino muerto sigue con lo mismo [qmparto]
¿Trabajará para Sony o algo? [ein]


nah, espero equivocarme, y lo deseo el equivocarme, pero parece el tipico niñato que se cree dios por estudiar una ingenieria, de esos que sobran en este país...

lo dicho, quiero creer que ME EQUIVOCO, por que conozco a muchos de esos...


Imagen
...pues considerando que la x360 trae la fuente aparte, a mi me parecen casi igual de tochas.

claro que el ser blanca y poderse poner de pie, marca la diferencia "queloflipassss" (TM) :-|

saludos cordiales.
shadow land escribió:
explicame eso, por que no veo la relación entre ramificar, y hacer calculos en coma flotante.

Las redes neuronales no tienen nada que ver con ramificar y demas, en una red neuronal se hacen pasar los datos por distintas capas en las que se hacen un monton de sumas y multiplicaciones en coma flotante para al final dar un numero que puedes convertir en una solucion, es algo complicado si quieres saber como funciona una red neuronal busca por tu cuenta información.

Hay muchos algoritmos para tomar decisiones distintos, cada uno tiene sus ventajas e inconvenientes segun para que lo quieras usar. Por ejemplo hacer que la IA aprenda los de busqueda no son muy utilies (solo puedes hacer que aprenda a busar más rapido pero siempre juzgara las situaciones de la misma manera).


shadow land escribió:esto no te lo crees ni tu, campeón. Se nota que no tienes ni idea de lo que es la GPGPU, y de que Xenos es capaz de leer y ESCRIBIR cualquier cosa en cualquier parte de la memoria del sistema.

Lo de leer y escribir solo aportaria velocidad de respuesta al usar la GPU de esa manera y nada más. Todas las GPU actuales las puedes usar para GPGPU pero claro eso es si no quieres usarlas para graficos. Por eso no lo vas a ver en un juego en tiempo real, por eso nunca se menciona por los creadores de juegos.
Como que Ati y microsoft ya han firmado para la próxima generación?
De donde ha salido eso?
Es que me parecería bastante extraño un acuerdo para dentro de 5 años, sin tener resultados y/o rendimientos del producto "actual".
normal que firmen con ATI, solo tienen otra opción, ya la probaron y no les gustó [+risas]
normal que firmen con ATI, solo tienen otra opción, ya la probaron y no les gustó

Bueno, no creo que no les gustase el producto en sí, (de hecho, deberían estar bastante satisfechos), sino por otros temas, más "materiales".
El caso, es que no se puede decir a dia de hoy, si con Ati, pueden estar satisfechos o no. Además, quien sabe a qué nivel estará Ati, dentro de 5 años?
Salvo que hayan suscrito un acuerdo más amplio de colaboración en I+D "permanente", algo que si que vería con buenos ojos.
deathkiller escribió:Las redes neuronales no tienen nada que ver con ramificar y demas, en una red neuronal se hacen pasar los datos por distintas capas en las que se hacen un monton de sumas y multiplicaciones en coma flotante para al final dar un numero que puedes convertir en una solucion, es algo complicado si quieres saber como funciona una red neuronal busca por tu cuenta información.

Hay muchos algoritmos para tomar decisiones distintos, cada uno tiene sus ventajas e inconvenientes segun para que lo quieras usar. Por ejemplo hacer que la IA aprenda los de busqueda no son muy utilies (solo puedes hacer que aprenda a busar más rapido pero siempre juzgara las situaciones de la misma manera).


una red neuronal no deja de ser una especie rara de arbol gigante
con interrelaciones entr elos distintos nodos, otra cosa es como tu decidas como llegar a una solución dada. Pero antes de hacer dichos calculos, debes hacer uan tarea más pesada, que la de tener que acceder de forma aleatoria a memoria, tarea MUCHO más pesada que calcular unos cuantos flops.

deathkiller escribió:Lo de leer y escribir solo aportaria velocidad de respuesta al usar la GPU de esa manera y nada más. Todas las GPU actuales las puedes usar para GPGPU pero claro eso es si no quieres usarlas para graficos. Por eso no lo vas a ver en un juego en tiempo real, por eso nunca se menciona por los creadores de juegos.


lo que tu digas... si tu lanzas un shader que apañe unas fisicas, la gráfica hará fisicas. Si lo quieres entender bien, si no, pues lo haces tu mismo... a no, caya, que hasta DirectX 10 eso en PC no lo vamos a oler y se queda en la gráfica convirtiendose en inutil! [Ooooo]
Pues mirando la foto que ha puesto Shadow me parecen las 2 igualitas, maxime si os fijais que la x360 no lleva conectado en la parte superior el HDD. De todas maneras la estetica es muchisimo mejor la de 360, sobre todo por la perdidad de volumen..

Aparte que microsoft haya decidido poner la PSU externa me parece que es porque temian tener que hacer otra "operacion cable" cuando algunas petaran.. [Ooooo] :-O
filetefrito escribió:
Bueno, no creo que no les gustase el producto en sí, (de hecho, deberían estar bastante satisfechos), sino por otros temas, más "materiales".
El caso, es que no se puede decir a dia de hoy, si con Ati, pueden estar satisfechos o no. Además, quien sabe a qué nivel estará Ati, dentro de 5 años?
Salvo que hayan suscrito un acuerdo más amplio de colaboración en I+D "permanente", algo que si que vería con buenos ojos.


por supuesto me refería a que mocosoft no le gusto de nvidia cosas como precios que acabaron en tribunales, etc.

y si mocosoft ha firmado un acuerdo a 5 años con ATI, viene a confirmar que están muy seguros de que lo que han engendrado es bueno, muy bueno... de lo contrario no me explico
Aparte que microsoft haya decidido poner la PSU externa me parece que es porque temian tener que hacer otra "operacion cable" cuando algunas petaran..


Hombre, lo mismo era tambien por temas de refrigeración.

Saludos
The Cell Processor Programming Model

von Arnd Bergmann (IBM Deutschland Entwicklung GmbH)

The Cell processor from Sony, Toshiba and IBM is this year's most awaited newcomer on the CPU market. It promises unprecedented performance in the consumer and workstation market by employing a radically new architecture. Built around a 64 bit PowerPC core, multiple independent vector processors called Synergistic Processing Units (SPUs) are combined on a single microprocessor.

Unlike existing SMP systems or multi-core chips, only the general purpose PowerPC core, is able to run a generic operating system, while the SPUs are specialized on running computational tasks. Porting Linux to run on Cells PowerPC core is a relatively easy task because of the similarities to existing platforms like IBM pSeries or Apple Power Macintosh, but does not give access to the enormous computing power of the SPUs.

Only the kernel is able to directly communicate with an SPU and therefore needs to abstract the hardware interface into system calls or device drivers. The most important functions of the user interface including loading a program binary into an SPU, transferring memory between an SPU program and a Linux user space application and synchronizing the execution. Other challenges are the integration of SPU program execution into existing tools like gdb or oprofile.

A model has been proposed to provide an interface that attempts to integrate well into the existing set of Linux system calls and enable software authors to easily integrate the use of SPUs into their own libraries and applications


The Cell Processor Programming Model
A paper will be presented by Arnd Bergmann in 22-25 June at LinuxTag 2005
Acabo de leer el hilo desde el principio y ma llebao la ostia de horas, es la ostia de interesante, pero la imparcialidad creo q a veces brilla p su ausencia, a ver si todos los xboxers q hay p aqui se relajan un poco si total al final yo creo q la diferencia entre ambas plataformas va a qdar en casi nada, sobre todo teniendo en cuenta los pocos titulos q se desarrollan aprovechando todo el potencial de una consola, los cuales se pueden contar con los dedos de las manos incluso en los ultimos años de vida de estas.

La verda es q no me esperaba q la r500 sorprendiera tanto como lo ha echo aunq siempre compre geforce por algunos detalles como el driver stereo, siempre supe q la manera de afrontar los cambios tecnologicos por parte de ati siempre fue mas "sutil" que la de nvidia, pero aun asi nunka ha habido diferencias abismales, de exo esta vez es la que mas diferencias hay entre ambas arquitecturas, sobre todo por parte de los 10 mgas dram embebidos, que casi ellos solo me han echo pensar en comprarme tb la 360 (weno eso, el precio, la release "universal" de la misma, el live quiza, y ante todo las ganas de "next gen" q creo que comparto con todos vosotros).

Hasta aora tenia segura la compra de ps3 y la posible de revolution (suponiendo claramente q el mando sea la ostia) pero a este ritmo me tendre q pillar las 3 aunq solo sea para comparar XD. Otra cosa que no me sorprende tanto hasta q lo vea con cifras marcadas por juegos es la arquitectura unificada de shaders, se le ha dado muxo bombo pero no se yo,por el contrario si me parece mas interesante la posible distancia directx 9 a 10 entre ambas GPUs.

Aun asi como nota final os digo lo siguiente si la RSX tubiera esos 10 mgas a ese peazo ancho de banda creo q la 360 se qdaria bastante p debajo de la ps3, la demas ventajas que se han ablado no me parecen para nada tan fuertes cm esa, y esto supon¡endo que esos 10 meguitas revolucionen tanto como la cifra q marca su bandwitch, que a lo mejor luego no es tanto.

Por cierto para lo del antialias y las demas cosillas q ace esa dram el rsx no se podria apoyar en los spe?.

PD: Lo unico q me jode un poco en xbox es su catalogo de juegos que para nada me parece completo aber si con fichajes cm los q se an visto en el e3 para captar japaneses va cambiando un poco esto.Ahh y me sorprenderia muxo q saliendo la ps3 bastante mas tarde c el paso de los años se viera que es algo inferior tecnicamnt aunq esto es raro no es para nada imposible.


PD2: He intentado ser lo mas objetivo posible cosa que no todo el mundo puede decir.

Un saludo y aber de aora en adelante en vez de exarnos tanto las cosas a la cara de unos a otros nos pensamos las cosas cm si no estuvieramos para nada decididos p una de ellas o cm si nos fueramos a comprar ambas, yo creo q seria mas agradable asi poder ablar sobre lo q tiene una o lo q tiene otra y ayudaria a la gente muxo mas a decidir cual pillar sobre todo a los indecisos q son muxos seguro (o al menos deberian viendo la igualdad teorica q tienen ambas maquinas).

PD3: Siento la longitud de este post pero despues de leer tanto algo tenia q decir aunq solo sea para desaogarme.
El problema es que hablar de lo que te "parece" sin saber interpretar los datos técnicos sirve más bien de poco.

P.D.: Revisa tu ortografía, a mitad del post dejé de leer, demasiado cruel para mi.
501 respuestas
1, 2, 3, 4, 511