Articulo sobre la GPU de x360 (#2)

hombre, es que en 6 meses PS3 en el mercado a le patearan el culo en potencia en PC, y probablemente a x360 tb... de salida no estaría tan seguro, dependiendo de cuando lancen los refrescos o la velocidad de la ultra...
está claro que en relativamente poco tiempo, las gpus de pc superarán a las de las nuevas consolas, quizás la xenos aguante un poco más pero un añito y gracias...

otra cosa es que para pc existan gpus y cpus tan potentes y a precios razonables, y que por encima de todo, se expriman más allá de los dos o tres títulos super-mega-cracks del momento

y para que eso ocurrá en los pcs todavía habrá que esperar 2-3 años fijo
y los de ATI siguen dando caña xDDDD

revista GameStar escribió:ATi : 360 Most Powerful Of Next Gen
Posted on Monday, June 20th, 2005

In a recent interview with German magazine Gamestar, ATi has made some of the boldest claims to date regarding the base-level power of the Xbox 360 console, for which ATi is the GPU supplier.

Perhaps offering the most in-depth look at how the 360 chip operates, ATi head of developer relations Richard Huddy said, “First and foremost we have a 'unified shader architecture'. No other console or PC chip can boast this. And what, in short, it means is that the hardware is always able to run at 100% efficiency. All previous hardware has separate vertex and pixel shaders. That means that that previous hardware just had to hope that the vertices and pixels came in just about the right ratios. If you got too many pixels then the vertex engines would be idle, and if you got too many vertices then the pixel engines would starve instead. It’s not uncommon for one part of the chip to be starved of work for a large majority of the time – and that’s obviously inefficient. With a unified architecture we have hardware that automatically molds its-self to the task required and simply does whatever needs to be done. That all means that the Xbox 360 runs at 100% efficiency all the time, whereas previous hardware usually runs at somewhere between 50% and 70% efficiency. And that should means that clock for clock, the Xbox graphics chip is close to twice as efficient as previous graphics hardware.”

Huddy went on to explain how memory can be accessed from these shaders: “Next on my list is the hardware support for directly accessing memory from within the shader units. This makes the Xbox graphics chip work in a much more flexible way than has ever been possible before. Now it’s relatively simple for a games developer to write code to do anything inside the graphics chip that they could do elsewhere. Accessing memory in arbitrary ways sounds like a very esoteric thing to do within a graphics chip, but actually it allows you to do some amazing things which mean that Xbox 360 games will be more like movies than you ever imagined. It’s so powerful that I’d say that this feature alone makes the Xbox 360 technically superior to any other console planned for the next five years.” Not a comment to please Nintendo, to whom ATi is the GPU supplier for the upcoming Revolution console.

And moving on to the question of the Revolution, it appears from the interview that ATi sees it’s long-term (two generations at least) console partner as something of a poor relation, hinting that it will not see a chip delivered with the same level of internal expectation. “It would be very handy for ATI to share [Xbox 360 GPU] information around between its various groups – but doing so would undermine the relationships that we have with the individual console companies. It’s important to Microsoft that if they suggest or request a feature in their graphics chips for their console that this doesn't automatically mean that Nintendo gets that for free too. And of course, it applies the other way round too, Nintendo needs to be able to make their hardware design without fear that it could simply be copied by Microsoft. No console company would work with us without these rules.”


fuente: xboxaddict.com

un saludo
tiene unos dias la noticia... pero a mi me esta mosqueando cosa mala el hecho de que ATi este soltando todo lo que esta soltando, y q enfatizen en que su gpu CRUJE a cualquier cosa por salir en consolas, y a cualquier cosa de PCs en un "timeframe" inmediato...

no se... es extraño esto pro parte de ATi... nunca lo había visto... y sin embargo, tb estoy mosca con nVIDIA por que no esta diciendo a todas horas que RSX CRUJE a la competencia, como suelen hacer, aunque tengan un producto inferior... [agggtt]
El cielo se nos va a caer sobre nuestras cabezas shadow, sera mejor que vayas buscando refugio [carcajad]
y no os mosquea aún más que no digan nada de la gpu para revo?
enanon, a este paso se nos cae el cielo, se abre la tierra y el universo implosionara en los proximos 5 años [qmparto]

satellite escribió:y no os mosquea aún más que no digan nada de la gpu para revo?


esta a mitad de desarrollo, como la CPU
A mi también me tiene mosqueado el silencio de Nvidia, y eso puede significar 2 cosas, o que el RSX es la repolla o que es un poco patatero, bueno aunque para decir tonterías ya tienen al señor Hype Kutaragi.
En cuanto a todo lo que suelta Ati y tal, el único que viene proclamando que Xenos se va a mear en el RSX es Richard Huddy, que no es otra cosa que un relaciones públicas, osea un payaso que si os fijáis en su última entrevista dice unas cuantas barbaridades.
Curioso curioso es lo que dice Kutaragi san, que el RSX seguirá el mismo proceso que el Cell, es decir que tendrá una cantidad de pipes determinada pero que algunos estarán desactivados
Pienso que irá con 32 pipes de los cuales desactivarán unos 4 o alguno más???? Ésto último me hace inclinarme por la propuesta de que el RSX va a ser un poquito patata.
Nadie deja que la competencia le pise..y Ndivia esta con un silencio a cuestas que me da que pensar....esto se animara dentro de nada...jejeje
Nadie deja que la competencia le pise..y Ndivia esta con un silencio a cuestas que me da que pensar....esto se animara dentro de nada...jejeje


No es por decir nada pero Ati lleva pisando a Nvidia 3 generaciones de gráficas en Pc y todo apunta a que Fudo va a patear al G70 así que no sé yo que decir, y más teniendo en cuenta que Ati lleva con la misma arquitectura todos estos años.
Phellan_Wolf escribió:

No es por decir nada pero Ati lleva pisando a Nvidia 3 generaciones de gráficas en Pc y todo apunta a que Fudo va a patear al G70 así que no sé yo que decir, y más teniendo en cuenta que Ati lleva con la misma arquitectura todos estos años.


Joder, ¿solo 3 generaciones? X-D ,

¿La arquitectura de Fudo es como la de la GPU de Xbox360?.

Si no digo que Ati no sea mejor, solo que el silencio de Nvidia con los palos que la estan dando es, como minimo, curioso....
takeda escribió:
Joder, ¿solo 3 generaciones? X-D ,

¿La arquitectura de Fudo es como la de la GPU de Xbox360?.

Si no digo que Ati no sea mejor, solo que el silencio de Nvidia con los palos que la estan dando es, como minimo, curioso....


Fudo es otra evolucion más de la 9700 original (R300), desde entonces, ATi no ha hecho si no sacar refrescos de la misma arquitectura con apaños varios y añadidos.

Lo más parecido de ATi a Xenos deberia salir para cuando longhorn, el famoso R600 si no se vuelve a cambiar de planes...
El silencio de Nvidia acaba mañana por fin, que será cuando se puedan revelar todos los NDA que hay por ahí sobre el G70 (que según parece parte del RSX y no al revé según los últimos rumores). Y muy probablemente Nvidia empiece ya a proclamar que es un tarjetón, claro hasta que Ati sauqe Fudo :Ð
no ahi no acaba el silencio pq aunq sean RSX y g70 sean parecidos no son iguales, yo esperaria a q certificaran tal cual es el RSX para tener mas datos reales q comparar.

No es por decir nada pero Ati lleva pisando a Nvidia 3 generaciones de gráficas en Pc y todo apunta a que Fudo va a patear al G70 así que no sé yo que decir, y más teniendo en cuenta que Ati lleva con la misma arquitectura todos estos años.


A mi eso me parece tu opinion, vale q con menos frecuencia se equipararan a las Nvidia pero nunka ninguna de las dos compañias estubo claramente por encima, en mi opinion siempre van a la par, con sus mas y sus menos pero a la par. Ojo esto no quiere decir q si las ati tubieran los MHz de las Nvidia no las barrerian.
shadow land escribió:
Fudo es otra evolucion más de la 9700 original (R300), desde entonces, ATi no ha hecho si no sacar refrescos de la misma arquitectura con apaños varios y añadidos.

Lo más parecido de ATi a Xenos deberia salir para cuando longhorn, el famoso R600 si no se vuelve a cambiar de planes...


Gracias por la aclaración.

¿El directx 10 sera el que vaya de la mano con Longhorn?
takeda, si, Longhorn=Windows Graphics Foundation 2.0=DirectX 10


pink_chocobo escribió:A mi eso me parece tu opinion, vale q con menos frecuencia se equipararan a las Nvidia pero nunka ninguna de las dos compañias estubo claramente por encima, en mi opinion siempre van a la par, con sus mas y sus menos pero a la par. Ojo esto no quiere decir q si las ati tubieran los MHz de las Nvidia no las barrerian.


nah, las 9800PRO o 9700PRO no aplastaban a las FX... que va...
yo espero q salga algo antes no?
pink_chocobo escribió:yo espero q salga algo antes no?


no debiera. Salvo retraso brutal, no debiera.

WGF2 ira acompañado de "especificaciones" de rendimiento para la venta de equipos. Como aquellos "MPC 2" de cuando se empezaban a ver ordenatas con cds y tarjetas de sonido...
takeda escribió:¿El directx 10 sera el que vaya de la mano con Longhorn?


si

aunque la verdad, no se para que tanto rollo de directx aplicado a xbox, si luego se lo pueden saltar como les plazca... [reojillo]

saludos cordiales
pink_chocobo escribió:A mi eso me parece tu opinion, vale q con menos frecuencia se equipararan a las Nvidia pero nunka ninguna de las dos compañias estubo claramente por encima, en mi opinion siempre van a la par, con sus mas y sus menos pero a la par. Ojo esto no quiere decir q si las ati tubieran los MHz de las Nvidia no las barrerian.


No, eso no es una opinion, es un hecho. ATI desde la 9700 ha barrido en todos los campos a nvidia (en el de diseño en 3d no lo se). No recuerdas la maravillosa 5800Ultra? Es pedazo de tarjeta que pesaba medio quilo... (por supuesto por ese pedazo de disipador/ventilador que llevaba)

Shadow, las 9700/9800 pro eran mejores que las FX de nvidia, pero las XT las dejaban en pañales...

Con esto no quiero decir que RSX sea una mierda o vaya a ser peor, si no que si sigue el mismo camino que ha seguido todas las tarjetas nvidia no igualará a la ATI.
GXY escribió:
si

aunque la verdad, no se para que tanto rollo de directx aplicado a xbox, si luego se lo pueden saltar como les plazca... [reojillo]

saludos cordiales


por que es una puta consola GXY, te lo pongo con mayusculas, q se te olvida:

CON SO LA

Si no, con lanzar otro asqueroso MSX todos contentos.
no ahi no acaba el silencio pq aunq sean RSX y g70 sean parecidos no son iguales, yo esperaria a q certificaran tal cual es el RSX para tener mas datos reales q comparar


Pues fijate que para mi si que acaba, porque la única diferencia que habrá (creo y probablemente no me equivoque si no acabre tragandome mis palabras) es que la única diferencia va a ser un core algo más rápido (porque si todavía no han dicho nada es porque no habrán alcanzado los 550Mhz proclamados), un cambio en el bus de datos y una comunicación con el Cell para que éste le ayude en tareas gráficas, que me parece se va a quedar un poco manco respecto a Xenos. Pero bueno, ya veremos cuando salga.
vale en las fx nvidia la cago sobre todo en la 5800.

"MPC 2" q recuerdos jeje.

Y yo decia q igual sale antes el dx 10 no el longhorn o fijo q no?
takeda escribió:Noticia sobre la memoria:

Noticia en El Mundo


eso no tiene relacion alguna con todo esto... :-?
shadow land escribió:
eso no tiene relacion alguna con todo esto... :-?


Hombre, podría ser la memoria que monte X360.
Maxtorete escribió:
Hombre, podría ser la memoria que monte X360.


nope

Imagen


Aparentemente, RSX es un G70 con overclock, y DaveBaumman (con buenas relaciones con nvidia y ATi, pero especialmente con la ultima) ha dicho que los datos del chip de ATi son incorrectos...

empieza la fiesta... pero no me impresiona el G70.
Ya lo ha puesto CapiXbox en este hilo



Rendimiento de la G70:


Imagen
Imagen
Imagen
Imagen

La cosa con doom3 no pinta demasiado espectacular

la G70 es entre un 10-30% más potente que la 6800 :-?
A ver en que queda la cosa. La verdad es que un rendimiento de un 10~30% mas que una 6800U me parece muy bajo. Aunque si no me equivoco RSX tiene que ir a 550Mhz y el G70 va a 430 Mhz.
Jur...

También habría que ver cuanto daría una 7800 con un cell y no con un Intel o un AMD.

Un saludo.
doom 3 no esta limitado por CPU, si no por GPU, especialmente de pixeles, es lo que tiene DOOM 3, q achicharra cualquier GPU q le plantes, si eso es lo mejor que puede hacer nvidia...

me cayo mejor.
Las especificaciones de la tabla comparativa de Xenos no es que esten mal, es que están peor.
Bueno me parece que se veía venir lo de Nvidia, pero que triste, sirve de algo haber dicho "ya lo dije". Ahora queda ver en cuanto se queda el overclock (que bonitos los días en que se decía que el NV2A iría a 300Mhz).
En fin Nvidia suma y sigue. [lapota]
Shadow, iluminame un poco tio que me he perdido.

Ahora cual se supone que es mejor de las dos GPU's, la de la X360 o la de la PS3??

Gracias tio.

Un saludo.
mecro escribió:Shadow, iluminame un poco tio que me he perdido.

Ahora cual se supone que es mejor de las dos GPU's, la de la X360 o la de la PS3??

Gracias tio.

Un saludo.


A esto puedo contestar y todo, la mejor grafica sigue siendo la de X360
Ale suavemente dicho, y como diría Shadow (más o menos), Xenos le pasa las manitas al RSX pero que a base de bien y ni se inmuta.
Decir que los datos de Xenos están mal (por obviar, han obviado la edram en fin), y ale no esperéis más de un 70% en el rendimiento del RSX como mucho.
Phellan_Wolf escribió:Ale suavemente dicho, y como diría Shadow (más o menos), Xenos le pasa las manitas al RSX pero que a base de bien y ni se inmuta.
Decir que los datos de Xenos están mal (por obviar, han obviado la edram en fin), y ale no esperéis más de un 70% en el rendimiento del RSX como mucho.


y para evitar trolleos o incompetencia, decir que una arquitectura "tradicional" de shaders separados, suele rendir al 50% de su capacidad, y con MUCHA suerte, sobre pasa el 60% de supotencia bruta teórica.

Ahora bien, con shaders unificados se supone que se puede alcanzar el 100% del rendimiento con codigo optimizado... esta por probar, pero la teoría es lo que dice.
y kien pollas da esos numeros falsos xk la verdad k ami m han desconcertado bastante, cualkiera k lo lea esta claro k pensara k la g70 tritura a xenos.

salu2
keox escribió:y kien pollas da esos numeros falsos xk la verdad k ami m han desconcertado bastante, cualkiera k lo lea esta claro k pensara k la g70 tritura a xenos.

salu2


ese chart proviene de nVIDIA y de sus conjeturas sobre lo que "es" Xenos, pero claro, ahí falta mogollon de cosas como la EDRAM o toda la lógica no programable que usa ATi (y que no cuenta) para ciertas operaciones, y q en nvidia la tienes q llevar via shader...

en fin.
keox escribió:y kien pollas da esos numeros falsos xk la verdad k ami m han desconcertado bastante, cualkiera k lo lea esta claro k pensara k la g70 tritura a xenos.

salu2


La verdad es que esa tabla deja desconcertado a cualquiera que no conozca los datos de cada una de las GPUs. A saber quien ha dado los datos, pero bueno, es lo que suele pasar, unas paginas/revistas tiran para un compañia y otras para otra.

Vale, ya he visto lo que shadow a posteado... joder con nvidia... [+risas] [+risas]
Además Nvidia suma anchos de bandas internos, que si hacemos eso con Xenos ale suma 256GB/s, pero lo mejor no es eso, lo mejor es que todavía quedan NDA's sobre Xenos.
En fin, a Nvidia le encanta como siempre poner mucho numérito, lo que les gusta el humo............
suele rendir entre el 50% y el 70% de media y son datos dados por ATI. La gran diferencia estara entre lo juegos desarrollados especificamente para ps3 q si podran exprimir bastante mas q el 70% y los simples ports q igual solo llegan al 50%. Todo depende de los programadores y de como se extrujen la cabeza eso si con shaders unificados es mas facil sacar mas rendimiento a la maquina.

Por cierto ademas de la pagina japonesa esa no hay nada en ingles?no sabeis ningun link en ingles?
pink_chocobo escribió:suele rendir entre el 50% y el 70% de media y son datos dados por ATI. La gran diferencia estara entre lo juegos desarrollados especificamente para ps3 q si podran exprimir bastante mas q el 70% y los simples ports q igual solo llegan al 50%.


no, es algo real, una gráfica "normal" nunca rendira al maximo ni queriendo.

Si te pasa de pixeles, los vertex se quedan paraos, y si te pasas de vertices, los pixeles se quedan parados.

Cuando no es por exceso, es por defecto, y una arquitectura tradicional, siempre rendira un maximo de un 70% en condiciones 100% optimas. Es el problema de que el vertex y el pixel, vayan en unidades independientes y estan tengan que hacer una tarea 100% coordinada.
y me pregunto... despues de que nvidia haya soltado esas barbaridades que no hacen otra cosa que descalificar la grafica de ATI, estos se quedan callados? porque ademas supongo que sera ilegal dar datos falsos en detrimento de otra compañia...
una pregunta sadowland,que es lo que creo entender,pero no me queda del todo claro,los vertex son mas jodios de trabajar y en las arquitecturas de vertex y pixeles separaos siempre tienen que trabajar uno a uno osea un vertex por un pixel?asi que si es mas facil usar pixel, en la arquitectura unificada podriamos usar 4 pixel y un solo vertex?esque en esto es donde toy un poco liao
es más facil el vertice q el pixel. Pero el tema esta en que una de las dos unidades esat saturada, la otra se "bloquea".

En el shader unificado, si tienes un 90% de carga sobre pixeles, y el 10% sobre vertices, eso es lo que tendras, y la unidades de pixeles no se bloqueara por sobretarea, y la de vertices no se bloqueara por que la otra esta saturada


una perlita de DeanoC de Beyond3D (programador de Ps3, es el de Heavenly Sword...):

XeCPU es capaz de rendir al 80% en cuanto a "software render engine" (ayudar a la GPU) cuando se compara a CELL en formato general, y dependiendo del tipo de datos de origen, igualarle al 100%


Ale, otra pelita más, y eso de alguien que tiene un juego financiado por Sony Europa :S
es más facil el vertice q el pixel. Pero el tema esta en que una de las dos unidades esat saturada, la otra se "bloquea".

Donde has leido eso? si usan un camino de datos separado q tiene q ver la carga de uno, el detrimento de rendimiento viene solo (creo) de la imposibilidad de ajustar la geometria (vertices) y las texturas (o otros procesados pixel) al numero de procesadores shaders de la maquina.

Es decir al tener un numero fijo y no estar unificados la cantidad de vertices-pixel tendria q ajustarse al numero de procesadores shaders de cada tipo lo cual es practicamente imposible conseguir de ahi el detrimento de rendimiento.

Alguien puede pasarme el link dnd el tal DaveBaumman dice los de la incorreccion de los datos d xenos?

Por cierto pienso q va a ser imposible comparar con numeros xenos VS rsx pq al tener unas arquitecturas tan distintas no habria ningun tipo de medida en la cual las dos compitan en igualdad de condiciones. Por ejemplo para hacer comparativas incluyendo la potencia de la DRAM es dificil.
a que son cargas q deben ir sincronizadas.
Weno después de la peacho decepción del RSX, sólo queda que se desvelen los NDA's que quedan de Xenos, que por fin se analice Xenon, que por lo que ha puesto ya Shadow nos podemos hacer una idea de como va la cosa ( [qmparto] encima el pavo está pagado por Sony, que si no pondría peor al Cell), y Sony y Nvidia se podrán ir corriendo con el rabo entre las patas después de vender esas peacho señales de humo [nop]
Esta vez Ati y M$ traen los debers pensados y bien hechos, Sony y Nvidia los hacen el último día, deprisa, corriendo y mal y pretenden colarlo. Ale que lo intenten con la próxima PS4 [666]
Modo ironic

Joer chicos, pareceis todos comerciales de MS [burla2]

Modo ironic off

Yo la verdad es que me da igual, para mí el fuerte serán los juegos y por ahora ya hay uno para ps3 "exclusivo" que me atrae y es el mgs4. A mi la potencia no será la que haga decantarme por una consola u otra.

Aunque ya estoy en gestiones para que me manden la X360 el día del lanzamiento, jeje.[sati]

Un saludo

PD: Phellan_wolf, sólo hay NDA's en MS, no hay ningúno para sony y nvidia??
sólo hay NDA's en MS, no hay ningúno para sony y nvidia??

Ya se ha desvelado todo prácticamente con lo del G70, lo que pasa que en lo referente al RSX queda traducirlo al inglés, pero vamos viendo lo que es el G70, el RSX no deja de ser un overclockeo apañado para un sistema cerrado y poco más.
Supongo que quedará alguno, pero todavía hay pendientes unos cuantos respecto al Xenos.De Xenon no se sabe prácticamente nada. Así que Xbox360 puede sorprender todavía más. PS3 se ha escalabrado después del hype del E3.
Y no somos comerciales de M$, lo que sucede es que la 360 es una máquina muy bien pensada, PS3 no.
Con respecto al MGS4, me parece bien, pero veo más interesante el Lost Oddisey de Mystwalker ;).
501 respuestas
14, 5, 6, 7, 811