GPU Wii vs GPU Xbox

1, 2, 3
Muchos han sido los desarrolladores que han comparado a Wii con Xbox (1) diciendo que son parejas en potencia o incluso que la primera xbox era mejor.

Si nos ponemos a analizar ambas máquinas vemos como Wii es superior tanto en memoria ram como en procesador, así que el problema de Wii está en su GPU.

Por tanto la pregunta es:
¿Cuales son las características de la GPU de Wii? ¿Trae mejoras respecto de la GPU de GC? ¿Cuales?
¿Que hace tan inferior a la GPU de Wii respecto a la de la Xbox original?

Nada más, gracias.
1º no se saben a ciencia cierta las caracteristicas tecnicas de la gpu de wii.
2º es mejor que la de gc, es mas rapida y tiene nuevas instrucciones
3º respecto a comparar con la de xbox no se puede ya que no se sabe suficiente informacion.
Una pregunta, si no saben que potencia tiene la GPU, como van a programar para ella ¿Con, a ver que sale y si tira en la wii?. Yo creo que los desarrolladores saben cual es la verdadera potencia de ésta.

un saludo
elokillo escribió:Una pregunta, si no saben que potencia tiene la GPU, como van a programar para ella ¿Con, a ver que sale y si tira en la wii?. Yo creo que los desarrolladores saben cual es la verdadera potencia de ésta.

un saludo


Se refieren a que no se conocen públicamente, pero está más que claro que los desarrolladores conocen las características internas de la consola. Sino, menudo cachondeo, no? (o quizá eso explicaría muchos bodrios [sonrisa] )
¿Acaso no se filtraron los specs finales de Wii? Si precisamente hubo un hilo con 50 páginas comentando la noticia.
Otra cosa de las GPU... ¿es cierto que la de Wii tiene 2 TEVs? ¿Y eso en qué se traduce?
MEEEEEEEEEC:
Uno de los productores de EA, (FIFA concretamente) ha dicho, que si bien la CPU es tan potente como la de Xbox, la GPU sale perdiendo porque en Xbox podías hacer cosas como Shaders y en Wii no.

LINK
¿Como que ha dicho que la CPU de Wii es tan potente como la de la Xbox? Pero si por todos es sabido que en términos de CPU la Xbox es MUY inferior a Wii.
En cuanto a que Wii no permite shaders... bueno, yo por lo pronto sé que con el TEV se pueden conseguir efectos como normal mapping y ya con la GPU de GC se podian conseguir muchos efectos.
freezamite escribió:¿Como que ha dicho que la CPU de Wii es tan potente como la de la Xbox? Pero si por todos es sabido que en términos de CPU la Xbox es MUY inferior a Wii.
En cuanto a que Wii no permite shaders... bueno, yo por lo pronto sé que con el TEV se pueden conseguir efectos como normal mapping y ya con la GPU de GC se podian conseguir muchos efectos.

Pues eso ha dicho.
De todas formas EA no son los reyes de la optimización, asi que puede ser un comentario un poco ligero.

Desde luego lo de la GPU me lo creo porque visto lo visto...
No digo que no llegue a rendir tanto como xbox, digo que si es inferior, hay que currarselo más para que los juegos queden resultones o a la altura de XBox, y de momento, parecen no estar por la labor.
Hombre, que cuesta mas trabajo en la GPU de Wii hacer lo mismo que en la de Xbox es lógico. La de xbox usaba lenguaje de PC y todos los programadores sabian como hacer los efectos. Sin embargo en la GPU de GC, al correr los efectos a través del TEV los programadores tenian que aprender, y vistas las ventas de GC en todo el mundo, prefirieron tirar de ports directos de PS2.
Ahora cuando PS2 muera, veremos qué tal se trabaja con la GPU de Wii.
De todos modos tenia entendido que se sabian ya los datos del GPU de Wii, o por lo menos algunas cosas que esa mejoraba respecto de la GPU de GC.
¿Alguien las sabe?
Segun la wikipedia ingles: "TEV "Texture EnVironment" engine (similar to "pixel shader")"
Euler escribió:MEEEEEEEEEC:
Uno de los productores de EA, (FIFA concretamente) ha dicho, que si bien la CPU es tan potente como la de Xbox


Eso por mucho es lo hayan dicho es simplemente mentira. Xbox tiene un Celeron de 733 MHz que es de por sí bastante inferior al CPU de GC (un señor Power PC de 64 bits a 485 MHz). Luego por razones evidentenes el CPU de Wii es extremadamente superior al de XBOX al ser muy superior al de Cube.
Pregunta de ignorante: ¿En qué consiste el efecto "shader"?
Mmmm, los shaders se podria decir que son procedimientos para dotar a un objeto distintos comportamientos frente a cambios de camara, de luz, etc...

Ejemplos de shaders preprogramados son el bump mapping, environment mapping (reflejos en coches...), luz difusa, luz directa...

La GPU de wii tiene shaders fijados, como pueden ser los anteriores, pero no permitirian programarse para un comportamiento distinto. Es decir, no nos podriamos inventar un material X y definir un modo de comportamiento frente a una luz como nos de la gana, tendriamos que usar un modo predefinido. En xbox el programador puede programar este comportamiento como le de la gana, creando otros tipos de bump mapping no definidos, efectos de luz, sombras, etc...

Ejemplo de shader specular MUY usado en Wii (fairy shader), q puso de moda el shadow of the colossus.

Imagen
Imagen
Pues en cuanto a gráficos si lo cosa no cambia mucho lo mejor que veremos para wii es el resident evil 4, en graficos xbox ha mostrado maravillas, ninja gaiden, cronicas de riddick ect. El éxito de la wii es su jugabilidad y la llegada a un público que nunca habia probado una consola de videojuegos, no espereis maravillas gráficas.
Muchísimas gracias meloncito (así dicho suena cursi de narices [666] ). Te has currado perfectamente el ejemplo. Supongo que la mayor libertad para desarrollar efectos de shader distintos a los predefinidos darían a los juegos de wii un aspecto muchísimo menos alejado del que poseen las otras dos consolas de la generación actual (salvando, claro está, las distancias).
Meloncito, no sé muy bien cómo, pero se dijo que con los shaders que lleva programados la wii se podía emular cualquier tipo de shader, y que actualmente nintendo está trabajando en un "conversor" de cualquier shader que puedas hacer en PC a shaders aceptados por wii.

Por tanto, eso de que los shaders no son programables es sólo una excusa de desarrolladores vagos (véase EA [rtfm] ) e incluso, al utilizarse shaders predefinidos, quizá consuma menos recursos que shaders programables
Mirad, la unica diferencia entre la GPU de Wii y la de Xbox es que la de xbox ya tenia implementada la funcion de los shaders, mientras que la de Wii no.
¿Significa esto que la GPU de Wii es peor?, en absoluto, lo que pasa es que hay que programar los shaders para la GPU Wii, cosa que por lo visto las vagazas de las thirds no les sale del rabo hacer.
meloncito escribió:Mmmm, los shaders se podria decir que son procedimientos para dotar a un objeto distintos comportamientos frente a cambios de camara, de luz, etc...

Ejemplos de shaders preprogramados son el bump mapping, environment mapping (reflejos en coches...), luz difusa, luz directa...

La GPU de wii tiene shaders fijados, como pueden ser los anteriores, pero no permitirian programarse para un comportamiento distinto. Es decir, no nos podriamos inventar un material X y definir un modo de comportamiento frente a una luz como nos de la gana, tendriamos que usar un modo predefinido. En xbox el programador puede programar este comportamiento como le de la gana, creando otros tipos de bump mapping no definidos, efectos de luz, sombras, etc...

Ejemplo de shader specular MUY usado en Wii (fairy shader), q puso de moda el shadow of the colossus.

Imagen
Imagen


Me ha encantado tu post, has dicho EXACTAMENTE lo que es y lo que hay ;). Creo que con ese post YO ya daría por finalizado el hilo con la pregunta "GPU Wii VS GPU XBox".

the_amo, tienes razón en una cosa; lo que no pueda ser iniciado por una simple función preprogramada por la GPU puede ser programada por software. El problema de esto es el rendimiento. Al no ser procesado nativamente por la GPU... el rendimiento "para otras cosas" caería en picado con determinados shaders emulados por software. YO usaba hace mucho tiempo una utilidad de Tom's Teawers Hardwares (o algo así) para poder emular determinados efectos gráficos actuales en tarjetas gráficas que no tenían incorporados esos efectos (¿DirectX 10 en una GeForce 6200).
PD: Pufff, la de veces que me he tenido que pelear con esa tetera xD, y mira que la he maldecido miles de veces; pues todabía no se ha roto¬¬. Habrá que empezar a usar ahora como ejemplo el modelo famoso del coche o el teléfono antiguo para programar shaders xD.
¿Pero no decian precisamente que los TEV eran mas versátiles gracias a no se qué característica que permitia hacer mas de una operación sin tener que esperar a un nuevo ciclo de reloj? (Era algo así mas o menos....)
¿Como se entiende que entonces que no se puedan programar?
Es más... ¿Que es el TEV?
Quiero aclarar un mal entendido sobre la GPU de la GC que afectan a la Wii y es que Flipper posee una arquitectura hibrida donde se combinan una unida T&L fija junto a una unidad de procesado de texturas totalmente programable (TEV).

Los TEV son combinadores de color al igual que lo "Pixel Shaders" pero a diferencia de estos añaden la parte de lectura de texturas y parece ser que algunas funciones fijas de uso comun(de esto no estoy seguro). Los TEV y los PS que incorpora la NV2A son como la noche y el dia, los PS-NV2A tienen algunas instruciones mas que el TEV por otro lado el TEV permite hacer muchas cosas en una sola parada para las que en los PS-NV2A se necesita hacer varias pasadas.

Al ser arquitecturas tan diferentes y que logran cosas tan parecidas no son faciles de comparar, mientras el diseño de la NV2A se centro alrededor de la potencia el del Flipper se centro alrededor la la sencillez de uso y la eficiencia.

Asi que al ser Hollywood un eredero directo de Flipper, con mas potencia y funciones, no se puede decir que sea realmente inferior al NV2A, aunque lo sea en algunos aspectos concretos(PS y VS) y que encima en alguno de estos sea algo dudoso que realmente lo sea(PS).

PD. freezamite la funcion a la que te refieres es su capacidad de leer una en cualquier momento del shader a diferencia de los PS-NVA que solo puede leer por narices al inicio de la ejecucion de shader antes de ejecutar cualquier otra instruccion que no sea de lectura.
La pena Elohe de eso que comentas esk tal y como está el negocio formado por las distribuidoras, los desarrolladores no se esforzarán en programar nuevas funciones para un hardware, sino que usan las funciones ya programadas por la empresa del hardware que distribuye por los SDK. Por mucho o poco hardware que haya, creo que verdaderamente las personas que deciden qué hacer son los desarrolladores; pero que el método actual de sacar títulos con renombre y publicidad potentosa en el menor tiempo posible para poder relizar segundas partes está dañando mucho al sector. Ya apenas hay desarrolladoras que se preocupan por desarrollar cosas nuevas. La mayoría sólo cogen la fórmula, y en muchos casos el propio "motor" ya desarrollado, para hacer remezclas, y no les importa otra cosa que conseguir una licencia de algo que llame la atención o conseguir el apoyo de una distribuidora para poder desarrollar sus productos.
Creo que el actual sistema de negocio está/estaba dañando seriamente el sector. Y pasos como Nintendo de innovar y FORZAR a innovar son muy bien recibidos y deberían de ser alabados y menos criticados.
No quiero escribir mucho que si el texto parece "tocho" nadie lo lee :P. (Aunque prefiero que sólo lo lean dos o tres, pero que lo lean con ganas).
malosa escribió:Eso por mucho es lo hayan dicho es simplemente mentira. Xbox tiene un Celeron de 733 MHz que es de por sí bastante inferior al CPU de GC (un señor Power PC de 64 bits a 485 MHz). Luego por razones evidentenes el CPU de Wii es extremadamente superior al de XBOX al ser muy superior al de Cube.

No es el tema exactamente del hilo pero ni la CPU de Gamecube ni de Wii son de 64 bits y realmente dudo mucho de que el Intel Celeron de la Xbox sean mucho peor que los PPC 750 que llevan las consolas de Nintendo. De todas formas, aqui lo que interesa más es la GPU y no tanto la CPU.
No sé en qué foro leí que algun fabricante de engine gráfico para Wii estaba trabajando en el tema de las conversiones de shaders (tal y como han dicho antes por aquí que hacía Nintendo).
Si eso es cierto, supongo que los demás desarrolladores de engines gráficos también intentarán igualar o mejorarlo, y quizá en un futuro relativamente corto (1 ó 2 años) podríamos tener los resultados de todo esto plasmados en juegos que serían un poquito mejores respecto a los de Gamecube. (tampoco hay que esperar maravillas)

Pero lo que realmente echo yo en falta a la GPU Hollywood es una unidad de Antialiasing básica. No haría falta que fuese 8x, solamente un poco de antialiasing para quitar esos malditos dientes de sierra de todos los bordes, que se marcan sobre todo en 480p. }:/
wii tiene 2 unidades tev, si algun dia le sacan rendimiento a 1 solo de ellas veremos efectos impresionantes....
escalibur009 está baneado por "flames, troleos y faltas de respeto reiterados"
q es eso de 2 unidades tev?????
y xq si le sacan rendimiento veriamos cosas impresionantes??

gracias
escalibur009 escribió:q es eso de 2 unidades tev?????
y xq si le sacan rendimiento veriamos cosas impresionantes??

gracias


Pregunto lo mismo por si si puede poner algun ejemplo grafico para tontos de lo que significa.

Aunque todo esto es por hacernos ilusiones, ya que aunque lo tenga no quiere decir que se use. Pero espero que pasados unos cuantos meses haya compañias que saquen gran rendimiento a la Wii.
el_Salmon escribió:No es el tema exactamente del hilo pero ni la CPU de Gamecube ni de Wii son de 64 bits y realmente dudo mucho de que el Intel Celeron de la Xbox sean mucho peor que los PPC 750 que llevan las consolas de Nintendo. De todas formas, aqui lo que interesa más es la GPU y no tanto la CPU.

Bueno, no sé yo hasta qué punto será mejor la CPU de GC frente a la de Xbox, pero 21 millones de transistores del Gekko frente a los 9 millones de la CPU de Xbox, debería ser un argumento de peso.
Si a eso sumamos que la CPU de Wii es como mínimo idéntica a la de GC (21 millones de transistores) pero a 729 Mhz (ahora la diferencia de freqüencia con la CPU de Xbox es solamente de 4Mhz) tenemos que Wii sí tiene una CPU ampliamente superior.
Y eso contando con que no tenga ni un simple transistor de más.
freezamite escribió:Bueno, no sé yo hasta qué punto será mejor la CPU de GC frente a la de Xbox, pero 21 millones de transistores del Gekko frente a los 9 millones de la CPU de Xbox, debería ser un argumento de peso.
Si a eso sumamos que la CPU de Wii es como mínimo idéntica a la de GC (21 millones de transistores) pero a 729 Mhz (ahora la diferencia de freqüencia con la CPU de Xbox es solamente de 4Mhz) tenemos que Wii sí tiene una CPU ampliamente superior.
Y eso contando con que no tenga ni un simple transistor de más.

Lo importante no es el tamaño sino como lo usas [sonrisa]
wii la tendrá más grande, pero de momento no lo demuestra.
el_Salmon escribió:No es el tema exactamente del hilo pero ni la CPU de Gamecube ni de Wii son de 64 bits y realmente dudo mucho de que el Intel Celeron de la Xbox sean mucho peor que los PPC 750 que llevan las consolas de Nintendo. De todas formas, aqui lo que interesa más es la GPU y no tanto la CPU.


Ya el CPU de la N64 manejaba registros de 64 bits, aunque las instrucciones eran de 32 bits. En el caso de la GC, el micro es de 64 bits y la longitud de palabra es igualmente de 64 bits, tan solo las posiciones de memoria son de 32 bits, que dada la cantidad de memoria que tiene (muy inferior a 4 GB) es lo ideal.

El en caso de Wii, se repite la arquitectura de 64 bits que tuvo GC. No es 100% de 64 bits, pero ya solo por tener los registros internos del micro de 64 bits (como pasaba en N64) el micro ya no se considera de 32 bits, sino de 64, según lo que yo he estudiado en clase.

Respecto a la potencia de los Power PC de Wii y GC, pues qué decir, si ya el micro de GC era mucho más potente que el truñaco de Celeron que llevaba la XBOX (tenían que haber puesto un AMD 900+ y no esa chufa) pues con Wii no hay comparación posible.

Del GPU por desgracia no estoy enterado, pero con que esté en consonancia con la CPU, tendremos un gran consola. Desde luego tiene 243 MHz frente a los 233 de XBOX, pero eso es lo mismo que no decir nada, ya que lo que importa es la potencia real.
malosa escribió:Ya el CPU de la N64 manejaba registros de 64 bits, aunque las instrucciones eran de 32 bits. En el caso de la GC, el micro es de 64 bits y la longitud de palabra es igualmente de 64 bits, tan solo las posiciones de memoria son de 32 bits, que dada la cantidad de memoria que tiene (muy inferior a 4 GB) es lo ideal.
As metido la pata ya que el MIPSR4300i puede ejecutar tanto instruciones MIPSI (32bits), MIPSIII(64 bits) y posiblemente MIPSII(32bits, extension de MIPSI), lo unico de 32bits de este procesador es el bus de conexion. EL Gecko esta derivado del 750CXe y es un micro de 32bits, las instruciones son de 32 bits, los registros de enteros son de 32bits, los registros y al unidad de coma flotante son unico que tiene de 64bits a aprte de posiblemente el bus de conexion, lo que no lo hace ser un micro de 64bits, si no los PII serian micros de 80bits ya que la unidad de coma flotante es de 80bits.
freezamite escribió:Bueno, no sé yo hasta qué punto será mejor la CPU de GC frente a la de Xbox, pero 21 millones de transistores del Gekko frente a los 9 millones de la CPU de Xbox, debería ser un argumento de peso.
Si a eso sumamos que la CPU de Wii es como mínimo idéntica a la de GC (21 millones de transistores) pero a 729 Mhz (ahora la diferencia de freqüencia con la CPU de Xbox es solamente de 4Mhz) tenemos que Wii sí tiene una CPU ampliamente superior.
Y eso contando con que no tenga ni un simple transistor de más.

¿que tiene que ver el numero de transistores con la potencia?

Chico, fijate bien en las especificaciones que vienen en la wikipedia de cada CPU. Estamos hablando de un micro similar a un G3 de Apple, un micro de los años noventa.
el_Salmon escribió:¿que tiene que ver el numero de transistores con la potencia?

Chico, fijate bien en las especificaciones que vienen en la wikipedia de cada CPU. Estamos hablando de un micro similar a un G3 de Apple, un micro de los años noventa.


El 750CL, que es el PPC en el cual está basado Broadway, salió el año pasado al mercado. Significo un gran avance ya que no es nada fácil llevar un micro con un pipeline tan corto a 1Ghz manteniendo el consumo tan bajo y con soporte altivec/vmx.

Por cierto, si consideras a los 750CL una tecnología de los 90s, deberías considerar del mismo modo a los Intel Core ya que están basados en los Pentium 3. [+risas]
la verdad k este hilo es bastante confuso!
israel escribió:El 750CL, que es el PPC en el cual está basado Broadway, salió el año pasado al mercado. Significo un gran avance ya que no es nada fácil llevar un micro con un pipeline tan corto a 1Ghz manteniendo el consumo tan bajo y con soporte altivec/vmx.

Por cierto, si consideras a los 750CL una tecnología de los 90s, deberías considerar del mismo modo a los Intel Core ya que están basados en los Pentium 3. [+risas]

Hombre, se le han añadido instrucciones y más SIMD pero sigue un G3 lo mires como lo mires, sin Altivec ni nada por el estilo. Un motor 125 cc. sigue siendo un motor pequeño, por mucho que lo construyas con chasis de aluminio y mejores el diseño las valvulas. Nadie dice que sea un micro malo, simplemente tiene poca potencia (respecto a los micros actuales).

Vale que el Celeron de la Xbox también tiene arquitectura años noventa pero de ahi a decir es mucho peor que los PPC 750 de Wii y GC va un trecho.
para el que no sabe lo que es una unidad tev en una consola wii o gamecube...

digamos que en temas de ordenador se habla de shaders 2.0, 3.0 o la version que sea, en xbox tambien y no se si en ps3, pero en wii y gamecube han tomado un camino diferente y lo hacen de otra manera, no es que no se pueda hacer como dice un inutil de EA, es que es complejo, el vertex shader es como un modelo prefijado y las unidades TEV requieren de aprendizage, yo diria que es como llevar un coche(shader) o llevar un avion a reaccion (TEV) pero si se le saca rendimiento se pueden ver cosas como lo que hizo factor 5 en gamecube...
Aqui uno que se ha unido a nintendo por wii, me puedes decir a que te refieres?? algun juego concreto de esta compañia?
No se refieren a ningún juego en concreto, sino a cómo está diseñada la unidad gráfica de Wii con respecto a la de Xbox1.
el_Salmon escribió:Hombre, se le han añadido instrucciones y más SIMD pero sigue un G3 lo mires como lo mires, sin Altivec ni nada por el estilo. Un motor 125 cc. sigue siendo un motor pequeño, por mucho que lo construyas con chasis de aluminio y mejores el diseño las valvulas. Nadie dice que sea un micro malo, simplemente tiene poca potencia (respecto a los micros actuales).

Es cierto, tiene poca potencia o no tam poca, pero tambien consume poco en comparacion con otros micros actuales, y sobre lo del motor de 125cc, sera un motor pequeño, pero no tira igual el que va montado en una scooter que el de una moto de competicion por mucho que tengan la misma cilindrada.

el_Salmon escribió:Vale que el Celeron de la Xbox también tiene arquitectura años noventa pero de ahi a decir es mucho peor que los PPC 750 de Wii y GC va un trecho.
Pues si, la arquitectura de los PIII es inferior a la de los PPC750, es sus tiempos los G3 a 350 era ligeramente superior a los PIII500, pero inferior a los PIII550, esto en sacado de pruebas de campo en aplicaciones reales,nada de tests sinteticos, y sin contar con la capacidad SIMD de Gekko. HollyWood es como minimo equivalente a un PIII a 1Ghz ya que añade diversas mejoras mas aun a las de Gekko.
yo diria que el hollywood es el hermano pequeño del g5
hollywood?? eso no era la gráfica??

Por cierto, y a mi que carajo me importa que consuma un pedo. No estamos hablando de una portatil...
Ups, deby de poner Broadway.
BdM escribió:hollywood?? eso no era la gráfica??

Por cierto, y a mi que carajo me importa que consuma un pedo. No estamos hablando de una portatil...


Cuando compras una consola de sobremesa no vas mirando el consumo energetico de las consolas, pero que yo sepa la Wii es la que menos chupa, y es muy importante que la cosas tengan cada vez un menor consumo, sean portatiles o de sobremesa.
En standby con el wiiconnect también consume poco? Es que está bastante caliente y ya sabemos que caliente es igual a consumo :)
Elohe escribió:Pues si, la arquitectura de los PIII es inferior a la de los PPC750, es sus tiempos los G3 a 350 era ligeramente superior a los PIII500, pero inferior a los PIII550, esto en sacado de pruebas de campo en aplicaciones reales,nada de tests sinteticos, y sin contar con la capacidad SIMD de Gekko. HollyWood es como minimo equivalente a un PIII a 1Ghz ya que añade diversas mejoras mas aun a las de Gekko.

Si, pero el Gekko a 428 MHz dificilmente será superior al Celeron 700 MHz de la Xbox, que tambien tiene instrucciones SIMD.
el_Salmon escribió:Si, pero el Gekko a 428 MHz dificilmente será superior al Celeron 700 MHz de la Xbox, que tambien tiene instrucciones SIMD.
El Gekko va a 485, los PIII ya incorporaban SIMD desde el inicio, y el Gekko es equivalente o ligeramente superior al Celeron a 733 de la xbox, aunque en teoria el celeron pueda ser superior en la practica es muy similar por la diferencia de arquitectura y la diferencia del rendimiento de estas.
Elohe escribió:El Gekko va a 485, los PIII ya incorporaban SIMD desde el inicio, y el Gekko es equivalente o ligeramente superior al Celeron a 733 de la xbox, aunque en teoria el celeron pueda ser superior en la practica es muy similar por la diferencia de arquitectura y la diferencia del rendimiento de estas.

Ok, entonces "equivalente o ligeramente superior" no es "muy superior".
Elohe escribió:Pues si, la arquitectura de los PIII es inferior a la de los PPC750, es sus tiempos los G3 a 350 era ligeramente superior a los PIII500, pero inferior a los PIII550, esto en sacado de pruebas de campo en aplicaciones reales,nada de tests sinteticos, y sin contar con la capacidad SIMD de Gekko. HollyWood es como minimo equivalente a un PIII a 1Ghz ya que añade diversas mejoras mas aun a las de Gekko.

Hombre, si ya un PPC de la época a 350 Mhz era como un P3 a 500, un gekko que incluía funcionalidades SIMD y 50 instrucciones nuevas a 485 Mhz deberia ser bastante superior a un P3 700 mhz.
Si a eso uno le añade que el procesador de Xbox es inferior en arquitectura a un PIII y que su freqüencia es solamente de 733 Mhz, uno llega fácilmente a la conclusión de que ya el gekko era superior al CPU de Xbox. A partir de ahí....

el_Salmon escribió:Ok, entonces "equivalente o ligeramente superior" no es "muy superior".

Está hablando del Gekko.
A partir de ahí, un CPU que como mínimo es como el gekko que va a 729 Mhz (244 Mhz más) pero que además sabemos que incluye características nuevas que dudo que empeoren la arquitectura del Gekko (mas que nada porque de empeorarla adiós retrocompatibilidad) sí es ampliamente superior al CELERON (que no pentium 3) de Xbox.
chimpin escribió:En standby con el wiiconnect también consume poco? Es que está bastante caliente y ya sabemos que caliente es igual a consumo :)


Consumo de las consolas y PC en juego:
Imagen


Consumo en reposo (standby ON / standby OFF en el caso de Wii, y apagados los otros sistemas)
Imagen


Yo te recomiendo que DESACTIVES EL MODO STANDBY. Además de que consume, hay gente que ha reportado que se les ha cascado la Wii por el calentón, ya que no tiene encendido ningún ventilador en ese modo (no sé si será cierto).

Artículo completo: hardcoreware
Coño con el ahorro energético de Wii, ¡¡¡¡PERO SI ESO SON 10 VECES MENOS QUE CON PS3 Y XBOX360!!!!
Por cierto freezamite, en el post #47 me atribuyes un comentario que no es mío ein? , jeje
101 respuestas
1, 2, 3