[Rumor] Specs de Wii

Mirando en GoNintendo hay una noticia que dice que en una entrevista a Ubisoft se han dicho las specs de Wii, aqui en enlace a la entrevista: http://www.easynintendo.net/viewtopic.php?t=9

Por desgracia no es que se de muy de fiar, pero las specs que se dicen son bastante buenas, exactamente pone en relacion a ese aspecto :

"EN: How about the Wii hardware? What are the specs?
XP: Although i cannot give you exact numbers at this time i can give you a rough idea about the power of the machine. I would compare the graphics chip to somewhere inbetween the ATI Radeon X1400 and the Radeon X1600, and the CPU to between the AthlonXP 2400+ and the AthlonXP 3000+.

EN: Can you tell us how much memory at what speed the Wii has?
XP: I cannot say how much memory the Wii has, but its running at 650mhz.

EN: As we saw in many current-gen titles, 480p can result in significant jaggies. Can we expect AA and AF from Ubisoft's Wii titles?
XP: Red steel will have 4x Antialiasing and 8x Anisotropic Filtering. "

A ver si es verdad :P
Mm.. una entrevista con movil.. no sé no sé. De todas formas tampoco es que no sea creíble lo que anuncia.
hombre, si son esas specs, realmente no estaria nada mal, y de GC dopada poco tendria. El potencial de la competencia me parece excesivo, y no se le sacará demasiado partido. Estas son las specs que yo pensaba que tendria 360 antes que se anunciara oficialmente.

Lo que me parecen demasiado altas como para tener la máquina a menos de 200€
la RADEON X1600 es una mierda.
No dice que vaya a tener una X1600 sino que la potencia de la GPU oscillará sobre esa potencia Gaiden. Ahora, otra cosa es que a tí te parezca muy poco.

De todas formas, será específica es decir customizada, por lo tanto poco comparable. Luego podemos añadir que para que una GPU exalte necesita de un sistema global que sepa sacarle partido.
meloncito escribió:Aham

ELEBITS

xDD
Pretendes decir que un XP2400+ no mueve elebits? XD Que la maquina sea la ostia no implica que los juegos lo tengan que ser.

Basandome un poco en dise;o de circuitos, y suponiendo mismo procesador de GC, siendo su tecnoloia de 90 nm, la mitad que GC, da una frecuencia maxima de 1.8 GHz, siendo 4 veces m'as peque;o, cabrian casi cuatro procesadores como el de GC en el mismo espacio. Eso si, su potencia disipada seria del doble de GC.

Siendo algo m'as cauteloso, lo situaria sobre 1.1 GHz, con lo cual la potencia consumida no aumentaria mucho (si es que no se reducia, que es lo esperable de la carcasa) y quiz'a quiza dobre core, si es que se puede hacer un doble core con el gekko.

Seguramente cambiando de tipo de procesador se podria sacar m'as, pero asi seguramente la compatibilidad con GC sea total de nacimiento.

Ponle despues el deble de memoria y un procesador grafico... bueno, para este no me atrevo a pronosticar m'as allga que el de GC solo por cambio de tecnologia y tendr'as dos GC dopadas en un solo cacharro.

Aunque para mi la unidad GC dopada no tiene mucho sentido XD
Esa entrevista huele a inventada. No creo que ningun profesional ofreciese specs haciendo analogia con arquitecturas diferentes.

Gaiden escribió:la RADEON X1600 es una mierda.
Si, pero una mierda capaz de mover cosas mejores a lo que se vio en el E3. XD
Gaiden escribió:la RADEON X1600 es una mierda.


Yo la veo decente, no es que sea una bestia, pero para hacer juegos con un apartado grafico resulton ya va bien, si se sabe aprovechar.

Sobre el elebits, ni que todos los juegos tuvieran que tener unos graficos bestiales (dejando a parte si el juego es bueno o es malo). Como me gustaria ver de nuevo buenos plataformas 2D y A.G Scumm u_u.

En fin, cada cual con sus gustos [sonrisa]
maesebit escribió:Esa entrevista huele a inventada. No creo que ningun profesional ofreciese specs haciendo analogia con arquitecturas diferentes.

Bueno, eso mismo pensé yo, pero podría tener sentido si no puedes dar las reales por cuestiones de NDA.
una x1600 no sera la tarjeta mas alta de la gama para pc, pero hay que tener en cuenta que es para pc, y un pc esta realizando tareas adicionales a partes de mostrar cosas por pantalla.
Un XP2400, si se enciende un ordenador y sin ejecutar nada ya esta utilizando recursos, asique aplicado unicamente al juego y sin tareas adicionales por detras debe aumentar el rendimiento.

Es igual que si comparas un p3 a 500 mhz con la cube moviendo el resident evil4, o un metroid 2, no creo que sea comparable, son plataformas distintas, no lleva un sistema operativo con la carga de datos que lleva un windows encima.

Salu2!!
Gaiden escribió:la RADEON X1600 es una mierda.


La radeon X1600 es un CAÑON de tarjeta para renderizar a 480p y estando optimizado. Recuerda, esto no es pc con su mierda de optimización y sus requerimientos abusivos sacacuartos.
Johny27 escribió:
La radeon X1600 es un CAÑON de tarjeta para renderizar a 480p y estando optimizado. Recuerda, esto no es pc con su mierda de optimización y sus requerimientos abusivos sacacuartos.


A la radeonx1600 se la conoce funcionando en pc con su mierda de optimizacion y sus requisitos abusivos.
Y como es la única forma en la que se la conoce, así hay que evaluarla.

Y, sinceramente, es un poco pestiño, y más si tenemos en cuenta que será para que salga montada dentro de 6 meses en una nueva consola.

¿que luego resultará mejor debido a optimización, entorno cerrado, y menos resolución de trabajo etc? Pues seguro, pero eso no quita que siga siendo una tarjeta dentro de la gama baja-media.
Gaiden escribió:
A la radeonx1600 se la conoce funcionando en pc con su mierda de optimizacion y sus requisitos abusivos.
Y como es la única forma en la que se la conoce, así hay que evaluarla.

Y, sinceramente, es un poco pestiño, y más si tenemos en cuenta que será para que salga montada dentro de 6 meses en una nueva consola.

¿que luego resultará mejor debido a optimización, entorno cerrado, y menos resolución de trabajo etc? Pues seguro, pero eso no quita que siga siendo una tarjeta dentro de la gama baja-media.


una X1600 , no han expecificado cual, pero da por seguro que será la X1600XT y una X1600XT no tiene nada que envidiar a la tan vanagloriada 7600GT.
Gaiden escribió:
A la radeonx1600 se la conoce funcionando en pc con su mierda de optimizacion y sus requisitos abusivos.
Y como es la única forma en la que se la conoce, así hay que evaluarla.

Y, sinceramente, es un poco pestiño, y más si tenemos en cuenta que será para que salga montada dentro de 6 meses en una nueva consola.


Discrepo, esa gráfica en juegos nuevos tira DE MUERTE para lo que es y lo que vale. El GRAW lo ejecuta bien, el Oblivion también, etc. No se qué mas le pides a una gráfica de 130 euros. Y si, esa gráfica a 480p es una mala bestia.
Johny27 escribió:
Discrepo, esa gráfica en juegos nuevos tira DE MUERTE para lo que es y lo que vale. El GRAW lo ejecuta bien, el Oblivion también, etc. No se qué mas le pides a una gráfica de 130 euros. Y si, esa gráfica a 480p es una mala bestia.


Totalmente de acuerdo, hasta una 9700pro a 480p da bastante caña. Si el rendimiento es similar a eso no necesita nada más. Recordemos que un gráfica brutal con un micro y memoria que no acompañen es tirar el dinero y el rendimiento. Hay que hacer los sistemas equilibrados en la medida de lo posible.

La comparación con AthlonXP me ha parecido de risa. No tienen nada que ver unos procesadores y otros. Creyéndonos que es cierto ¿Quiere decir que Wii ni siquiera es multihilo? (no hablemos ya de Dual core) Es que si no la comparación no procede.

Un saludo
Yo tengo una XFX 6800 GT y bueno, without problems con todito. Eso sí, como no tengas 1GB rápido de RAM y un buen chipset de placa, a full no tira.
Además, hay que tener en cuenta que se va a aprovechar de verdad la gráfica, y no como pasa en el PC que lo hacen para algo genérico.

Las specs de una X1600XT son.

600Mhz de core
12 shaders
4 rops
5 vertex

Y luego las memorias son a elección de la consola, pero normalmente una X1600XT suele montar

256Mb Gddr3 de 1.4ns
1400 Mhz
aunque bus de 128 bits, Supongo que los de nintendo intentarán arreglar esto.

Pero vamos, como tampoco va a tener que aguantar enormes resoluciones con esos 128bits y 1400Mhz creo que irá sobrado para los gráficos que va a mostrar.

Bidule, sobre tu 6800GT, depende qué juego.

Por ejemplo, con una 6800 Ultra el GRAW va de pena, y con una X800XL o una X1600XT el juego lo puedes poner a tope que va a 30 fps, mientras que con una 6800 Ultra he visto a gente que no podía pasar de 10 fps.
tmaniak escribió:Las specs de una X1600XT son.

600Mhz de core
12 Pipes
5 vertex


No te equivoques anda, que tiene 4 rops y 12 shaders, no 12 pipes.
Johny27 escribió:
No te equivoques anda, que tiene 4 rops y 12 shaders, no 12 pipes.


Cierto, me equivoqué al leer las specs.
La verdad es que yo de tarjetas gráficas no sé mucho, con mi 9250 tiro pa´lante porque no juego con el ordenador a nada, pero lo que me extraña es que si Hollywood está siendo desarrollada por ATI desde hace años y desde CERO supongo que tendrá alguna que otras característica que la haga muy diferente a lo que nos podemos imaginar con las simples specs (velocidad, rendimiento, funciones extra, etc)

¿Para qué tantos años de desarrollo desde cero para sacar una gráfica parecida a una que ya tenían en el mercado con un poco de modificación?.
y recuerda ER_PERE que tambien se ha gastado el mismo dinero en desarrollar la GPU que Microsoft para la XBOX360, asi que si no esta a la altura potencialmente, supongo que el "secreto" que estamos todos esperando seran unas fisicas impresionantes, mucho mejores que cualquier otra next-gen (son suposiciones mias, a ver si ahora me empezais a decir que si la he probado, que como lo sabes... etc etc :D)

d4rkb1t
ER_PERE escribió:La verdad es que yo de tarjetas gráficas no sé mucho, con mi 9250 tiro pa´lante porque no juego con el ordenador a nada, pero lo que me extraña es que si Hollywood está siendo desarrollada por ATI desde hace años y desde CERO supongo que tendrá alguna que otras característica que la haga muy diferente a lo que nos podemos imaginar con las simples specs (velocidad, rendimiento, funciones extra, etc)

¿Para qué tantos años de desarrollo desde cero para sacar una gráfica parecida a una que ya tenían en el mercado con un poco de modificación?.


¿Porque no hace falta más? Puede que hayan investigado en integración, minituarización, refrigeración o vete tu a saber. Puede que incorpore algún que otro efecto o sea más facilmente programable.

Creo que poner un tarjetón ahí para mostrar gráficos a 480p no conduce a nada.

Un saludo
d4rkb1t escribió:y recuerda ER_PERE que tambien se ha gastado el mismo dinero en desarrollar la GPU que Microsoft para la XBOX360, asi que si no esta a la altura potencialmente, supongo que el "secreto" que estamos todos esperando seran unas fisicas impresionantes, mucho mejores que cualquier otra next-gen (son suposiciones mias, a ver si ahora me empezais a decir que si la he probado, que como lo sabes... etc etc :D)

d4rkb1t


Enlaces a lo de que se ha gastado nintendo?? Es que lo he leido como 20 veces en eol y ningúno me ha dado ni una sola fuente.

Gracias
tmaniak escribió:Bidule, sobre tu 6800GT, depende qué juego.

Por ejemplo, con una 6800 Ultra el GRAW va de pena, y con una X800XL o una X1600XT el juego lo puedes poner a tope que va a 30 fps, mientras que con una 6800 Ultra he visto a gente que no podía pasar de 10 fps.


Eso es porque Ubi Soft no optimizó el juego para tarjetas Nvidia [sonrisa]
Bidule escribió:
Eso es porque Ubi Soft no optimizó el juego para tarjetas Nvidia [sonrisa]


No, eso es porque las alus y shaders de ati son bastante más eficientes que las de nvidia.
¿como para restar 20f/s?
Pues a los que me habéis citado.....

Claro, eso creo, que algo tiene que tener peculiar la gráfica de Wii para que aún no se haya terminado o ya esté terminada partiendo de cero, pero además si la compraramos con la de la 360..... ¿A caso la de Wii no se ha terminado un año más tarde y se supone con el mismo presupuesto? Eso también juega a favor de Hollywood ¿no?.

Bueno, a ver si dan los datos que deben dar cuanto antes, además, si en Junio ya iban a recibir las empresas los DevKits finales estará por fin acabada la GPU y la GPU.
Bidule escribió:¿como para restar 20f/s?


Pues en determinados casos si. Aunque aqui tambien influye la basura de optimización.
lherre ciertamente si tendria que guardar todos los enlaces de las noticias que leo la verdad es que con 500 gigas en el PC no tendria suficiente.

Si quieres creetelo te lo crees, si no, no, pero ya te digo yo que aun cuando falta muchisimo tiempo para el E3, un trabajador o lo que fuera de ATI afirmo que se habian gastado el mismo presupuesto.

De nada.

d4rkb1t
yo de esa página ni agua. estos son los que dieron la Noticia de que el Zelda TP no iba a salir en europa para GC (y si en Japon y USA)

http://www.elotrolado.net/showthread.php?s=&threadid=553510

[qmparto] para cagarse. Vamos que lo que diga esta gente NI AGUA
No, niños!. No olvideis las palabras de Master Reggie (estoy que cambio mi avatar):

"Si habeis venido aquí en busca de gráficos 'Next-Gen', estais en el sitio equivocado... Esto NO ES la próxima (más de lo mismo) generación, es LO NUEVO".
Imagen

Con esto se desmarca de la enfermiza carrera por los gráficos cagantes.

Para defensores y detractores de Wii: Cualquier mejora EXTRAORDINARIA en el aparatado gráfico con respecto a Gamecube, para mi, es un bono y sería la estocada. Así que calma, que nos conviene a todos. Pero a mi me gustó mucho el video de Red Steel en tiempo real en E3, no se...

Playing=Believing (mi firma también necesita un retoque)
bueno si dicen que de esa web ni fiarse bueno dire que taria bien [ayay]
d4rkb1t escribió:lherre ciertamente si tendria que guardar todos los enlaces de las noticias que leo la verdad es que con 500 gigas en el PC no tendria suficiente.

Si quieres creetelo te lo crees, si no, no, pero ya te digo yo que aun cuando falta muchisimo tiempo para el E3, un trabajador o lo que fuera de ATI afirmo que se habian gastado el mismo presupuesto.

De nada.

d4rkb1t


Ya pero es que da la casualidad de que existe google y no lo he encontrado por ningún lado, ni por ejemplo metal_nazgul, y lo estuvimos buscando.

Quiero decir que puede ser (de hecho es lo que debe ser si no hay nada en ningún sitio) más rumor que otra cosa.

MS y Sony han dado cifras de los acuerdos con ATI y Nvidia y son fácilmente demostrables. Lo que me parece raro es que ya te digo lo haya escuchado como 10 o 20 veces, haya pedido fuentes a cada uno de los que lo ha dicho y no me hayan podido dar ningúna.

Raro no??
Yo siempre he considerado esa información como rumor, resultado de una *supuesta* entrevista a un empleado de ATi. En todo caso no es muy significativo decir que se hayan gastado lo mismo si pretendemos equiparar potencias.

Por lo tanto, sea verdadero o falso no indica gran cosa.

Ah y deciros que también dudo de que ATi siga trabajando en la GPU de Wii, una cosa es decir que estén trabajando en terminar el hardware en su conjunto y otra soltar que todavía están con la GPU supuestamente para aumentar su capacidad. Es decir.

Por cierto, a mí se me ha pasado algo por la cabeza, un tanto machiavélico pero aquí os lo dejo:

1º paso
Nintendo mantiene en el aire dos tipos de GPU, una razonablemente barata, y otra mas costosa pero mas avanzada y mas potente.

2º paso
Pasa el E3 y según el éxito cosechado se decide entre una u otra versión.

3º paso
Finales de Junio, todo el trabajo de hardware está listo, se procede a enviar los devkits finales a los desarrolladores.

Y los dos tipos de GPU no tendrían porque ser muy diferentes sino basar sus diferencias en elementos básicos pero esencial a la potencia de las mismas.

Ah y lo mismo podría hacerse con la RAM del sistema o su velocidad.

Think about it.
Nintendo a lo mejor se ha gastado las pelas para conseguir una GPU con un consumo muy bajo y no necesitar así esas bestias de radiadores que lleva por ejemplo Xbox360 o el que llevará la PS3. QUe eso es algo que no tenemos en cuenta.

Puede que en potencia se equipare a una X1600, pero en consumo y temperatura a lo mejor es totalmente diferente. Quien sabe si llevará transistores de menos micras, o el proceso de fabricación es diferente, etc...
Yo ya no se que pensar... pero una cosa tengo clara, que si en su momento consiguieron meter en una carcasa de GC una potencia equiparable a la d XBOX (muy superior esta en tamaño), ahora seria factible que metieran un potencia bastante superior a GC (XTS y PS3 las dejamos en otra parte :P), ya que Wii no parece mucho mas pequeña que GC, ya que el modelo final sera mas grande que el que mostraron de primeras. Que saquen una maquina menos potente por ahorrarse pelas, pos puede ser tambien, claro que si. Ya podrian soltar prenda los cerdosssssss [+risas]
tmaniak escribió:Nintendo a lo mejor se ha gastado las pelas para conseguir una GPU con un consumo muy bajo y no necesitar así esas bestias de radiadores que lleva por ejemplo Xbox360 o el que llevará la PS3. QUe eso es algo que no tenemos en cuenta.

Puede que en potencia se equipare a una X1600, pero en consumo y temperatura a lo mejor es totalmente diferente. Quien sabe si llevará transistores de menos micras, o el proceso de fabricación es diferente, etc...


Exacto, miniaturizar algo o hacerlo que consuma menos suele ser hasta más caro que aumentar potencia.

Yo siempre he defendido esa rama también.
Yep, y por consiguiente el diseño sería a costa de potencia, lo cual no me parecería bien dado que aunque me importe la forma y color de mi consola, son factores muy por debajo de lo que considero importante en una consola.

Unos centímetros mas profunda o que fuera mas alta no me hubiera importado demasiado.
Yap, como bien puse en otro hilo de estas características, x360 y ps3 son grandes no por gusto de sony o ms, si no por los costes que supondría miniaturizarlas más. En este momento claro. Luego no me extrañaría una psthree y una xbox más pequeña.
Yo creo eso también (ya lo puse en un post anterior). Creo que Nintendo ha hecho un esfuerzo muy importante en el tema del tamaño y es de agradecer. Por eso tampoco confío excesivamente en los precios excesivamente baratos.

Un saludo
MisC0 escribió:Creo que Nintendo ha hecho un esfuerzo muy importante en el tema del tamaño y es de agradecer. Por eso tampoco confío excesivamente en los precios excesivamente baratos.

Un saludo


Lo mismo se amortiza con la distribución, que también les saldrá más barata.
Gasol escribió:
Lo mismo se amortiza con la distribución, que también les saldrá más barata.


Ojalá, seguro que en parte supondrá una amortización el hecho de ocupar menos y ser más transportable y almacenable. De todas maneras no creo que sea suficiente si verdaderamente se ha invertido en "empequeñecer" componentes. Esto suele ser bastante costoso.

Un saludo
Bueno a mi de esa supuesta entrevista lo que mas me ha llamado la atencion es:
EN: Why is this target so easy to hit?
XP: The hardware is totally free of bottlenecks, nothing is slowing us down.
¿Arquitectura sin cuellos de botella? eso es una delicia para programar

EN: Could you possibly tell us anything specific about the Wii GPU?
XP: I can tell you that it has double the number of pixel pipelines (of gamecube), and that it processes physics. It really takes a huge load off of the cpu.
¿Procesa las fisicas? esto si que seria buena noticia.

EN: How much Edram does it have?
XP: 2MB for the framebuffer 2MB for the Zbuffer and 4MB for texture cache. Unfortunately I am out of time, id like to come back for another interview sometime.
2MB de framebuffer como la GC, no hay problemas, añade 2MB de ZBuffer y ¡4MB! de texture cache, eso es 4 veces lo de la GC.


Ahorra analizando lo dicho para hacer de rapel:

GPU:
8 pixel pipes.
350Mhz.
T&L totalmente programable, es decir que incorpora vertex shader.
procesa fisicas.
(Tiene un minimo de 4 veces la potencia bruta de Flipper en el tema grafico sin contar fisicas)

CPU:
1.05, 1.4, 1.75 o 2.1 Ghz. si solo va a 1.05 posiblemente es una CPU dual aunque por lo que an dicho de la CPU apuesto entre una dual a 1.05Ghz o una monocore a 2.1Ghz

ERROR, las velocidades son un poco inferiores, la gpu y el bus van a 325Mhz no a 350Mhz
Elohe escribió:CPU:
1.05, 1.4, 1.75 o 2.1 Ghz. si solo va a 1.05 posiblemente es una CPU dual aunque por lo que an dicho de la CPU apuesto entre una dual a 1.05Ghz o una monocore a 2.1Ghz


Perdona pero...en que te basas para decir todo eso?
NaNdO escribió:Perdona pero...en que te basas para decir todo eso?
Bien, dicen la frecuencia de la RAM(650Mhz), he supuesto que la relacion sera igual que con GC por lo tanto la frecuencia del bus de sistema = a la frecuencia de la GPU = 1/2 de la frecuencia de ram=350 Mhz. bien ahora tomo la frecuencia del bus del sistema y supongo que sera como minimo 1/3 de la frecuencia de CPU como en la GC, por lo que tomo 4 multiplicadores:
3 = GC, 350Mhz*3=1.05Ghz
4 350Mhz*4 =1.4Ghz
5 350Mhz*5=1.75Ghz
6 350Mhz*6=2.1Ghz.

Ahora dicen que la potencia de la CPU esta entre la del AthlonXP 2400+ del AthlonXP 3000+. De esto teiendo en cuenta que el IPC de Gecko es similar al de los AthlonXP y Athlon64(no es un micro OOO pero si superescalar y hablamos de codigo optimizado por lo que el OOO pierde eficacia) y Broadway esta fuertemente basado en Gecko, asumo que la frecuencia sera muy similar a la de estos o alguna conbinacion que los hace similares, y tomando estos datos:

AthlonXP 2400+ 2Ghz 256KB de cache.
AthlonXP 3000+ 2417Mhz 256KB de cache.
AthlonXP 3000+ 2167Mhz 512KB de cache.

Por esto asumo o que va a 2.1Ghz o es un dual a 1.05Ghz

ERROR, las velocidades son un poco inferiores, la gpu y el bus van a 325Mhz no a 350Mhz
¿No habría sido más facil compararlo con un PPC?
Elohe escribió:...

Vaya pedazo de explicación :p
¿Diran algún dia las specs?
Lo que dices Elohe seria asi... suponiendo que esos datos son verdaderos y bien prporcionados, claro.

Mis calculos están basados en el único dato conocido del procesador, tecnologia de 90 nm. Bueno, y que su arquitectura seria similar sino la misma.

Eso es la mitad de GC, 1/4 de su superficie, 4 veces su frecuencia y doble consumo. Eso daba cerca de 1.8 GHz y hasta cuatro cores en un procesador del tamaño del de GC.

Como supongo que querran optimizar el consumo, supongo que le reducirian las tensiones de trabajo, con lo cual podria quedar sobre 1.1GHz (900 MHz siendo muy estricto), un consumo algo menor que GC (quizá la mitad). Y suponiendo que no le meten 4 cores, mas bien dos asi como mucho. El espacio sobrante quizá lo usen para cachés u otras cosas (calculos vectoriales para tratamiento de señal de los mandos?).

El procesador gráfico suponiendo que fuera similar podria obtener un salto similar, y luego ya la RAM de el doble, quizá.
58 respuestas
1, 2