Descubierto un aumento de eficiencia energética de Wii U de 1,2 GHz a 3,2 GHz CPU

13, 4, 5, 6, 7
futuro mad max escribió:como es posible que siga abierto este hilo fake?

¿pero te has fijado quién lo ha abierto? univa, que lo conocemos todos. :)

podría haber puesto eso perfectamente en el hilo de "Nintendo quiere acabar con la idea de que Wii U no es lo suficientemente potente" o en el de debate.

De momento, sólo es un rumor infundado por alguien. Hasta que no lo confirme Nintendo, o en su defecto alguna third, es un FAKE.
superfenix2020 escribió:¿pero te has fijado quién lo ha abierto? univa, que lo conocemos todos. :)

podría haber puesto eso perfectamente en el hilo de "Nintendo quiere acabar con la idea de que Wii U no es lo suficientemente potente" o en el de debate.

De momento, sólo es un rumor infundado por alguien. Hasta que no lo confirme Nintendo, o en su defecto alguna third, es un FAKE.


Las probabilidades de que alguien confirme algo así son inexistentes. Se pueden mejorar las especificaciones del hardware de la consola, bien mediante un overclock por software (muy improbable a estas alturas), o bien por haber dejado cierto margen sin aprovechar, dentro del rendimiento óptimo de la consola (más improbable todavía).

Y por supuesto, en caso de que se diese alguno de esos casos, pensar en un aumento del clock de la CPU en un 300% es algo simplemente surrealista. El de la GPU también sería una burrada (+50%).

¿Qué sentido tendría que Nintendo hubiese capado inicialmente las frecuencias de los relojes? De ser así, los devkits que se han usado para los juegos de lanzamiento, los títulos que han llegado posteriormente, y los desarrollos para este año y para el que viene (incluidos SM 3D, Zelda, Mario Kart, Bayonetta 2, X de Monolith y el juego que esté preparando Retro), estarían igualmente capados, ya que es imposible optimizar los juegos en base a devkits cuya CPU y GPU tienen un clock determinado, y que luego corran sin problemas en consolas con especificaciones muy por debajo de esas cifras.
el problema es que más de uno se creerá el rumor este. :)
A mi lo que me parece gracioso es que ni Nintendo ni ninguna desarrolladora ha confirmado ni desmentido si la cpu corre a 1,25. Que puede ser que sea asi, pero puede tambien que no.
Pero como es un rumor que a quien entra en el foro para despotricar de la consola le viene al pelo pues entonces se da como confirmado y tiene toda la veracidad no?.
Que es fake la noticia, pues seguramente si si partimos de la base que la frecuencia del procesador es realmente esa.
al final da igual si la cpu va a 1,2 GHz o a 3,2 GHz, lo que importa es que salgan más y mejores juegos.
Aquí se leen cosas que le dan a uno ganas de sacarse los ojos XD
Podría ser que Wii U aumentara su rendimiento de 1,2GHz a 3,2GHz, ¿por qué no? ¿Y si estaba underclockeada por el tema de sobrecalentamiento? ¿Es que nadie aquí ha tenido un Pentium 4 que corría a 2GHz y lo ha "tuneado" para que vaya a cerca de 3,8GHz (a riesgo de hacerlo más inestable, eso si)? esos ventiladores extras/disipadores monstruosos que saluden!
Hasta ahí vamos bien, pero que ademas de subir su velocidad de procesamiento 2GHz se reduzca su consumo y siga siendo un mecherillo en cuanto a consumo y una nevera en cuanto a calor disipado? Eso cualquiera que tenga una minima idea de física/informática sabe que no es posible ni por asomo, vamos, viola las leyes de la física, vilmente.
christian14 escribió:Aquí se leen cosas que le dan a uno ganas de sacarse los ojos XD
Podría ser que Wii U aumentara su rendimiento de 1,2GHz a 3,2GHz, ¿por qué no? ¿Y si estaba underclockeada por el tema de sobrecalentamiento? ¿Es que nadie aquí ha tenido un Pentium 4 que corría a 2GHz y lo ha "tuneado" para que vaya a cerca de 3,8GHz (a riesgo de hacerlo más inestable, eso si)? esos ventiladores extras/disipadores monstruosos que saluden!
Hasta ahí vamos bien, pero que ademas de subir su velocidad de procesamiento 2GHz se reduzca su consumo y siga siendo un mecherillo en cuanto a consumo y una nevera en cuanto a calor disipado? Eso cualquiera que tenga una minima idea de física/informática sabe que no es posible ni por asomo, vamos, viola las leyes de la física, vilmente.


+1

En cuanto empiezas a overclockear un procesador el consumo y el calor se dispara de forma exponencial. Y dudo muchísimo que Nintendo haya lanzado su consola underclockeada.
eso es cierto. Comprobado por mi mismo. En cuanto bajas la frecuencia de una cpu, baja el consumo y el calor generado, pero si lo subes, sube exponencialmente todo.

Por lo tanto no cuadra eso de que después de la actualización ha bajado el consumo pero ha subido la frecuencia de la CPU.


O eso, o es que Nintendo hace magia. XD
nintendo cda dia se parece mas a aplle y sus procesadres magicos ....

Esta claro que la velocidad de relog no es todo , pero la wii u de potencia va sobrada para mi gusto , y la situo un poco por encima de xbox 360 (que es mas potente que ps3).

y como la potencia no lo es todo , espero que pronto empiecen a salir juegos para esta , que desde navidad vienen a cuenta gotas ...
Chuko25 escribió:
Krain escribió:Ya, pero de PS4 no se ha visto ni la carcasa... Normal que la rumorología pueda fallar más que una escopeta feria

Cierto, olvidaba q aqui solo valen unos rumores......


Pero si yo no he dejado de decir que esto no hay por donde cogerlo. Madre mía
bol@y escribió: la situo un poco por encima de xbox 360 (que es mas potente que ps3).

la gpu de la xbox 360 es más potente que la de Ps3, pero la cpu no. la cpu de la ps3 es una bestia parda, incluso más potente que la que llevará la Ps4. Pero está desaprovechada y el resto de la consola hace cuello de botella.

La gpu de la wii u es de suponer que es mejor que la de las otras dos. Faltaría plus.

pero la cpu es inferior, hasta que se demuestre lo contrario. :)
bol@y escribió:nintendo cda dia se parece mas a aplle y sus procesadres magicos ....

Esta claro que la velocidad de relog no es todo , pero la wii u de potencia va sobrada para mi gusto , y la situo un poco por encima de xbox 360 (que es mas potente que ps3).

y como la potencia no lo es todo , espero que pronto empiecen a salir juegos para esta , que desde navidad vienen a cuenta gotas ...


Obviamente Wii U es más potente que X360 y que PS3. No es una diferencia abismal, pero en términos generales si podemos hablar de que podría duplicar su potencia (muy poco, para ser de una generación posterior). La mayor diferencia a favor de Wii U la marcan la GPU, que siendo una gama baja-bajísima en cuánto a hardware de PC actual, está muy por encima de los chips de nVidia y ATI que usan PS360, y la eDRAM embebida en ésta, que casi cuadruplica en total a la existente en X360 (se baraja casi a ciencia cierta que incorpora 36/37 Mb, divididos en 32 MB (4x8) para framebuffer, y 4/5 MB que se encontraron con las micro-fotografías de ChipWorks, que en principio irían destinados a gestionar el envío de imagen al GamePad). Con estos dos puntos a favor, la diferencia respecto a PS360 y es notoria.

Los puntos débiles del hardware de Wii U son por el contrario la RAM, que aun teniendo cuatro veces más capacidad (2 GB), todo parece indicar que tiene un ancho de banda muy deficiente (12,4 GB/s) a la hora de gestionar toda esa capacidad. Se desconocen las latencias, y si las frecuencias pueden estar sometidas a alguna customización por parte de Nintendo (como la GPU y la CPU), pero es difícil que cuándo se trate de usar toda la memoria disponible, no termine generando problemas de cuello de botella. Pese a todo, no ha habido quejas en este sentido por parte de los desarrolladores (cuándo por ejemplo, sí se han quejado del clock de la CPU), y sí que ha habido alabanzas, especialmente por parte de UbiSoft, y concretamente de Michel Ancel (saga Rayman), que dijo estar encantado con el funcionamiento de la RAM y su solvencia para mover el UbiArt, muy por encima de las limitaciones de PS360. Por esto, en este tema hay muchas lagunas sin resolver, y no se puede decir a ciencia cierta que sea un punto débil (se desconoce también si la arquitectura de funcionamiento de la consola podría suplir las carencias del bus de la RAM del sistema, utilizando un uso combinado con la eDRAM y su bus ultra-rápido, pero eso es otro tema más complejo, y para tratar detenidamente).

Y también la CPU, que, repito como con la RAM, todo PARECE INDICAR que tiene un clock bastante limitado (1.24 Ghz). Aunque en este sentido, y dado que la potencia y el rendimiento de una CPU no vienen solo condicionadas por la frecuencia del reloj, Espresso tiene ciertas ventajas sobre Xenon y Cell, cómo lo son la enorme diferencia de caché L2 a su favor y una arquitectura más eficiente, ya que se ha comprobado que no se trata simplemente de un upgrade del Broadway (CPU de Wi)-, cómo sí hizo Nintendo con éste respecto a Gekko (GameCube). Obviamente se trata de una evolución de Broadway, basado igualmente en PowerPC, pero en las microfotografías de la CPU se pueden apreciar grandes diferencias en su construcción y distribución de elementos, así como una matriz de conexiones completamente diferente (más similar a la empelada en arquitecturas Power7). Por estos y otros motivos relacionados con la filosofía GP-GPU de la arquitectura de Wii U, no se puede decir que su, a priorio "inferioridad", tenga que condicionar forzosamente un menor rendimiento.

Por todos estos motivos, es evidente que Wii U es más potente que PS360, y aunque los primeros ports hayan sido bastante flojos (en su mayoría hechos de mala manera, sin reescribir código ni adaptarse a las ventajas del hardware de Wii U), y en ocasiones con peores rendimientos que en Play3 y X360, ya están llegando ports que mejoran los gráficos y el rendimiento en Wii U. Y recordemos que a diferencia de las otras, la consola de Nintendo aplica siempre V-Sync al renderizado.

Aunque bueno, de ahí a decir que va "sobrada de potencia"... hay un trecho muy largo, con el que yo no estoy de acuerdo. Igualmente no es algo que me preocupe, ya que compré Wii U siendo consciente de ello, y sabiendo que no podría competir con las next-gen en potencia bruta. Pero lo que yo quiero de una consola son grandes juegos, y estoy seguro que con Nintendo llegarán. Aunque hasta ahora os tengan casi con una mano delante y otra detrás [poraki] .

Saludos.
(lo que había escrito al final era como lo del post anterior pero mucho peor, así que +1 a GranKhan )
GranKhan escribió:
bol@y escribió:nintendo cda dia se parece mas a aplle y sus procesadres magicos ....

Esta claro que la velocidad de relog no es todo , pero la wii u de potencia va sobrada para mi gusto , y la situo un poco por encima de xbox 360 (que es mas potente que ps3).

y como la potencia no lo es todo , espero que pronto empiecen a salir juegos para esta , que desde navidad vienen a cuenta gotas ...


Obviamente Wii U es más potente que X360 y que PS3. No es una diferencia abismal, pero en términos generales si podemos hablar de que podría duplicar su potencia (muy poco, para ser de una generación posterior). La mayor diferencia a favor de Wii U la marcan la GPU, que siendo una gama baja-bajísima en cuánto a hardware de PC actual, está muy por encima de los chips de nVidia y ATI que usan PS360, y la eDRAM embebida en ésta, que casi cuadruplica en total a la existente en X360 (se baraja casi a ciencia cierta que incorpora 36/37 Mb, divididos en 32 MB (4x8) para framebuffer, y 4/5 MB que se encontraron con las micro-fotografías de ChipWorks, que en principio irían destinados a gestionar el envío de imagen al GamePad). Con estos dos puntos a favor, la diferencia respecto a PS360 y es notoria.

Los puntos débiles del hardware de Wii U son por el contrario la RAM, que aun teniendo cuatro veces más capacidad (2 GB), todo parece indicar que tiene un ancho de banda muy deficiente (12,4 GB/s) a la hora de gestionar toda esa capacidad. Se desconocen las latencias, y si las frecuencias pueden estar sometidas a alguna customización por parte de Nintendo (como la GPU y la CPU), pero es difícil que cuándo se trate de usar toda la memoria disponible, no termine generando problemas de cuello de botella. Pese a todo, no ha habido quejas en este sentido por parte de los desarrolladores (cuándo por ejemplo, sí se han quejado del clock de la CPU), y sí que ha habido alabanzas, especialmente por parte de UbiSoft, y concretamente de Michel Ancel (saga Rayman), que dijo estar encantado con el funcionamiento de la RAM y su solvencia para mover el UbiArt, muy por encima de las limitaciones de PS360. Por esto, en este tema hay muchas lagunas sin resolver, y no se puede decir a ciencia cierta que sea un punto débil (se desconoce también si la arquitectura de funcionamiento de la consola podría suplir las carencias del bus de la RAM del sistema, utilizando un uso combinado con la eDRAM y su bus ultra-rápido, pero eso es otro tema más complejo, y para tratar detenidamente).

Y también la CPU, que, repito como con la RAM, todo PARECE INDICAR que tiene un clock bastante limitado (1.24 Ghz). Aunque en este sentido, y dado que la potencia y el rendimiento de una CPU no vienen solo condicionadas por la frecuencia del reloj, Espresso tiene ciertas ventajas sobre Xenon y Cell, cómo lo son la enorme diferencia de caché L2 a su favor y una arquitectura más eficiente, ya que se ha comprobado que no se trata simplemente de un upgrade del Broadway (CPU de Wi)-, cómo sí hizo Nintendo con éste respecto a Gekko (GameCube). Obviamente se trata de una evolución de Broadway, basado igualmente en PowerPC, pero en las microfotografías de la CPU se pueden apreciar grandes diferencias en su construcción y distribución de elementos, así como una matriz de conexiones completamente diferente (más similar a la empelada en arquitecturas Power7). Por estos y otros motivos relacionados con la filosofía GP-GPU de la arquitectura de Wii U, no se puede decir que su, a priorio "inferioridad", tenga que condicionar forzosamente un menor rendimiento.

Por todos estos motivos, es evidente que Wii U es más potente que PS360, y aunque los primeros ports hayan sido bastante flojos (en su mayoría hechos de mala manera, sin reescribir código ni adaptarse a las ventajas del hardware de Wii U), y en ocasiones con peores rendimientos que en Play3 y X360, ya están llegando ports que mejoran los gráficos y el rendimiento en Wii U. Y recordemos que a diferencia de las otras, la consola de Nintendo aplica siempre V-Sync al renderizado.

Aunque bueno, de ahí a decir que va "sobrada de potencia"... hay un trecho muy largo, con el que yo no estoy de acuerdo. Igualmente no es algo que me preocupe, ya que compré Wii U siendo consciente de ello, y sabiendo que no podría competir con las next-gen en potencia bruta. Pero lo que yo quiero de una consola son grandes juegos, y estoy seguro que con Nintendo llegarán. Aunque hasta ahora os tengan casi con una mano delante y otra detrás [poraki] .

Saludos.


+1 a tamaño 72 y en negrita. Estamos viendo solo la punta del iceberg, esta claro que en cuanto a potencia parece que no tendra nada que hacer con PS4 y la nueva Xbox, pero esa no es su guerra, no tiene por qué ultraoverclockear su procesador.
En cuanto a eso ultimo de los juegos, aprovecha y ahorra, los 3DSeros la hemos tenido aparcada un buen trecho y ahora nos vamos a tener que hipotecar con los lanzamientos que hay y se preveen XD.
No sabía lo del v-sync pero es un puntazo. En PS3 al menos duele a la vista esos cortes horizontales de samurai en la pantalla, que los consoleros estarán muy acostumbrados pero leñe, los que habitualmente jugamos en PC, pica, y tela.
MistGun escribió:No sabía lo del v-sync pero es un puntazo. En PS3 al menos duele a la vista esos cortes horizontales de samurai en la pantalla, que los consoleros estarán muy acostumbrados pero leñe, los que habitualmente jugamos en PC, pica, y tela.


Pues sí, a mí me ocurre igual. Acostumbrado a tenerlo siempre activo en PC, en X360 a veces duelen los ojos con el dichoso tearing.

Y cómo decía, en la mayoría de ports que han llegado a Wii U, el V-Sync está activado de forma permanente. Muchos han hablado de que el hecho de que en juegos como el Black Ops 2, 2K13, ACIII, Batman, ME3, etc. el rendimiento fuese casi idéntico al de PS360, y en la mayoría de circunstancias con ligero mejor framerate que PS3, y algo más inestable que en X360, siginica que Wii U es igual o incluso menos potentes que éstas.

Pero nada más lejos de la realidad. Esos ports iniciales se han hecho sin apenas trabajo de adaptación al nuevo hardware, y sin aprovechar las características que hacen verdaderamente superior a Wii U. Y aun así, iguala el rendimiento, contando con que emplea el V-Sync, que supone mayor consumo de recursos, y además lo hace moviendo dos imágenes simultáneamente (TV y GamePad), que también consume recursos gráficos.

Por ello es obvio que cuándo los desarrolladores le cojan el punto al hardware de Wii U, y los estudios se curren un poco el trabajo, los resultados serán evidentes. Lo hemos visto ya con Criterion y el NFS: MW2 (los programadores dijeron estar encantados con el hardware de la consola), y todo apunta a que también mejora el rendimiento en Deus Ex: HR. Además, los juegos pensados con Wii U como plataforma base, como Rayman Legends, necesitan ser recortados y optimizados para funcionar correctamente en PS360, por la menor capacidad a la hora de manejar texturas y correr el motor de iluminación.

Saludos.
christian14 escribió:
GranKhan escribió:la filosofía GP-GPU de la arquitectura de Wii U

+1 Estamos viendo solo la punta del iceberg.


Icebergs y GPGPUs otra vez, por favor NO, pensaba que esos tiempos ya habían pasado.

Imagen
T1100 escribió:
christian14 escribió:
GranKhan escribió:la filosofía GP-GPU de la arquitectura de Wii U

+1 Estamos viendo solo la punta del iceberg.


Icebergs y GPGPUs otra vez, por favor NO, pensaba que esos tiempos ya habían pasado.


Antes de hablar, deberías de informarte sobre lo que estás diciendo.

Supongo que christian con lo de "la punta del iceberg" quiere referirse a que Wii U puede dar mucho de sí, y como es normal, estando en el inicio de su vida, todavía no se ha exprimido. Eso es ley de vida, y le pasa a todas las consolas. No hay más que ver los juegos de inicio de generación de PS360 y ver los finales.

Nada que ver con las tonterías del famoso iceberg de Wii y su posibilidad de alcanzar en prestaciones a PS360. Aquí nadie está diciendo que Wii U sea un portento, ni mucho menos. Su superioridad sobre PS360 es justita, tratándose de un salto generacional, y obviamente PS4/XBInfinite quedarán bastante por encima casi con seguridad. No hay pretensiones más allá de exprimir lo que, dentro de sus posibilidades, pueda sacar la consola.

Partiendo de ahí, creo que tu comentario es una sobrada.

Por otro lado, una arquitectura GP/GPU no es nada mágico, ni nada fuera de lugar. De hecho hablé de "filosofía", básicamente porque por pura lógica, Nintendo ha buscado un hardware dónde prime la GPU sobre la CPU. Por ello, no es de extrañar que su arquitectura de funcionamiento vaya encaminada a exprimir la GPU y la eDRAM de que dispone, liberando a la CPU en la medida de lo posible de algunas cargas de trabajo. En el mismo camino, la Wii U tiene un chip ARM independiente encargado del DSP y el SO, con lo que nos queda una CPU justa (más cumplidora en consumos, temperaturas y fiabilidad que en rendimiento), pero bien aprovechada.

Repito, no hay pretensiones más allá de esto, que por otro lado es simple lógica.
GranKhan escribió:Por otro lado, una arquitectura GP/GPU no es nada mágico, ni nada fuera de lugar. De hecho hablé de "filosofía", básicamente porque por pura lógica, Nintendo ha buscado un hardware dónde prime la GPU sobre la CPU. Por ello, no es de extrañar que su arquitectura de funcionamiento vaya encaminada a exprimir la GPU y la eDRAM de que dispone, liberando a la CPU en la medida de lo posible de algunas cargas de trabajo. En el mismo camino, la Wii U tiene un chip ARM independiente encargado del DSP y el SO, con lo que nos queda una CPU justa pero bien aprovechada.


Latte (Wii U) no tiene arquitectura GCN (Graphics Core Next), que esos sí están fuertemente orientados al procesamiento de propósito general en GPUs.

Además, el uso de GPGPU le resta potencia gráfica al sistema, si la GPU de Wii U ya tiene problemas para mover juegos a 720p (igual que PS360) ¿de dónde va a sacar potencia para dedicarla a cálculos GPGPU?
GranKhan escribió:
Antes de hablar, deberías de informarte sobre lo que estás diciendo.

Supongo que christian con lo de "la punta del iceberg" quiere referirse a que Wii U puede dar mucho de sí, y como es normal, estando en el inicio de su vida, todavía no se ha exprimido. Eso es ley de vida, y le pasa a todas las consolas. No hay más que ver los juegos de inicio de generación de PS360 y ver los finales.

Nada que ver con las tonterías del famoso iceberg de Wii y su posibilidad de alcanzar en prestaciones a PS360. Aquí nadie está diciendo que Wii U sea un portento, ni mucho menos. Su superioridad sobre PS360 es justita, tratándose de un salto generacional, y obviamente PS4/XBInfinite quedarán bastante por encima casi con seguridad. No hay pretensiones más allá de exprimir lo que, dentro de sus posibilidades, pueda sacar la consola.

Partiendo de ahí, creo que tu comentario es una sobrada.

Por otro lado, una arquitectura GP/GPU no es nada mágico, ni nada fuera de lugar. De hecho hablé de "filosofía", básicamente porque por pura lógica, Nintendo ha buscado un hardware dónde prime la GPU sobre la CPU. Por ello, no es de extrañar que su arquitectura de funcionamiento vaya encaminada a exprimir la GPU y la eDRAM de que dispone, liberando a la CPU en la medida de lo posible de algunas cargas de trabajo. En el mismo camino, la Wii U tiene un chip ARM independiente encargado del DSP y el SO, con lo que nos queda una CPU justa (más cumplidora en consumos, temperaturas y fiabilidad que en rendimiento), pero bien aprovechada.

Repito, no hay pretensiones más allá de esto, que por otro lado es simple lógica.


Efectivamente, me refería a que estamos viendo sus primeros años de vida. Y por ponerte un ejemplo, ahi tienes para comparar los primeros juegos de PS2 y el Shadow of the Colossus [rtfm]
En cuanto a lo de la GP/GPU, si AMD y nVidia estan empezando a meterle mano de manera seria y pensando en sacar en proximas generaciones GP/GPU's para PC, por algo será... No se si Wii U lleva una GP/GPU, pero no me parecería mala idea el que lo hubieran enfocado así (aunque creo recordar que llevaba una GPU basada en las AMD 4650/4670, no se, no me he leido a fondo las especificaciones de Wii U)
T1100 escribió:
GranKhan escribió:Por otro lado, una arquitectura GP/GPU no es nada mágico, ni nada fuera de lugar. De hecho hablé de "filosofía", básicamente porque por pura lógica, Nintendo ha buscado un hardware dónde prime la GPU sobre la CPU. Por ello, no es de extrañar que su arquitectura de funcionamiento vaya encaminada a exprimir la GPU y la eDRAM de que dispone, liberando a la CPU en la medida de lo posible de algunas cargas de trabajo. En el mismo camino, la Wii U tiene un chip ARM independiente encargado del DSP y el SO, con lo que nos queda una CPU justa pero bien aprovechada.


Latte (Wii U) no tiene arquitectura GCN (Graphics Core Next), que esos sí están fuertemente orientados al procesamiento de propósito general en GPUs.

Además, el uso de GPGPU le resta potencia gráfica al sistema, si la GPU de Wii U ya tiene problemas para mover juegos a 720p (igual que PS360) ¿de dónde va a sacar potencia para dedicarla a cálculos GPGPU?


Sé que Espresso no tiene arquitectura GCN, lo cuál no excluye el hecho de que se pueda orientar un funcionamiento con apoyo a la CPU. Por eso hablé de una "FILOSOFÍA GP-GPU y no de una arquitectura propiamente dicha. Y no me baso únicamente en el enfoque de liberar cálculos en la GPU. Si te fijas en el esquema principal de la consola, la propia eDRAM principal puede ser usada como caché L3 por la CPU (que también usa eDRAM en sus cachés, en lugar de vRAM), jugando con los valores que se prestan a la GPU para ROPs y framebuffer. Esta arquitectura difiere totalmente de la empelada, por ejemplo, por X360, en la cual solo el controlador de memoria de la GPU tiene acceso a la eDRAM. Es decir, de alguna manera Nintendo ha pretendido crear un hardware con una filosofía en la que el máximo rendimiento se obtiene optimizando y repartiendo muy bien el trabajo. Lo cual significa también más trabajo de desarrollo para un resultado óptimo.

Lo de que la GPU de Wii U tiene problemas para mover juegos a 720p, además de ser una mentira como un castillo, es bastante prejuicioso. Dices "igual que PS360", cuándo es obvio que la diferencia entre la HIPOTÉTICA GPU de Wii U y PS360 es precisamente el mayor de los saltos entre sus respectivos hardwares. Y para más inri, resalto HIPOTÉTICA, porque estás juzgando las capacidades de una GPU que desconoces (salvo que tengas información privilegiada). Se ha especulado sobre todo con un chip basado en el R700, pero las microfotografías dejaron patentes el altísimo grado de customización por parte de Nintendo, que lo rediseñó a conciencia y lo montó por su cuenta (de hecho los chips ni siquiera van troquelados por ATI, sino por Renesas). A partir de aquí todo serían hipótesis, tamaño de la SPUs que no concuerdan, mayor cantidad de ALUs y TMUs de las esperadas, etc.

¿En serio eres capaz de decir tan alegremente que dicha GPU tiene problemas para mover juegos a 720p, tratándose de un hardware cerrado y con el apoyo de una ingente cantidad de eDRAM?
GranKhan escribió:Sé que Espresso no tiene arquitectura GCN, lo cuál no excluye el hecho de que se pueda orientar un funcionamiento con apoyo a la CPU. Por eso hablé de una "FILOSOFÍA GP-GPU y no de una arquitectura propiamente dicha. Y no me baso únicamente en el enfoque de liberar cálculos en la GPU. Si te fijas en el esquema principal de la consola, la propia eDRAM principal puede ser usada como caché L3 por la CPU (que también usa eDRAM en sus cachés, en lugar de vRAM), jugando con los valores que se prestan a la GPU para ROPs y framebuffer. Esta arquitectura difiere totalmente de la empelada, por ejemplo, por X360, en la cual solo el controlador de memoria de la GPU tiene acceso a la eDRAM. Es decir, de alguna manera Nintendo ha pretendido crear un hardware con una filosofía en la que el máximo rendimiento se obtiene optimizando y repartiendo muy bien el trabajo. Lo cual significa también más trabajo para un resultado óptimo.

Lo de que la GPU de Wii U tiene problemas para mover juegos a 720p, además de ser una mentira como un castillo, es bastante prejuicioso. Dices "igual que PS360", cuándo es obvio que la diferencia entre la HIPOTÉTICA GPU de Wii U y PS360 es precisamente el mayor de los saltos entre sus respectivos hardwares. Y para más inri, resalto HIPOTÉTICA, porque estás juzgando las capacidades de una GPU que desconoces (salvo que tengas información privilegiada). Se ha especulado sobre todo con un chip basado en el R700, pero las microfotografías dejaron patentes el altísimo grado de customización por parte de Nintendo, que lo rediseñó a conciencia y lo montó por su cuenta (de hecho los chips ni siquiera van troquelados por ATI, sino por Renesas). A partir de aquí todo serían hipótesis, tamaño de la SPUs que no concuerdan, mayor cantidad de ALUs y TMUs de las esperadas, etc.

¿En serio eres capaz de decir tan alegremente que dicha GPU tiene problemas para mover juegos a 720p, tratándose de un hardware cerrado y con el apoyo de una ingente cantidad de eDRAM?


Por fin alguien que sabe de qué habla , mis +1 [oki]
josemayuste escribió:
GranKhan escribió:Sé que Espresso no tiene arquitectura GCN, lo cuál no excluye el hecho de que se pueda orientar un funcionamiento con apoyo a la CPU. Por eso hablé de una "FILOSOFÍA GP-GPU y no de una arquitectura propiamente dicha. Y no me baso únicamente en el enfoque de liberar cálculos en la GPU. Si te fijas en el esquema principal de la consola, la propia eDRAM principal puede ser usada como caché L3 por la CPU (que también usa eDRAM en sus cachés, en lugar de vRAM), jugando con los valores que se prestan a la GPU para ROPs y framebuffer. Esta arquitectura difiere totalmente de la empelada, por ejemplo, por X360, en la cual solo el controlador de memoria de la GPU tiene acceso a la eDRAM. Es decir, de alguna manera Nintendo ha pretendido crear un hardware con una filosofía en la que el máximo rendimiento se obtiene optimizando y repartiendo muy bien el trabajo. Lo cual significa también más trabajo para un resultado óptimo.

Lo de que la GPU de Wii U tiene problemas para mover juegos a 720p, además de ser una mentira como un castillo, es bastante prejuicioso. Dices "igual que PS360", cuándo es obvio que la diferencia entre la HIPOTÉTICA GPU de Wii U y PS360 es precisamente el mayor de los saltos entre sus respectivos hardwares. Y para más inri, resalto HIPOTÉTICA, porque estás juzgando las capacidades de una GPU que desconoces (salvo que tengas información privilegiada). Se ha especulado sobre todo con un chip basado en el R700, pero las microfotografías dejaron patentes el altísimo grado de customización por parte de Nintendo, que lo rediseñó a conciencia y lo montó por su cuenta (de hecho los chips ni siquiera van troquelados por ATI, sino por Renesas). A partir de aquí todo serían hipótesis, tamaño de la SPUs que no concuerdan, mayor cantidad de ALUs y TMUs de las esperadas, etc.

¿En serio eres capaz de decir tan alegremente que dicha GPU tiene problemas para mover juegos a 720p, tratándose de un hardware cerrado y con el apoyo de una ingente cantidad de eDRAM?


Por fin alguien que sabe de qué habla , mis +1 [oki]


[tadoramo] [tadoramo] [tadoramo] [tadoramo] [tadoramo]

ante gente asi solo cabe quitarse el sombrero
parumerochan está baneado por "crearse clon para trolear"
GranKhan escribió:
Sé que Espresso no tiene arquitectura GCN, lo cuál no excluye el hecho de que se pueda orientar un funcionamiento con apoyo a la CPU. Por eso hablé de una "FILOSOFÍA GP-GPU y no de una arquitectura propiamente dicha. Y no me baso únicamente en el enfoque de liberar cálculos en la GPU. Si te fijas en el esquema principal de la consola, la propia eDRAM principal puede ser usada como caché L3 por la CPU (que también usa eDRAM en sus cachés, en lugar de vRAM), jugando con los valores que se prestan a la GPU para ROPs y framebuffer. Esta arquitectura difiere totalmente de la empelada, por ejemplo, por X360, en la cual solo el controlador de memoria de la GPU tiene acceso a la eDRAM. Es decir, de alguna manera Nintendo ha pretendido crear un hardware con una filosofía en la que el máximo rendimiento se obtiene optimizando y repartiendo muy bien el trabajo. Lo cual significa también más trabajo para un resultado óptimo.

Lo de que la GPU de Wii U tiene problemas para mover juegos a 720p, además de ser una mentira como un castillo, es bastante prejuicioso. Dices "igual que PS360", cuándo es obvio que la diferencia entre la HIPOTÉTICA GPU de Wii U y PS360 es precisamente el mayor de los saltos entre sus respectivos hardwares. Y para más inri, resalto HIPOTÉTICA, porque estás juzgando las capacidades de una GPU que desconoces (salvo que tengas información privilegiada). Se ha especulado sobre todo con un chip basado en el R700, pero las microfotografías dejaron patentes el altísimo grado de customización por parte de Nintendo, que lo rediseñó a conciencia y lo montó por su cuenta (de hecho los chips ni siquiera van troquelados por ATI, sino por Renesas). A partir de aquí todo serían hipótesis, tamaño de la SPUs que no concuerdan, mayor cantidad de ALUs y TMUs de las esperadas, etc.

¿En serio eres capaz de decir tan alegremente que dicha GPU tiene problemas para mover juegos a 720p, tratándose de un hardware cerrado y con el apoyo de una ingente cantidad de eDRAM?

[toctoc] [tadoramo]
GranKhan escribió:¿En serio eres capaz de decir tan alegremente que dicha GPU tiene problemas para mover juegos a 720p, tratándose de un hardware cerrado y con el apoyo de una ingente cantidad de eDRAM?


En este caso hablo basándome en hechos que podemos comprobar visualmente (juegos), no existen suficientes datos como para teorizar, aunque la mayoría de gente especializada en esto opina que la GPU de Wii U podría ser un 50% más potente que la de X360.
http://www.eurogamer.net/articles/df-ha ... y-revealed

Pero lo que vemos en la realidad es que incluso los ports "bien trabajados" y con "intenciones de dejar claro que Wii U no es inferior a PS360" como el NFS Most Wanted corren a resolución sub-HD (1280x704) igual que en PS360, y en algunos casos como Sonic All Stars Transformed la versión de Wii U es la que se mueve a menor resolución.

Tampoco hemos visto juegos desarrollados nativamente para la consola a más de 720p ni moviendo gráficos superiores a los de PS360, excepto las texturas en algún que otro caso.
T1100 escribió:
GranKhan escribió:¿En serio eres capaz de decir tan alegremente que dicha GPU tiene problemas para mover juegos a 720p, tratándose de un hardware cerrado y con el apoyo de una ingente cantidad de eDRAM?


En este caso hablo basándome en hechos que podemos comprobar visualmente (juegos), no existen suficientes datos como para teorizar, aunque la mayoría de gente especializada en esto opina que la GPU de Wii U podría ser un 50% más potente que la de X360.
http://www.eurogamer.net/articles/df-ha ... y-revealed

Pero lo que vemos en la realidad es que incluso los ports "bien trabajados" y con "intenciones de dejar claro que Wii U no es inferior a PS360" como el NFS Most Wanted corren a resolución sub-HD (1280x704) igual que en PS360, y en algunos casos como Sonic All Stars Transformed la versión de Wii U es la que se mueve a menor resolución.

Tampoco hemos visto juegos desarrollados nativamente para la consola a más de 720p ni moviendo gráficos superiores a los de PS360, excepto las texturas en algún que otro caso.


Mira más allá de lo que diga Eurogamer , estás hablando de juegos desarrollados en Dev kits obsoletos
e incluso inferiores a lo que es la versión retail de la consola actualmente

todos los que están mínimamente informados de qué ofrece la consola lo saben ya

tanto por declaraciones de desarrolladores , para bien y para mal

los Kits de 2012 , ni siquiera soportaban el Gamepad , sólo control clásico de Wii...
T1100 escribió:
GranKhan escribió:¿En serio eres capaz de decir tan alegremente que dicha GPU tiene problemas para mover juegos a 720p, tratándose de un hardware cerrado y con el apoyo de una ingente cantidad de eDRAM?


En este caso hablo basándome en hechos que podemos comprobar visualmente (juegos), no existen suficientes datos como para teorizar, aunque la mayoría de gente especializada en esto opina que la GPU de Wii U podría ser un 50% más potente que la de X360.
http://www.eurogamer.net/articles/df-ha ... y-revealed

Pero lo que vemos en la realidad es que incluso los ports "bien trabajados" y con "intenciones de dejar claro que Wii U no es inferior a PS360" como el NFS Most Wanted corren a resolución sub-HD (1280x704) igual que en PS360, y en algunos casos como Sonic All Stars Transformed la versión de Wii U es la que se mueve a menor resolución.

Tampoco hemos visto juegos desarrollados nativamente para la consola a más de 720p ni moviendo gráficos superiores a los de PS360, excepto las texturas en algún que otro caso.


Esa noticia es de Febrero, y desde entonces se ha indagado bastante más en desmenuzar el hardware. Además, si te gusta la temática, te desaconsejo que te informes a través de noticias de los portales típicos, españoles o anglosajones. Mejor busca directamente en sitios como NeoGaf, o los análisis que va haciendo la gente de ChipWorks o Anandtech. Muchas veces lanzan una hipótesis inicial, que todo el mundo coge como última noticia, y sin embargo esa idea la debaten y trabajan largo y tendido, dando mucha más luz al asunto que nunca se recoge en esa noticia.

En esa noticia aparece el troquel de AMD, IBM y RENESAS en la carcasa superior del chip. Sin embargo sobre el núcleo de la GPU solo aparece la seña de Renesas (o al menos eso publicaron los que hicieron las microfotografías del conjunto). Esto se debe a que AMD/ATI es el provedor del procesador, pero Nintendo lo ha personalizado mucho, a través de su filial de montaje.


Sobre el tema de los ports, ya comenté que hasta el momento es cierto que no se han demostrado resultados. Y no cabe duda que es aquí dónde Wii U debe demostrar de qué es capaz, aunque su principal pretensión no sea la potencia gráfica. Solo Trine 2 (720p) y NFS: MW (Sub-HD) han lucido claramente mejor que en PS360. Sobre Rayman Legends, desde Ubi comentaban que Wii U no pasaba apuros con la nueva versión del UbiArt, mientras PS360 sí los pasaron para mover la antigua usada en Origin, que aunque obviamente tenía una peor optimización por estar menos evolucionada, no trabajaba con texturas en alta resolución, ni con el nuevo motor de iluminación, mucho más complejo.

No obtante, es volver a lo mismo. La consola lleva 7 meses en el mercado, osea que apenas acaba de nacer. Tenemos por delante el E3 para ver qué cosas trae la propia Nintendo. Estamos esperando a ver un poquito más del trabajo de Monolith con la secuela de Xenoblade, y sobre todo, de ver qué es capaz de hacer Retro Studios -sin duda el estudio 1st más puntero, y el que mejor puede exprimir el hardware-. Para poder sentenciar si realmente sube un escalón o dos, o por el contrario se queda en el mismo, tenemos que dejar que la consola crezca, como crecieron en su día X360 y PS3. Fíjate las diferencias que ha habido entre los inicios y el final de la generación, y éstas si llegaron al mercado con un hardware relativamente puntero (y luces rojas por doquier), y con un salto bestial respecto a sus predecesoras.

Por otro lado está el tema de los devkits, las herramientas de trabajo y su evolución. Por la gente de Criterion sabemos que Nintendo ya ha renovado sus herramientas, y que su última versión mejora notablemente las unidades con las que contaron al principio. Y tal es así, que ellos mismo dijeron que trabajarían para demostrar que Wii U puede ir mucho más lejos de lo que estamos viendo hoy en día.

Tengamos paciencia.

Saludos.
GranKhan escribió:Esa noticia es de Febrero, y desde entonces se ha indagado bastante más en desmenuzar el hardware. Además, si te gusta la temática, te desaconsejo que te informes a través de noticias de los portales típicos, españoles o anglosajones. Mejor busca directamente en sitios como NeoGaf, o los análisis que va haciendo la gente de ChipWorks o Anandtech. Muchas veces lanzan una hipótesis inicial, que todo el mundo coge como última noticia, y sin embargo esa idea la debaten y trabajan largo y tendido, dando mucha más luz al asunto que nunca se recoge en esa noticia.

si lees y te informas por neogaf...puedes resumir qué dicen allí a colación de la noticia de este hilo? (Descubierto un aumento de eficiencia energética de Wii U de 1,2 GHz a 3,2 GHz CPU).
kxalvictor escribió:si lees y te informas por neogaf...puedes resumir qué dicen allí a colación de la noticia de este hilo? (Descubierto un aumento de eficiencia energética de Wii U de 1,2 GHz a 3,2 GHz CPU).


Te lo resumo yo BS
kxalvictor escribió:
GranKhan escribió:Esa noticia es de Febrero, y desde entonces se ha indagado bastante más en desmenuzar el hardware. Además, si te gusta la temática, te desaconsejo que te informes a través de noticias de los portales típicos, españoles o anglosajones. Mejor busca directamente en sitios como NeoGaf, o los análisis que va haciendo la gente de ChipWorks o Anandtech. Muchas veces lanzan una hipótesis inicial, que todo el mundo coge como última noticia, y sin embargo esa idea la debaten y trabajan largo y tendido, dando mucha más luz al asunto que nunca se recoge en esa noticia.

si lees y te informas por neogaf...puedes resumir qué dicen allí a colación de la noticia de este hilo? (Descubierto un aumento de eficiencia energética de Wii U de 1,2 GHz a 3,2 GHz CPU).


Pasa página ya colega... se está hablando de un tema muy interesante a raiz de que todos hemos llegado al acuerdo tácito de que la noticia del topic es fake, y tú erre que erre con lo mismo. Que sí tío, que no hay un aumento desproporcionado, pero se está aportando otra información interesante.
GranKhan escribió: Y recordemos que a diferencia de las otras, la consola de Nintendo aplica siempre V-Sync al renderizado.

No siempre. Por ejemplo Darksiders 2 tiene problemas de VSync.
kxalvictor escribió:
GranKhan escribió:Esa noticia es de Febrero, y desde entonces se ha indagado bastante más en desmenuzar el hardware. Además, si te gusta la temática, te desaconsejo que te informes a través de noticias de los portales típicos, españoles o anglosajones. Mejor busca directamente en sitios como NeoGaf, o los análisis que va haciendo la gente de ChipWorks o Anandtech. Muchas veces lanzan una hipótesis inicial, que todo el mundo coge como última noticia, y sin embargo esa idea la debaten y trabajan largo y tendido, dando mucha más luz al asunto que nunca se recoge en esa noticia.

si lees y te informas por neogaf...puedes resumir qué dicen allí a colación de la noticia de este hilo? (Descubierto un aumento de eficiencia energética de Wii U de 1,2 GHz a 3,2 GHz CPU).


partimos de que el primer titular de este hilo es "descubierto un aumento de eficiencia energetica de wiiu", luego en base al rumor cambiaron el titular y no pusieron q era rumor ni nada

que que dicen?que no puede ser ese aumento
Q no puede ser es mas q evidente
T1100 escribió:
GranKhan escribió:¿En serio eres capaz de decir tan alegremente que dicha GPU tiene problemas para mover juegos a 720p, tratándose de un hardware cerrado y con el apoyo de una ingente cantidad de eDRAM?


En este caso hablo basándome en hechos que podemos comprobar visualmente (juegos), no existen suficientes datos como para teorizar, aunque la mayoría de gente especializada en esto opina que la GPU de Wii U podría ser un 50% más potente que la de X360.
http://www.eurogamer.net/articles/df-ha ... y-revealed

Pero lo que vemos en la realidad es que incluso los ports "bien trabajados" y con "intenciones de dejar claro que Wii U no es inferior a PS360" como el NFS Most Wanted corren a resolución sub-HD (1280x704) igual que en PS360, y en algunos casos como Sonic All Stars Transformed la versión de Wii U es la que se mueve a menor resolución.

Tampoco hemos visto juegos desarrollados nativamente para la consola a más de 720p ni moviendo gráficos superiores a los de PS360, excepto las texturas en algún que otro caso.

La resolución de un juego puede deberse a muchos factores. No estamos en un PC, y eso tienes que saber lo que significa. En PC todas las GPU tienen una cantidad de VRAM dedicada para si mismas, y a la que sube el modelo, suben tanto la cantidad de dicha RAM como el ancho de banda hacia la memoria, con lo que SIEMPRE se puede escalar el juego linealmente.

En el caso de WiiU vs Xbox 360 eso es distinto. El diseño de WiiU está enfocado de forma distinta al de Xbox360. En WiiU se usa un banco de memoria muy grande (2GB, aunque de momento para juegos hay disponible sólo 1GB) de memoria secundaria, pues el banco principal son los 32MB de 1T-Sram embebidos en el núcleo de la GPU.
El banco grande es por tanto un banco secundario de una memoria con un ancho de banda de 12.8 GB/s, y aunque de una memoria con una latencia inferior, con un teórico máximo inferior a los 22.4 GB/s (8.8 GB/s) que plantea unos límites que en Xbox 360 no están.

En consolas muchos juegos en Xbox360 (que por razones obvias es de donde se portean los juegos de WiiU) están diseñados con el límite de los 10MB de eDRam que tiene en un chip a parte, en donde había parte de la lógica de la GPU.
Esa memoria, además, sólo permitía funciones de escritura a un ancho de banda de 32GB/s, es decir, para leer lo que había en la eDram había que pasarlo a la memoria principal (que en Xbox 360 es el banco grande de memoria de 512MB, 480MB para juegos) que tenía una latencia considerable, y luego de ahí a la GPU.
Si se programa con ese esquema en mente, por ejemplo, haciendo tiling y renderizando el frame en dos pasadas por temas de tamaño de buffers y demás, aunque en los 32MB de eDram de la GPU de WiiU esos frames cabrían perfectamente, al estar el juego pensado para renderizarse en dos pasadas es muchísimo más rápido y fácil seguir haciendo como en Xbox 360 y recortar un poco si hace falta.

Si se programa sin modificar el engine, cosa que ha pasado en WiiU pues las herramientas finales de desarrollo no llegaron hasta Noviembre a manos de los desarrolladores, lo normal es que algunos engines que por el motivo que fuese confiaban mucho en los 22.4 GB/s del banco principal de la 360, ahora en WiiU se encuentren con un cuello de botella que entorpezca el rendimiento del resto de componentes.

De lo que la consola será capaz lo veremos en ese E3, en donde Nintendo presentará juegos diseñados con la arquitectura de WiiU en mente. Aunque como es lógico siempre se verán mejoras del mismo modo que ha sucedido en PS3 y 360 (o incluso más al tener una GPU más moderna y mucho más programable), el salto más gordo probablemente lo veremos en ese E3, en donde veremos el salto de juegos empezados en Wii u otros sistemas, a juegos diseñados con las particularidades de la WiiU en la cabeza.
jas1 escribió:
peloconcelo escribió:Te lo marco en negrita "Marcan no ha aclarado nada"
Esta "evidencia te la sacas tu de la manga "es evidente que no se trata del modo Wii" ya que como bien has dicho "Marcan no ha aclarado nada"
Marcan ha dicho cosas como que la cpu de wiiu permite ejecucion de funciones fuera de orden, una novedad de la cpu. eso lo ha tenido que averiguar desde el modo wiiu.

Eso es innecesario en el modo wii.

También ha dicho los nombres en clave que llevan los chips, como que la cpu se llama expresso y la gpu se llama leche. eso lo ha tenido que averiguar de alguna forma.

De todas formas mirar el tamaño de la cpu de wiiu:

Imagen No es que demuestre nada el tamaño pero compararlo con la gpu. Parece desproporcionado, eso si no se si sirve de algo eso, porque no se si es pequeña o grande.

Ademas la cifra que da marcan coincide con lo que se podria esperar de un procesador 750.

Ademas hay que tener en cuenta las criticas de muchos desarrrolladores sobre lo lenta que es la cpu de la wiiu.

A eso sumarle el tamaño de la fuente, sumarle el disipador y ventilador que tiene y hay muchos elementos OBJETIVOS para darse cuneta por donde van los tiros.

Lo que dice el desarrollado de tekken:
http://www.digitalspy.co.uk/gaming/news ... ducer.html

http://www.revogamers.net/noticias/wii- ... -9037.html

Lo que dice, DICE:
http://www.eurogamer.es/articles/2012-1 ... la-consola

Lo que dicen los de metro:
http://es.ign.com/news/3026/4a-games-wi ... le-y-lenta

Recopilando, tenemos:

a favor de que es una cpu que rondara lo que dice marcan:
- una disipador con ventilador pequeños, no apunta a una cpu muy potente o al menos que no deba calentarse mucho.
- una fuente muy pequeña.
- lo que dice marcan
- lo que dicen algunas desarrolladoras.
- la velocidad que dice marcan es la que se podria esperar de un procesador basado en la serie 750.
- seria una estrategia extraña sacar una consola capada de serie perjudicando muchos lanzamientos y haciendo que los juegos de serie salga capados!!!

A favor de que va a 3,2:
- un rumor que no se sabe de donde ha salido. Basado unicamente en el aumento de rendimiento de wiiu en el menu. Y que ademas en dicha información se demuestra que la wiiu consume ahora menos!!!

Con esa info que cada uno saque sus propias conclusiones.


Con esa foto has resumido todo el post .....la Wii u no lleva chip gordo de serie. [+risas] [+risas] [+risas] .

PD: Da igual, nos dará alegrías a 1,24 o a 3,2 GHz. [bye]
Que buenos últimamente los posts en este hilo. Ram, laténcias, renderizado en 2 pasos....

GRANDE!!!

Me lo estoy pasando teta! Independientemente de potencias y demás. Información INTERESANTÍSIMA!
resumen:

disipador con ventilador pequeños
fuente de alimentación muy pequeña
poco consumo, y con la última actualización menos aún
muchas quejas de las desarrolladoras de falta de potencia, sobre todo en la CPU
...

¿qué más evidencias se necesitan para saber que ese rumor es infundado, que no es real?

aunque estuviera capada la cpu de inicio, cosa muy extraña porque perjudicaría a Nintendo, si se sube su velocidad, se incrementaría el consumo eléctrico y el calor producido por el chip. Cosa que no pasa.

Soñar es gratis, pero los milagros estos no existen. Ni la magia de Nintendo existe. [rtfm]
El primer video del lego city tenia problemas de vsync, no? vamos, recuerdo imagenes partiendose por la mitad, no se como es el juego final.

Respecto al tamaño gpu/cpu, la gpu es mas grande pq en su interior alberga los 32mb de edram

Imagen


Y el pequeño bloque de edram de arriba diria que son los 3-4mb que usa wii.
meloncito escribió:El primer video del lego city tenia problemas de vsync, no? vamos, recuerdo imagenes partiendose por la mitad, no se como es el juego final.

Respecto al tamaño gpu/cpu, la gpu es mas grande pq en su interior alberga los 32mb de edram

Imagen


Y el pequeño bloque de edram de arriba diria que son los 3-4mb que usa wii.


En neoGAF tienes la foto con cada bloque señalado por el propio Marcan compañero ;)
kxalvictor escribió:si lees y te informas por neogaf...puedes resumir qué dicen allí a colación de la noticia de este hilo? (Descubierto un aumento de eficiencia energética de Wii U de 1,2 GHz a 3,2 GHz CPU).


Cómo ya han comentado, básicamente se descojonan. Una mejora a través de una actualización, podría ser posible. ESA ultra-mejora, ni de broma.

Yo creo que nadie que tenga unos mínimos conocimientos de hardware le puede dar credibilidad.
SUGUSAPPLE escribió:PD: Da igual, nos dará alegrías a 1,24 o a 3,2 GHz. [bye]
Efectivamente, una cosa no quita la otra.

La wiiu tiene potencia suficiente para mostrar juegos con la belleza gráfica que lo que hay a dia de hoy. Y quizas algo mas.

Y con eso se pueden hacer maravillas, por ejemplo el bioshock infinite.
GranKhan escribió:
kxalvictor escribió:si lees y te informas por neogaf...puedes resumir qué dicen allí a colación de la noticia de este hilo? (Descubierto un aumento de eficiencia energética de Wii U de 1,2 GHz a 3,2 GHz CPU).


Cómo ya han comentado, básicamente se descojonan. Una mejora a través de una actualización, podría ser posible. ESA ultra-mejora, ni de broma.

Yo creo que nadie que tenga unos mínimos conocimientos de hardware le puede dar credibilidad.

a ver, que era una pregunta retórica (debería haber puesto algún icono, cierto). pero es que en este hilo se pasó gente con bastantes conocimientos de hardware diciendo que lo de la subida de prestaciones de la consola era un sinsentido y se les tachó poco menos que de trolls para arriba. y como esos mismos agradecían tus comentarios técnicos, pues para que les hicieras caer de la burra (vamos, que yo en gaf ya sabía de lo que hablaban).

espero que haya ayudado a que abran los ojos y esperen de wiiu buenos juegos por parte de nintendo, pero nada de milagros de hardware, que la consola es como es y no hay más, ni chips mágicos ni overclocks de x3, que como dices, cualquiera con un mínimo conocimiento de hardware no se cree semejantes modificaciones.

dicho lo cual, se puede seguir con el hilo (aunque sigo sin ver la finalidad de que siga abierto pero bueno xD).
Ojo yo no me lo creo. Pero es totalmente posible que viniese limitada de fabrica y le hallan quitado el límite con la última actualización.
A mi no me hace falta soltar 20 tecnicísmos en cada post para "demostrar" (A quien?) lo "mucho" ( [qmparto] ) que se ZzzZZ
ethyrie escribió:Ojo yo no me lo creo. Pero es totalmente posible que viniese limitada de fabrica y le hallan quitado el límite con la última actualización.
A mi no me hace falta soltar 20 tecnicísmos en cada post para "demostrar" (A quien?) lo "mucho" ( [qmparto] ) que se ZzzZZ


yo creo que mas de uno, mas alla de q se overclokeara a 3.2, a 4.5, o a 2.3, pensamos que era una buena jugada de nintendo para acercarse a la potencia de las otras sin que pudieran meterle mas chicha a sus consolas y volver a poner potencia de por medio como ya paso tiempo atras, que se rumoreo que nintendo le iba a meter mas potencia, y las otras tb se la metieron para q la diferencia de potencia siguiera siendo grande
jas1 escribió:
SUGUSAPPLE escribió:PD: Da igual, nos dará alegrías a 1,24 o a 3,2 GHz. [bye]
Efectivamente, una cosa no quita la otra.

La wiiu tiene potencia suficiente para mostrar juegos con la belleza gráfica que lo que hay a dia de hoy. Y quizas algo mas.

Y con eso se pueden hacer maravillas, por ejemplo el bioshock infinite.


Pienso que wiiu es superior tanto a xbox360 como a ps3 solo por componentes y novedad dispone de mejoras a nivel tecnológico, otra cosa es que quieran programar para ella, las thirds es lo de siempre.

Pasando el E3 se vera un futuro prometedor. [carcajad]
Digitalfoundry ha analizado la comunicacion wiiu/tabletomando y tal

http://www.eurogamer.es/articles/digita ... -u-gamepad

No soy de crear hilos nuevos, asi que lo pongo aqui pq tb salen numericos xD
meloncito escribió:Digitalfoundry ha analizado la comunicacion wiiu/tabletomando y tal

http://www.eurogamer.es/articles/digita ... -u-gamepad

No soy de crear hilos nuevos, asi que lo pongo aqui pq tb salen numericos xD


Gracias por el enlace,muy interesante los detalles que salen,asi que codifica en tiempo real el video con un chip,es decir que envía dos veces los datos uno a la tv y otro codificado al gamepad,para eso requiere bastante potencia donde mas se nota en los juegos a 2 jugadores como el orochi y el cod bo2 por ejemplo,que envía diferentes datos del juego a cada pantalla no es solo reflejar lo que se ve en la tele
meloncito escribió:Digitalfoundry ha analizado la comunicacion wiiu/tabletomando y tal

http://www.eurogamer.es/articles/digita ... -u-gamepad

No soy de crear hilos nuevos, asi que lo pongo aqui pq tb salen numericos xD

muy interesante.

Ojalá hackeen la wii u y se puedan jugar en el gamepad emuladores y juegos de la wii. XD
maq escribió:
meloncito escribió:Digitalfoundry ha analizado la comunicacion wiiu/tabletomando y tal

http://www.eurogamer.es/articles/digita ... -u-gamepad

No soy de crear hilos nuevos, asi que lo pongo aqui pq tb salen numericos xD


Gracias por el enlace,muy interesante los detalles que salen,asi que codifica en tiempo real el video con un chip,es decir que envía dos veces los datos uno a la tv y otro codificado al gamepad,para eso requiere bastante potencia donde mas se nota en los juegos a 2 jugadores como el orochi y el cod bo2 por ejemplo,que envía diferentes datos del juego a cada pantalla no es solo reflejar lo que se ve en la tele

Codificar la señal no implica nada, es un chip dedicado que solo hace eso por lo que no tiene penalización de rendimiento.
meloncito escribió:Digitalfoundry ha analizado la comunicacion wiiu/tabletomando y tal

http://www.eurogamer.es/articles/digita ... -u-gamepad

No soy de crear hilos nuevos, asi que lo pongo aqui pq tb salen numericos xD
muy interesante.

Entre otras cosas me quedo con esto:

especialmente teniendo en cuenta que Bourdon ha confirmado que la funcionalidad de compatibilidad con dos GamePads de Wii U simultáneos está integrada ya en el firmware.
308 respuestas
13, 4, 5, 6, 7