Que "sobrada" estaba GameCube

1, 2, 3, 4, 510
ALCAMJI escribió:En GC en tu captura se ve que esta muy cerca del nivel de detalle de PC con todo al maximo, cosa rara viendo lo que mimaban a PS2/XBox y como maltrataban a GC.


No creo que alcance el nivel de pc, resolución aparte, pero si que es verdad que aunque algunas texturas no alcanzan a la versión xbox, en general se puede ver como los reflejos de la carretera solo están presentes en la versión gamecube... y creo que el motivo es precisamente lo que ya he comentado del "multipassing". Son unos cuántos polígonos que requieren de un enviroment mapping bastante extrenso, y la GC parece ser la única capaz de poder permitírselo, aún incluso gozando de un mayor rendimiento.

Ahora, hay que notar que la iluminación de los faros es superior en la versión XBOX, siendo los de la GC un intermedio.

Y para ps2, queda el detalle de que los polígonos del coche si tienen un enviroment mapping, pero pasa una cosa bastante extraña. En los polígonos del vidrio el escenario es reflejado con normalidad, pero en los polígonos de la chapa solamente se sucede el reflejo a unos 3 frames por segundo, o incluso 2. Si te fijas, lo notarás. Es la única versión que lo tiene, pero viendo el rendimiento obtenido la gamecube, no veo el motivo por el que no pudiera hacerse también en esta, y mas aún teniendo en cuenta que si se han molestado para otras cosas.

Tal vez se les echara el tiempo encima... justo lo que nunca le han dedicado al pobre cubito...


En el GT cube por ejemplo tienes:
1ª capa textura simple.
2ª capa cell shading.
3ª capa gloss mapping.
4ª capa self shadowing.
5ª capa self shadowing.
6ª capa self shadowing (simulando lo contrario, un efecto de brillo intenso. No confundir con el brillo del gloss mapping).

Podrían haber metido 2 capas mas de enviroment mapping dentro del mismo paso en la texturización, y ríete tu de los coches del progect gotham racing 2 (poligonización aparte, claro xD)

Imagen
Imagen

ALCAMJI escribió:Tambien en el caso de GTA3 en xbox las texturas tienen mas resolucion, y algunas incluso la duplican.


Y no solo las texturas, fíjate en los jaggies de la versión PS2, y en como son mucho menos pronunciados en la versión xbox. En general todo funciona a mas resolución en el GTA3 de esta última.

ALCAMJI escribió:Y una ultima cosa, ¿soy yo o el NFS carbono de Wii se ve peor que el de GC?

https://www.youtube.com/watch?v=gsvPypPIR4Q


Diría que la wii tiene mejores texturas, y la iluminación es un poquito diferente, pero no mejor ni peor, sino diferente... un tratamiento distinto, vaya.

Ahora, en ambos casos es un port horrible, por motivos obvios.
Señor Ventura escribió:No tengo ni idea, pero viendo que la GC era la única consola con cuatro puertos, casi diría que no.


No vengo a debatir si GC era mas o menos potente que el resto de consolas de su generacion, eso es algo que ya se debatio bastante en su dia, pero en esto que dices estas equivocado, tanto Dreamcast como XBOX tenian cuatro puertos de mandos de serie, sin multitap ni nada por el estilo, y Dreamcast tenia multitud de juegos para cuatro jugadores en pantalla partida (XBOX imagino que tambien pero no puedo afirmar nada porque no la tuve).

Imagen

Imagen

Realmente la unica consola de esa generacion que no tuvo cuatro puertos para mandos fue PS2, luego en cuanto a la capacidad tecnica de GC estoy de acuerdo en todo lo que dices, fue una buena bestia en su epoca, solo queria aclararte este detalle.

Salu2.
Debido a la caída de Dreamcast, y que sus juegos salieran (al menos sus estandartes) en GC y Xbox, para mí la pareja perfecta esa generación es tener esas dos máquinas. Disfrutas de sus catálogos propios y de buena parte del de DC a la vez.
Sobre el tema del op, quitaron el puerto de cable por componentes porque este estándar no estaba aún generalizado en el resto del mundo como sí lo estaba en Japón (por eso muchos juegos no lo implementaban), dicho cable sólo se vendió de forma oficial en el país nipón, así que si alguien de otro país lo quería conseguir tenía que importarlo de allí. De hecho, actualmente ese cable se vende en el mercado secundario a un precio "de especulador", y como es la única manera de jugar a los juegos de GC en un televisor moderno sin que te entre cáncer ocular mucha gente prefiere jugarlos en Wii con su correspondiente cable por componentes. Y como siempre Nintendo jodiendo al personal con la incompatibilidad ad-hoc de cables y periféricos, ya que el cable de Wii no funciona con Game Cube teniendo la misma forma sus clavijas. Por lo visto el propio cable llevaba dentro de su clavija una especie de chip que procesaba de alguna manera la imagen, provocando de esa forma que terceras marcas no pudieran fabricar cables homónimos, ya que el chip tenía patente, haciendo que Nintendo tuviera el monopolio de venta de cables por componentes de GC.

Yo tuve que vender mi GC y comprar una Wii por este motivo, paso de gastarme 80€ en un puto cable, aunque me da pena por lo bonito que es el cubo y lo asquerosamente fea que es la Wii, parece un juguete de los chinos con materiales de mala calidad, GC fue la última consola de la historia que no daba grima verla.
coyote-san escribió:Sobre el tema del op, quitaron el puerto de cable por componentes porque este estándar no estaba aún generalizado en el resto del mundo como sí lo estaba en Japón (por eso muchos juegos no lo implementaban), dicho cable sólo se vendió de forma oficial en el país nipón, así que si alguien de otro país lo quería conseguir tenía que importarlo de allí. De hecho, actualmente ese cable se vende en el mercado secundario a un precio "de especulador", y como es la única manera de jugar a los juegos de GC en un televisor moderno sin que te entre cáncer ocular mucha gente prefiere jugarlos en Wii con su correspondiente cable por componentes. Y como siempre Nintendo jodiendo al personal con la incompatibilidad ad-hoc de cables y periféricos, ya que el cable de Wii no funciona con Game Cube teniendo la misma forma sus clavijas. Por lo visto el propio cable llevaba dentro de su clavija una especie de chip que procesaba de alguna manera la imagen, provocando de esa forma que terceras marcas no pudieran fabricar cables homónimos, ya que el chip tenía patente, haciendo que Nintendo tuviera el monopolio de venta de cables por componentes de GC.

Yo tuve que vender mi GC y comprar una Wii por este motivo, paso de gastarme 80€ en un puto cable, aunque me da pena por lo bonito que es el cubo y lo asquerosamente fea que es la Wii, parece un juguete de los chinos con materiales de mala calidad, GC fue la última consola de la historia que no daba grima verla.


Eso no es del todo así.
El cable por componentes también se vendió en USA pero no en tiendas, se tenía que pedir a Nintendo y costaba en su época 20 dólares americanos (18 euros por ahí). En Japón estaba el componentes normal y el D-Terminal que es lo mismo pero con una clavija japonesa y a la venta en tiendas normalmente.

El asunto del cable es que Nintendo lo puso en la salida digital y no en la A/V normal. Y aquí es cuando te das cuenta ¿componentes, digital? ¿Pero si es analógica no? Pues sí, es analógica. Así que como la salida es digital pero la señal no, la clavija del cable por componentes tenía un chip que procesaba la señal para pasarla de digital a analógica YPbPr (o sea componente).

Las terceras marcas nunca pidieron a Nintendo licenciar ese chip, por lo que nunca se fabricaron cables de terceros.

La Wii tiene una señal por componentes que no es la misma que la de GC exactamente y de hecho los juegos de GC se ven mejor en una Cube con YPbPr que en una Wii con lo mismo:

Imagen


Si miras la imagen de la Cube verás que la B del botón y otras cosas se ven más definidas en Cube que en Wii donde se ve algo más borroso.

Ahora bien siendo un territorio PAL ¿Merece la pena el componente? Yo lo que tengo es el RGB oficial de Nintendo. Y por lo que tengo entendido y leído en muchos foros, los componentes en la Cube al menos suponen una diferencia mínima con respecto al RGB en la zona PAL, ya que casi ningún juego (solo 3 y no son pesos pesados) va a 480p, todos van a 480i o 576i en caso de que juegues a 50Hz, cosa que no recomiendo aunque hay algunos juegos que al parecer se ven mejor en 576i 50Hz.

Se dice también que un buen reescalador (no el Framemeister tampoco xD) con entrada RGB y salida HDMI/DVI/ o transformador a Componente da una imagen muy limpia. Pero claro ya hablaríamos de un gasto superior a 100 euros si quieres algo decente.


Salu2!
@Falkiño Algo había leído sobre el cable pero no recordaba exactamente cómo iba el asunto, de todas formas no deja de ser lo que he dicho, hacer algo incompatible adrede para tocar los huevos al estilo ninty. Supongo que ninguna marca habrá querido comprar la licencia del cable porque imagino que comprar la licencia de un chip para sacar un cable asqueroso no debe de ser rentable.

La solución que yo me he buscado sigue siendo la más barata (conseguí la Wii con cable componentes incluido por aproximadamente la mitad de lo que vale ahora el dichoso cable de GC, y casi todo el dinero lo saqué vendiendo la cube sin mandos), y como dices para el sistema PAL hay poca diferencia, además también me interesaba la Wii por sus juegos y en mi casa tengo espacio limitado para las consolas. XD
coyote-san escribió:@Falkiño Algo había leído sobre el cable pero no recordaba exactamente cómo iba el asunto, de todas formas no deja de ser lo que he dicho, hacer algo incompatible adrede para tocar los huevos al estilo ninty. Supongo que ninguna marca habrá querido comprar la licencia del cable porque imagino que comprar la licencia de un chip para sacar un cable asqueroso no debe de ser rentable.

La solución que yo me he buscado sigue siendo la más barata (conseguí la Wii con cable componentes incluido por aproximadamente la mitad de lo que vale ahora el dichoso cable de GC, y casi todo el dinero lo saqué vendiendo la cube sin mandos), y como dices para el sistema PAL hay poca diferencia, además también me interesaba la Wii por sus juegos.


Está claro que si lo que quieres es jugar por Componentes es mejor la Wii. Yo tengo la Wii por componentes también aunque suelo usar para los juegos de Cube el cubito mismo por RGB. Imagino que como dices licenciar el chip no salía a cuenta a terceros, porque su cable no oficial por componentes saldría más caro que el oficial y para eso todo el que lo quisiera compraría el oficial sin más.
El asunto es que ahora mismo ese cable es carne de especuladores. A veces hay milagros claro pero en España es muy raro que ocurra dado que aquí nunca se vendió, pero en otras zonas ha pasado: gente que yendo a un Cash&Converters de la vida se ha encontrado el cable por componentes a 3 puercos euros y cosas así (hay foros con gente que le ha pasado y hasta ponen el ticket para demostrarlo XD) pero claro eso en USA.

Leyendo en foros en territorio PAL solo van a 480p el Godzilla: Destroy All Monsters Melee, uno de deportes que no recuerdo y el Enter the Matrix creo. Ninguno es un peso pesado por el que merezca la pena el cable. Hay foros que dicen que el F-Zero GX PAL va a 480p 60Hz pero luego gente con el cable dicen que la Cube no les deja activar el progresivo sino solamente el selector de hercios, algo que ya hago yo con el cable RGB, así que de momento pongo lo del F-Zero GX como algo sin confirmar del todo. Si fuese cierto sería la única razón de peso en zona PAL para poder querer ese cable.

En lo personal y tras volverme loco perdido con el asunto y probar varias cosas llevando máquina, cable y juegos hasta por casas de amigos a testear; mi conclusión es que en nuestra zona PAL la mejor manera de ver una Cube sin dejarse los yenes (y descartando la Wii) es usar el cable RGB, ya sea el oficial (caro hoy en día) o la versión de Retro Gaming Cables (unos 18-19 euros, de alta calidad), y usar de pantalla un monitor o TV CRT de panel recto con entrada RGB y que sea de buena calidad (muy valoradas las marcas Sony y Philips en los foros de retrogaming).

Yo probé en la casa de la abuela de un amigo mío, mi GC con el RGB en una Philips de 32'' CRT y panorámica (tenía un culo la joia... pesaba una tonelada) y los juegos que probé fueron los Metroid Prime y el F-Zero GX y era una delicia verlos. Iban perfectos, colores vivos y diferenciados, texturas, bordes sin sierra, definición, todo, como la seda, claro y limpio [oki] .

Luego pongo la Cube en mi casa en mis pantallas FullHD de Samsung y LG y se me ven colores medio desdoblados, píxeles sangrantes o con el efecto "arcoiris", ruido en el borde de algunas texturas y cosas medio borrosas.... [noop]

Luego la forma más barata es la tuya, Wii que se compra por cuatro chavos y un componente de Wii que sale 4 euros literalmente.

EDIT: Y si a la Wii le añades el Homebrew Channel y el Nintendont, puedes forzar los juegos PAL a 480p 60Hz, y no sólo backups sino los discos originales.
Joer, ¿tanta diferencia hay entre 480i y 480p? (visualmente).
Mejor diseño de consola de aquella generación basado en reducir al mínimo los cuellos de botella, capacidad para administrar y sacar a flote su máximo potencial, además de no tener que recurrir a un procesador para sacarle las castañas del fuego a otro

Dreamcast >>> Gamecube >>> X-Box >>> Ps2

Potencia bruta

X-Box >>> Gamecube >>> Ps2/Dreamcast

Mejor renderizador de partículas y ciertos efectos de backbuffer

Ps2 >>> XBOX/Gamecube >>> Dreamcast.

Por cierto hay en juegos de Ps2 con 14 millones de polígonos por segundo, 30 fps, texturas decendes, y festival de partículas de todo tipo para disfrazar sus carencias; como la cuasi imposibilidad de generar un entorno a 640x480 sostenible en esas condiciones, ni muchisísimo menos con todo el post-procesado modernete que podían gestionar la Gamecube/X-Box para texturas y juegos de luces xD

El arte de programar en un sistema tan mal diseñado y lleno de cuellos de botella como Ps2 es mantener un flujo de datos constante y armónico entre el EE y GS para aprovechar lo máximo su posible su BESTIAL tasa de relleno, que basicamente le llega pa eso; pa las partículas y poco más en comparación xDD.
Señor Ventura escribió:Joer, ¿tanta diferencia hay entre 480i y 480p? (visualmente).


El progresivo es mejor calidad de imagen que el entrelazado y yo al menos, forzando juegos de Cube con el Nintendont en la Wii, sí lo noto. Pero claro yo tengo dos TV grandes y una tercera mediana (42, 40 y 29 pulgadas) pero las 3 son Full HD, dos de Samsung y una de LG.
Tengo entendido, que me corrijan si me equivoco, que encima las TVs modernas HD no aceptan ciertas resoluciones y hacen reescalados y cosas chungas. Por ejemplo el 240p no lo pillan y lo meten como 480i, por lo que se dedican a desentrelazar y hacer procesados y emborronan la imagen. Las TVs modernas les mola todo lo progresivo (480p, 720p, 1080p etc) pero en cuanto entran cosas entrelazadas tipo 480i parece que son muy malas. No sé si es que no aceptan esas señales y las desentrelazan con posprocesos y chorradas así como hacen con el 240p, no estoy aún muy puesto en ese asunto.

Porque luego vas a una TV o monitor CRT de los buenos, como digo yo probé una Philips de 32" con la pantalla recta (no de estas viejas CRT con la pantalla curva) y la Cube se veía de escándalo por RGB, pero de escándalo. Los colores y todo. Parafraseando a otro EOLiano que lo dijo en enero, no es lo mismo esta tele CRT:

Imagen


Que jugar en una CRT así:

Imagen

La segunda es de tubo, y grande. Pero es de calidad, la pantalla es recta y ya os digo que en una TV así del mismo estilo (es muy parecida a la que usé yo) jugar al Cubo por RGB es una delicia.


Salu2!
@Falkiño Es que cuando se habla de entrelazados yo pienso en renderizar primero las lineas pares, y en el siguiente refresco las impares. Asi se muestran a 30hz, y en lo que pienso es en parpadeos, pero no en que se resienta la calidad de la imagen.

Igual nunca entendí por qué mi tele 720p podía mostrar juegos a 1080i si no tiene tantas lineas, a menos que si las tuviera... yo que se xD
Señor Ventura escribió:@Falkiño Es que cuando se habla de entrelazados yo pienso en renderizar primero las lineas pares, y en el siguiente refresco las impares. Asi se muestran a 30hz, y en lo que pienso es en parpadeos, pero no en que se resienta la calidad de la imagen.

Igual nunca entendí por qué mi tele 720p podía mostrar juegos a 1080i si no tiene tantas lineas, a menos que si las tuviera... yo que se xD


O los reescalaba XD
Que no solo existe el reescalado hacia arriba eh.

Pero bueno, ya sin contar backups ya que la política del foro no lo permite, hablando de juegos originales en tu posesión, el mejor combo es GC+RGB/Componentes+TV CRT buena; o si metes la Wii es Wii+Componentes+Homebrew Channel con el Nintendont, aunque la segunda opción ya requiere molestarse algo más en informarse.
Una cosa que no entendere, resident evil 2/3/cv en sus versiones pal a 50Hz y sin selector...

Imagen
No son remakes sino relanzamientos mejorando la resolución y poco más. Imagino que por eso van a 50Hz (hasta donde sé los juegos en zona PAL de la generación PSX/N64/Saturn iban todos a 50Hz). El selector de hercios o los 60 nativos no empezaron en zona PAL hasta Dreamcast. Aunque el Code Veronica debería de tenerlo y poder tener los 480p en PAL, pero no tengo manera de saberlo.

Hoy he probado los dos Metroid Prime en el Nintendont en Wii y no me deja poner los 480p, da pantalla negra con el rótulo "resolución no soportada". Forzar el panorámico da bug en el HUD de ambos títulos. Aunque el propio menú de ambos Metroid te deja ensanchar la imagen sin perder el ratio de aspecto y no da problemas. Hablo siempre de usar los GOD originales PAL en la Wii pero cargándolos con el Nintendont en vez de con el canal GameCube normal.

Eso sí, puedo confirmar y confirmo, que usando F-Zero GX me deja poner el juego a 480p sin problemas. El panorámico no hace falta porque el propio juego lo detecta y si no lo autodetectase está la opción en el menú del juego. Jugarlo a 480p 60Hz es una gozada. Lo que no entiendo es entonces a la gente que dice que con el cable por componentes le deja elegir hercios pero no el progresivo.

Tengo que probar otros títulos como el Smash Bros Melee, el Mario Sunshine o el MGS The Twin Snakes, y ambos Zelda, a ver si aceptan progresivo.


Salu2!
Falkiño escribió:No son remakes sino relanzamientos mejorando la resolución y poco más. Imagino que por eso van a 50Hz (hasta donde sé los juegos en zona PAL de la generación PSX/N64/Saturn iban todos a 50Hz). El selector de hercios o los 60 nativos no empezaron en zona PAL hasta Dreamcast. Aunque el Code Veronica debería de tenerlo y poder tener los 480p en PAL, pero no tengo manera de saberlo.

Hoy he probado los dos Metroid Prime en el Nintendont en Wii y no me deja poner los 480p, da pantalla negra con el rótulo "resolución no soportada". Forzar el panorámico da bug en el HUD de ambos títulos. Aunque el propio menú de ambos Metroid te deja ensanchar la imagen sin perder el ratio de aspecto y no da problemas. Hablo siempre de usar los GOD originales PAL en la Wii pero cargándolos con el Nintendont en vez de con el canal GameCube normal.

Eso sí, puedo confirmar y confirmo, que usando F-Zero GX me deja poner el juego a 480p sin problemas. El panorámico no hace falta porque el propio juego lo detecta y si no lo autodetectase está la opción en el menú del juego. Jugarlo a 480p 60Hz es una gozada. Lo que no entiendo es entonces a la gente que dice que con el cable por componentes le deja elegir hercios pero no el progresivo.

Tengo que probar otros títulos como el Smash Bros Melee, el Mario Sunshine o el MGS The Twin Snakes, y ambos Zelda, a ver si aceptan progresivo.


Salu2!

Los 2 zelda y el MGS son jugables y van perfectos en progresivo y 16:9, y con el twilight es cachondo ya que nintendo se excuso diciendo que solo wii podia moverlo en 16:9 y progresivo.

Los RE 2/3/CV son jugables en 60Hz PAL con codigos action replay, y como son cutreport con bandas negras (las cuales desaparacen con el mod 60Hz) el selctor de Hz no costaba nada, la unica excusa que veo es que los videos van a 50FPS en la version pal y a 60 en la NTSC y que igual no les entraban los videos con las 2 codificaciones...
Falkiño escribió:No son remakes sino relanzamientos mejorando la resolución y poco más.


Lo que viene siendo una remasterización.

Imagino que por eso van a 50Hz (hasta donde sé los juegos en zona PAL de la generación PSX/N64/Saturn iban todos a 50Hz). El selector de hercios o los 60 nativos no empezaron en zona PAL hasta Dreamcast. Aunque el Code Veronica debería de tenerlo y poder tener los 480p en PAL, pero no tengo manera de saberlo


No incluyeron el selector por la misma razón que RE 3: Nemesis y el Code Veronica de Dreamcast tampoco lo llevan; porque no les dio la gana. Porque el Resident Evil 2 para la misma consola sí lo tiene, pero vamos, peor lo pasaban los usuarios de Playstation 2 en ese aspecto.

De todas formas si no recuerdo mal en muchos juegos de CAPCOM para Gamecube, el selector salía dejando pulsando el botón B durante la pantalla del logo. Por lo menos en el remake del primer Resident era así.
Sexy MotherFucker escribió:De todas formas si no recuerdo mal en muchos juegos de CAPCOM para Gamecube, el selector salía dejando pulsando el botón B durante la pantalla del logo. Por lo menos en el remake del primer Resident era así.


En todos los juegos de GameCube es así. Cuando arranca el juego es mantener pulsado B. Si es una copia NTSC y usas el cable por componente te sale la pregunta sobre si activar el modo progresivo (ya que las NTSC siempre iban a 60Hz). En el caso de los juegos en PAL lo que te aparece es el selector de hercios hasta el 2004 o así. Luego de eso muchos juegos como Metroid Prime 2 directamente te decían en la caja "Sólo PAL60".

No obstante Capcom es muy rara para esto. Por ejemplo, no lo he probado personalmente, pero muchas opiniones en la red afirman que el Resident Evil 4 se ve mejor a 576i 50Hz que a 480i 60Hz, que es menor resolución pero mas fluidez pero al parecer la mejora en fluidez no se nota nada, en este juego al menos.
Sexy MotherFucker escribió:De todas formas si no recuerdo mal en muchos juegos de CAPCOM para Gamecube, el selector salía dejando pulsando el botón B durante la pantalla del logo. Por lo menos en el remake del primer Resident era así.



Pulsar B al encender la consola con el juego dentro era la manera de que apareciese el menu de herzios en todos los juegos que no lo tuviesen automático.

Y lo de Capcom y los 50 hz era una constante en esa generacion, bastante suerte que el Capcom vs SNK 2 de cube y xbox si tenia 60 hz, porque hasta donde yo recuerdo, el de Playstation 2 no lo tenia.
Skullomartin escribió:Y lo de Capcom y los 50 hz era una constante en esa generacion, bastante suerte que el Capcom vs SNK 2 de cube y xbox si tenia 60 hz, porque hasta donde yo recuerdo, el de Playstation 2 no lo tenia.


Pues tío, eso era en plataformas no DREAMCAST (te habla un user de la época), porque en dicha máquina salvo RE 3, Code Verónica, y el primer POWER STONE; el resto de su prole (no recuerdo si Star Gladiator 2 tb) salió con selector de Hz.

El puto verdadero punto discordante era la Ps2: ¡Sony Europa decía que eso de los Hz nadie se daba cuenta!
Sexy MotherFucker escribió:
El puto verdadero punto discordante era la Ps2: ¡Sony Europa decía que eso de los Hz nadie se daba cuenta!


traducido es "vende igual, para que nos vamos a molestar". XD
Skullomartin escribió:
Sexy MotherFucker escribió:
El puto verdadero punto discordante era la Ps2: ¡Sony Europa decía que eso de los Hz nadie se daba cuenta!


traducido es "vende igual, para que nos vamos a molestar". XD


Tal cual xD
No puede ser verdad [Alaa!]
https://www.youtube.com/watch?v=k75BZJdeYe8

Partículas:
https://youtu.be/7LRGs5Ns_sg?t=291


Que huevos tuvieron con la GC. Algún día la escena homebrew le devolverá parte de lo arrebatado...


edit: ¿Estoy leyendo que se puede acceder a la demo "rebirth" usando unos códigos para el sd gekho, desde un juego comercial (chaos field)?.
http://www.gc-forever.com/forums/viewto ... f=3&t=2354

Chaos field:
https://www.youtube.com/watch?v=S-Lc4epqHlI
Señor Ventura escribió:No puede ser verdad [Alaa!]
https://www.youtube.com/watch?v=k75BZJdeYe8

Partículas:
https://youtu.be/7LRGs5Ns_sg?t=291


Que huevos tuvieron con la GC. Algún día la escena homebrew le devolverá parte de lo arrebatado...


edit: ¿Estoy leyendo que se puede acceder a la demo "rebirth" usando unos códigos para el sd gekho, desde un juego comercial (chaos field)?.
http://www.gc-forever.com/forums/viewto ... f=3&t=2354

Chaos field:
https://www.youtube.com/watch?v=S-Lc4epqHlI


Que pasada, lo único que el Chaos Field alguien de aquí lo tiene? salió Pal? por qué incluyeron la demo técnica en el juego?
joseni escribió:Que pasada, lo único que el Chaos Field alguien de aquí lo tiene? salió Pal? por qué incluyeron la demo técnica en el juego?


Yo lo tengo en Dreamcast, que sólo salió en Japón:

Imagen

Tiene sendos ports para PlayStation 2 y Gamecube con un modo de juego "casual", pero ninguno llegó de manera oficial a Europa. Aunque si no recuerdo mal en Cube sí salió por fronteras yankees.

Es un juego que en realidad no pasa de correcto ni en lo jugable, ni en lo técnico; no brilla especialmente en ningún sistema a nivel gráfico, después de todo no es más que una conversión de un juego de NAOMI/Dreamcast que no aprovecha las fortalezas particulares ni de la Ps2, ni de la Cube. Además se ralentiza un montón en las 3 consolas.

¿Es divertido eh? Y la ambientación tecno-nocturna con rayicos de colores mola lo suyo, pero que hay opciones mucho mejores a plantearse, sin irnos más lejos en Gamecube tenéis al excelso Ikaruga.
Gracias por la info, por lo que he visto en youtube me gusta la música y la ambientación, tendré que ponerme a ver si lo cato ;-)
@joseni, es un wannabe Radiant Silvergun (no hay más que ver el ataque corto) del mismo modo que Gunners Heaven/Rapid Reload para PlayStation era un wannabe Gunstar Heroes. No están mal, pero no suelen dejar huella en el jugador. Al menos a mí y a los 4 frikazos que conozco no nos ha dicho gran cosa Chaos Field.

Yo me compré el juego porque lo probé 10 minutos en una NAOMI en un decadente salón recreativo de Estados Unidos, y al igual que tú me sentí atraido por la estética nocturna con lucecitas de neón. Pero una vez pasada la emoción inicial comencé a verle todas sus carencias una detrás de otra. En PlayStation 2 igual, me lo compré a ver si el nuevo modo de juego y las novedades valían la pena, y resulta que lo casualizaron a un juego que ya de por sí no era esepcialmente difícil.

Yo sólo aviso: es un juego entretenido, y si no has jugado demasiados shooters tal vez te parezca ingeniosa la mecánica, pero que Gamecube tiene cosas mejores.
Sexy MotherFucker escribió:@joseni, es un wannabe Radiant Silvergun (no hay más que ver el ataque corto) del mismo modo que Gunners Heaven/Rapid Reload para PlayStation era un wannabe Gunstar Heroes. No están mal, pero no suelen dejar huella en el jugador. Al menos a mí y a los 4 frikazos que conozco no nos ha dicho gran cosa Chaos Field.

Yo me compré el juego porque lo probé 10 minutos en una NAOMI en un decadente salón recreativo de Estados Unidos, y al igual que tú me sentí atraido por la estética nocturna con lucecitas de neón. Pero una vez pasada la emoción inicial comencé a verle todas sus carencias una detrás de otra. En PlayStation 2 igual, me lo compré a ver si el nuevo modo de juego y las novedades valían la pena, y resulta que lo casualizaron a un juego que ya de por sí no era esepcialmente difícil.

Yo sólo aviso: es un juego entretenido, y si no has jugado demasiados shooters tal vez te parezca ingeniosa la mecánica, pero que Gamecube tiene cosas mejores.


gracias por el análisis, pasando de él.

En gamecube salvo Ikaruga hay algo potente en shumps
@joseni desgraciadamente en Gamecube te sales de Ikaruga y todo es demasiado cuesta abajo.

Aunque a mí me gustó el Shikigami no Hiro 2 (Castle of Shinigami) en Dreamcast; estética manganime llamativa (aunque poligonal), historia, y un sistema de juego muy divertido. No es la panacea, pero sirve para matar el gusanillo mejor que Chaos Field, y por lo que tengo entendido en Gamecube se juega exactamente igual:

https://www.youtube.com/watch?v=mmXUejjws1A

Salió multiplataforma para Dc, Cube, Ps2, y X-Box; y cada versión traía un extra exclusivo. En el caso de Gamecube la figurita de un gatito:

Imagen

xD

Edit: Lamento decir que a diferencia de la versión Ps2, la de Gamecube sólo tiene "Yoko Mode", por lo que no se puede girar el monitor :(

Lo malo es que al igual que la versión Dreamcast sólo salió en Japón, por lo que la historia como que no, pero bueno, no es indispensable. Yo sólo veo lolis y gente rara que se dice cosas xDD
Muchas gracias por toda la información, es una pena que no sacaran todos los shumps que hay en Dreamcast...
porque por potencia y tamaño sería un logro.

Saludos¡¡
Me estoy viendo este vídeo:

https://www.youtube.com/watch?v=9SLKYBSb2ns&t=2035s

Y la sensación que me dan los gráficos del 90% de juegos en Gamecube, son los de una Dreamcast 1.5, es decir; 640x480 pixels de "cartón-piedra" (rígidos, modelados toscos, entornos faltos de efectos de partículas, colisiones de "papel"), con escenarios enanos, y texturas de tonalidades chillonas 16/24 bits. Y en muchos casos las texturas no llegan al nivel de los 8MB + Compresión VQ en materia no ya sólo de detalle, sino de VARIEDAD comparado con lo que mostraba la genial consola de SEGA.

Luego ves cosas como Rebel Strike, Resident Evil 4, el remake, y los efectos de luces, transparencias, y morphings/deformaciones del Luigi's Mansion, o del Super Mario Sunshine, y dices no, joder, esta consola daba para muchísimo más de lo demostrado en el resto del catálogo.

¿Desaprovecharon el sistema que es un gusto eh? En los multis casi que lo entiendo, porque las versiones base eran las del JUGGERNAUT (Ps2), y claro había que adaptarse al ritmo de el Emperador, ¿pero y muchos de los exclusivos japoneses hechos a desgana qué?

No me extraña que Ventura se cabree xD
Sexy MotherFucker escribió:texturas de tonalidades chillonas 16/24 bits


Tronquete, 24 bits de color son 8 bits por canal, es decir, 16,7 millones de colores... lo suficiente para representar cualquier matiz de color en una fotografía.

Una textura de 32 bits solo sive para ocupar mas memoria en RAM. La GC hace las transparencias de otra forma, así que es bastante eficiente en ese sentido (ocupas menos en texturas, tienes transparencias, e imágenes de la máxima calidad posible).

La verdadera putada es que puedes comprimir una textura de 24 bits a un ratio de 6:1, pero las de 16 y 8 bits no, así que todas te ocupan lo mismo. Es un talón de aquiles importante, porque cuánto menos compleja sea la imagen, mas se recortan las distancias entre GC y PS2.


¿Juegos tipo comic donde puedes usar texturas de 8 bits con la máxima calidad que permite ese arte? --> mas desaprovechado en GC, que le da lo mismo usar texturas de 8 bits que de 24, porque le van a ocupar lo mismo.

¿Juegos con texturas en varios pasos, bump mapping, o calidad mas fotográfica? --> mejor en GC, que puede almacenar mas, y a mas calidad.



Por lo demás, la PS2 también estuvo muy desaprovechada, hubieron muchos juegos muy mediocres gráficamente, pero si que es cierto que a la GC le lastró muchísimo que le enchufaban ports hyper chungos de PS2.

El burnout 2 es una broma... la historia detrás del burnout 3, otra que tal baila... los splinter cell ps2 edition son directamente una burla... ¿Doom 3 en GC?, hay formas de llegar a ese resultado, joder.

Parece ser que la clave es el TEV. Si las ganas que le echaron para desentramar el rendimiento del emotion engine se hubiesen puesto para zambullirse en esa selva inexplorada que era el TEV, otro gallo hubiese cantado.

Es que hay pistas en bastantes juegos. La iluminación global del PN03, el HDR e iluminación en tiempo real del zelda twilight princess, la iluminación por pixel y depth of firld del zelda wind waker, el bump mapping del rogue squadron y otros como el mario sunshine, etc...
Tienes 8 luces por hardware dinámicas (no estáticas), y lo que pasa es que su precisión es por vértice, no por pixel, pero puede poner muchos millones de polígonos que acercarían mucho el resultado... el rogue squadron pone 15 millones a 60fps, que a 30fps serían 30 millones, y a 15 fps serían 60 millones de polígonos con bump mapping, y postprocesos para parar un mercancías. Y esto sin contar con que no es el tope que la máquina puede alcanzar (según factor 5, a 60fps podían llegar a los 20 millones de polígonos, y por lo tanto a 15fps se podrían alcanzar los 80 millones)... ¿joder, hacen falta mas argumentos? xDD

La gran concentración de polígonos en habitaciones cerradas puede hacer bien el trabajo de una iluminación que parecería por pixel, pero es que nunca se dice que (aunque sería estática), la GC puede poner hasta 4 fuentes de luz por pixel (de esto se sirve el PN03). Insisto, estáticas.

En un hipotético doom 3, esto no tendría ningún misterio. Donde la GC tiene que dar el do de pecho es en las texturas, y no es fácil llegar al nivel de la xbox con el equivalente a 140MB vs 250MB de texturas.
¿La solución?, servirse de la enorme capacidad del lector de GC para stremear entre habitaciones, y en última instancia rediseñar los mapeados con pasillos para facilitarlo (metroid prime style), de esta forma puedes tener un resultado gráfico global muy compensado en comparación.

Además, la cpu tiene potencia para añadir algunos efectos por software... generación de sombras, distorsión (como el efecto de los cristales del doom 3), y aunque tiene sus límites, ahí está. Aunque sea a 15 frames por segundo es mas que posible... es decir, especialmente a 15 frames por segundo consigues la potencia de cálculo necesaria segurísimo.

Vamos, que no se hizo un doom porque no les salió del güito (y porque el juego es suyo, y no lo iban a mutilar para hacer un frankestein que encima te obliga a hacer un juego prácticamente desde cero para una consola que ni vende hardware, ni vende software).



Que me da, que me da...
Imagen




EDITADO:

Hostia puta. He leído de un comentario del propio Julian eggebrecht que en factor 5 intentaron hacer correr el rogue squadron en la xbox, y solo podía alcanzar los 12 fps, ¡¡60fps en GC, 12fps en XBOX!!.

Y todo esto entre varias perlas como que la cpu de la GC puede ser usada como unidad vectorial, con sus 256 pedazo de KiloBytes de caché, aunque con un set de instrucciones que no está completo para actuar como tal.

También confirma que son 8 texturas por paso, aunque ya se sabía.
Señor Ventura si el el rogue squadron lo metieron a pelo en la xbox normal que nu tirase bien, igual que MGS2 funciona bien en PS2, pero el mismo motor grafico da problemas a pelo en GC (MGS: TS), o RE4 que PS2 tiene un monton de recortes y en el modo 4:3 petardea que da gusto.

El rogue squadron funciona tan bien en el cubo por los microcodigos que se curraron los chicos de Factor 5...
ALCAMJI escribió:Señor Ventura si el el rogue squadron lo metieron a pelo en la xbox normal que nu tirase bien, igual que MGS2 funciona bien en PS2, pero el mismo motor grafico da problemas a pelo en GC (MGS: TS), o RE4 que PS2 tiene un monton de recortes y en el modo 4:3 petardea que da gusto.

El rogue squadron funciona tan bien en el cubo por los microcodigos que se curraron los chicos de Factor 5...


Por lo que he leído, no fué un "compilar y fuera". Cuando habla de 60fps vs 12fps, es porque finalmente puede decir que existen esas diferencias, puedes estar seguro.

Es que de todos modos si analizas los hardwares te das cuenta de que la GC debe, y puede burrear a las otras dos. A la xbox le salvan los shaders programables y los 64 megas de RAM, pero nada mas.

La GC tiene una cpu mas potente, y con mas de 3 veces (si, TRES veces) mas ancho de banda que la de la xbox (3.2GBps vs 1GBps), también tiene memorias con una latencia ultra baja (de 5 a 6 veces mas rápidas que las de la xbox), 8 texturas por paso vs 4 texturas por paso, 8 luces vs ¿4?, y un fill rate algo menor pero con una eficiencia tan SALVAJE en el texturizado que se merienda a la caja porno de un bocao, y no es ningún secreto, es algo que se sabe.
La GameCube fue, tras la SNES, la mejor consola de Nintendo; y eso que yo adoro mi Nintendo64. Pero es que el Cubo es la polla. Los juegos currados eran técnicamente espectaculares (a día de hoy juegos como F-Zero GX, los dos Metroid Prime o el Mario Sunshine siguen luciendo muy bien), y hubo un cambio en Nintendo de la vieja guardia de Hiroshi Yamauchi a Satoru Iwata que restableció relaciones con Square, se trató muy bien a SEGA, Capcom y otras desarrolladoras produjo una consola de Nintendo con un Metal Gear Solid, Resident Evil, Soul Calibur etc. al lado de los Marios y compañía, algo impensable en la época de Nintendo64.
El Cubito de los cojones es dios.
Falkiño escribió:La GameCube fue, tras la SNES, la mejor consola de Nintendo; y eso que yo adoro mi Nintendo64. Pero es que el Cubo es la polla. Los juegos currados eran técnicamente espectaculares (a día de hoy juegos como F-Zero GX, los dos Metroid Prime o el Mario Sunshine siguen luciendo muy bien), y hubo un cambio en Nintendo de la vieja guardia de Hiroshi Yamauchi a Satoru Iwata que restableció relaciones con Square, se trató muy bien a SEGA, Capcom y otras desarrolladoras produjo una consola de Nintendo con un Metal Gear Solid, Resident Evil, Soul Calibur etc. al lado de los Marios y compañía, algo impensable en la época de Nintendo64.
El Cubito de los cojones es dios.


Es que pocas mejoras puedes hacerle a ese hardware. Los malditos shaders programables ahorrarían cpu (aunque la gpu tiene el TEV, y 8 luces por hardware), y luego está el tema de la RAM, que si tuviese 12 o 16 mas no sería rechazable, pero la GC es así, y viene en el lote.

Sin embargo, hay cosillas como que comprimir texturas de 24 bits se consigue a un ratio de 6:1, pero las de 16 bits baja a 4:1, y las de 8 a 2:1. Es una putada importante, porque siempre van a ocupar lo mismo, y de lo contrario hubiera permitido potenciar el multitexturizado de una forma brutal.

No capar las unidades de texturizado, y haber permitido que tuviese dos, habría desencadenado poder texturizar a 16 capas por paso, lo cual es un pasada.

Luego el set de instrucciones artx altivec hubiera sido la hostia, pero según baek por aquellas fechas todavía estaba por implementar en futuros power pc's, así que aunque hubiesen querido simplemente no estaba disponible. Una lástima.

Y eso es todo, por mas que piense, es que no hay nada que se le pueda achacar a este hardware, tal vez como mucho 2MB de frame buffer en lugar de 1MB para aumentar la resolución, pero es que en realidad 640x480 es lo mas adecuado para ese nivel de texturas. Joder, es que al puto cubo solo le faltaba guardar en su interior los secretos del universo para poder ser mas digno xDD


Por eso luego uno ve esto:
Imagen

Imagen

Imagen

Imagen


...y cuando toca transladar esto:
Imagen


...pero se queda en esto:
Imagen



...dan ganas de enviar cartas con antrax a discreción.Sin generación de sombras, sin self shadowing, sin motion blur... joder, como si no hubiese sucedido nunca antes en la máquina. Port directo de PS2, y a tirar millas. Que cómodo, oye.



P.D: Captura de un personaje del rogue squadron 3, con su selfshadowing, su bump mapping, y todo. Hay que decir que el juego no luce en las fases en tercera persona por como está concebido el propio motor, pero técnicamente se acercan mucho a como renderiza un doom 3, por ejemplo. Y todo por hardware:
Imagen
Qué me vas a decir, yo tengo el Rebel Strike y es una pasada como se ve el jueguito. El problema del Cubo fue la PS2 y los ports, que los hubo a miles. O ports de arcade que en vez de aprovechar las ventajas del Cubito primero portaban a PS2 con recortes y de ahí hacían el port directo sin más. Como diría Drogba era una fucking disgrace.
Falkiño escribió:Qué me vas a decir, yo tengo el Rebel Strike y es una pasada como se ve el jueguito. El problema del Cubo fue la PS2 y los ports, que los hubo a miles. O ports de arcade que en vez de aprovechar las ventajas del Cubito primero portaban a PS2 con recortes y de ahí hacían el port directo sin más. Como diría Drogba era una fucking disgrace.


Es que durante muchos años nos hemos comido con patatas el bulo de que la mas potente era la xbox, y luego estaban la GC y la PS2 a la misma altura, cuando la realidad no es así ni de coña.

Los 6.4GB de ancho de banda del PIII celeron vs los 1.6GB de ancho de banda del power pc despistaban a cualquiera, pero es que al final resultaba que este dato tiene trampa y cartón para hundir el titanic por segunda vez.
Resulta que el celeron funciona internamente mucho mas lento, de forma que la velocidad real del bus externo pasa a ser de 1GB por segundo (esto no es un cuello de botella, es una presa xD), mientras que los 1.6 GB por segundo del power pc, dado que su bus es de 64 bits, pasa a ser de 3.2GB por segundo.

Como cambia el panorama, de 6.4GB vs 1.6GB, a 1GB vs 3.2GB. El power pc tiene un bus externo tan grande como el del emotion engine de la ps2 (que era a su vez el mejor argumento que tenía la máquina xD).


Incluso parecía que la ps2 sobrepasaba a la GC en algunos aspectos cuando el bus hacia la VRAM es de 9.6GB/s vs 2.6GB/s... peeeeero, tiene matices, ya que la GC comprime sus texturas, por lo que el tamaño equivalente real en texturas de 24 bits pasaría a ser de 9.6GB(ps2) vs 15.6GB(gc), o de 7.2GB(ps2) vs 15.6GB(gc) en texturas de 32 bits (si quieres transparencias)... por otro lado la cosa ya si remonta, e incluso sobrepasa si usas texturas de 16 u 8 bits, ya que el ratio de compresión en GC reduce su proporción.

También fué un argumento el tema del frame buffer: 4MB a 38.4GB/s de PS2 vs 1MB a 10.4GB/s de GC... peeeero, volvemos a lo mismo. En realidad hablamos de 4MB a 38.4GB/s vs 6MB a 62.4GB/s.

Suma y sigue...


Un ejemplillo, para que se vea lo que implica cuando no te limitas a guarrear con ports directos de ps2. Esto es dead space extraction, que vale, es wii, pero en realidad es GC a 1.5x como todos sabemos, y aún así no sabemos cuanto se aprovecha del hardware (pero sinceramente, yo lo veo en el cubo).

Varias fuentes de luz, humo volumétrico:
https://youtu.be/_1EdrJWL3hs?t=601

Rizando el rizo. Fuentes de luz dinámicas por hardware (desde el minuto 7:50, al minuto 8:30, tras cruzar la puerta):
https://youtu.be/52RZBYUoINU?t=470



Queda un poco desordenado, pero empieza el tenis, y no quiero saltármelo XD


EDITADO: El set de instrucciones es "altivec", no artx, que lo tengo ahí incrustado en la memoria y no se ni de que.
@Señor Ventura estoy con el móvil, y de nuevo en una de esas etapas en que me tiro meses sin poder forear, pero no obstante voy a hacer un esfuerzo en mi hora de la comida.

La CPU de X-Box no es ningún Celeron, es un Pentium III coppermine hecho y derecho con todos sus registros e instrucciones intactas funcionando a 733Mhz, con la particularidad de que le caparon la caché L2 desde 256 kb a 128 kb para reducir costes, además de acondicionarla para uso directo de la GPU y de un acceso al sistema más eficiente, punto. Se apresuraron a desmentirlo justo en el lanzamiento de la consola ante los rumores de internet, de hecho yo tengo todavía por ahí la guía oficial gestada por Micromanía en la que se expone al detalle, pero vamos; eres libre de preguntarle a magno. Dicho lo cual el PIII de la Xbox tiene una mayor capacidad para ejecutar cálculos en coma flotante (2.9 GFLOPS) que el Gecko (1.6), la cual podría usarse como «vector unit» (menuda chorrada de hype con esto x cierto) aprovechando su juego de instrucciones x86 para tal menester, pero logicamente es algo absurdo teniendo la consola robustas unidades de vertex shaders totalmente programables para ello, y que el ancho de banda cpu-gpu es muy limitado para perderlo en esas movidas. Si te hubieses pasado hace años por Beyond 3D habrías leído a muchos ingenieros llegar a la conclusión de que la CPU de Xbox es mejor para tareas de propósito general (IAs, ordenación, emulación, etc) que el Gecko, a pesar de ser este último un diseño más eficiente, ya que los ciclos de reloj extra, la FPU, y determinadas instrucciones conseguían marcar diferencia al respecto. Donde cobra ventaja la CPU de Gamecube es a la hora de interactuar con la GPU; gracias a su generosa caché L2, el ligero extra en el ancho de banda en ese tramo (cpu » gpu), y en los numerosos sets de instrucciones dedicadas para implementar facilmente rutinas de software y apoyo al Flipper.

Por otro lado, que Rogue Squadron III funcione a 60 fps en GC y 12 en Xbox no me dice absolutamente nada, teniendo en cuenta que el juego de Factor 5 está programado a muy bajo nivel con microcodes específicos diseñados para sacar rendimiento al diseño concreto de la Gamecube. Pretender adaptar eso a pelo a un sistema contemporáneo que funciona a base de Direct X, y que no tiene EDRAM, es como pretender que una Ps2 cargue con un Shenmue en un port directo en lugar de rediseñándolo desde 0: un absurdo, porque de entrada va a quedar más feo que en Dreamcast.

Xbox es la consola más potente de su generación, no es ningún bulo; por pura fuerza bruta es con la que mejores resultados gráficos globales en cualquier género.

Otra cosa es que la Gamecube sea un diseño mucho más eficiente, y en determinadas áreas brille con luz propia, mientras que la más rígida Xbox pierda la hostia de rendimiento allá donde el cubito soluciona sin apenas esfuerzo, y hasta coxtetualmento algo mejor.

A ver si vamos a pasar ahora de infravalorar la Gamecube, a infravalorar un monstruo como la XBox, que está bien matizar que las distancias no eran tan enormes, pero que existir existen por amor del cielo.

Edit, anchos de banda Gamecube:

- CPU » Ram 1,3 GB
- GPU » Ram 3,6 GB
- CPU » GPU 1,3 GB

Con la EDRAM prefiero meterme al compararla con la de Ps2.

Anchos de banda X-Box:

- CPU » Ram 1 GB.
- GPU » Ram 6,4 GB, aquí no hay tu tía.
- CPU » GPU 1GB.

No tiene edram, luego ciertos procesos no pueden ser acelerados.

Ambas usan las GPUs como Northbridge.
Sexy MotherFucker escribió:@Señor Ventura estoy con el móvil, y de nuevo en una de esas etapas en que me tiro meses sin poder forear, pero no obstante voy a hacer un esfuerzo en mi hora de la comida.

La CPU de X-Box no es ningún Celeron, es un Pentium III coppermine hecho y derecho con todos sus registros e instrucciones intactas funcionando a 733Mhz, con la particularidad de que le caparon la caché L2 desde 256 kb a 128 kb para reducir costes, además de acondicionarla para uso directo de la GPU y de un acceso al sistema más eficiente, punto. Se apresuraron a desmentirlo justo en el lanzamiento de la consola ante los rumores de internet, de hecho yo tengo todavía por ahí la guía oficial gestada por Micromanía en la que se expone al detalle, pero vamos; eres libre de preguntarle a magno.


Parece ser que se queda a medio camino entre una cosa y la otra. Siempre pensé que era un celeron, pero por lo que estoy leyendo ahora tampoco es un pentium 3.

La GC también es custom, y está basada en un power pc 750 cx (IBM G3), pero mejorando su efectividad el rendimiento en operaciones de coma flotante

Sexy MotherFucker escribió:Dicho lo cual el PIII de la Xbox tiene una mayor capacidad para ejecutar cálculos en coma flotante (2.9 GFLOPS) que el Gecko (1.6)


Son 1.94 GFLOPS, no 1.6.

El problema está en la precisión, que en GC los cálculos en coma flotante son de 64 bits, y ahí ya cambia la cosa. La GC no dispone del set de instrucciones ALTIVEC, pero si del SIMD, que entre otras cosas permite operaciones de coma flotante de 128 bits en un solo ciclo de instrucciones.

Es decir, que los 1.94 GFLOPS son de precisión simple, pero puede emitir dos simultáneos de 32 bits, uno de 64 en dos bloques de 32 en un solo ciclo, o uno de 128 en cuatro de 32 en dos ciclos:
https://www.extremetech.com/extreme/491 ... -unwrapped

Imagen



Luego están los cuellos de botella que tiene el PIII con sus cachés y su frecuencia interna, que está muy bien rendir 2.9 GFLOPS, pero ni eso es un indicativo de rendimiento (te recuerdo que el 65816 tiene mas mips que el 68000), ni soluciona el problema del cuello de botella que le hace a su bus externo.

Sexy MotherFucker escribió:la cual podría usarse como «vector unit» (menuda chorrada de hype con esto x cierto) aprovechando su juego de instrucciones x86 para tal menester


Pillado.

Imagen

Sexy MotherFucker escribió:pero logicamente es algo absurdo teniendo la consola robustas unidades de vertex shaders totalmente programables para ello, y que el ancho de banda cpu-gpu es muy limitado para perderlo en esas movidas. Si te hubieses pasado hace años por Beyond 3D habrías leído a muchos ingenieros llegar a la conclusión de que la CPU de Xbox es mejor para tareas de propósito general (IAs, ordenación, emulación, etc) que el Gecko, a pesar de ser este último un diseño más eficiente, ya que los ciclos de reloj extra, la FPU, y determinadas instrucciones conseguían marcar diferencia al respecto. Donde cobra ventaja la CPU de Gamecube es a la hora de interactuar con la GPU; gracias a su generosa caché L2, el ligero extra en el ancho de banda, y en los numerosos sets de instrucciones dedicadas para implementar facilmente rutinas de software y apoyo al Flipper.


Pues me hubiera encantado leerlo, mas que nada porque a veces me da rabia no poder ahondar mas.

Solo una cosilla sobre el bus externo de la cpu de la GC, que si bien es solo un poco mayor, resulta ser de 64 bits, por lo que proporcionalmente es mas del doble de grande.

Sexy MotherFucker escribió:Por otro lado, que Rogue Squadron III funcione a 60 fps en GC y 12 en Xbox no me dice absolutamente nada, teniendo en cuenta que el juego de Factor 5 está programado a muy bajo nivel con microcodes específicos diseñados para sacar rendimiento al diseño concreto de la Gamecube. Pretender adaptar eso a pelo a un sistema que funciona a base de Direct X, y que no tiene EDRAM, es como pretender que una Ps2 cargue con un Shenmue en un port directo en lugar de rediseñándolo desde 0: un absurdo, porque de entrada va a quedar más feo que en Dreamcast.


Por lo que he leído, no pareció ser adaptarlo a pelo. Demasiados detalles daba, y demasiado rotunda fué esa afirmación.

No se, es que si algo sabemos, es que a la GC le penaliza mucho menos el texturizado en varios pasos. Obviamente no podemos comparar el chronicles of riddick con el rogue squadron como potencia gráfica, pero si que podemos extraer algunas conclusiones sobre el número de pasos y la poligonización obtenida.

Sexy MotherFucker escribió:Xbox es la consola más potente de su generación, no es ningún bulo; por pura fuerza bruta es con la que mejores resultados gráficos globales en cualquier género.


Es la que mejores resultados visuales consigue gracias a una memoria RAM muy grande, y una GPU orientada a emplear filtros gráficos por hardware sin pérdida adicional de rendimiento.

En una GC no puedes implementar por software la forma en que funciona por ejemplo el doom 3. Puedes conseguir un resultado visual razonablemente parecido funcionando de otro modo, pero esa GPU es inalcanzable de cualquiera de las maneras.

Sexy MotherFucker escribió:Edit, anchos de banda Gamecube:

- CPU » Ram 1,3 GB
- GPU » Ram 3,6 GB
- CPU » GPU 1,3 GB

Con la EDRAM prefiero meterme al compararla con la de Ps2.

Anchos de banda X-Box:

- CPU » Ram 1 GB.
- GPU » Ram 6,4 GB, aquí no hay tu tía.
- CPU » GPU 1GB.

No tiene edram.

Ambas usan las GPUs como Northbridge.


Solo un apunte. Como bien dices, la xbox no tiene EDRAM, y es el carecer de la caché de texturas de la GC la que le obliga a tener un bus grande. Además hay que tener el factor latencias de memoria, ya que las de la xbox son hasta 6 veces mas lentas.

La GC por otra parte no necesita mas que sus 2.6 GB/s (2.6, no 3.6, por cierto) porque la EDRAM le otorga la suficiente ventaja como para prescindir de ello (a 10.4 GB/s, que gracias a la compresión hacen 64 GB/s).

Mira, este enlace te va a encantar. Habla de como las xbox y GC precisamente tenían incluso demasiado bus de datos hasta en juegos como un doom 3 (la compresión de texturas multiplica por 6 el ancho total de ambos buses):
https://disruptiveludens.wordpress.com/ ... nt-page-1/
@Señor Ventura
(a 10.4 GB/s, que gracias a la compresión hacen 64 GB/s)


Te he leído esto antes, y quisiera apuntar que ese ancho de banda equivale exclusivamente al megabyte dedicado a la caché de texturas, no al espacio de los buffers, recordemos que la EDRAM de Gamecube está preasignada de serie

La cosa va a así:

- 2 MB para framebuffers, ancho de banda 7,68 GB/s.

- 1 MB para texturas, ancho de banda 10,4 GB/s. Sumado a la posibilidad de usar la compresión de texturas S3 del Flipper.

Pixel fill rate máximo: 648 megapixels.

Texell fill rate máximo: 648 megapixels.

P.D: Gracias por el enlace, lo leeré cuando tenga tiempo :_
Sexy MotherFucker escribió:@Señor Ventura
(a 10.4 GB/s, que gracias a la compresión hacen 64 GB/s)


Te he leído esto antes, y quisiera apuntar que ese ancho de banda equivale exclusivamente al megabyte dedicado a la caché de texturas, no al espacio de los buffers, recordemos que la EDRAM de Gamecube está preasignada de serie

La cosa va a así:

- 2 MB para framebuffers, ancho de banda 7,68 GB/s.

- 1 MB para texturas, ancho de banda 10,4 GB/s. Sumado a la posibilidad de usar la compresión de texturas S3 del Flipper.

Pixel fill rate máximo: 648 megapixels.

Texell fill rate máximo: 648 megapixels.

P.D: Gracias por el enlace, lo leeré cuando tenga tiempo :_


Si, cierto, solo estaba centrándome en la caché de texturas, que era lo mas gordo.
Un par de comparativas Dreamcast VS GAmeCube

Sonic Adventure
https://youtu.be/-2dSC9Qp6VY

Resident Evil 3
https://youtu.be/pMFsBxdkcFo
@Señor Ventura ¿cúanto espacio solía quedar libre de los 24 MB de 1tram para usar como vram después de ocupar los datos de programa y temas de workram?

¿La compresión S3 se puede aplicar de verdad directamente sobre el mega de la caché?
Señor Ventura escribió:Cuánto mas he leído sobre GC, mas he entendido las palabras de factor 5. Lo que si es insalvable con respecto a XBOX es la cantidad tan superior de texturas que puede almacenar en VRAM, y que su unidad T&L por píxel ahorra muchos recursos... pero luego ves el zelda wind waker, y te das cuenta de que un juego tan pasillero como el doom, con todos los recursos "vertex oriented" que tiene la GC, hubiera podido ser una posibilidad muy seria (la ingeniería inversa funciona, ya lo hemos visto muchas veces).
.


Factor 5 era tan buena como Rare exprimiendo el hardware de Nintendo, todo lo que tocaban se hacía oro. Fue una pena que al final no pudieran incluir el modo cooperativo mediante red local en Rogue Squadron III porque les llegaron las librerías tarde.

Sobre el uso de discos de 8cm, una de sus ventajas es que se rayan menos, los puedes pillar por los lados muy fácilmente, son menos susceptibles a sufrir de huellas y le dan ese toque especial a una consola que habría sido más grande de usar discos de 12cm.

¿Alguien sabe por qué Namco no sacó Soul Calibur 3 para GC? Si no recuerdo mal, Soul Calibur 2 con Link como personaje a elegir vendió bastante bien.
Sexy MotherFucker escribió:@Señor Ventura ¿cúanto espacio solía quedar libre de los 24 MB de 1tram para usar como vram después de ocupar los datos de programa y temas de workram?


Pues esto dependerá del LOD que le metas. No ocupa lo mismo la información de una geometría de 25 millones de polígonos, que una de 2 millones de polígonos.
Parece que los 12 millones de polígonos del rogue squadron 3 se acercaban a los 10MB de RAM, pero hablo muy de memoria, realmente no puedo decir la cifra exacta.

Lo interesante, es que para datos relevantes a las funciones principales de un programa (lo que defines como temas de workram), además del sonido, son almacenados en los 16 MB de SDRAM, quedando libres los 24 MB 1TRAM.

Básicamente, la cosa queda así:
-2 MB para Z buffer, deferred rendering, frame buffer, y es leído directamente por un motor de geometría específico.
-1 MB para caché de texturas.
-16 MB para sonido, animaciones, y pre-cacheo general.
-24 MB para texturas, geometría, e IA's.

Sexy MotherFucker escribió:¿La compresión S3 se puede aplicar de verdad directamente sobre el mega de la caché?


Si, es el equivalente a 6 MB de caché de texturas, con un ancho de banda de banda que en teoría debería ser de 62,4 GB/s (lo cual es una monstruosidad), pero creo que se debe quedar un poco por debajo en ancho de banda por algo que leí hace tiempo, aunque solo puedo extraer conclusiones vagamente.

La PS2 usa la VRAM como caché de texturas, pero ni esa memoria de 4MB es tan rápida, ni tiene tanto ancho de banda, y por lo que paerece no es usada solo para texturas, sino que ahí va también el buffer Z, y los custom buffers (como los del shadow of the colossus), ¿esto es así?.

Expansion_Pack escribió:Sobre el uso de discos de 8cm, una de sus ventajas es que se rayan menos, los puedes pillar por los lados muy fácilmente, son menos susceptibles a sufrir de huellas y le dan ese toque especial a una consola que habría sido más grande de usar discos de 12cm.


Una de las ventajas del lector de dvd's de gamecube, que nadie comenta, es que lee y envía datos el doble de deprisa que los lectores de dvd's del resto de consolas de su generación.

No solo significa que cargas una fase mas del doble de rápido, también significa que actualizas datos al vuelo el doble de deprisa que el resto. Luego la xbox tiene disco duro, lo cual lo hace todavía mas rápido, pero no el doble de rápido.
He leído por aquí algunas dudas sobre lo que se consigue pulsando el botón 'B' durante el arranque. Mencionar que mi primera GC fue la naranja japonesa con el cable VGA (D-Terminal modificado) conectado a un monitor Apple CRT, y todo para jugar en progresivo desde el principio, juegos originales americanos. Espectacular es quedarse corto, menuda experiencia de juego. Venía de la Dreamcast también por VGA en el mismo monitor, otra gran consola.
Y bueno, el botón B efectivamente hace que aparezca el mensaje en pantalla de si quieres o no modo progresivo. Lo que jamás perdoné a Capcom es que no sacaran RE Remake y Zero en progresivo, tenía que pasar a una tele pequeña y menudo royo.

Más tarde me compré la Philips PW9551, que para mí es la TV perfecta para GC y Wii, donde conecté ambas mediante video componentes y unos altavoces Logitech Z-5500.

Imagen

Una duda que tengo...
¿Es cierto lo de los 120 Tie Fighters en Roque Squadron 2?


Señor Ventura, da un gusto leerte increíble, todo eso que comentas del Doom 3 me ha encantado, pues nunca me saqué de la cabeza cómo habría sido una versión para GC! Y no veas cómo dominas, ¿eres programador?
@Señor Ventura en el hilo hablaremos de todo, ahora mismo estoy hablando con un exdeveloper de Volition que me está dejando loco.

Gracias por responder a todo esto.
Sexy MotherFucker escribió:@Señor Ventura en el hilo hablaremos de todo, ahora mismo estoy hablando con un exdeveloper de Volition que me está dejando loco.

Gracias por responder a todo esto.


Pero cuéntame maaaassssssss cawento

xD
Sexy MotherFucker escribió:@Señor Ventura en el hilo hablaremos de todo, ahora mismo estoy hablando con un exdeveloper de Volition que me está dejando loco.

Gracias por responder a todo esto.


Cuenta mas, no nos quedes a medias!!!
@KAISER-77
@Señor Ventura

Disculpad, no he pasado de vosotros, pero es que es tanta información acumulada, y debates que llevamos desperdigados sobre esta generación de consolas que creo que lo más práctico y aprovechable para el foro es abrirse un hilo propio, y yo ahora estoy escaso de tiempo.
467 respuestas
1, 2, 3, 4, 510