¿Qué aspecto técnico de los videojuegos os ha sorprendido más por su complejidad?

Buenas, al mismo tiempo si apetece, ¿cúal de ellos os costó más trabajo de entender?, hace unos días emulando juegos de CPS-2 recordé este video sobre su batería suicida, donde Eduardo Cruz explica la ingeniería inversa que utilizaron para revivir las placas afectadas por este problema, dentro de un método alternativo al inicial de Razoola, más evolucionado al permitir dejar la placa al natural sin modificarla ni tener que volver a inyectar el código, vaya por delante que soy de esas personas que se quieren morir cuando piensan en matemáticas, pero me dejó muy impresionado, más que otras ponencias técnicas sobre videojuegos, si bien admito que no he visto demasiadas.




Sólo curiosidad como siempre, gracias. :)
Yo tengo un amigo, que hizo su testis doctoral sobre paralelización de algoritmos de raytracing. Eso fue a finales del siglo pasado, principios del actual, hace unos 20 años. Ahora corremos juegos con capacidades de raytracing en tiempo real, que aunque evidentemente no son tan complejas como las que él ejecutaba en sus pruebas, le llevaban minutos en ordenadores potentes de la época. Me flipa, por tanto, el RT actual, aunque sea limitado.

Saludos
issus escribió:Yo tengo un amigo, que hizo su testis doctoral sobre paralelización de algoritmos de raytracing. Eso fue a finales del siglo pasado, principios del actual, hace unos 20 años. Ahora corremos juegos con capacidades de raytracing en tiempo real, que aunque evidentemente no son tan complejas como las que él ejecutaba en sus pruebas, le llevaban minutos en ordenadores potentes de la época. Me flipa, por tanto, el RT actual, aunque sea limitado.

Saludos


Aprovechando lo del RT, y hablando desde la retrospectiva (porque antes ni idea), hace meses al informarme sobre el RT supe más en profundidad de las técnicas para llegar a simular los efectos de luz que hoy el RT puede ofrecer de forma más realista (aunque con un enorme consumo de recursos).

Evidentemente, el RT es genial en cuanto a resultados, y el nuevo camino que yo firmo; pero a las técnicas viejas o trucos gráficos les veo el encanto de depender de la mano del programador. Lo mismo puedes ver una sala incoherente, con luces raras o fuera de lugar, como otra que parezca casi similar al RT en cuanto a realismo. Con avances como el RT, ese detalle diferenciador artesanal se va perdiendo, porque la máquina es la encargada de generar el efecto, y no tanto el programador.
Más que sorprender la palabra que usaría es fascinar: siempre me ha encantado la IA en los videojuegos. Conseguir que una máquina sea capaz de "pensar" e ir mejorando ese comportamiento cada vez más.

Además es algo que siempre nos ha acompañado, no es algo nuevo, la IA está en los juegos desde los primeros tiempos. Un simple buscador de caminos ya implementa una IA, y los juegos de ajedrez han sido uno de los géneros que más ha crecido.

Me fascina especialmente las IAs creadas en sistemas antiguos, me pregunto qué algoritmos usarían para recrear comportamientos "creíbles" con tan pocos recursos.
me viene a la cabeza el caso del eternal champions de MD, ya que el juego ajustaba la dificultad segun lo bueno que era el jugador.
El reciente dumpeo de Time Traveler para MAME, que ha sido implementado por primera vez en la versión de este mes (aunque no estará del todo corregido hasta la próxima), me ha dejado flipado.

It's captured at 10 bits per sample, 40 million samples per second. This was found to be a good balance in terms of USB3 bandwidth, and the lower sample resolution isn't an issue as the most important thing is frequency resolution. WAV (i.e. RIFF WAVE) is just a container format like AVI, though the most commonly-used data within the container is linear PCM at 44.1 thousand samples per second and 16 bits of resolution. You're not wrong that the resulting file is a series of samples, but it's like referring to any given video file as an "MP4".

The resulting captures (.LDS files) clock in at around 100 gigs for a single side of an hour-long disc, but can be compressed with FLAC for roughly 40-50% size savings, the resulting files bearing the extension .LDF. End-to-end, going from a single raw .LDF to a HuffYUV-encoded, AVI-containered video stream takes about 8 hours per 30 minutes of video on my 4.1GHz Zen 2 3950X (which has 16 cores and 32 threads).

Once you get past the laser pickup, LaserDiscs are almost completely different in terms of how they're read - or at least converted into data - compared to a CD. The pits and lands on a CD-DA disc translate directly into a self-clocked stream of bits. On a LaserDisc, it's not the pattern but the length of the pits and lands that matters. For all intents and purposes, it's an analog optical format.

Funny enough, audio CDs and LaserDiscs do have one point of overlap, which is that one of the two audio channels on the LaserDisc can contain data which has been EFM-encoded and then modulated onto the overall carrier. Prior to that modulation step before it's mastered onto the disc, the EFM data broadly resembles what you'd find on an audio CD.

The above point is one of the main reasons why the classic "just run the disc through a capture card" plan is flawed: You just plain can't capture the digital data. In the case of the BBC Domesday 1986 project, that means you can't actually get at the underlying databases, map survey data, and other things that the software needs to run. In the case of LaserActive games, it means you can't get at the relevant program code and data for the various MegaDrive and PC-Engine titles.

Having what amounts to everything on the disc, and doing the processing in software later, throws the door open to a wide array of methods for getting a theoretically-perfect capture. More and more LaserDiscs are succumbing to gradual "laser rot", where the metal layer stops adhering to the acrylic disc itself. This prevents the laser from maintaining tracking for brief moments, and results in little sparkles or brief portions of incorrectly-decoded video. This loss of tracking is usually accompanied by the RF signal from the laser pickup swinging well outside a nominal range, and so this can be detected by the ld-decode pipeline. It can then look at the next line, previous line, left/right on the same line, or even forward/back one field in order to find the best fit to fill it in.

For the ultimate capture quality, if you have 3 or more of the same disc from the same mastering run, and you've taken the time to get .LDS or .LDF captures of each one, then the ld-decode toolchain can perform a median function for every single Y/C sample of each capture. Statistically, the vast majority of dropouts are going to be on different spots in each disc, so given enough input captures from different discs, it should be possible to reconstruct a capture that is 100% dropout-free.


No pueden capturar la señal RGB porque con ello solo obtendrían el vídeo, pero no los datos necesarios para implementar el juego en MAME, con lo que capturan la señal RF en formato WAV y luego la pasan a vídeo + audio + datos. Una locura. Lo que no entiendo muy bien es cómo se implementaron el resto de LaserDisk en MAME y Daphne, hace ya décadas.
5 respuestas