Oystein Aarseth escribió:Viendo lo bien que funciona el tema del DLSS en Switch 2(supongo que en PC funciona mejor), creo que mas adelante se empezara a usar esto mas y mas en consolas, o sea el reescalado de resolución y frames por IA.
Se que esto no es nada nuevo pero creo que todavía se le puede sacar mas provecho, sobre todo para eliminar de algún modo las "limitantes" de las consolas, en lugar de enfocarse a los frames y resoluciones altas, las compañías pueden enfocarse a otros aspectos de los juegos y dejar el resto a la IA.
O quien sabe, igual usar la IA para el diseño de los juegos, lo cual no me gustaría porque eso supondría despidos y personalmente siempre he preferido la creatividad humana.
El DLSS como dije va camino de mutar a una IA generativa, ya tiene un modelo transformer, ya hay una base. Por contra la mutación no nos llevará a un mejor rendimiento, nos llevará a unos mejores gráficos con una caída del rendimiento, como ha ocurrido con este modelo transformer, a una especie de Raytracing en tiempo real, aunque la gente podrá seguir jugando con los modelos DLSS clásicos que hoy en día conocemos, por lo menos durante cierta transición hasta la total adaptación de la IA por los estudios de desarrollo.
Con el tiempo el render por IA va a sustituir al render de los personajes clásicos, se le dará un set de imágenes a la IA con el diseño del personaje, el escenario, etc... y esta renderizará el personaje basado en el dataset de cada elemento del juego por separado, también puede que no todos los elementos usen ese sistema durante la transición, solo unos cuantos.
Actualmente esto ya se puede hacer en tiempo real pero consume bastantes recursos a la par que se ejecuta el juego

En esta imagen el render solo funciona en la cara del personaje que la interpreta como Roger Clark, el verdadero actor de Arthur Morgan, también es una forma de modificar los juegos, aunque actualmente es más rentable hacer un modelo del rostro de forma clásica, aunque sea usando IA, por el tema de que una textura consume mucho menos que un render así.
De hecho diría que será la nueva tecnología que nos va a vender NVIDIA, entre otras, y nos va a sangrar bastante tal y como lo hace ahora con las rtx o más.
Volviendo al tema, creo que el tema de los comandos de voz va a ser algo revolucionario en todo aspecto, desde hablar con NPCs humanos de forma orgánica, llamar su atención, llamar a un animal por su nombre y poderlo entrenar. En tiktok hay muchos vídeos de usuarios jugando a juegos con la voz y la gente flipa bastante, son chorradillas de juegos, pero le han enganchado mucho a la gente normal, allí ves que como alguien se meta con eso en un AAA va a reventarlo.
Por eso he mencionado el tema del audio tracing, principalmente con la voz de los jugadores más que con los elementos del entorno, porque a medida que la interacción de nuestra voz con el juego a través del micrófono se vaya introduciendo en la industria y vaya agarrando relevancia, el audio se volverá igual de importante o más que la iluminación.