[HILO] DLSS5 - SUPER UPSCALERS por IA I El DLSS del futuro I Hiperrealismo en videojuegos

1, 2, 3
D_a_r_z_ escribió:Ahora mismo el concepto "IA" no deja de ser una especie de buzzword para muchas empresas quemando dinero y otras que si que tienen puesta pasta en algunos desarrollos que pueden llegar a tener un impacto positivo.
Pero creo que hay que tener siempre los pies en la tierra y pensar sobre desarrollos en aplicaciones más o menos realistas.

Ahí tienes el tema reescalado (que pudiera parecer un salvavidas para gráficas que se van quedando atrás y al final está siendo un salvavidas para desarrollos menos optimizados), asistencia para el desarrollo... pero no que pongas un prompt y de repente tengas un nuevo juego o el ejemplo en el que haces tanto hincapié, en un escalador de imágenes hiperrealistas. Que como ya comenté en el otro hilo, más allá de gustos o no gustos, la falta de un control creativo, si o si va a afectar negativamente a un desarrollo, y esto me da igual que sea un juego de corte realista o estilizado.

Si tu quieres pensar que esto es el futuro de los videojuegos, adelante. Pero para que algo funcione de verdad en los videojuegos, no basta con que sea técnicamente posible, también debe integrarse bien, ser estable y realmente mejorar la experiencia del jugador. Anda que no ha habido tecnologías muy prometedoras que se quedan en la etapa de prototipo y no llegan a ser productos que la gente pueda usar fácilmente... Además, que hacer proyecciones a dos generaciones de GPU te pueda parecer razonable, la historia ha demostrado que las predicciones tecnológicas no siempre se cumplen y pensar que pueda pasar en 10-15 años es prácticamente imposible.


no hay mucho más que añadir, por lo demás puedes volver en cuatro años o diez y dejar de ensuciar el hilo, aquí estamos para compartir resultados, no para llorar 50 veces sobre lo mismo en bucle, el título ya te dice que esto es futuro, si no te ha quedado claro deberías mejorar la compresión lectora, yo poco más puedo hacer.


Sobre esto. Esto no es compartir resultados, casi todo lo que has posteado son videos cortados y pasados por filtros, no tienen una aplicación en ningún juego real más allá de postearlo como curiosidad y hacer 400 videos al estilo "así será el iPhone 25 o la Xbox 720" y no parece que vaya a ser tampoco una realidad. Es una pena que pienses que las respuestas del compañero sean "ensuciar el hilo", en vez de tener una mente más abierta y tener un debate donde simplemente se aporta una perspectiva más completa y realista sobre los desafíos y limitaciones actuales.

Vaya que si el objetivo es hablar del futuro de los videojuegos, es perfectamente válido cuestionar las predicciones optimistas y señalar que la adopción de ciertas tecnologías puede ser más complicada de lo que parece.


Totalmente de acuerdo, quien sepa realmente cómo funciona este mundo sabe que las cosas no funcionan como pretende que funcione el OP.

Es como los vídeos demo del unreal engine, que todo se ve fenomenal pero no hay juegos que presenten esa calidad y encima los juegos que implementan el motor están llenos de problemas.
Veo más probable ver implementaciones de diálogos, secundarias y demás con IA con voz generada, pero buena parte de las reimaginaciones que veo en este hilo me parecen muy verdes. Hiperrealismo y artefactos/aberraciones es muy cantoso... En fin, ya veremos cómo evoluciona esto
A ver si el próximo Tom Raider se parece algo a esto generado por IA XD :

Parece que en este vídeo se les ha ido de madre la IA:
¿Starfield dónde estás?

@LynX tiene como un filtro de los años 60 y por eso se ve así, aún así la IA es genérica, se puede entrenar con un juego en concreto alimentándola de imágenes de lo que quieres que se vea y como, pero la gente que hace esos vídeos usa una IA genérica que es la que debe dar la empresa, aunque creo que como digo ofrecen la opción de poder crear modelos personalizados pero debe costar bastante dinero.
LynX escribió:Parece que en este vídeo se les ha ido de madre la IA:
¿Starfield dónde estás?


Que pasada, ojalá estar vivo cuando lleguemos a esa calidad técnica
Este está bastante mejor hecho:

Devs echando pestes y sin congruencia, veremos en un futuro a ver que tal:


Se les nota el resquemor y el desprecio que tienen por este tipo de tecnología, dejamos esto aquí para recordarlo más adelante, hablan de altividad pero se los ve poco altivos a ellos. [carcajad]

El argumento del español medio y porque la industria de este país está estancada en el indie: "Gente que no ha desarrollado videojuegos explicando como se desarrollan los videojuegos". Españoles medios que no saben que la mayoría de figuras relevantes actuales de la industria no tenían nada que ver con la programación ni la tecnicidad, aunque tampoco voy a negar que detrás esas figuras había buenos equipos técnicos, pero Sam Houser, Kojima, Todd Howard, Myazaki, Miyamoto, Mikami, Josef Fares podría seguir con la lista, estas figuras no saben programar ni esculpir y han creado géneros y son creadores de propiedades intelectuales de las mejores que se han hecho nunca, o las han impulsado a otro nivel, y no tienen una carrera en diseño de videojuegos, ni han pinchado código en su vida, en este país serían parias.


Sobre el efecto wow comparándolo con el internet... el efecto wow ha ocurrido siempre con los gráficos, cuando ha salido RDR2, RE4, P.T mismo, la gente se ha impresionado, en los gráficos de juegos siempre ha habido efecto wow, cuando se pasó del 2D al 3D o con el primer Gears of war o Dead Rising, aunque ahora ya no hay tanto porque los saltos no son tan altos y si no viene Rockstar o una empresa que sorprenda con algo concreto no ocurre, por ejemplo, Bethesda se ha quedado atrás tecnológicamente, se ha estancado completamente en todo, físicas, simulación de conducción de vehículos, animaciones faciales, etc...; el juego por ejemplo de bodycam, que era una triste demo preparada y que gran parte del wow de los gráficos es por la fotogrametría, por mucho que digan que es por el efecto deblur que le meten, que algo tiene de efecto en que parezca más real, pero la fotogrametría, que el entorno parezca real, es lo que más hace, y puede que ese escenario esté hasta incluso generado por IA mediante NeRF, de hecho la fotogrametría clásica está muriendo, va a ser sustituida por tecnología como gaussian splat, esto obviamente hablando de juegos que busquen fotorealismo.


Sobre que es un filtro, pues es un postprocesado, como lo puede ser otro filtro que le aplicas a un juego, la única realidad que hay que tener en cuenta es que esto aún no es real en tiempo real y por eso se dice que será el futuro, otra cosa sería que se dijera que es ya el presente y el ahora, pero vamos, que no se había visto algo así en la vida aplicado a todo tipo de juegos y es normal que sorprenda, es como la clonación de voz, de la cual casi nadie ahí se ha sorprendido, pero también existe; son cosas que no existían y aún menos producirlas en cuestión de segundos, el fotorrealismo este no se había logrado nunca antes de esta forma y si se había acercado algo eran prerenders muy concretos con Houdini u otro tipo de software muy específico que lleva meses de hacer, mucho trabajo y hecho por personas muy cualificadas técnicamente que se dejan meses o semanas, porque he visto simulaciones con Houdini que son alucinantes, eso si, aquí hablamos de diseño de entornos, si nos vamos a personajes ya es muchísimo más difícil, aunque he visto cosas sorprendentes, pero te las hace uno entre un millón, no cualquier escultor consigue esos flujos de trabajo y tiene esa calidad técnica, hablamos de prerenders de Houdini.



Por otra parte partamos de la base de que Houdini se usa para VFX en cine, para hacer parques y recreaciones o prototipos y efectos, no es algo que se utilice mucho en videojuegos salvo para efectos y luego está muy alejado de las simulaciones técnicas de esos vídeos, no tiene nada que ver, aunque son sorprendentes sus resultados visuales, yo lo he flipado muchas veces, pero es que no tiene nada que ver con esto, esto es un postprocesado que se puede aplicar directamente a un juego, eso es un motor para generar vfx y simulaciones, y creo que estamos mucho más cerca de poder generar imágenes realistas con eso que renderizando todos los polígonos que requeriría un render de houdini, la idea es menos polígonos y que el resto del trabajo lo haga la IA con un modelo prentrenado con imágenes y un dataset concreto para cada juego que esté ligado a cada elemento del juego.



Estamos hablando que si pepito, uno entre un millón, te hacía x gran trabajo en meses o semanas esto te lo saca en segundos, ignorarlo me parece que es estar muy desnortado, otra cosa es pensar que vamos a tener esto mañana corriendo en consolas o incluso PCs y que cuando eso sea posible será perfecto, esto ahora mismo es como el RT, que antes no se podía ejecutar en tiempo real, pero existía, aunque nadie lo pedía, la diferencia es que esto si lo queremos, por lo menos algunos, pero tiempo al tiempo, y no lo digo yo, lo dice el CEO de la empresa más importante de aceleración en gráficos e IA, que no creo que sea un desnortado, pero bueno, y me permito también el dudar porque me puedo equivocar, y el CEO de NVIDIA también, o quien sabe, igual nos está engañando para vender más GPUs.

Sobre lo de que la IA les va a quitar el trabajo, yo ahí no me meto, puede que a largo plazo ocurra, no sería la primera vez que ocurre, y si ocurre igual hay una transición en que aún serán demandados profesionalmente porque podrán generar renders básicos para filtrarlos por IA, pero pensar que mañana se van a quedar sin trabajo no es realista, y dudo que la gente les diga eso, de hecho estas tecnologías actualmente no son sustitutas de nada, aunque si las usas con cabeza pueden hacerte el apaño bueno para lograr cosas interesantes, y una persona que denosta tecnologías es una persona cerrada de mente, yo si tuviera un estudio y gente tan cerrada en ese aspecto no la querría a no ser que fuesen muy buenos en lo que hacen y los necesitase si o si, porque no quisiera que hubiera gente metiéndole ideas tan cerradas de mente.

No creo que se queden sin trabajo ahora ni en 10 años, pero quizás si deberán de actualizarse a nuevas herramientas, muchas de ellas de IA, pero vamos, eso ha ocurrido siempre, si estudio x trabajaba con x motor y se cambian a y igual te echan a la p calle si no sabes manejar el motor y, y solo hablamos de un cambio de motor, en el mundo tecnológico conviene estar despierto y no dormirse porque la tecnología siempre cambia y evoluciona, aparecen herramientas nuevas que son mejores, y eso es así y lo seguirá siendo, y con la IA guste o no va a ser una realidad, mi consejo es que sigan estudiando y que no se cierren a las tecnologías, pero ellos sabrán, luego que no lloren cuando un niño de 14 años consiga mejores resultados con un flujo de trabajo mucho más simple y rápido.


"Llevan dos años diciendo que es el futuro ¿Dónde están las películas de IA?"
Pues es que no hay, hay cortometrajes de IA, aún no hay control total sobre una escena 3D ni puedes ordenar a la IA "Actor tal con voz tal entra andando con posición chulesca y dice tal frase", eso aún no existe, no van a salir películas enteras ahora cuando se está aún luchando por controlar el lipsync, y aún menos bien hechas en dos años, es estar muy desnortado, pensar que la tecnología hace un pico de golpe, el desarrollo tecnológico es progresivo, por eso impresiona ver estos vídeos, porque es un salto, es un postprocesado que pega un salto visual e impresiona, en unos meses la gente ya estará cansada de estos vídeos, el efecto wow no durará siempre.

Es que yo creo que esta gente se monta más películas que nosotros, se piensa que en nuestra cabeza nos pensamos que ya hay películas por IA o juegos en tiempo real moviéndose así, y sus cabezas piensan eso, cuando lo que hay es un proceso de evolución que toma tiempo en establecerse, ni hay películas por IA, ni las habrá seguramente tan pronto, lo que habrá es experimentación, quizás alguna escena intercalada en una película, pero ya, que no se monten películas, que hace dos años teníamos a will smith comiendo espaguetis que daba grima y lo que hay hoy en día no tiene nada que ver, ha mejorado una barbaridad, pero tampoco como para pensar que ya se están haciendo largometrajes enteros o cortos de calidad, esta gente vive en una nube en su mundo de yupi.


Que por cierto, hablando de cine, se pueden hacer escenas muy chulas con esto, tu agarras un videojuego y puedes hacer escenas de película, algunas pueden salir muy buenas, los videojuegos van a ser un entorno brutal para crear escenas de cine, persecuciones en coche, saltos imposibles, situaciones peligrosas, etc... quiero decir, le veo más utilidad a la herramienta para hacer "cine" cutre usando ahora mismo un videojuego que como está haciendo la gente con imágenes estáticas de animarlas, incluso si tienes la habilidad de crear render 3D como igual saben hace esos chicos del vídeo, con un motor gráfico y pasarlo por la herramienta te puedes crear unas buenas escenas realistas de cine para una película indie como flujo de trabajo, ahí lo dejo, no te vas a crujir una película entera pero si quizás unas buenas escenas que serían imposibles para una persona que tiene pocos recursos.

De hecho ya hay algunos vídeos de alguien haciendo prerenders con runway simulando en GTA otros países como la india [carcajad]




Y eso que estas IAs, aún estando muy lejos de ser perfectas, porque lo están, no son tampoco tan aberrantes si se usan bien, el tema de los dedos raros los suelen respetar por ejemplo, algo que me he fijado es que runway pelea mucho con los elementos alejados, o con los detalles muy pequeños, las personas a la lejanía se ven raras, o los elementos como los vehículos alejados, pero en macro se defiende bastante bien, en planos cercanos, por eso actualmente yo tampoco la usaría en escenas de cine como persecuciones alejadas de cámara a no ser que la cámara esté muy pegada al coche, pero es que cuando estos modelos mejoren estoy seguro que se usarán para hacer cine independiente con simulaciones en entornos 3D porque sale más barato que contratar un stuntman o pedir permisos para grabar en x sitio con todas las movidas legales que acarrea, actualmente runway es que no renderiza ni en HD y solo tiene 10 segundos, entonces ya simplemente por eso, además de las aberraciones, no es una opción profesional para cine, aunque se puede hacer alguna cosa chula en entornos muy concretos, repito, en una escena concreta.

Sabiendo esto no entiendo como esta gente, repito, pueden pedir películas enteras dos años después de los cutres espaguetis de will smith, películas enteras va para diez años o veinte, lo que vamos a ver son escenas donde se usa IA en alguna de ellas, para rejuvenecer a personajes que ya están adultos para escenas donde interpreten su yo más joven, en efectos, en alguna secuencia, etc... pero es que no vamos a ver ya ni en cinco años películas de Hollywood enteras hechas por IA, eso es estar muy fumado.




Aterrizando un poco más en la realidad, con ese modelo se ve lo que se necesita, es bueno tener una referencia de lo necesario, aunque con gráficas de 20 GBs se puede también producir vídeo, aunque seguramente será muy lento y un modelo mucho más simple, con muchos menos pasos, el resultado no será tan bueno.


Hace un año teníamos solo imágenes, solo un frame, ahora ya tenemos vídeos, veremos que tenemos en otro año más o dos, si mejoran por lo menos los modelos, a nivel de calidad técnica, si hay HD, si hay mejor comprensión de la escena, etc... si hay más tiempo de procesado. Veremos si en cuatro sale algún modelo cutre que se ejecute en tiempo real con dos tarjetas, algo que ya he dicho muchas veces, que no sorprenda a nadie, ya que lo he dicho muchas veces lo de jugar por streaming de vídeo o usar dos GPUs en PC, la cuestión es conseguir el postporcesado en tiempo real, un runway en tiempo real no estaría mal, aunque al cambiar de escena con el mismo personaje te lo alucine diferente 20 veces.

Dejo este también por aquí:


Habla de STADIA como el futuro y un fracaso del futuro, el streaming de vídeo en videojuegos es una servicio más hoy en día y funciona, hay servicios de empresas que funcionan como geforce now, psnow, xcloud, alguna más igual hay ¿Amazon Luna? Así que si, es parte del futuro.

Y yo siempre he sido contrario a este tipo de tecnología, me refiero al streaming de vídeo, de hecho temo que se pueda imponer si los modelos de IA solo pueden ejecutarse con GPUs que cuestan un riñón, obligándote a pagar un servicio cloud, pero vamos, que el streaming de vídeo hace años que existe, no lo creó ni google con stadia ni incluso xbox con xcloud, creo que fue playstation que compró una empresa que se dedicaba a eso y lo integró en su servicio mucho antes de todo eso, digamos que playstation puso el servicio en marcha en 2014, que podías jugar a juegos de PS3 y stadia se lanzó en 2018 o 2019, vamos que el chaval si piensa que stadia era pionera en algo de esto es que está muy desnortado.

Lástima que tenga pánico escénico y no haga vídeos confrontando ese tipo de argumentos de esta gent porque son ridículos y sin sentido, y si, el streaming de vídeo, guste o no, es parte del futuro, por mucho que stadia se haya gastado un pastón en marketing lavándole el cerebro a la gente haciéndole creer que eran los pioneros en algo.


Sobre los NFTS y la blockchain no creo que ningún forero me haya oído hablar mucho, como mucho he hablado de implementar marketplaces en videojuegos, por ejemplo, crear construcciones en GTA o RDR2 y venderlas a otros para que las coloquen en el mapa, algo que le propuse a Rockstar siguiendo el modelo que siguen empresas como Mojang con Minecraft, no es nada nuevo, aunque no tengo ni idea si eso tiene mucho que ver con los NFTS o no, nunca me ha interesado ese tema la verdad, pero igual podría ser un caso parecido a lo de stadia, que ya existía pero que se vende de otra forma, esta vez con cripto divisas o vete a saber, no soy muy entendido en ese tema la verdad.


El resto del vídeo es hablando sobre runway sin tener ni idea como funciona y echando pestes, aunque en los comentarios por lo menos lo ponen en su sitio la gente que le sigue [carcajad]

Runway solo produce 10 segundos de vídeo consistente, por eso tiene esos cambios en esos vídeos de gameplays largos, es algo de loque ni se ha informado, y runway no genera un juego, no en esos vídeos, es una IA generativa que dibuja encima del frame, repito, sería como un efecto de postprocesado pero basado en IA, y aún lejos de ser perfecto.

Aunque el generador de text to vídeo de runway puede generar simulaciones de juegos, vídeos donde simula juegos, y ya hay juegos generados por IA como DOOM AI y otras historias que ya he hablado en el otro hilo de IA y videojuegos y que no me voy a matar a explicar por aquí, quien lea y no le suponga un esfuerzo que lo haga.


De todas formas esta gente ha agarrado los mejores vídeos de este tipo que se han encontrado por internet, a ver si tienen huevos de agarrar uno medianamente bien hecho y no los típicos de gameplay largo con cambios raros y prompts cutres, que repito, aún está muy lejos de ser perfecto, pero han agarrado lo mejorcito de youtube para hacer una crítica.

Y aún así reírse de eso que no es perfecto, repito, es como exigirle a un bebé de dos años que sabe correr, andar y que te aprueba primero de la eso que te saque matrícula de honor en una carrera técnica universitaria, es como los del otro vídeo que piensan que la IA ya debería estar generando películas de cine o si no no sirve pa na o hay que echarle mierda aunque haga cosas que en la vida se habían visto antes [facepalm]

Porque dudo que se haya visto esto antes
Imagen

Y negarlo es ser un desnortado.


Sobre lo que dice de la dirección de arte es cierto, se tiene que poder controlar la iluminación o los elementos como la ambientación, la vestimenta, etc... pero claro, habla sin saber las limitaciones del modelo, es un modelo genérico, es un modelo muy verde, y lo que hace en ciertos entornos es sorprendente, ahora, perfecto no es, no te vas a encontrar algo perfecto, es algo que acaba de nacer, ten un poco de piedad chico, valora lo bueno, está bien que critique lo malo, yo por ejemplo soy consciente de los problemas de este modelo, pero oye, que yo he visto cosas alucinantes también, yo puedo ver lo malo, pero también lo bueno.


Por otra parte, si mañana sale un modelo como runway en tiempo real no creo que la gente juegue con eso, porque es un modelo muy poco consistente, es una curiosidad tecnológica, en lo de la dirección tiene razón, si esto no va acompañado de un modelo pre entrenado, que ya lo hemos hablado, que asocie cada elemento del juego a elementos del modelo no tiene sentido, va a ser una ensaladilla rusa o algo poco preciso y poco consistente, y luego está la parte de poder analizar la geometría del juego, la iluminación y las sombras, para lograr formas más precisas y comprender mucho mejor esos elementos, no simplemente una imagen, hablamos de que tenga acceso a un mapa con profundidad, y para eso aún queda, bastante será si tenemos algo como runway en tiempo real dentro de cinco años, y esta gente le echará mierda igual porque no entenderá que el logro en ese momento habrá sido lograr que un modelo así corra en tiempo real sin ser un prerender a pesar de las aberraciones.


Y lo repito, te lo está diciendo un taiwanés que ha fundado la compañía de aceleración gráfica más avanzada del mercado, una persona que pertenece a uno de los países con el IQ más alto del mundo.
Imagen
@katatsumuri me he visto un poco el video principal porque no me puedo poner las 3 horas de este ni del resto de videos, no tengo tanto tiempo y de hecho ya voy a perder unos minutos contestandote. Pero bajo mi opinión, creo que ya puedes poner 400 videos, 600 gifs más (que por cierto se hace casi imposible navegar con el móvil por este hilo y otros donde has posteado estas cosas y no me extrañaría que en algún momento te den un toque por ello porque es horrible, en serio) que da la sensación de que quien echa pestes y no tiene mucha congruencia con lo que dice eres tú, siento ser tan crudo.

Me ha dado por mirar un poco la experiencia de este chico, Álvaro García y veo que ha trabajado en estudios de animación/VFX (ILM y DN nostamal) y ahora es director en un estudio pequeñito haciendo un juego, que oye yo no se como saldrá pero a la Whislist de Steam se ha ido para seguirle la pista. Yo no sé qué experiencia tienes tú en cuanto a desarrollo de videojuegos, más allá de mandarle "sugerencias" a devs :-| pero me parece que tiene una visión bastante natural sobre las IAs.

En esencia, que el filtro de hiperrealismo del GTA "realista" no tiene mucho recorrido más allá de videos virales típicos de reels o tiktoks (ese ejemplo que puse del iPhone 25 o Xbox 720 que se hacían hace 10-15 años) y que ya sea la IA o cualquier tecnología emergente llegará a su punto dulce cuando realmente encuentre su lugar donde aplicarla y sea beneficioso. Ya sea en algún juego o al animador, desarrollador que en vez de estar 30h en alguna tarea esté... 10h?.

Pero siempre bajo la premisa de que todo el aprendizaje que se pueda usar para sus herramientas, sea propio y no robado o tomado de otras personas sin autorización. Y qué gran razón tiene, esto lo comentan en el 57:41, con que esto puede llegar a ser un tema pasional y que ciertas personas se pueden sentir atacadas.

Iba a seguir comentando, pero es que según leo así por encima veo cosas como esta:

crear construcciones en GTA o RDR2 y venderlas a otros para que las coloquen en el mapa, algo que le propuse a Rockstar siguiendo el modelo que siguen empresas como Mojang con Minecraft,



Es que ya lo siento pero suena a puto cachondeo y no puedo tomármelo en serio. Lo siento y suerte, todo el hilo para ti, no merece la pena.
Te lo llevo al hilo de Rockstar donde se te explica bien, aún así no sé para que pierdo el tiempo con alguien como tú:
D_a_r_z_ escribió:Es que ya lo siento pero suena a puto cachondeo y no puedo tomármelo en serio. Lo siento y suerte, todo el hilo para ti, no merece la pena.
hilo_hilo-oficial-rockstargames_2363333_s100#p1755409457

Más que nada porque sirve de poco, pero haré un último esfuerzo.

D_a_r_z_ escribió:me he visto un poco el video principal porque no me puedo poner las 3 horas de este ni del resto de videos, no tengo tanto tiempo y de hecho ya voy a perder unos minutos contestandote.

No sé si te has dado cuenta pero en el momento que hablan del tema es en el minuto 43, no hace falta verse todo, yo mismo te he marcado el fragmento preciso donde se habla del tema, youtube permite hacer intersecciones de tiempo e incrustarlas en vídeo, y funciona tanto en teléfono como en navegador de escritorio, cuando das al play se reproduce justo la parte de la línea del tiempo que se marca. [hallow]

De todas formas no respondes nada, es lo mismo, X tipo trabaja de dev y ya es vaca sagrada para TODO relacionado con la industria, te repito, que es el problema de este país, desde luego que yo no le daré lecciones de como funciona el software que utiliza para crear vfx, pues es algo técnico que requiere de especialización y conocimiento, eso te aseguro que no lo haré, pero te aseguro que si el ceo de NVIDIA te está diciendo que los píxeles se generarán y no se renderizarán, y además están apareciendo tecnologías que lo hacen es que algo de razón tiene, pero vamos, que puede equivocarse como todos, o estarte vendiendo la moto cual zarrapastroso como con las VRAM.

Sobre su juego, le deseo lo mejor, ni siquiera he visto que tipo de juego está haciendo como para juzgarlo, puede que tenga muy buenas ideas, no me voy a meter en eso aunque ya buscaré el link y lo postearé en el hilo de juegos made in spain y daré mi opinión.

D_a_r_z_ escribió:Pero siempre bajo la premisa de que todo el aprendizaje que se pueda usar para sus herramientas, sea propio y no robado o tomado de otras personas sin autorización. Y qué gran razón tiene, esto lo comentan en el 57:41, con que esto puede llegar a ser un tema pasional y que ciertas personas se pueden sentir atacadas.

Sobre el tema ético de estos modelos, el material con el que son entrenados, ahí no me voy a poner malvado, yo veo bien que si se encuentra una forma de denunciar a estas empresas para regularizar que no usen contenido sin consentimiento para alimentar a sus IAs se haga, de momento aún no he visto que nadie haya podido parar a ninguna empresa de estas legalmente, ellas sabrán lo que hacen bien o mal y si tarde o temprano van a tener que remunerar a las personas afectadas si estas ganan la batalla judicial, es algo que tienen que pelear.

Yo también veo mejor que las empresas paguen a artistas que estén dispuestos a generar arte o datasets con datos para ellas para alimentar a sus máquinas, sería lo más ético y lo más justo, entiendo que alguien no se sienta identificado como esos chicos y diga "pues yo no quiero que mi arte se use para este fin", pero vamos, eso tampoco debería nublarte la vista hasta el punto de negar que lo que se está viendo con estos modelos de IA es algo chocante.


Que por cierto, hace nada le han tirado el github a Tencent de ese modelo de IA que se había entrenado con juegos como RDR2, the witcher 3, horizon zero dawn, Ghost of tsushima, etc... para crear mundos abiertos, lo vi ayer al revisar el hilo de IA [carcajad]

De todas formas, aunque se creasen modelos propios con material propio los artistas seguirían enfadados, porque creo que gran parte del problema es miedo a perder su trabajo, seguirían maldiciendo a la IA, debe ser como sentir que tu pareja te ha dejado por otro, las empresas ya no te necesitan, y eso tiene que generar cierta frustración y odio, el sentir que puedes ser reemplazado en cualquier momento por otro después de años dedicándote a eso.

D_a_r_z_ escribió: (que por cierto se hace casi imposible navegar con el móvil por este hilo y otros donde has posteado estas cosas y no me extrañaría que en algún momento te den un toque por ello porque es horrible, en serio)

La mayoría de mis hilos están llenos de vídeos y de fotos porque me encanta lo visual, y como no, también soy de "muxo texto", lo tengo to, solo tienes que ver las wikis también donde hasta he subido gifs de alta calidad, gracias que tenemos a imgur. [beer]

Pues forea desde un PC chico, yo que quieres que te diga, no tengo la culpa de que tu teléfono no cargue vídeos e imágenes que se postean, a mi me cargan bien y rápido, y creo que eres un 2024 de pocos meses como para estar tan altivo, no me extrañaría que seas un clon ya baneado con pretensión de trollear y confrontar porque me persigues por la mayoría de hilos con la misma intención que es siempre confrontativa, si no te gusta como pienso pues ya sabes, pensamos diferente, bienvenido a la diversidad, yo simplemente te digo que ya veremos.


Y te digo lo de altivo porque en otro comentario ya estabas incluso exigiendo que este hilo no debería de estar en este subforo, como si te molestase la existencia o presencia de este hilo, de todas formas tranquilo porque yo mismo ya he pensado varias veces en moverlo a multiplataforma, aunque puedes pedirlo por mi si quieres. [hallow]


Además estás en un hilo que es visual, aquí vas a ver comparativas visuales te guste o no porque el hilo va de eso, podemos hablar y mucho texto, pero aquí te vas a encontrar demostraciones visuales de esta tecnología desde el primer post hasta el último.

¿No te gusta este hilo? Lo tienes fácil, no participes. [hallow]
¿No te gusta si edito mucho o lo que pienso? Puedes ignorarme [hallow]



D_a_r_z_ escribió:En esencia, que el filtro de hiperrealismo del GTA "realista" no tiene mucho recorrido más allá de videos virales típicos de reels o tiktoks (ese ejemplo que puse del iPhone 25 o Xbox 720 que se hacían hace 10-15 años) y que ya sea la IA o cualquier tecnología emergente llegará a su punto dulce cuando realmente encuentre su lugar donde aplicarla y sea beneficioso.

Por otra parte reducir esto a reels de tiktok... lol tik tok es vertical, los vídeos que ves están en youtube en horizontal y algunos parecen trailers de películas, adaptaciones de juegos a series, se ve poco la intención de desvirtuar algo que molesta. Supongo que lo dices porque tiktok es la plataforma más desprestigiada por los adultos, es la red de los bailecitos y los niños adolescentes. ay dio mio chico [fiu]


Y si, ahora mismo esto no es más que una curiosidad tecnológica, bastante curiosa de ver oiga, no sé, ver un juego que parece un trailer de una serie, no sé, que quieres que te diga, pero si, no es aplicable a un juego en tiempo real, creo que ya se ha dicho en cincuenta posts, este hilo solo hace un seguimiento de como evoluciona este tipo de tecnología, no pretende que ahora mismo sea perfecta, ni dentro de cinco años, es un post que va para largo hasta que la tecnología se normalice y se adopte por la industria, si ocurre, que podría no ocurrir, también existe la posibilidad.


En este hilo nadie te ha dicho que esto se está usando ahora mismo para jugar a juegos, es que te repites con lo mismo cincuenta veces en forma de bucle, hacer volver al inicio, este hilo hace un seguimiento a una tecnología que está evolucionado y que será aplicada a los juegos en tiempo real.
Esto solo demuestra algunas cosas bastante interesantes.

Que los motores de juego jamas han sido realistas.

Que la captura de movimiento del GTA 5 parece de caricatura.

Que MGS V, y su captura de movimiento es una absoluta locura.

pero sobre todo....que esto no es el futuro....muchos moriremos antes de que esto se haga realidad.
¿Esto es real? Me parece bastante... poco creíble.
shimazaki escribió:Esto solo demuestra algunas cosas bastante interesantes.

Que los motores de juego jamas han sido realistas.

Que la captura de movimiento del GTA 5 parece de caricatura.

Que MGS V, y su captura de movimiento es una absoluta locura.

pero sobre todo....que esto no es el futuro....muchos moriremos antes de que esto se haga realidad.

Hombre, si moriremos es más que el futuro [+risas]

También tienes que pensar que GTA V es un juego de 2013 y MGS V es de 2015, para ese entonces muchas cosas ya se hacían mediante fotogrametría y la captura facial era más quirúrgica, se acercaba más a las técnicas de producción de cine, de hecho GTA V no se sabe si utilizaba marcadores faciales, yo diría que no los usó.

Piensa que el Marker-based creo que se empezó a usar en King Kong en 2005, en la película, pero en los videojuegos diría que no se adoptó hasta el 2013, bueno, quizás el primer juego que lo utilizó fue Heavy Rain, pero no fue hasta después de TLOU que no se empezó a estandarizar dentro de la industria del videojuego.

Incluso la técnica de captura de personajes mediante fotogrametría supongo que es mucho mejor, la cosa es que Rockstar tampoco da muchos detalles de como hace sus juegos, la tecnología que utiliza, de Kojima hay bastantes cosas, está bastante documentado MGS V. Los escenarios de MGS V también son increíbles, como se ven las rocas, si lo juegas a día de hoy sigue teniendo muy buenos gráficos.


Este vídeo está muy bien sobre el tema, explica la evolución y cuando se adoptaron esas técnicas



Imagen

La verdad que sería curioso saber como se hizo GTA V.


Y he mirado y no he visto esa técnica en TLOU1, así que pudo adoptarse más tarde por otros estudios.


En uncharted 4 es cuando creo que si empezaron a usarlos, bueno, creo no, en uncharted 4 seguro.


Así que antes fue MGS V, no sabría decir si hay otro juego entre heavy rain y MGS V que use esa técnica de captura facial, porque uncharted salió en 2016, un año después de MGS V.



Y como dije, Kojima también fue pionero con el tema de fotogrametría para el escaneo 3D



Pero es curioso, seguro que siguen usando muchas cámaras, pero hoy en día con gaussian splatting puedes hacerlo con una única cámara, aunque con un set de cámaras puede grabar animaciones tridimensionalmente y lograr resultados así:


Con posibilidad de capturar animaciones completas con sus texturas.
La tecnología, desde la aparición de la IA, tiene pinta de que tendrá un crecimiento más exponencial que lineal, así que en realidad no creo que haga falta que pasen décadas para ver algo así con unos resultados notables.
Muy interesante y también factible a medio plazo.
RDR2 con un overlay del señor de los anillos, la verdad es que ha mejorado bastante la consistencia y es curioso que se pueda lograr alucinar tanto respecto al juego original.

Me pregunto si con un data set de imágenes asociadas a los personajes, a los objetos y a los elementos del entorno se podrían crear reimaginaciones al vuelo consistentes, me refiero a que vas andando por el mundo y la generación de vídeo recibe datos del mundo 3D para alucinar el vídeo mediante imágenes asociadas, si te acercas a un PNJ que se llama paco pero quieres que sea gollum le das a la IA una imagen de gollum para que entienda como tiene que dibujar a ese personaje cuando te aerques en tiempo real, lo mismo con una casa o con un objeto, de esa forma podrías agarrar un juego como RDR2 y transformarlo en algo diferente pero con un core parecido, incluso podrías crear expansiones de mapa con un editor como el de GTA V, medio adaptadas a esa modificación modificada del mundo pero aprovechando los sistemas del juego que es lo más complejo de hacer, el motor en si, porque imagina que todo el mundo reimaginase el mismo juego pero con el mismo diseño de mapa, en el fondo se sentiría igual por la localización de cada poblado e interior, pero si modificas eso sería un poco diferente salvo en las mecánicas, y si eso sucediera estoy seguro que habría muchos programadores matándose a implementar nuevas mecánicas y animaciones custom curradas.
Lo pongo acá por que no me creo ni un poco que solo haga cambios a nivel iluminación. Claramente modifican los modelos con IA generativa y sino, mi cabeza sencillamente no puede procesar semejantes cambios.



De hecho, en casos como el del thumbnail, se ven exactamente los mismos problemas que tiene actualmente la IA generativa de imágenes.
Ukognos escribió:Lo pongo acá por que no me creo ni un poco que solo haga cambios a nivel iluminación. Claramente modifican los modelos con IA generativa y sino, mi cabeza sencillamente no puede procesar semejantes cambios.



De hecho, en casos como el del thumbnail, se ven exactamente los mismos problemas que tiene actualmente la IA generativa de imágenes.

¿Qué cojones?
Imagen
Parece como si le hubiesen metido un filtro de stable diffusion en toda la cara... habrá que ver todo esto en tiempo real, pero da miedito.

Por cierto, buen parpadeo generativo:
Imagen

[qmparto]
Que cosa más horrible, por dios jajajajajaja :p
Pues a mí me gusta aunque en algunos juegos quedará raro pero me gustan las caras ultra realistas de ai.
Jeje, al final se ha cumplido mi profecía de los dos años, ya puedo morir tranquilo, de hecho pensaba que no sucedería tan pronto aunque no lo vaticinaba a largo como otros hacían de 10 años o más, ese tiempo se lo doy más a que esta tecnología se vaya asentando y que aparezcan juegos generados con IA que funcionen con cierta lógica.


Decir que el hito de esto, lo que yo vaticiné, no es que fuese perfecto, como algunos pedían películas hechas con IA completas y perfectas en la primera página del hilo para ese entonces; lo que vaticiné es que de una u otra forma esto funcionaría con render en tiempo real, sin contar resoluciones y otros factores, así como que también decía que no iba a ser perfecto ya que para que sea perfecto la naturaleza del renderizado tiene que funcionar de otra forma más compleja.

El hito en si de esto es el render en tiempo real, eso es lo que debería impresionar, que no sea perfecto no es el problema, porque como es obvio es una tecnología nueva que se irá perfeccionando con el tiempo. Ya si el render puede ser en 4K 60fps sería mucho porque yo no esperaba tanto la verdad, en eso era bastante escéptico, y la verdad es que me ha impresionado bastante la consistencia y la calidad visual y fluidez en juegos que son AAA, que esto se esté ejecutando a la vez que se ejecuta un juego AAA, eso ya de por si es impresionante, lo que pasa que hay gente que mira al dedo y no al cielo, como siempre.

Con este primer lanzamiento habría que ver sobre todo el tema de la consistencia, que por ejemplo las caras de los personajes se hayan podido mantener constantes, aunque haya alguna anomalía visual, que se respeten los colores del entorno más o menos, que no cambien si te giras y te vuelves a girar, típico coche que se ve azul, te giras, y se ve luego amarillo, si eso viene en cierta parte superado es un doble hito.

Como técnica, creo que se podría intentar aplicar solo el render por capas, por ejemplo, renderizar entornos pero no personajes, o al revés, o hacerlo solo con algunos elementos como el agua, los animales, la vegetación, etc... sería como tener un PNG transparente que respeta ciertos elementos pero detrás de este se ven elementos de otra imagen.


NUEVA PROFECÍA DEL RENDER
Otra profecía que lanzo, que creo que ya lo he dicho por el foro, es que esto tarde o temprano funcionará con fine tunning con datasets personalizados, básicamente imágenes, donde cada imagen estará asociada a elementos diferentes del entorno. Así los desarrolladores crearán personajes de forma artística, igual una estatua, como Harold Halibut, que es de plastilina, y con cuatro cinco fotos en ese data set la IA al detectar al maniquí virtual en el juego le meterá esa textura concreta de las fotos, que básicamente sería como facilitar la fotogrametría en un juego a niveles extremos.

Actualmente creo que habrán entrenado un modelo generativo, que generalmente están entrenados con muchas otras imágenes, y posiblemente haya un submodelo entrenado luego con un dataset de cada juego, igual solo han ajustado el filtro para que reimagine lo justo, por eso digo que me gustaría ver la consistencia bien del modelo, como es su naturaleza, como se comporta, si hay consistencia o no, y si la recuerda.


Con el dataset de imágenes los artistas pueden crear sus propios modelos de personajes, incluso físicos, y que estos se traduzcan al juego en tiempo real con cuatro fotos. Por ejemplo, los personajes de Disco Elysium no se sentirían tan 3D, o lo mismo con Broken Sword, se mimetizarían mejor con esos fondos 2D prerrenderizados.


Tú irías andando por ese juego y te parecería un elefante llamado elefante_1 y ese elefante 1 estaría asociado a esas cuatro fotos o imágenes de referencia, luego elefante_2 tendría sus propias fotos. Incluso el modelo podría modificar las imágenes tomando muestras de los renders finales, si le lanzas una lanza un elefante y se la clavas el modelo tomaría una captura del elefante y generaría una modificación de su dataset original por una imagen donde tiene una herida, así que si luego te encuentras a elefante_1, 8 horas después de jugar, y le clavaste una lanza, este podría seguir con esa herida porque la textura del juego se hubiera modificado en tiempo real en el dataset de ese elemento del juego, esto sería aplicable a otros elementos.


Estos modelos tendrían la geometría concreta de cada elemento, que DLSS5 es posible que ya tome la geometría como referencia, pero me refiero a que cada elemento estaría identificado de forma individual dentro del juego para darle a la IA la orden de que en ese lugar de la pantalla tiene que dibujar ese elemento con esa geometría precisa.


Con los edificios igual, tendrían su propio dataset y cada vez que te acerques el motor se asociaría con el render por IA y se generaría el frame en la geometría del modelo basado en las imágenes que los artistas hayan creado para ese diseño, que este posiblemente no tendría textura en principio, o podría tener una textura muy básica, con elementos de guía muy básicos, los vehículos igual.

También podría haber un condicionante para el ambiente y la iluminación en cada zona basado en fotos, con efectos de partículas e iluminación renderizados a un nivel muy básico como referencia, pero que serían interpretados por la IA por encima en base a esas imágenes, igual que podría haber un filtro de arte basado en referencias artísticas reales que masterize la imagen en general para darle un toque generalista a todo el frame, si quieres que por ejemplo el juego parezca un cómic, su aspecto general, un poco como hace ahora este modelo, que todos los juegos los renderiza igual, pues eso haría que no fuese así, controlaría que pudieras hacer que eso no ocurriera, que es lo que se quejan ahora los anti IA, luego será otra cosa.


De esta forma todos los elementos del juego tendrían un control más exhaustivo sobre el rendering con IA mediante el data set, al final se formaría un render general pero que sería interpretado en base a cada elemento de forma independiente, eso haría que debajo de la capa del render original haya muy poco consumo de recursos y que todos esos recursos fuesen tomados por el render por IA
Al final Huang termina hablando de IA generativa, así que lo que decían que NO es SI.
Se va a poder seleccionar no solo donde se aplica sino también que tan profundamente se aplica. Yo descartaría de plano que se vaya a utilizar al nivel de Claire en RER, pero si me paree que va a ser interesantísimo que se haga en casos como FIFA donde el PJ solo se ve afectado por la iluminación y no hay un remodelado (y retexturizado) por IA.
Dicen que la tecnología de alguna manera trabaja anclada al modelo original, por lo que no va a haber inconsistencias como en la generación de videos.

En cierto punto el leitmotiv de este thread se alcanza tecnológicamente, pero por lógica va a ser descartado, quizás incluso antes de aplicarse oficialmente por la sencilla razón de que es horrible.
Al final la paja mental de @katatsumuri con la que nos venía dando la lata en múltiples hilos y pegando los mismos gifs una y otra vez se hizo realidad y mucho antes de lo que yo pensaba que sería posible, lo llamamos loco pero fue un visionario

Veo mucha gente tirando mierda pero la tecnología a mi me flipa, por mi que la metan en todos lados y hasta la garganta, eso sí, me imagino que esto será exclusivo de nvidia por un montón de años y esto no se verá en gráficas de amd ni consolas y tampoco se les va a esperar a corto plazo, por lo que la diferencia técnica seguirá siendo generacional, lo malo : exclusivo de la serie 5000

Habrá que ver qué costo de rendimiento tiene, por qué es algo que siguen sin revelar
@Pletesermerr a mi me choca porque hay gente que dice que dos 5090 y que lo intentarán llevar a solo una, eso es algo que dije, que yo me conformaba simplemente con el filtro en tiempo real, que por ejemplo se pudiera hacer con un vídeo, en un juego por streaming de xCloud, sin tener en cuenta la geometría, el tema de la geometría lo pensaba más para largo, yo me conformaba con el vídeo generativo en tiempo real aunque hubiera mucho inestabilidad como ocurría en los vídeos con prerenders.

En su momento también hablé de las dos GPUs, de que posiblemente iba a ser necesario tener dos GPUs, una para el juego y otra para procesar la IA generativa ya que viendo lo que consume generar vídeo no me imaginaba que se pudiera ejecutar en una misma GPU al mismo tiempo que se ejecutaba un AAA, si se logra eso sería también un gran logro a nivel tecnológico, pero me cuesta de imaginar.

Falta bastante información la verdad, no han sido claros del todo, solo han querido mostrarlo.
Es algo que tenía que pasar pero no pensábamos que sería tan descarado, y tan próximo.

Yo creo que la gente está echando mierda, yo incluido, porque lo que enseñaron ayer está muy verde, mal ajustado, exagerado, etc. Iluminación y mapeo de tonos violados sobre el vanilla, quizás buscaban efecto WOW y lo han provocado, pero en el mal sentido. Bueno al menos el debate está sobre la mesa, que es de lo que se trata.

Para muestra un botón de como queda si se mantiene mapeo de tonos, mucho mejor y respetando el material original en mi opinión:
https://imgur.com/a/dlss-5-fixing-post-bLIDOSx
katatsumuri escribió:Jeje, al final se ha cumplido mi profecía de los dos años, ya puedo morir tranquilo, de hecho pensaba que no sucedería tan pronto aunque no lo vaticinaba a largo como otros hacían de 10 años o más, ese tiempo se lo doy más a que esta tecnología se vaya asentando y que aparezcan juegos generados con IA que funcionen con cierta lógica.


Decir que el hito de esto, lo que yo vaticiné, no es que fuese perfecto, como algunos pedían películas hechas con IA completas y perfectas en la primera página del hilo para ese entonces; lo que vaticiné es que de una u otra forma esto funcionaría con render en tiempo real, sin contar resoluciones y otros factores, así como que también decía que no iba a ser perfecto ya que para que sea perfecto la naturaleza del renderizado tiene que funcionar de otra forma más compleja.

El hito en si de esto es el render en tiempo real, eso es lo que debería impresionar, que no sea perfecto no es el problema, porque como es obvio es una tecnología nueva que se irá perfeccionando con el tiempo. Ya si el render puede ser en 4K 60fps sería mucho porque yo no esperaba tanto la verdad, en eso era bastante escéptico, y la verdad es que me ha impresionado bastante la consistencia y la calidad visual y fluidez en juegos que son AAA, que esto se esté ejecutando a la vez que se ejecuta un juego AAA, eso ya de por si es impresionante, lo que pasa que hay gente que mira al dedo y no al cielo, como siempre.

Con este primer lanzamiento habría que ver sobre todo el tema de la consistencia, que por ejemplo las caras de los personajes se hayan podido mantener constantes, aunque haya alguna anomalía visual, que se respeten los colores del entorno más o menos, que no cambien si te giras y te vuelves a girar, típico coche que se ve azul, te giras, y se ve luego amarillo, si eso viene en cierta parte superado es un doble hito.

Como técnica, creo que se podría intentar aplicar solo el render por capas, por ejemplo, renderizar entornos pero no personajes, o al revés, o hacerlo solo con algunos elementos como el agua, los animales, la vegetación, etc... sería como tener un PNG transparente que respeta ciertos elementos pero detrás de este se ven elementos de otra imagen.


NUEVA PROFECÍA DEL RENDER
Otra profecía que lanzo, que creo que ya lo he dicho por el foro, es que esto tarde o temprano funcionará con fine tunning con datasets personalizados, básicamente imágenes, donde cada imagen estará asociada a elementos diferentes del entorno. Así los desarrolladores crearán personajes de forma artística, igual una estatua, como Harold Halibut, que es de plastilina, y con cuatro cinco fotos en ese data set la IA al detectar al maniquí virtual en el juego le meterá esa textura concreta de las fotos, que básicamente sería como facilitar la fotogrametría en un juego a niveles extremos.

Actualmente creo que habrán entrenado un modelo generativo, que generalmente están entrenados con muchas otras imágenes, y posiblemente haya un submodelo entrenado luego con un dataset de cada juego, igual solo han ajustado el filtro para que reimagine lo justo, por eso digo que me gustaría ver la consistencia bien del modelo, como es su naturaleza, como se comporta, si hay consistencia o no, y si la recuerda.


Con el dataset de imágenes los artistas pueden crear sus propios modelos de personajes, incluso físicos, y que estos se traduzcan al juego en tiempo real con cuatro fotos. Por ejemplo, los personajes de Disco Elysium no se sentirían tan 3D, o lo mismo con Broken Sword, se mimetizarían mejor con esos fondos 2D prerrenderizados.


Tú irías andando por ese juego y te parecería un elefante llamado elefante_1 y ese elefante 1 estaría asociado a esas cuatro fotos o imágenes de referencia, luego elefante_2 tendría sus propias fotos. Incluso el modelo podría modificar las imágenes tomando muestras de los renders finales, si le lanzas una lanza un elefante y se la clavas el modelo tomaría una captura del elefante y generaría una modificación de su dataset original por una imagen donde tiene una herida, así que si luego te encuentras a elefante_1, 8 horas después de jugar, y le clavaste una lanza, este podría seguir con esa herida porque la textura del juego se hubiera modificado en tiempo real en el dataset de ese elemento del juego, esto sería aplicable a otros elementos.


Estos modelos tendrían la geometría concreta de cada elemento, que DLSS5 es posible que ya tome la geometría como referencia, pero me refiero a que cada elemento estaría identificado de forma individual dentro del juego para darle a la IA la orden de que en ese lugar de la pantalla tiene que dibujar ese elemento con esa geometría precisa.


Con los edificios igual, tendrían su propio dataset y cada vez que te acerques el motor se asociaría con el render por IA y se generaría el frame en la geometría del modelo basado en las imágenes que los artistas hayan creado para ese diseño, que este posiblemente no tendría textura en principio, o podría tener una textura muy básica, con elementos de guía muy básicos, los vehículos igual.

También podría haber un condicionante para el ambiente y la iluminación en cada zona basado en fotos, con efectos de partículas e iluminación renderizados a un nivel muy básico como referencia, pero que serían interpretados por la IA por encima en base a esas imágenes, igual que podría haber un filtro de arte basado en referencias artísticas reales que masterize la imagen en general para darle un toque generalista a todo el frame, si quieres que por ejemplo el juego parezca un cómic, su aspecto general, un poco como hace ahora este modelo, que todos los juegos los renderiza igual, pues eso haría que no fuese así, controlaría que pudieras hacer que eso no ocurriera, que es lo que se quejan ahora los anti IA, luego será otra cosa.


De esta forma todos los elementos del juego tendrían un control más exhaustivo sobre el rendering con IA mediante el data set, al final se formaría un render general pero que sería interpretado en base a cada elemento de forma independiente, eso haría que debajo de la capa del render original haya muy poco consumo de recursos y que todos esos recursos fuesen tomados por el render por IA


Cuando lo vi me acordé de tu hilo jeje. Dicho esto, me parece una absoluta basura al menos lo que se ha enseñado. Mal camino llevan los juegos si esto se populariza. Todo vacío y sin alma, producido por máquinas, cargándote el trabajo de los artistas, vamos, lo mismo que pasa con la IA generativa y que todo el mundo puede ver.
Pletesermer escribió:Veo mucha gente tirando mierda pero la tecnología a mi me flipa


Pues porque hay gente a la que le gustan los videojuegos y no está dispuesta a pasar por el aro de ver cómo se les mete un filtro que se carga la mínima personalidad que tiene una obra, con caras e iluminación “ultra realistas” que parecen todas sacadas del mismo molde.

La tecnología avanza y puede flipar todo lo que quieras, pero el problema no es que exista, es cómo se aplica. Cuando usas siempre el mismo filtro, no mejoras nada, solo uniformizas, simplificas y empobreces.

Y sí, me alegro de que la gente esté reaccionando, ya no solo con memes, que esto recuerda al vídeo aquel de Will Smith comiendo espaguetis, porque aunque se perfeccione, el camino que está tomando es otro... que el control creativo lo acabe marcando lo que empuja Nvidia y las cuatro empresas de mierda que están jodiendo el mercado, no lo que realmente quieren el diseñador o la dirección de arte.

Al final todo empieza a verse igual, pierdes intención artística, pierdes estilo y pierdes identidad. Y eso, en un medio como los videojuegos, es pegarse un tiro en el pie ¿de verdad es esto lo que quereis?
Yo creo que mucha gente no es consciente que esto es solo una demostración prematura, luego habrá que ver cómo funciona con un juego desarrollado con esta tecnología como base y verla aplicada dentro de la propia visión artística de los desarrolladores

No es lo mismo mostrarlo en trabajos pre existentes que verlo materializado en un juego que use la tecnología como base y se tenga control de todo lo que se quiere plasmar a nivel artístico, seguro se veran cosas loquisimas en el futuro, pero como siempre, es más fácil sacar espuma por la boca, sobre-reaccionar y hacer el papel de cacería de brujas
SuperKillo escribió:Cuando lo vi me acordé de tu hilo jeje. Dicho esto, me parece una absoluta basura al menos lo que se ha enseñado. Mal camino llevan los juegos si esto se populariza. Todo vacío y sin alma, producido por máquinas, cargándote el trabajo de los artistas, vamos, lo mismo que pasa con la IA generativa y que todo el mundo puede ver.

Pues es que en general parece un filtro hiperrealista, un modelo genérico entrenado con imágenes reales, en algunos juegos encaja mejor que en otros, hay que tener en cuenta que muchos juegos están limitados por los motores gráficos, por ejemplo, los personajes de Bethesda se ven de determinada forma por la limitación del creador de personajes del motor, me refiero sin IA.

Mal camino no es, porque es un filtro opcional, y elitista, el problema es que esto fuese algo obligatorio, es simplemente una tecnología de añadido que la puedes usar o no, a mi la verdad que me fliparía activarlo de vez en cuando en algunos mundos abiertos.


¿Y qué no está generado por máquinas? Están poniendo el ejemplo de death stranding cuando la mayoría de empresas de AAA's usan fotogrametría, que es básicamente meter a una persona real rodeada de cámaras y hacerle fotos para crear un modelo 3D similar al de esa persona, la diferencia es la geometría que maneja cada motor y su forma de render.

El problema es que esta tecnología la tendrían que haber introducido poco a poco y a ser posible hiendo a juegos antiguos donde sea más fácil su asimilación, por ejemplo, juegos antiguos de coches, además que sería más fácil moverla desde una misma GPU al ser juegos viejos, otro ejemplo donde entraría muy bien es en juegos de deportes, que son de los que menos consumen recursos.
katatsumuri escribió:El problema es que esta tecnología la tendrían que haber introducido poco a poco y a ser posible hiendo a juegos antiguos donde sea más fácil su asimilación, por ejemplo, juegos antiguos de coches, además que sería más fácil moverla desde una misma GPU al ser juegos viejos, otro ejemplo donde entraría muy bien es en juegos de deportes, que son de los que menos consumen recursos.

Precisamente de lo enseñado ayer lo único salvable para mi gusto fue lo del Fifa (o como se llame ahora) con el jugador Van Dijk, quedaba bastante más natural y resultón que el resto de ejemplos de juegos modernos en los que chocaba bastante. Lo de Starfield y Hogwarts Legacy es aberrante.

También será interesante ver como lo implementan, entiendo que se podrá jugar bastante con el grado de procesamiento tanto en personajes, entorno, iluminación...buscando mejorar el vanilla sin cepillarse el arte original.
Pero que yo sepa está tecnología no se va a aplicar ni en starfield ni el requiem ni en hogwarts, simplemente usaron esos juegos como campo de pruebas, de ahí a posterior depende de cada estudio implementarlo o no a voluntad

Que alguien me corrija si me equivoco, pero veo a todos saltando espuma por la boca por mostrar una prueba de una tecnología en juegos que no se hicieron con ella en mente, que es lo mismo que pasa cuando metes RT mal adaptado a un juego antiguo 🤔
Pletesermer escribió:Pero que yo sepa está tecnología no se va a aplicar ni en starfield ni el requiem ni en hogwarts, simplemente usaron esos juegos como campo de pruebas, de ahí a posterior depende de cada estudio implementarlo o no a voluntad

Que alguien me corrija si me equivoco, pero veo a todos saltando espuma por la boca por mostrar una prueba de una tecnología en juegos que no se hicieron con ella en mente, que es lo mismo que pasa cuando metes RT mal adaptado a un juego antiguo 🤔


Bethesda ya ha dicho que va a implementar DLSS 5 en Starfield y otros juegos en cuanto salga.

Todd Howard ya ha visto el dineral que se va a ahorrar en actualizar el Creation Engine y en sueldos de modeladores, poniéndole un filtro de Instagram al próximo Elder Scrolls [+risas]
@Pletesermer si, ha sido hecho en colaboración con dichas empresas
Vamos a pasar de la falta de optimización apoyándose en el dlss a la falta de arte, nos quejamos de que los juegos con UE5 parecen todos iguales, verás cuando se empiece a implementar esto… el futuro de los videojuegos me da bastante grima
MrGeeeorgee escribió:Vamos a pasar de la falta de optimización apoyándose en el dlss a la falta de arte, nos quejamos de que los juegos con UE5 parecen todos iguales, verás cuando se empiece a implementar esto… el futuro de los videojuegos me da bastante grima

La gente se queja de que los juegos con UE5 parecen todos iguales porque VALVE mete pasta para enmierdar a EPIC, entre otras cosas.

Te recuerdo, y esto son hechos reales, no rumores o corrientes ideológicas que circulan, que el GOTY de 2025 es un juego hecho con UE5 y que se ha llevado el GOTY en varias otras galas, no solo como juego del año, también en subcategorías como la de diseño artístico, pero si, luego te dirán que UE5 se ve igual y que es una basura, que se está cargando la industria, igual que el launcher de epic es un virus, o que fortnite es el cáncer de los videojuegos, pero nadie dirá lo mismo de counter, de team fortress, de dota, o del nuevo juego mp que quiere sacar Valve, igual que nadie hablará de todos los casos de juegos en steam que si se están colando con malware curiosamente. [fiu]

Y adivina que juego seguramente se va a llevar el premio al mejor multijugador de 2026... por no hablar que casi se lleva el GOTY de 2024 Black Myth: Wukong

UE5 es un motor como cualquier otro, y muy pocos juegos tochos han salido con ese motor precisamente, si tuvieras 100 juegos para comparar aún, pero es que precisamente no tienes muchos juegos AAA que se hayan hecho con ese motor y los que han salido han sido una voladura de cabeza, como Silent Hill 2 remake, y bueno, cuando salga The Witcher 4 ya veremos lo que dice la gente que echa mierda de UE5 "ezuqe ez una modifikacion del motor", "ezke no es ue5 de verdad", me lo veo venir.


De hecho con DLSS5 está pasando eso, NVIDIA ha comprado a ciertas empresas para que implementen su tecnología, igual que ha comprado a digital foundry para que hablen bien, como lo hicieron del PT de RE9 viendo que sin PT la cara de Grace se veía como la de Gollum, pero precisamente allí, algunos que no ven bien esto, que es simplemente un modo opcional, hasta defendieron que estaba bien eso.

De hecho me hace gracia la gente que usa RE9 con la cara de Grace con PT de referencia para echar pestes del DLSS5 "Esto es destruir el estilo artístico", cuando el 99'9% ha jugado al juego con la cara de Grace que parece Gollum y ni mu han dicho, porque no creo que la mayoría de la gente pueda mover RE9 con PT.
Imagen


Baity batio "ze karga la dirección artístika" "parece un meme de twitter", pero no dirá que parece una jodida película, ni tampoco se habrá preocupado de como se veía la cara de Grace ingame para el 99% de jugadores X D, que parecía Gollum.


Porque eso de decir que el juego sin PT no se carga nada pues como que no ha tenido nadie huevos a decirlo más allá de cuatro gatos como yo y que hemos sido muy pesados con ello, y que incluso aquí algunos anti IA bros lo han defendido en el hilo de RE9 [carcajad] [carcajad]

Y en general no es Grace, es que son todos los personajes, León parece un adicto al crack y los NPCs que he visto también telita sin PT, y poca gente he visto quejarse, porque supongo que el estilo artístico es el mismo con PT y sin PT, supongo que es lo mismo jugar con León que parezca un tío adulto bien apuesto guapete a que parezca que lleva 5 años engañado duro a la heroína.

Hasta me tomé la licencia de hacer un meme, lástima de no ser baity bait para llegar a más gente con estas cosas, pero oye, que un filtro opsional que es magia negra es horrible.
Imagen


Aquí puedes ver a Darz anti IA defendiendo a NVIDIA y el sabotaje del juego con el PT antes de la salida de DLSS5
Imagen
hilo_ho-resident-evil-requiem-resident-evil-9_2519850_s1250#p1756595699
@katatsumuri toma otra vez, que igual no quisiste leer el otro día, ahí tienes al Requiem sin RT

Del mismo hilo que MANIPULASTE
https://www.reddit.com/r/residentevil/c ... ashcrofts/


Imagen



Imagen


A ver si vamos dejando de hacer ya el ridículo y manipular con las mismas imágenes de mierda.
D_a_r_z_ escribió:@katatsumuri toma otra vez, que igual no quisiste leer el otro día, ahí tienes al Requiem sin RT

Del mismo hilo que MANIPULASTE
https://www.reddit.com/r/residentevil/c ... ashcrofts/


Imagen



Imagen


A ver si vamos dejando de hacer ya el ridículo y manipular con las mismas imágenes de mierda.

@D_a_r_z_ creo que la primera imagen no mejora mucho la cosa [carcajad] [carcajad]
Y la segunda ya te dijeron que se oculta porque está oscura la imagen, no hay iluminación, oculta esos ojos de rana feos.

Tienes los vídeos de comparativas, se han sacado precisamente de vídeos como los del analista de bits y otra gente que se dedica a ello, no son imágenes modificadas o buscadas a mala gana
https://youtu.be/QlNlbOObGr4
El comercial de Nvidia llama a su puerta, señoraaaa!!! [+risas]
fonso86 escribió:El comercial de Nvidia llama a su puerta, señoraaaa!!! [+risas]

Hace cuatro días estaba atacando a NVIDIA por el sabotaje a RE9 con los rostros en pro de vender el PT, pero veo que no te has enterado, y ojo, que me parece genial el PT, pero no a costa de nerfear al 99% de jugadores y de forma forzada, porque la cara de Gollum de Grace no es un filtro opcional y nos la comemos el 99% de jugadores por haber favorecido a esa tecnología.

De hecho te he puesto que hace 4 días el que te ha dado +1, que es anti IA, estaba defendiendo eso X D, de que lo de Grace no era para tanto oye, luego presuntamente le preocupa mucho el diseño artístico [carcajad]

A mi me preocupa tener que jugar viendo una cara en low cuando tengo el juego en ultra, y el que te ha dado manita precisamente tiene una 5090, así que todo está dicho. [carcajad]
hilo_ho-nvidia-geforce-rtx-5000_2507243_s19650#p1756474852

Imagen


Yo siempre he sido un forofo de la tecnología y de los avances tecnológicos, si NVIDIA es la vanguardia en eso no tengo la culpa, si fuese AMD pues sería AMD la malvada, y entonces yo sería un vendedor de GPUs de AMD. [rtfm]
@katatsumuri si forofo ya se te ve que eres, ahora te queda disfrutar de los videojuegos, porque si lo hicieras entonces sabrías por qué se critica esto y no la tecnología en si, pero supongo que es demasiado para ti que intentas yassificar absolutamente todo.

Suerte intentando flamear, revisando los +1... estás loco chico.
@D_a_r_z_: ¿Pero te afecta en algo un modo gráfico opcional chico? He tenido que buscar que significa eso de yasificación porque no estoy tan a la moda con esas cosas, y al buscarlo no lo entiendo, porque luego por otra parte si apoyas la Gollumficación de León y Grace, y porque los zombies ya son feos de por si y pasan por alto, tiene esa suerte el juego ingame [carcajad]
Lo digo porque he visto NPCs del principio y sin PT también se ven su caras que telita en ese tramo de la ciudad.

Por otra parte DLSS5 no yasifica a grace, por lo que he visto que es yasificar que es como un meme, Grace se ve casi como la actriz real y se respeta su geometría original que está basada por fotogrametría en un modelo de la actriz real ¿Sé ve algo diferente? Pues si, obviamente porque parece una persona de carne y huesos, real, no un motor gráfico que en su afán de buscar cada vez ser más peliculero y realista se tiene que amoldar a las limitaciones del hardware, pero tampoco una barbaridad, se ve como se vería una película del juego siendo fiel a su imagen, no se ve como un meme.
Imagen

¿Eso está bien? Pues depende, habrá juegos a los que les sentará mejor que a otros, habrá cosas que mejorar, tener un mejor control de las sombras y de ciertos elementos que quizás aún no se tiene, pero vamos, que no es algo mandatorio, no lo uses y punto, o me das a mi tu 5090 y yo te doy mi 3080 y verás que no tienes ese problema. [burla2]


Imagen
Imagen
Llevas +12 ediciones intentando contestarme, otras tantas en los otros mensajes, con +7 años aquí y más de 16000 mensajes… ¿y aun así necesitas rehacerlo y editarlo una y otra vez?

Aparte de lo dicho de saber disfrutar de los videojuegos, deberías saber cómo funciona un foro de discusión. Aunque, viendo cómo retuerces el mensaje, queda claro que el argumento no se sostiene por mucho que lo retoques.

Igualmente, yo ya he dado mi opinión.
D_a_r_z_ escribió:Llevas +12 ediciones intentando contestarme, otras tantas en los otros mensajes, con +7 años aquí y más de 16000 mensajes… ¿y aun así necesitas rehacerlo y editarlo una y otra vez?

Aparte de lo dicho de saber disfrutar de los videojuegos, deberías saber cómo funciona un foro de discusión. Aunque, viendo cómo retuerces el mensaje, queda claro que el argumento no se sostiene por mucho que lo retoques.

Igualmente, yo ya he dado mi opinión.


Tienes que esperar a que el mensaje pase por el DLSS 5 para ver cual es su forma final.

No has entendido el concepto.
D_a_r_z_. escribió:Llevas +12 ediciones intentando contestarme, otras tantas en los otros mensajes, con +7 años aquí y más de 16000 mensajes… ¿y aun así necesitas rehacerlo y editarlo una y otra vez?

Edito el mensaje +12 veces porque básicamente puedo hacerlo, el foro tiene esa naturaleza, como si quiero ir a un mensaje de hace 5 años y cambiarlo por completo o cambiarlo cada día. De hecho cuando edito, si te fijas, que sabes perfectamente el motivo por el cual lo hago, ya se ha hablado, añado una letra o un signo de más al nick para que no se mencione +20 veces.

D_a_r_z_. escribió:Aparte de lo dicho de saber disfrutar de los videojuegos, deberías saber cómo funciona un foro de discusión. Aunque, viendo cómo retuerces el mensaje, queda claro que el argumento no se sostiene por mucho que lo retoques.

Igualmente, yo ya he dado mi opinión.

Una opinión no es decirle a los demás lo que tienen que hacer, como tienen que disfrutar algo, o como tienen que funcionar según ellos, porque entonces todo el mundo sería como tú, que es en parte precisamente el miedo que te hace esta tecnología curiosamente, que todo se vuelva lo mismo e igual.

Y te aviso, eso no es cierto, porque esta tecnología puede tener muchos usos, desde convertir juegos con PEGI +18 a PEGI +12 al vuelo, que anulen el gore o que incluso conviertan cosas que dan fobia a cierta gente en otros elementos, adaptación visual a personas con problemas visuales, algo que hoy en día muy pocas empresas hacen por los costes de realizarlo y el poco público que representa esa gente, sacar filtros promocionales, como por ejemplo poder jugar a GTA VI con un modo con los artworks originales de la portada y de los carteles promocionales, con esa estética comic vice, poder usar un modo con las caras de los actores reales en futuros relanzamientos de juegos ya existentes, por ejemplo, usar la cara de Roger Clark en vez de la de Arthur Morgan, etc... Y podría seguir, eso o caer en esa dicotomía catastrofista que tienen algunos en algo que es 100% opcional y que si se apoya con esa visión positivista puede derivar en muchas más cosas positivas que catastrofistas, como ha sucedido a lo largo de la historia con muchas otras tecnologías.

Ten por seguro que si esto fuese mandatorio, si NVIDIA me obligase a ello, no la desarrolladora, NVIDA, y todos los juegos se terminasen viendo así, que lo dudo, porque esto solo es un modelo generalista y bastante es que pueda moverse en tiempo real, que esa era la predicción y el hito, más allá de que no sea perfecto o que tenga un mejor margen de control, además que nadie priva a ningún dev de seguir desarrollando juegos de forma clásica, así como de desarrollar su propia tecnología de render, si NVIDIA me forzase a jugar todos los juegos así sin que esa fuese la visión original del creador, yo te aseguro que sería el primero en criticarlo.
Se esta juzgando de manera muy general algo que evidentemente da resultados muy particulares aun dentro de cada juego y en el caso de RER dentro de cada personaje (Claire en la escena en el exterior tiene un nivel de modificación enorme con respecto a Leon, pero también respecto a la propia Claire en la escena en interiores). De hecho, creo que es esa es la mayor intriga que genera y es que la gracia de esta tecnología es antes que nada obtener resultados sostenidos a nivel interno y recién después la posibilidad de graduarlos según la necesidad, algo que de todas maneras es extremadamente necesario.
De poco sirve esta tecnología si en un frame tenes un modelado muy bueno y lleno de detalles que se ajusta a la imagen y tono en general, como en este caso para un par de frames después tener una imagen que parece hecha por un GPT cualquiera como esta. Y no me digan que es una cosa de iluminación o gestos, por quien hay diferencias claras en ambos modelados y no solo en lo que se perciben como filtros, que de por si en la segunda imagen son horribles.

El problema con esto y como ocurre cada vez mas con el Ray Tracing es que los juegos cada vez rebajen mas sus gráficos lo que convierta a la opción de desactivar estas tecnologías en poco menos que un crimen de lesa humanidad.
De hecho, lo esta haciendo Crimsom Desert con un Ray Tracing que no tiene prácticamente ninguna de las bondades de esta tecnología y un Ray Reconstruction que agrega cosas que están en cualquier juego ya en sus opciones graficas medias como algunas sombras u oclusión ambiental.
Ukognoss escribió:De poco sirve esta tecnología si en un frame tenes un modelado muy bueno y lleno de detalles que se ajusta a la imagen y tono en general, como en este caso para un par de frames después tener una imagen que parece hecha por un GPT cualquiera como esta. Y no me digan que es una cosa de iluminación o gestos, por quien hay diferencias claras en ambos modelados y no solo en lo que se perciben como filtros, que de por si en la segunda imagen son horribles.

Eso lo sabremos cuando se lance el modelo y lo puedan analizar personas con criterio, digital foundry está pagada por NVIDIA y hablarán lindezas de todo en relación a NVIDIA.

A mi me interesa mucho ver como se comporta el modelo, si es cierto que no me voy a portal mal, voy a ser benevolente, porque entiendo, en mi forma de ver esto, como ya he dicho, que el hito es simplemente el render en tiempo real, y si ya es a una resolución 4K apaga y vámonos.

Si esto se ejecuta junto a un AAA en una 5090, lo siento pero para mi ya es suficiente, me refiero a suficiente en este lanzamiento, no a largo plazo, obviamente, pero actualmente, conociendo la tecnología, yo no le voy a pedir a un bebé de 2 meses que anda que se ponga a dar volteretas o que sea ya con dos meses campeón olímpico, ya solo con ver que anda alucinaría.

Ukognoss escribió:El problema con esto y como ocurre cada vez mas con el Ray Tracing es que los juegos cada vez rebajen mas sus gráficos lo que convierta a la opción de desactivar estas tecnologías en poco menos que un crimen de lesa humanidad.

Podría ocurrir, pero eso es culpa de la empresa que hace el juego, no de la tecnología. En principio todo esto acabará como motor gráfico, los motores gráficos al tiempo funcionarán con esta tecnología en el momento del desarrollo, obviamente no todo se verá igual que lo que se ha presentado, como muchos quieren pintar con este modelo generalista, como puse ya el ejemplo de que se podría hacer que GTA VI se viera como los artworks si quieren, hay que entender que este modelo es como un modelo generalista hiperrealista, el primero del mundo en tiempo real para juegos, punto, en un futuro se pueden crear modelos entrenados con artworks concretos para x juego, artworks reales hechos por artistas a mano, y aplicar ese filtro de artwork con más o menos fuerza sobre el juego para lograr un resultado artístico muy concreto, desde lo que he dicho de GTA VI con ese diseño cómic tropical hasta que parezca un juego de psx, y luego todo lo que he dicho de muchas otras funciones que puede tener el juego, como un modo para personas con poca visión, o un modo sin gore para abarcar público de menos edad o para captar público que es sensible a ciertas cosas, etc...
katatsumuri escribió:Edito el mensaje +12 veces porque básicamente puedo hacerlo, el foro tiene esa naturaleza, como si quiero ir a un mensaje de hace 5 años y cambiarlo por completo o cambiarlo cada día. De hecho cuando edito, si te fijas, que sabes perfectamente el motivo por el cual lo hago, ya se ha hablado, añado una letra o un signo de más al nick para que no se mencione +20 veces.

Hacer un mal uso de la herramienta también es ir contra el funcionamiento del foro. Es molesto, muy molesto. No es solo que edites porque no revisas antes, es que vas cambiando el argumento y añadiendo cosas cada pocos minutos, hasta el punto de que se hace imposible seguirte o contestarte. Va en la misma línea que cuando metes gifs, fotos o vídeos en exceso y rompes la navegación del hilo. Ya te han borrado contenido, avisado y editado más de una vez. Lo sabes y aun así sigues.

Repito, ya he dado mi opinión. No va de decirte cómo tienes que disfrutar los videojuegos, sino de que dejes de montarte escenarios absurdos sobre lo que podría ser y disfrutes los juegos como son...

Y que no se critica la tecnología, sino la implementación. En este caso concreto, este filtro de yassificación es una basura. Tal y como lo han enseñado, no solo se carga la intencionalidad artística, es que en muchos casos incluso empeora la iluminación.

Luego, cuando salga, ya veremos qué implementación se hace o se deja de hacer… pero tal y como está ahora, es mierda de perro mierdón.



fonso86 escribió:
Tienes que esperar a que el mensaje pase por el DLSS 5 para ver cual es su forma final.

No has entendido el concepto.


Qué has hecho Jensen Huang
Imagen

[qmparto] [qmparto]


Que pida una beta, a ver si por una vez es capaz de decirle lo que tiene que decir sin editar 847538947598 veces [qmparto] [qmparto]
115 respuestas
1, 2, 3