Nvidia avanza hacia la generación de cabellos realistas y animaciones complejas por IA, sin captu...

La inteligencia artificial generativa está empezando a dejar de ser una simple curiosidad y perfilarse como una tecnología con un potencial que apenas comenzamos a vislumbrar. Nvidia lo sabe mejor que nadie. La firma estadounidense lleva años explotando las numerosas posibilidades de la IA en sus soluciones de consumo y profesionales, y ahora se prepara para dar un nuevo salto con la generación de animaciones realistas de forma semiautomatizada, creadas únicamente en base a materiales de referencia.

Los últimos avances de la empresa han sido exhibidos en la convención Siggraph 2023, donde ha ofrecido un primer vistazo a los algoritmos que podrían mover las herramientas de creación de personajes del futuro. Entre sus demostraciones encontramos un proyecto realizado en colaboración con investigadores de la Universidad Stanford que es capaz de crear animaciones 3D de un jugador de tenis a partir de vídeo en 2D.


Según se puede apreciar en el vídeo, los movimientos del personaje parecen ser de tipo esquelético (nada fácil para una IA), replicando con bastante realismo la rotación y la extensión de las diferentes partes del cuerpo, imitando servicios y reveses sin necesidad de utilizar costosos sistemas de captura de movimientos. De hecho, Nvidia asegura que esta tecnología podría ser muy interesante para reducir costes de desarrollo, por más que las animaciones finales puedan requerir algún que otro ajuste manual.

Otro avance interesante es el uso de IA generativa para crear cabelleras con movimientos creíbles. El método desarrollado por Nvidia pone fin a los peluquines 3D de toda la vida, simulando "decenas de miles de cabellos" animados mediante una red neuronal que es capaz de predecir su movimiento en el mundo real. Como referencia, una cabeza humana posee unos 100.000 cabellos.


Más allá de su impresionante efecto, lo más interesante de esta tecnología es que ha sido optimizada para su uso con "GPU modernas" y se ejecuta en tiempo real, por lo que podríamos verla implementada en videojuegos más pronto que tarde.

Finalmente, y por terminar el resumen de las tecnologías basadas en IA desveladas por Nvidia, podemos señalar otra innovación potencialmente interesante: el uso de texturas comprimidas mediante redes neuronales.

Esta solución permitiría evitar los problemas de espacio y uso de memoria de vídeo que aparecen cuando se quieren utilizar texturas ambientales de muy alta resolución. La aproximación de Nvidia resulta novedosa, puesto que utiliza "pequeñas redes neuronales" específicas para cada material frente al modelo ambiental de DLSS.

ImagenLas texturas con compresión por IA podrían ser de gran utilidad para juegos de próxima generación.

Nvidia asegura que su técnica reduce drásticamente el uso de la memoria VRAM, brindando una calidad comparable a los métodos tradicionales. Si por el contrario se mantiene el consumo de VRAM, es posible brindar hasta 16 veces más téxels, manteniendo todavía su ejecución en tiempo real.

Fuente: Nvidia
900p 30 FPS sin pelos.

Con pelos al igual llegamos a 240p. Lo retro vuelve!
Claro, porque incrementar las ias y avanzar en el gameplay lo dejamos para otro dia....

Lo siento por kratos... no podra protagonizar mas videojuegos...

En serio. Para cuando un juego de rol que los npcs reaccionen como dios manda o tengan dialogos decentes.? Nos perdemos en la parte visual y luego todo acaba siendo de carton puedra
el futuro va a ser muchas tontearías de estas, se van a olvidar de que lo mas importante es que hagan un videojuego divertido
Supongo que necesitará poca VRAM para funcionar ...
Para cuando los nuevo "Virtua Tennis" e "Imagina ser peluquero"?
Próximamente todas las peluquerias del barrio para decidir el estilo de pelo que quieras [+risas]
Nvidia siempre a la cabeza de las innovaciones, solo que como de costumbre a coste de oro. No quiero imaginar si esto llega a los juegos lo q va a requerir
Muy importante lo del pelo que será lo primero que desactive para ganar rendimiento porque no me interesa. Sobre el vídeo ese de tenis pues aún le queda bastante por mejorar pero van en buen camino.
hadoken está baneado del subforo hasta el 17/5/2024 06:56 por "Hater de Xbox"
Imagen
Como inicio para ciertos desarrollados mola. Habrá que ver qué se necesita también. Si cobran millonadas o requiere de potentes GPUs, pues se impondrá la realidad.
Llevo tanto tiempo oyendo esto que al final me quedaré calvo [+risas] [carcajad]
mogurito escribió:Muy importante lo del pelo que será lo primero que desactive para ganar rendimiento porque no me interesa. Sobre el vídeo ese de tenis pues aún le queda bastante por mejorar pero van en buen camino.

imagínate que en un juego como GTA puedes torturar a un personaje arrancándole el pelo para que te de información, creo que así ya te parecerá más atractiva la cosa, aunque tardaremos en ver algo así tan realista salvo que sea una secuencia scripteada, no como mecánica de juego orgánica (que la puedes realizar en cualquier momento con cualquier NPC).

O pillarle el pelo a alguien en una máquina y que le pise la cabeza, claro que ya estamos hablando de un realismo extremo.

Luego eso se puede usar como simulador de cortar el pelo y la barba, a nivel de desarrollo profesional e incorporarlo en juegos, no solo en simuladores, pero la gente por norma general tirará de diseños por defecto.


Lo que me parece más interesante es esa herramienta de emborrona las texturas, ahora falta otra para crear diferentes lods de forma automatizada y ya estaría, bueno, ya de paso que todo eso se monte automáticamente por parte de la IA sería brutal, pues habría que optimizar muy poco ya.
Pues no se las quejas, para estas cosas la IA esta de puta madre. Estudios pequeños y grandes podrían tener acceso a cosas las foto-realistas sin tener que gastar un pastizal.
Y aquí el primer hater de los juegos foto-realistas (o que TODOS los putos AAA sean hyperrealistas).
mucha demo tecnica pero juegos intergeneracionales muy lejos de lo que nos muestran en estas cosas, como en cada generación.
Nvidia HairWorks es el grafeno de los videojuegos. Nunca falta a su cita.
blomatik escribió:mucha demo tecnica pero juegos intergeneracionales muy lejos de lo que nos muestran en estas cosas, como en cada generación.


Totalmente, mucha resolución, iluminación (RT etc..) y boost de FPS tirando de IA, pero en cuanto a físicas (destrucción etc..) en la mayoría de juegos se han dado varios pasos atrás, los movimientos y animaciones siguen siendo muy mejorables, hay muchas otras cosas aparte de la resolución, iluminación y texturas que están por mejorar y/o implementar en la mayoría de juegos AAA.

Veremos cuantos años tienen que pasar para ver juegos similares a lo que se ven en las Demos de NVIDIA, UE5 y demás.
Si el Ray tracing ya chupa un huevo y parte de el otro. No me quiero imaginar cuando se junten las dos tecnologias... quizas las RTX 8xxx puedan con todo. Por un modico precio de 6000€ la GPU...

Lo que me parece los mas interesante es lo de las animaciones. A dia de hoy la mayoria se notan aun muy por debajo de lo visual. Y el contraste muchas veces queda bastante feo.
Acabo de añadir el llongueras haircut ed coleccionista a mi lista de deseados. Viene con unas tijeras y un contrato de aprendiz de peluquero de regalo.
Joder, como empiezan a cansar estos videos . Y luego nos vienen con Forspoken, RedFalls, Star Wars a 25fps...y demás historias.
Pues a mí me viene a la cabeza el PUREHAIR de los Tomb Raider, la verdad es que visualmente tenerlo activado mejora en lo visual aunque lastra en rendimiento.
Esperemos a ver cómo va avanzando el tema.
Es curioso que el tiempo de desarrollo de los juegos siga creciendo aunque cada vez haya más herramientas que se supone que deberían acortarlo. Acaso es humo lo que venden o simplemente muestran en estos videos herramientas que tardará años en implementarse?
datar escribió:Es curioso que el tiempo de desarrollo de los juegos siga creciendo aunque cada vez haya más herramientas que se supone que deberían acortarlo. Acaso es humo lo que venden o simplemente muestran en estos videos herramientas que tardará años en implementarse?


No tengo respuesta, pero sí una opinión: para usar esto al final tendrán que pasar por sus tarjetas gráficas. Un win-win de esos que se dice ahora.
Y en ese futuro no habrá stock de las tarjetas que lo muevan. [qmparto]
Darkcaptain escribió:
blomatik escribió:mucha demo tecnica pero juegos intergeneracionales muy lejos de lo que nos muestran en estas cosas, como en cada generación.


Totalmente, mucha resolución, iluminación (RT etc..) y boost de FPS tirando de IA, pero en cuanto a físicas (destrucción etc..) en la mayoría de juegos se han dado varios pasos atrás, los movimientos y animaciones siguen siendo muy mejorables, hay muchas otras cosas aparte de la resolución, iluminación y texturas que están por mejorar y/o implementar en la mayoría de juegos AAA.

Veremos cuantos años tienen que pasar para ver juegos similares a lo que se ven en las Demos de NVIDIA, UE5 y demás.

Te quejas del boost de fps tirando de IA, pero por lo menos existe, es un gran avance que con una 3060 puedas jugar a juegos a 4K en ultra que no podrías sin DLSS.

Las físicas consumen muchos recursos de la CPU, no pueden ponerse como se quieran, es muy difícil conseguir entornos 100% destruibles y que estos den estabilidad en un hardware como el de PS4 o XBOX ONE queriendo además que el juego tenga buena IA y se vea bien. Además de eso programar físicas es una tarea muy complicada que requiere de conocimientos muy avanzados en física y matemáticas, desarrollar las físicas de cero de algo en concreto puede llevar meses o años, véase la cuerda de TLOU2 que llevó a una persona tres meses de trabajo, para que veas que no lo puede hacer cualquiera y que un detalle tan insignificante se come tres meses.

Ahora gracias a la IA se están consiguiendo simulaciones de físicas a través de simplemente ver vídeos, por lo que en un futuro, no quiere decir que ahora, puede que veamos cosas bastante interesantes, aunque igual nos sorprendemos estos años que vienen, y seguiremos limitados por el hardware local, que creo que ese es un problema que tendremos en el futuro, la IA avanzará tanto que la limitación estará en el hardware doméstico, aunque eso ocurre ya hoy en día y antes, por ejemplo el RT ya existían pero se prerrenderizaba en cine y no estaba en juegos porque era muy difícil renderizarlo en tiempo real, pero ya existía, pero la diferencia para entonces será abismal.

Lo único que podría salvar un poco la cosa sería la aparición de procesadores cuánticos domésticos, lo que vendría a ser un cambio radical en la arquitectura actual en PC, que yo creo que pronto estará obsoleta o convivirá como híbrida.

Las animaciones corporales generalmente se hacen con trajes de captura de movimiento que cuestan un ojo de la cara, muchas empresas no tienen acceso a ellos ni a la tecnología más novedosa, luego está el tema del scripting, hacer que todas esas animaciones cuajen en conjunto y que sean variadas para lograr diversidad y que no parezcan repetitivas y clunky, una tarea que se junta con las físicas, y aún así en juegos AAA vemos que si, animaciones muy chulas pero el personaje tiene las justas, y ya es un trabajazo, porque además hay que animar al resto de personajes, que puede que no sean ni humanos, y estos hay que hacerlos a mano, para lo cual se requieren profesionales altamente cualificados en animación, no basta con un actor con un traje.


Y no hablas de la IA, que es otro proceso que lleva la CPU, programar IAs es super complejo, mucho, de lo que más cuesta programar junto a las físicas, hacer que los personajes se muevan por los entornos de forma inteligente es una jodida rotura de cabeza que no está al alcance de cualquiera, véase redfall.
La extraña obsesión que tenemos con los gráficos "capilares" [+risas]
A mi una de estas me vendría bien...si me vuelve a salir pelo...
blomatik escribió:mucha demo tecnica pero juegos intergeneracionales muy lejos de lo que nos muestran en estas cosas, como en cada generación.


r00mezkuh escribió:Claro, porque incrementar las ias y avanzar en el gameplay lo dejamos para otro dia....


Lo decís como si fuera responsabilidad de Nvidia hacer juegos.

La gente ya no sabe ni qué críticar. Será ahora culpa de Nvidia que los estudios triple A le dediquen más dinero a hacer cinemáticas que a diseñar juegos.
r00mezkuh escribió:Claro, porque incrementar las ias y avanzar en el gameplay lo dejamos para otro dia....

Lo siento por kratos... no podra protagonizar mas videojuegos...

En serio. Para cuando un juego de rol que los npcs reaccionen como dios manda o tengan dialogos decentes.? Nos perdemos en la parte visual y luego todo acaba siendo de carton puedra


The Legend of Heroes.
r00mezkuh escribió:Claro, porque incrementar las ias y avanzar en el gameplay lo dejamos para otro dia....

Lo siento por kratos... no podra protagonizar mas videojuegos...

En serio. Para cuando un juego de rol que los npcs reaccionen como dios manda o tengan dialogos decentes.? Nos perdemos en la parte visual y luego todo acaba siendo de carton puedra


Eso ya está en camino, Galactic Civilizaciones IV por ejemplo va a incorporar como gran novedad la generación de contenido a través de IA, donde se generarán razas y conversaciones para que cada partida sea distinta.
El futuro, ponerse a contar pelos y a mirar que las losas del suelo parezcan igual de reales que las del casco antiguo de tu ciudad [poraki]
Y como siempre será una tecnología made in Nvidia y sólo se podrá aplicar en sus gráficas y en cuatro juegos contados.

Los avances de Nvidia la mayoría lastran el progreso. Una empresa codiciosa que sólo mira por lo suyo y que le da igual ver morir sus proyectos con tal de no liberarlos.
para que no le tripee la peluca a Lara? [jaja]
Ya lo he dicho muchas veces ... cuando se empezaron a meter con la parte de las FISICAS, PARTICULAS, objetos con propiedades, peso, flotabilidad, etc etc etc (con Havok ... 2003 ... ojo, 20 años ya) se decía que seria el futuro ...

Y bien, han pasado 20 años, y no veo que haya juegos mejores en ese aspecto al propio Half Life 2 ... ni en puzles que puedas realizar para perjudicar a tus personajes ... ni que tu sombra sea visible por los enemigos, ni que los escenarios queden destruidos por movidas que pasan a tu alrededor ...

Es decir, al final ... estamos en las mismas o peor. Porque precisamente con el RT ... lo único que se ha logrado, es perjudicar el rendimiento en detrimento de otras cosas que considero mas importantes ...
@Eraqus Perdona mi escepticismo. De cyberpunk tambien dijeron que seria mundo abierto, que podrias entrar en todos los edificios y demas cosas y a la hora de la verdad..
Conocéis algún juego que lleve tecnología propietaria de nvidia y se pueda jugar decentemente de salida con su gama media-baja [comor?]

Una mierda mejoran estos. Estos meten capa sobre capa a cascoporro para que tengas que usar dlss y sus fakes frases para venderte a precio de oro.
@katatsumuri Precisamente Nvidia dispone de su tecnología Physx que ejecutaban de lujo sus tarjetas gráficas y la quitó y volvimos a la ejecución por procesador...
Los modelos generativos de IA van a suponer una revolución increible en los videojuegos.

Desde las físicas, animaciones, sonido y voces e incluso gráficos o texturas. Es decir un subidón importante en cuanto a inmersión. Va a abaratar mucho los costes en tiempos de desarrollo ofreciendo mejor resultado en casi todos los apartados. Es que incluso van a mejorar las interacciones con los NPC drásticamente.

Y ademas son herramientas que cualquier estudio podrá aprovechar.
rubencbr escribió:@katatsumuri Precisamente Nvidia dispone de su tecnología Physx que ejecutaban de lujo sus tarjetas gráficas y la quitó y volvimos a la ejecución por procesador...

Yo diría que sigue estando
Imagen
Vivimos en la época del humo: mucho prometer, mucho enseñar... pero al final, nada se lleva a la practica... todavía seguimos con la mayoría de juegos "next-gen" con gráficos de ps3... y los que van un poco más allá piden pcs de 3 mil euros...
metalgear escribió:Nvidia siempre a la cabeza de las innovaciones, solo que como de costumbre a coste de oro. No quiero imaginar si esto llega a los juegos lo q va a requerir

Que todo chupa, pero en la noticia está diciendo, mirando en la última parte de la misma con la imagen comparatoria de texturas, que por una cantidad (más) ínfima de mbs de vram vas a tener mucha más calidad de texturas, si llevamos esto a un ejemplo práctico, sería como jugar con tu preset de siempre en X juego con el que más cómodo juegas por una cuestión de calidad/rendimiento, solo que ahora, pero una pequeñísima parte (según esa comparación), tendrás mucha más calidad a cambio de una pequeña perdida, y siendo así, nada impediria que bajases un punto la calidad para tener más rendimiento que antes (por disminuir calidad) solo que en esta ocasión todavía tendrías mayor/mejor calidad de texturas por una compresión más optima.

No se si me explico [+risas] yo lo veo estupendo y supuestamente no debería de requerir mucho más que algo sin ese tipo de compresión, muy poco más, esto en la teoría claro, es lo que dan a entender xD
r00mezkuh escribió:@Eraqus Perdona mi escepticismo. De cyberpunk tambien dijeron que seria mundo abierto, que podrias entrar en todos los edificios y demas cosas y a la hora de la verdad..


Puedes entrar al juego a verlo tú mismo. Todavía está en su primera iteración pero es brutal ver cómo puedes crear razas dándole una serie de inputs al juego.
Ahora los estudios se darán tortas para implementar este nuevo avance y poder decir que están a la cabeza de la innovación.... a costa de recortar tiempo de otras partes del desarrollo.

Que oye, todo tiene que avanzar, y los progresos en todos los ámbitos deberían ser positivos.... el problema es que últimamente tengo la sensación de que muchos estudios dedican más tiempo a pulir el moldeado del flequillo del prota y sus aliados que a balancear el juego, mejorar el trasfondo o la optimización. Pero esto tampoco es culpa de la tecnología, sino más bien del marketing que los estudios quieren hacer de ella.
Mucho video alucinante de pelos, rayitos de colores, polvo, tierra, vegetación, caras con emociones, y cuando lo trasladamos a un juego nos aparece un Forspoken a 30 fps
Tanta IA tanta IA y la usan para todo menos para IA de enemigos en el propio juego xD. Habrá más IA en el pelo que en el “cerebro”, manda cojones.
desde luego Nvidia es especialista en este tipo de cosas para vender hardware.

ya paso con Physx, que luego en 360 veias cosas muy muy parecidas
raytracing, pelos, ropa, etc es el futuro parece

en gamecube se ven juegos que siendo reflejos e iluminacion precalculados dan el pego de lujo, pero esta claro que meter cosas que dan el pego y gastan pocos recursos no vende hardware.
Impresionante lo que están consiguiendo con las IAs generativas en tan poco tiempo. No me quiero ni imaginar que tendremos dentro de 10 años.
55 respuestas
1, 2