Unreal Engine muestra el soporte para raytracing en tiempo real y animaciones faciales avanzadas

Actualización: El hardware utilizado por Epic para la demo estaba basado en una estación DGX-1 con cuatro unidades de procesamiento para inteligencia artificial Tesla V100. Su precio debería rondar los 70.000 dólares. No es necesario decir que llevará un tiempo ver algo con calidad similar en equipos domésticos.

Noticia original: Como todos los años, Epic Games ha querido hacer suya la Game Developers Conference con la presentación de las últimas características añadidas al motor Unreal Engine. Que en esta edición del evento han sido de gran calado. La más importante de ellas tal vez sea el soporte para la tecnología de trazado de rayos a través de DirectX Raytracing, una interesantísima tecnología gráfica de la que os hablábamos hace muy poco y que destaca por su capacidad para plasmar sombras, reflejos y efectos de iluminación de altísima calidad.

Epic ha recurrido a su asociación con Disney para la demo, haciendo protagonistas del segmento a la tropa de asalto de La Guerra de las Galaxias. Todo el segmento se ejecuta en tiempo real (no se puede pedir menos a Unreal Engine), mostrando las posibilidades gráficas abiertas por la incorporación de DirectX Raytracing al repertorio de trucos del motor.



Lo que la compañía no ha señalado es la clase de hardware necesario para mover la demo. Será sin duda sustancial.

La aceleración del trazado de rayos por hardware solo está presente en estos momentos en las tarjetas Titan V de Nvidia, con un precio de 3.100 euros, y de hecho EA Seed se llevó tres unidades para la también impactante demostración técnica de Project PICA PICA. A estas alturas no cabe la menor duda de que esta es una prestación que solo comenzará a ser explotada seriamente cuando Nvidia lance su generación de tarjetas de consumo basadas en Volta.

Animaciones faciales mucho más detalladas

Además de sus avances gráficos relacionados con el raytracing, Epic también ha querido ilustrar las capacidades de animación facial avanzadas incorporadas en Unreal Engine. Adentrándonos de lleno en el valle inquietante, la actriz china Bingjie Jiang ha cedido su rostro para dar vida a un avatar generado en tiempo real usando un sistema de captura muy parecido al utilizado en el desarrollo de Hellblade, pero que aparentemente no requiere de marcadores sobre la piel.



Tal vez aún más espectacular es la demo protagonizada por el siempre expresivo Andy Serkis, más conocido por interpretar a Gollum (El Señor de los Anillos), César (El Planeta de los Simios) y Ulysses Klaue (Marvel). No solo por el realismo de su digitalización, sino por la impactante forma en la que sus gestos pueden ser exportados a modelos con una fisionomía alejada de la humana.




3DMark y AMD se vuelcan también con el raytracing

En otro orden de cosas pero sin dejar el trazado de rayos, Futuremark ha dado a conocer una nueva demo sobre DirectX Raytracing. Todavía no disponible públicamente (ni prisa que le corre a los finlandeses viendo la que lleva Nvidia), este nuevo benchmark sirve para mostrar el potencial gráfico en tiempo real de la nueva API de Microsoft.

Entre las prestaciones enumeradas por la compañía se cuentan el renderizado de reflejos en tiempo real y con gran precisión de objetos dinámicos, incluyendo aquellos que existen fuera de la cámara principal, y reflejos con corrección de perspectiva sobre todas las superficies en escena, incluyendo aquellas que normalmente no incorporarían este efecto.


El sitio oficial de la compañía tiene varias capturas animadas de gran tamaño ilustrando dichos efectos con mayor claridad.

Por último, AMD ha confirmado en la GDC la incorporación de la tecnología de trazado de rayos en tiempo real en el motor de renderizado Radeon ProRender. Su implementación se realizará de forma mixta con el habitual renderizado por rasterización para mejorar los efectos de iluminación.


A diferencia de Nvidia RTX, que tiene un carácter bastante general y funciona con DirectX, ProRender se basa en Vulkan y apunta a un público estrictamente profesional. Ingenieros y arquitectos serán los primeros usuarios en poder sacarle provecho, sin que por ahora haya información oficial alguna sobre cuándo dará AMD soporte por software para sus actuales tarjetas gráficas o cuándo lanzará modelos de consumo con aceleración por hardware.
Que bestialidad, habra que ver si finalmente fuera de las demos se ve asi y que hardware pedira para ello.

Saludos
Que abuso, pero es bueno saber que para cuando el hardware llegue al usuario de a pie, los motres de desarrollo ya lleven un tiempo por estos arenales para que la tecnología y su implementación este más solida y depurada que si fueramos a la par.
ya hay varios con ese motor.
otra cosa seria la tecnologia que utiliza "Meta Human"
Joder. Esto es la puta hostia!
Es una auténtica pasada la verdad. Cómo avanzan las tecnologías gráficas en tan poco tiempo... Brutal.
que se estén quietos los de unreal, coño, que así no hay quien se ponga al día con el dichoso motor, cada versión sacando 829475987 cosas nuevas D:
Vamos, lo digo yo: ¿Serán éstos los gráficos de las futuras PlayStation y Xbox? [+risas] [+risas] Yo creo que ni sus versiones PRO y X [carcajad] Esa tecnología de rayos, por lo que he leído, consume más que lima nueva...

Me recuerda a la demo Samaritan que en su momento fue muy impresionante (precisamente fue poco antes de comenzar la actual gen).
Hay que ser prudente con estas demostraciones. A día de hoy no he podido disfrutar de ningún juego que iguale o supere esta demo técnica del Unreal Engine de 2013.


https://www.youtube.com/watch?v=hsdQbz8fbV8
pipex55 escribió:Vamos, lo digo yo: ¿Serán éstos los gráficos de las futuras PlayStation y Xbox? [+risas] [+risas] Yo creo que ni sus versiones PRO y X [carcajad] Esa tecnología de rayos, por lo que he leído, consume más que lima nueva...

Me recuerda a la demo Samaritan que en su momento fue muy impresionante (precisamente fue poco antes de comenzar la actual gen).

en el propio vídeo de youtube pone un usuario que usan 4 nvidia tesla v100. de ser cierto, olvídate de eso en PS4 pro, PS5, PS6...
el porno vr esta tan cerca que casi puedo olerlo [+risas]
y yo te digo ati que luego viene el downgrade en estas cosas.
Crack__20 escribió:Hay que ser prudente con estas demostraciones. A día de hoy no he podido disfrutar de ningún juego que iguale o supere esta demo técnica del Unreal Engine de 2013.


https://www.youtube.com/watch?v=hsdQbz8fbV8


Esos están superados hace tiempo incluso en consolas.

Que ves ahí que te impresione tanto?

La demo es real y la mueve cualquier pc gamer de hoy dia.

https://www.unrealengine.com/marketplac ... rator-demo

Un Saludo
exacto, a mi la que me molo más de Epic fue el "marcus" cara cambiate del futuro que fumaba, pero más que por lo tecnico que en su día era una pasada, porque podría a ver salido un juego muy wapo. Graficamente se nota que el Arkham Knight utiliza el mismo motor, mejorado claro.

https://www.youtube.com/watch?v=XgS67BwPfFY

todos los años que salen demos me acuerdo de esa demo, espero algo parecido en cyberpunk 2077.
Me ha dibujado una sonrisa. Estoy deseando ver estas "demos" en futuros proyectos.
Historias de verdad, que nada tengan que envidiar a las de Netflix o HBO (entre otros), caracterización humana.
Sensaciones, emociones, Realismo.

Mirad proyectos como Shenua... un estudio relativamente pequeño y hace esas maravillas.
Que se dejen de COD y Fifas e inviertan en macro proyectos.

Así, de una vez por todas, el sector del videojuego dejará de ser visto como un vanal "mata marcianos" y será considerado arte en su máximo explendor.

Amén.
Con suerte quizás lo soporten las futuras PS5 y Two. Por parte de Nintendo será la tecnología que usará su consola cuando quede desfasada por algo mejor, previsiblemente para cuando exista PS7 o PS8. Yo probablemente estaré muerto ya.
La verdad es que se ven muy guapas esas demos.

Ahora a ver que parte de esas características se importan en los juegos nuevos, y que hard hace falta para moverlos claro [+risas]


Salu2
Muchos lo quereis ver mas alla de las demos o las intros de los juegos, pero ami este camino me recuerda a S1MONE, y eso puede ser hasta peligroso, imitar la realidad con software os suena perseguido ?

bye
naxeras escribió:
Crack__20 escribió:Hay que ser prudente con estas demostraciones. A día de hoy no he podido disfrutar de ningún juego que iguale o supere esta demo técnica del Unreal Engine de 2013.


https://www.youtube.com/watch?v=hsdQbz8fbV8


Esos están superados hace tiempo incluso en consolas.

Que ves ahí que te impresione tanto?

La demo es real y la mueve cualquier pc gamer de hoy dia.

https://www.unrealengine.com/marketplac ... rator-demo

Un Saludo



Perdona? En que juego dices que se ve como el video de Infiltrator? porque ahora si que me dejas loco .... vamos, es que ni el FarCry 5 se ve asi ... y es de ahora.

Que haya demos tecnicas que sean manejadas por PCs de alta gama de manera fluida, no significa que existan juegos con esa calidad
A mi el tio con con la cita de Macbeth me ha puesto los pelos de punta, mas que el alien de abajo, porque lograr que se vea la cara como la del tipo del video es brutalisimo, los gestos y todo, los ojos, con lo jodido que es, esta logradisimo, no me veo disfrutando algo asi en juegos en bastantes años me parece a mi [+risas]
Esto en consolas... quizas en 10 años.
Dudo mucho que la siguiente generación pueda con ello.
Coño! La general Phasma sale más rato en este video que en The Last Jedi!
pipex55 escribió:Vamos, lo digo yo: ¿Serán éstos los gráficos de las futuras PlayStation y Xbox? [+risas] [+risas] Yo creo que ni sus versiones PRO y X [carcajad] Esa tecnología de rayos, por lo que he leído, consume más que lima nueva...

Me recuerda a la demo Samaritan que en su momento fue muy impresionante (precisamente fue poco antes de comenzar la actual gen).


Esto es más para animación profesional. Aún queda mucho mucho tiempo para que el hardware en tiempo real se aproxime a esto. Aún a día de hoy los post procesados de cine de hace 10 años son imposibles de usar en hardware en tiempo real de forma fluida.

Los juegos van avanzando y evolucionando dentro de sus posibilidades. Y dentro de estas la verdad es que se ha avanzado mucho.
Y a cuanto saldrá la tarjeta que pueda mover eso???
Darxen escribió:
pipex55 escribió:Vamos, lo digo yo: ¿Serán éstos los gráficos de las futuras PlayStation y Xbox? [+risas] [+risas] Yo creo que ni sus versiones PRO y X [carcajad] Esa tecnología de rayos, por lo que he leído, consume más que lima nueva...

Me recuerda a la demo Samaritan que en su momento fue muy impresionante (precisamente fue poco antes de comenzar la actual gen).

en el propio vídeo de youtube pone un usuario que usan 4 nvidia tesla v100. de ser cierto, olvídate de eso en PS4 pro, PS5, PS6...

Acabo de ver los detalles oficiales en la confe completa.

70.000 pavos en hardware, nada menos.
naxeras escribió:
Crack__20 escribió:Hay que ser prudente con estas demostraciones. A día de hoy no he podido disfrutar de ningún juego que iguale o supere esta demo técnica del Unreal Engine de 2013.
</div>

https://www.youtube.com/watch?v=hsdQbz8fbV8


Esos están superados hace tiempo incluso en consolas.

Que ves ahí que te impresione tanto?

La demo es real y la mueve cualquier pc gamer de hoy dia.

https://www.unrealengine.com/marketplac ... rator-demo

Un Saludo


lol what

¿que juegos dicen se ven asi o mejor?

si finalmente llega esta tecnologia a las consolas no implementaran ni el 15% de lo que se ha visto ahi.

y si no pensad... downgrades tras downgrades.
naxeras escribió:
Crack__20 escribió:Hay que ser prudente con estas demostraciones. A día de hoy no he podido disfrutar de ningún juego que iguale o supere esta demo técnica del Unreal Engine de 2013.


https://www.youtube.com/watch?v=hsdQbz8fbV8


Esos están superados hace tiempo incluso en consolas.

Que ves ahí que te impresione tanto?

La demo es real y la mueve cualquier pc gamer de hoy dia.

https://www.unrealengine.com/marketplac ... rator-demo

Un Saludo


Madre mia, chiste del año!! (Ni arévalo... [facepalm] )

Veremos siquiera si la siguiente iteracion de consolas es capaz de hacer algo así.

Edit: Como van a hacer algo similar las consolas cuando la Tesselación lleva mas años que la luna y en consolas es algo testimonial... :-|
Calculinho escribió:Con suerte quizás lo soporten las futuras PS5 y Two. Por parte de Nintendo será la tecnología que usará su consola cuando quede desfasada por algo mejor, previsiblemente para cuando exista PS7 o PS8. Yo probablemente estaré muerto ya.


Hace tiempo se dijo que para acercarse al fotorrealismo se necesitaría una gráfica de unos 50 TFlops o más. Lo que está claro es que si quieren llevar raytracing en tiempo real a los juegos hará falta hardware dedicado. Imaginaos cómo es el tema si para mover esa demo de Star Wars, en la que no creo que empleen raytracing en el 100% de toda la escena, necesitan de 4 Teslas V... Y esto en un raytracing con 'trucos', ya que la tecnología que ha presentado nVidia utiliza una IA para 'inventarse' la información faltante porque manejar todos los cálculos que serían necesarios para usar la técnica de la misma forma que se viene haciendo hasta ahora en el mundo del cine y la animación, pero en tiempo real, sigue siendo inviable a día de hoy. Lo que hace la IA de las técnicas RTX de nVidia es similar a lo que hace Photoshop con ciertas herramientas como el pincel corrector y otras, que completan la información faltante con contenido congruente con el contexto (vamos, que en la zona a rellenar se inventan información que sea similar a lo que rodea a dicha zona), en el caso de RTX, información relativa a iluminación, trazado de rayos y sus interacciones.
@SIRDRAK bueno entonces lo dejamos para la PS6? A mi me da igual, yo sólo compro consolas nuevas para cuando la scene las reviente emular Snes. (ironía off)
Habláis de la demo del infiltrator ese como si fuese un "juego" en el que manejas al personaje por donde quieras y peleando como quieras... y no una animación renderizada (o como se diga) en tiempo real que hay bastante diferencia. A mí desde luego hoy en día esa demo no me llama la atención, bueno sí, me parecen llamativos los fallos en las cargas de texturas.
Alejo I escribió:
Darxen escribió:
pipex55 escribió:Vamos, lo digo yo: ¿Serán éstos los gráficos de las futuras PlayStation y Xbox? [+risas] [+risas] Yo creo que ni sus versiones PRO y X [carcajad] Esa tecnología de rayos, por lo que he leído, consume más que lima nueva...

Me recuerda a la demo Samaritan que en su momento fue muy impresionante (precisamente fue poco antes de comenzar la actual gen).

en el propio vídeo de youtube pone un usuario que usan 4 nvidia tesla v100. de ser cierto, olvídate de eso en PS4 pro, PS5, PS6...

Acabo de ver los detalles oficiales en la confe completa.

70.000 pavos en hardware, nada menos.


Pfffff, olvidar por favor mi comentario [flipa] [flipa] [flipa]
Como se ve, que locura. Así será jugar en 5 años?
Anda, 70000 dólares de nada... [tomaaa]
pipex55 escribió:Pfffff, olvidar por favor mi comentario [flipa] [flipa] [flipa]



Curiosamente esas gráficas son dedicadas a diseño 3D, osea que están diseñadas para trabajar con RayTracing, para juegos son una castaña. Lo de las consolas, desde la pasada generación las consolas son PCs solo que con todo integrado, la diferencia es que son dedicadas a juegos y de bajo coste, son alternativa. Que llegaran algún día a ese punto? seguramente si pero no dentro de pocos años, ni siquiera el PC creo que llegue a ese punto, más bien estoy por apostar que los Smartphone acabaran con todo lo que conocemos. La gente tiende ha hacer más uso de los TEU (Todo En Uno).

Como sea, esas gráficas son dedicadas a diseño y una sola ya da mucho de si para lo que es un render de alta calidad para que tarde poco tiempo, así que 4 lógicamente ira a tiempo real hasta cierto limite. Las empresas prefieren usar procesadores Xeon en estos casos, sacarían más rendimiento en CPUs que no usando GPUs por tema de tiempo de render y por que se puede asignar un número de procesadores a diferentes trabajos. La idea es lograr ese raytracing en una gráfica normal no en las profesionales de trabajo que no valen para juegos.

El Equipo de Blender lleva años trabajando en eevee para lograr un motor de render en tiempo real que saldrá a finales de este año y así evitar el engorro del Raytracing.
A ver para cuándo vemos esta tecnología aplicada en juegos a esta calidad sin 40 TITAN V [+risas]
Crack__20 escribió:Hay que ser prudente con estas demostraciones. A día de hoy no he podido disfrutar de ningún juego que iguale o supere esta demo técnica del Unreal Engine de 2013.


https://www.youtube.com/watch?v=hsdQbz8fbV8

Pues yo que tú le echaba un ojo a Star Citizen.
Esto es una autentica bestialidad,. con la demo de los soldados imperiales lo primero que he pensado es " a ver cuando quitan la introducción de esta gente disfrazada de soldados imperiales y empieza la demo ya... " hasta que me he dado cuenta que no, que era todo generado por ordenador.

Mis cojones estrellándose contra el suelo creo que se ha escuchado en todo el bloque de pisos donde vivo.
coño como saquen algo parecido en ps5 es para flipar
Sencillamente espectacular, un motor gráfico fascinante.
Los gráficos totalmente reales ya están aquí.
La siguiente generación lo vamos a pagar caro.....
40 respuestas