DirectX Raytracing acerca el trazado de rayos a los juegos de PC con el apoyo de Nvidia y AMD

La tecnología de trazado de rayos, una de las técnicas más habituales en la creación de escenas infográficas de alta calidad, llegará próximamente a los juegos de PC y en tiempo real de la mano de DirectX. Este avance gráfico, potencialmente uno de los más significativos de los últimos años, ha sido anunciado por Microsoft durante la conferencia GDC 2018, donde ha dado a conocer una nueva API llamada API DirectX Raytracing.

Si bien el raytracing es una técnica bastante familiar para el público "entendido", este nombre carece de significado para gran parte de los jugadores. Podríamos verlo como una forma distinta de generar una imagen 3D compuesta por los mismos modelos y texturas, pero potencialmente con muchísima más calidad.

Vídeo demostrativo publicado por Remedy.

Actualmente el renderizado de imágenes 3D en tiempo real se realiza mediante el proceso de rasterización, que básicamente reduce la cámara a un plano 2D en forma de rejilla de píxeles sobre la cual se proyecta una imagen tridimensional. Si bien no es una técnica muy elegante, su gran velocidad de procesado hace posible su utilización fluida en todo tipo de hardware, supliendo sus deficiencias con técnicas como el uso de shaders.

El raytracing, por su parte, funciona de una forma radicalmente distinta. Explicado de forma muy simple, en esta técnica cada píxel es un rayo invisible emitido por la cámara, que se convierte en un punto de color cuando incide sobre un objeto tridimensional. Se trata de un enfoque mucho más global, pero brutalmente más costoso en términos de velocidad. Por su funcionamiento (aunque técnicamente sea al revés), el trazado de rayos es vulgarmente asemejado al ojo humano.

ImagenDiagrama explicativo de la técnica de trazado de rayos. Imagen: Henrik, CC BY-SA 4.0.

El procesamiento del raytracing permite generar escenas de gran realismo, especialmente si hablamos de imágenes estáticas y/o con efectos de iluminación muy sutiles. Por este motivo es habitualmente utilizado en arquitectura.

Realizada esta breve descripción, el asunto es que el raytracing no es una técnica que pueda ser implementada fácilmente en videojuegos, puesto que un único fotograma con una calidad elevada podría requerir horas de trabajo. Y aunque parezca una paradoja, las tarjetas gráficas actuales no son muy buenas a la hora de trabajar con el trazado de rayos. Sin embargo, los modelos modernos son muy programables, por lo que Microsoft piensa aprovechar esta flexibilidad para introducir funciones de raytracing en futuros juegos vía DirectX.

Imagen

ImagenImágenes generadas mediante raytracing distribuidas por Nvidia.


Nvidia se sube al carro con la tecnología de aceleración RTX para Volta

La API desarrollada por Microsoft define las características de software que una tarjeta gráfica debe soportar para poder sacar partido a DirectX Raytracing, que funcionará sobre componentes certificados para DirectX 12. El hardware anterior a Volta podrá aprovechar sus características mediante software, pero Nvidia, que ha estado trabajando con Microsoft durante el desarrollo de la API, también ofrecerá soporte por hardware para Volta mediante RTX.

RTX es la tecnología de Nvidia que permitirá la aceleración de DirectX Raytracing en las máquinas dotadas con una tarjeta GeForce de nueva generación. Todavía no está claro qué apartados se podrán aprovechar de esta ventaja, pero la idea es que los ordenadores con una tarjeta Volta (cuyo motor raytracing había permanecido oculto hasta ahora) podrán brindar un mayor rendimiento.

Vídeo demostrativo de PICA PICA (EA Seed) sobre DirectX Raytracing.

A nivel de middleware, Unity, Frostbite, Allegorithmic y Unreal Engine serán actualizados para incorporar soporte para DirectX Raytracing. Sus desarrolladores, de hecho, ya han publicado algunas de las primeras demos en forma de vídeo.

Es necesario señalar que el raytracing sigue siendo una técnica muy costosa en términos de recursos. Por este motivo lo más probable es que la implementación a través de DirectX sea parcial y destinada a mejorar principalmente aquellos aspectos donde su uso puede redundar en efectos de mayor calidad, tal es el caso de la proyección de sombras, la oclusión ambiental y los reflejos.

Introducción a la técnica del raytracing.

Nvidia, con el anuncio de RTX, ha tomado la delantera en la adopción a nivel de hardware de esta novedosa tecnología. Ha estado muy viva, aunque es justo decir que AMD también está trabajando en alguna clase de implementación. El fabricante de las tarjetas Radeon, no obstante, aún ha de presentar su propia tecnología de aceleración. En este sentido la compañía ha emitido el siguiente comunicado:

AMD está colaborando con Microsoft para ayudar a definir, perfeccionar y respaldar el futuro de DirectX12 y el trazado de rayos. AMD se mantiene a la vanguardia del nuevo modelo de programación y la innovación de la interfaz de programación de aplicaciones (API), basado en unos cimientos avanzados a nivel de sistema para la programación de gráficos. Estamos ansiosos por tratar con los desarrolladores de juegos sus ideas y comentarios relacionados con las técnicas de trazado de rayos basadas en PC para obtener calidad de imagen, oportunidades de efectos y rendimiento.


Asimismo, AMD ofrecerá una charla sobre raytracing en tiempo real utilizando motores actuales en la GDC 2018. Tal vez entonces tengamos más detalles sobre cómo manejarán sus tarjetas la nueva API de Microsoft.

Fuente: Microsoft
Madre mía, las tarjetas anteriores a Volta se pueden aprovechar del raytracing por software... (a pedales, te ha faltado poner)

Ahora que está empezando a funcionar Vulkan un poco mejor en Linux se sacan otra API para directX jajaja

El futuro de los juegos en Linux es el dualboot (-_-)U
Si no he entendido mal, esto se salta las limitaciones de la malla?
O sea, lineas curvas perfectas?
excess escribió:Madre mía, las tarjetas anteriores a Volta se pueden aprovechar del raytracing por software... (a pedales, te ha faltado poner)

A pedales no, a vela.

El usuario soplará para darle impulso [carcajad]

Bentley escribió:Si no he entendido mal, esto se salta las limitaciones de la malla?
O sea, lineas curvas perfectas?

No tiene nada que ver. El modelo es el mismo, ya tenga muchos o pocos polígonos. Lo que hace es plasmar la imagen en un proceso de rayos (a rayo por píxel visible) en lugar de volcándolo en una rejilla 2D para generar la imagen que tenemos en pantalla.

Es un poco complicado de explicar sin hacer el asunto aún más largo y retorcido, pero digamos que es un proceso "más 3D" en la forma en la que trata toda la información visual antes de generarla para nuestros ojos.
Esto no va a pasar hasta dentro de bastante tiempo. El raytracing es demasiado intenso y demantante para tiempo real.

Es el mismo cantar cada que anuncian una implementacion nueva, muestran la meta que todo se ve muy bonito, y con el paso del tiempo se ve que primero lo disponible con el anuncio no existe, y conforme se acercan a la meta, el resultado no es exactamente como lo vendieron. El teselado por ejemplo, sigue comiendose una buena parte de los recursos y verlo en accion es un poco triste.
Alejo I escribió:
excess escribió:Madre mía, las tarjetas anteriores a Volta se pueden aprovechar del raytracing por software... (a pedales, te ha faltado poner)

A pedales no, a vela.

El usuario soplará para darle impulso [carcajad]

Ya mismo vemos a Intel vendiendo coprocesadores que le echen una mano a la GPU en paralelo con un i7 de 12 núcleos jajaja

Uff, el video demostrativo de pica pica si es un motor en tiempo real es un alucine...
Aún me acuerdo cuando se hablaba de la doble GPU y de la potencia secreta de la Xbox One. Cuánto humo vendió el tito Phil y cuántos "injenieros" de eol y cuántas horas de risas con los supuestos "injenieros" que filtraban que la potencia de One estaría escondida con el DX12 y suputamadre xddd. Buenas rosas

https://twitter.com/XboxP3/status/43967 ... 51425?s=20
Si desde la primera vez que se dijo que el raytracing era el futuro de los gráficos de videojuegos me dieran 10€ por cada vez que alguien dice "ahora si que si, esta vez esta a la vuelta de la esquina" ahora mismo podía estar en una playa en Bora Bora bebiendo daiquiris XD (para que los que no seais viejunos os hagais una idea se empezó a hablar de esto antes incluso de la explosión de las tarjetas aceleradoras 3D).

Posiblemente alguna vez será la buena, pero hasta que no vea nada concreto me mantendré "razonablemente escéptico" ;)
Pues espero que tarde en llegar porque no tengo ganas de cambiar de gráfica [carcajad]

@supremegaara ¿Me he perdido algo? ¿Que tiene que ver la noticia con lo que comentas?

Saludos
kenmoon está baneado por "clon de usuario baneado"
con esto seguiran corriendo los indies pixeleados que salen cada dos por tres? [+risas]
ZedHqX4 escribió:Esto no va a pasar hasta dentro de bastante tiempo. El raytracing es demasiado intenso y demantante para tiempo real.

Es el mismo cantar cada que anuncian una implementacion nueva, muestran la meta que todo se ve muy bonito, y con el paso del tiempo se ve que primero lo disponible con el anuncio no existe, y conforme se acercan a la meta, el resultado no es exactamente como lo vendieron. El teselado por ejemplo, sigue comiendose una buena parte de los recursos y verlo en accion es un poco triste.

Ahí radica la importancia de la implementación de Nvidia.
Tienes razón e. Que es demasiado costoso pero porque hasta ahora se ha hecho por software.
Sin embargo volta viene con los tensor cores, estos se usan para el Deep learning y esa especie de inteligencia artificial capaz de aprender será la que calculará y predecira el curso de cada rayo.
Al hacerse por hardware por fin es posible hacerlo en tiempo real, Nvidia lo enseño en un video.
@excess Lo cierto es que, en su día, intenté jugar solo el linux, pero... que va [+risas]

Muy limitado todo.

Si tienes un PC gaming, un windows es lo mejor [oki]
Me exreañaría que AMD no soporte esta implementación de raytracing por hardware, teniendo en cuenta que trabajan codo con codo con microsoft en el desarrollo del hardware desde hace tiempo.
Pues ya tenemos con que nos van a incentivar para comprar las nuevas series de Nvidia y Amd, y claro, las GPUs de ahora no seran compatibles...

Casualidad que justo cuando se puede sospechar caida de criptomonedas y que se llenen los foros de CV de GPUs de segunda zarpa baratas...

Llamarme loco, pero lo veo demasiada casualidad
Imagen
evilkainn_ escribió:Pues ya tenemos con que nos van a incentivar para comprar las nuevas series de Nvidia y Amd, y claro, las GPUs de ahora no seran compatibles...

Casualidad que justo cuando se puede sospechar caida de criptomonedas y que se llenen los foros de CV de GPUs de segunda zarpa baratas...

Llamarme loco, pero lo veo demasiada casualidad
Imagen

Ni casualidad ni conspiración: las tarjetas anteriores a volta no son compatibles por que volta usa una cosa llamada "tensor cores" que es lo que hará los calculos de ese sistema de iluminación, las anteriores tarjetas no están físicamente preparadas para esos cálculos.
evilkainn_ escribió:Pues ya tenemos con que nos van a incentivar para comprar las nuevas series de Nvidia y Amd, y claro, las GPUs de ahora no seran compatibles...

Casualidad que justo cuando se puede sospechar caida de criptomonedas y que se llenen los foros de CV de GPUs de segunda zarpa baratas...

Llamarme loco, pero lo veo demasiada casualidad
Imagen


No estas tan loco... Evidente esto es un negocio, y cada poco tiempo tienen que sacar algo nuevo y poner la maquinaria a funcionar para crearnos esa necesidad... nada nuevo bajo el sol en la Economía y el Marketing...
evilkainn_ escribió:Pues ya tenemos con que nos van a incentivar para comprar las nuevas series de Nvidia y Amd, y claro, las GPUs de ahora no seran compatibles...

Casualidad que justo cuando se puede sospechar caida de criptomonedas y que se llenen los foros de CV de GPUs de segunda zarpa baratas...

Que va a comprar la tía Rita, porque vamos ... para pagar por una gráfica que ha estado 24/7 en alta carga durante meses conmigo que no cuenten.

Pero si, está claro que van necesitando de nuevos incentivos para que la gente adquiera GPUs más potentes y el Raytracing bien podría ser uno de ellos.
Si de verdad funciona el tema sería increíble... Precisamente una temporada estuve trasteando con Chunky, una herramienta que generaba capturas a partir de un mapa del Minecraft con iluminación y sombras realistas usando técnicas de raytracing. Tardaba varias horas en generar una imagen en 1080p... Aquí algunos ejemplos:

Imagen
Imagen
Imagen
Imagen
Imagen
Imagen

Así que imaginad lo que es necesario para generar imágenes realistas complejas a altas resoluciones...
supremegaara escribió:Aún me acuerdo cuando se hablaba de la doble GPU y de la potencia secreta de la Xbox One. Cuánto humo vendió el tito Phil y cuántos "injenieros" de eol y cuántas horas de risas con los supuestos "injenieros" que filtraban que la potencia de One estaría escondida con el DX12 y suputamadre xddd. Buenas rosas

https://twitter.com/XboxP3/status/43967 ... 51425?s=20


Una cosa es que la gente le diese vueltas a lo de la doble GPU, pero MS dijo desde el prinpcio que no, y Phil Spencer como bien dice el tweet que has rebuscado, dijo que estaban haciendo experimentos con el Ray Tracing. Exactamente cómo se vé al ser los primeros en abordar el tema con su API propia para Ray Tracing. [bye]
SIRDRAK escribió:Si de verdad funciona el tema sería increíble... Precisamente una temporada estuve trasteando con Chunky, una herramienta que generaba capturas a partir de un mapa del Minecraft con iluminación y sombras realistas usando técnicas de raytracing. Tardaba varias horas en generar una imagen en 1080p... Aquí algunos ejemplos:

Imagen
Imagen
Imagen
Imagen
Imagen
Imagen

Así que imaginad lo que es necesario para generar imágenes realistas complejas a altas resoluciones...

falta mucho al parecer
eloskuro escribió:
supremegaara escribió:Aún me acuerdo cuando se hablaba de la doble GPU y de la potencia secreta de la Xbox One. Cuánto humo vendió el tito Phil y cuántos "injenieros" de eol y cuántas horas de risas con los supuestos "injenieros" que filtraban que la potencia de One estaría escondida con el DX12 y suputamadre xddd. Buenas rosas

https://twitter.com/XboxP3/status/43967 ... 51425?s=20


Una cosa es que la gente le diese vueltas a lo de la doble GPU, pero MS dijo desde el prinpcio que no, y Phil Spencer como bien dice el tweet que has rebuscado, dijo que estaban haciendo experimentos con el Ray Tracing. Exactamente cómo se vé al ser los primeros en abordar el tema con su API propia para Ray Tracing. [bye]


Tienes que redactarlo para que lo entienda un crío de 5 años, suerte
Mentiras, mentiras y mentiras....no me sacareis facilmente mi dinero con humo.
La verdad que yo creo que los que somos aficionados al 3D render art, hemos hecho nuestros pinitos en animación 3D etc, y somos aficionados a los videojuegos, llevamos soñando con esto desde hace mas de una década.

Esto realmente, el poder usar el ray tracing en tiempo real, sí sería una revolución para los videojuegos, a la altura del paso de las 2d a las 3d diría yo. No se trata de calidad de imagen, se trata de REALISMO ABSOLUTO, tanto a la hora de representar una habitación (como se ve en la notica) o un ser humano, un coche, etc, en plan elementos reales, como a la hora de representar elementos irreales (como los de la animación).

Ojalá esto fuese como lo pintan, aunque yo tengo serias dudas, costando a dia de hoy aun lo MUCHO que cuesta renderizar cualquier escena en cualquiera de los programas que hay (DAZ, POSER, MAYA, etc) si usas esta técnica...y otras más. Hablamos de minutos para cada frame, cuando no horas... Conseguir hacerlo "al vuelo" sería apoteosico.

Veremos en que queda, porque como digo, desde mi humilde experiencia, y como aficionado aunque lleve 15 años dedicando muchisimo tiempo al render art, a mi me suena poco creible y exagerado, en plan el humo vertido en torno a DX12... Ya veremos. De todos modos esto es algo que debe llegar en algun momento, con el tiempo, aunque la mayoria de la gente viva un poco sin saber por donde van los tiros, cuando dicen aquello de que el fotorrealismo ya se ha alcanzado en los videojuegos y la potencia no es prioritaria, etc...La potencia es necesaria para ir mas allá en el mundo del videojuego, es muy necesaria, y es una pena lo lastrados que estos avances se ven a menudo, aunque es un tema más de lo que habría que pagar por ellos, que de plataformas tapón que frenan ir alcanzado nuevas metas.

A ver en que queda, como y en qué se implementa, porque desde luego este tipo de cosas tienen que rodar mucho tiempo en PC antes de tener cabida en otro tipo de plataformas, como siempre. Pero de momento, me resulta poco creible que su normalización como técnica de renderizado en tiempo real esté cerca.


PD: respecto a lo que comentais en torno a Nvidia y AMD, la cosa es que en este tema Nvidia le lleva muchisima ventaja a AMD, y basicamente le ha pintado la cara como en todo lo demás. Hasta el punto de haberse convertido, con su hardware y sus soft, en la plataforma casi imprescindible para sacar el máximo partido a los programas de render actuales. En mi caso, los que mas uso son DAZ y Poser, y desde hace tiempo, no tener una gráfica Nvidia me imposibilita y complica muchisimo el poder acceder a las técnicas mas modernas, el tener buenos tiempos de render, etc. Basicamente, sino tienes una gráfica Nvidia, no puedes acceder a todas estas nuevas tecnologías de renderizado, asi que a ver que pinta AMD en todo esto, porque a vote pronto lo que se me ocurre es MS mediando en plan pedirle a Nvidia que le eche una mano a AMD para poder ponerse un poco a la altura y poder apuntar hacia un abanico amplio de plataformas...
Sinceramente .... algo muy gordo tiene que pasar para que veamos Raytracing en tiempo real a 10 años vista ...

La razon es muy simple ... es como querer tener camiones de altisimo tonelaje por nuestras carreteras normales ... y la razon en este caso es sencilla. Porque hemos visto demos de juegos como el Quake o juegos con motores graficos sencillos utilizar esta tecnica, y aparentemente dar un resultado JUSTO en framerate, teniendo en cuenta el altisimo potencial requerido para ello.

Es basicamente porque la resolucion, como la complejidad del motor graficos hacen que sea increiblemente dificil calcular cada uno de los frames. Esta tecnica esta claro que nacio para ser utilizada en renderizado de imagenes estaticas.

Que dentro de 20 años podria utilzarse en juegos actuales? No lo dudo, pero cada vez que se vaya aumentando la calidad de los motores graficos, aun costara mas llevar esa calidad al raytracing, y la razon es sencilla. En un juego actualmente tienes decenas de puntos omnidireccionales iluminando una zona, sean luces pequeñas, o luces enormes como el propio sol.
Bien, en un caso como estos, solo se deberia utilizar un solo punto de luz, porque si metes mas .... todos los procesos de iluminacion crean diferentes rayos en iluminacion y al mismo tiempo varios sombreados que tienen que solaparse entre ellos ...

Claro, todo eso, en una escema estatica (o en un render de video de alta calidad) puedes generarlo con muchisima potencia y grabandolo a modo de video. Si intentas hacer eso mismo en tiempo real, podrias lograrlo siempre que la complejidad general de la escena sea increiblemente simple. Si le metes una cantidad de complejidad elevada a la escena ... es imposible manejarla con soltura ... y si encima hay reflexiones (en las cuales, tambien tienes que calcular reflejos, sombreados, mas brillos ... ni te cuento.

Vamos, aun recuerdo cuando hacia todo esto con el 3D Studio ... solo activar sombreado avanzado o reflexiones con antialiasing .... alicinabas de lo que tardaba. Es mas ... ya el AA actualmente es una "tecnica" que es una chapucilla en comparacion con como se aplica realmente en un render ... como para plantear esto en determinadas escenas sin usar equipos de miles de euros (y si encima es en VR o en 3D .... ya puede ser la pera limonera)
SIRDRAK escribió:Si de verdad funciona el tema sería increíble... Precisamente una temporada estuve trasteando con Chunky, una herramienta que generaba capturas a partir de un mapa del Minecraft con iluminación y sombras realistas usando técnicas de raytracing. Tardaba varias horas en generar una imagen en 1080p... Aquí algunos ejemplos:

Imagen
Imagen
Imagen
Imagen
Imagen
Imagen

Así que imaginad lo que es necesario para generar imágenes realistas complejas a altas resoluciones...


Hace ya un tiempo unos cacharreros del PC publicaron un vídeo del primer Doom funcionando con Raytracing.
Con una todopoderosa 1080 Ti (o Titán, no recuerdo bien) a duras penas podía mantenerse a 60fps y con muchísimo granulado, porque no se estimulaban todos los píxeles con los rayos estos de luz.
El juego se veía extraño, pero en tema de iluminación era muy notable la mejoría con el raytracing.

EDIT: No era Doom, era Quake 2 y la GPU era ni mas ni menos que una TITAN XP, si, esa "bestia" manteniendo 60fps con mucha dificultad en un juego de 1997 con Raytracing, para que os hagáis una idea de cuan chupa-recursos es la técnica. Aquí el vídeo por si queréis verlo.
https://www.youtube.com/watch?v=x19sIltR0qU
RumbelBoss escribió:
SIRDRAK escribió:Si de verdad funciona el tema sería increíble... Precisamente una temporada estuve trasteando con Chunky, una herramienta que generaba capturas a partir de un mapa del Minecraft con iluminación y sombras realistas usando técnicas de raytracing. Tardaba varias horas en generar una imagen en 1080p... Aquí algunos ejemplos:

Imagen
Imagen
Imagen
Imagen
Imagen
Imagen

Así que imaginad lo que es necesario para generar imágenes realistas complejas a altas resoluciones...


Hace ya un tiempo unos cacharreros del PC publicaron un vídeo del primer Doom funcionando con Raytracing.
Con una todopoderosa 1080 Ti (o Titán, no recuerdo bien) a duras penas podía mantenerse a 60fps y con muchísimo granulado, porque no se estimulaban todos los píxeles con los rayos estos de luz.
El juego se veía extraño, pero en tema de iluminación era muy notable la mejoría con el raytracing.

EDIT: No era Doom, era Quake 2 y la GPU era ni mas ni menos que una TITAN XP, si, esa "bestia" manteniendo 60fps con mucha dificultad en un juego de 1997 con Raytracing, para que os hagáis una idea de cuan chupa-recursos es la técnica. Aquí el vídeo por si queréis verlo.
https://www.youtube.com/watch?v=x19sIltR0qU


Sí, conocía los vídeos del Quake 2... Es un tema interesante, la pena es que ese tipo de vídeos no se pueden apreciar bién en Youtube porque al tener una mayor presencia de granulado, la excesiva compresión que mete la mencionada plataforma se los carga.
@SIRDRAK Cierto, la compresión que mete Youtube a sus vídeos da pena ajena.
Yo no veo esta técnica (implementada completamente) en el gaming convencional hasta dentro de mínimo unos 15 años (o mas).
Pero cuando suceda va a ser algo gordo, al mismo calibre que tuvo el salto del 2D al 3D.
Aquí hay un vídeo que explica más o menos lo que en teoría hacen estas técnicas de nVidia:

https://www.youtube.com/watch?v=YjjTPV2pXY0

Parece que el truco estaría en que en vez de calcular miles de rayos por pixel, calcularían muchos menos, y de completar la información faltante (y eliminar el ruido) se encargaría una IA que aprendería mediante redes neuronales. A mí me suena a algo parecido a lo que hace Photoshop para rellenar partes de una imagen en función del contexto con ciertas herramientas (o sea inventarse la información faltante de forma que fuese congruente con lo que le rodea). Veremos si eso funciona realmente o no...

Para que sirva de ejemplo al nivel de realismo que estas técnicas conseguirían en tiempo real si se llegan a implementar, se puede poner por ejemplo Brigade (https://home.otoy.com/render/brigade/), un motor gráfico que emplea Raytracing en tiempo real:

Imagen
Imagen
Imagen
Imagen
Imagen
Imagen
Imagen
Imagen
Imagen
Imagen
Imagen
Imagen
Imagen
Imagen

Y eso que los modelos que se usan no tienen un gran nivel de detalle comparado con lo que solemos ver en juegos hoy día (basta fijarse un poco en la foto en la que se vé la puerta de un taxi a la izquierda, por ejemplo), pero es que la iluminación, las sombras y los reflejos hacen maravillas...

https://www.youtube.com/watch?v=BpT6MkCeP7Y
https://www.youtube.com/watch?v=abqAanC2NZs
https://www.youtube.com/watch?v=FbGm66DCWok

Y todo esto tiene al menos 4 años ya...

Edit: Por lo que he visto en un vídeo y he leído, parece ser que este engine de Raytracing en tiempo real (Brigade, integrado en el motor de render Octane) será el que van a integrar a los motores gráficos actuales para que puedan sacar provecho de DXR de DirectX 12 y del RTX de nVidia.

https://www.youtube.com/watch?v=6xE3J56pabk
(mensaje borrado)
SIRDRAK escribió:Si de verdad funciona el tema sería increíble... Precisamente una temporada estuve trasteando con Chunky, una herramienta que generaba capturas a partir de un mapa del Minecraft con iluminación y sombras realistas usando técnicas de raytracing. Tardaba varias horas en generar una imagen en 1080p... Aquí algunos ejemplos:

Imagen
Imagen
Imagen
Imagen
Imagen
Imagen

Así que imaginad lo que es necesario para generar imágenes realistas complejas a altas resoluciones...

El Voxel nunca ha lucido mejor que en esas capturas [qmparto] vaya si se ve guapo.
Piriot escribió:
eloskuro escribió:
supremegaara escribió:Aún me acuerdo cuando se hablaba de la doble GPU y de la potencia secreta de la Xbox One. Cuánto humo vendió el tito Phil y cuántos "injenieros" de eol y cuántas horas de risas con los supuestos "injenieros" que filtraban que la potencia de One estaría escondida con el DX12 y suputamadre xddd. Buenas rosas

https://twitter.com/XboxP3/status/43967 ... 51425?s=20


Una cosa es que la gente le diese vueltas a lo de la doble GPU, pero MS dijo desde el prinpcio que no, y Phil Spencer como bien dice el tweet que has rebuscado, dijo que estaban haciendo experimentos con el Ray Tracing. Exactamente cómo se vé al ser los primeros en abordar el tema con su API propia para Ray Tracing. [bye]


Tienes que redactarlo para que lo entienda un crío de 5 años, suerte


Phil Spencer nunca dijo que en Xbox One hubiese dos GPUs. De hecho Microsoft lo negó. Sólo usa una GPU con doble contexto gráfico. Que no es ni remotamente lo mismo. Pero eso confundió a la peña.

Así que @supremegaara miente en que Phil Spencer vendió humo con eso.

Y dice bien claro Phil Spencer en ese tweet que estaban ya trabajando en el RayTracing. Algo que se ha constatado con la revelación de esta API y esos experimentos con NVIDIA y Remedy, entre otros.

[bye]

Ahora te toca a tí ser menos borde, Tmb es educación, pero es más dificil de aprender.
Esto me recuerda el povray (http://www.povray.org/) que tiempos aquellos en que se usaba un 486 para hacer un render :)

Creo que tiene soporte para openCL que vendría a ser la aceleración por GPU, vamos que lo que propone microsoft ya esta inventado...
Raugo escribió:Pues espero que tarde en llegar porque no tengo ganas de cambiar de gráfica [carcajad]

@supremegaara ¿Me he perdido algo? ¿Que tiene que ver la noticia con lo que comentas?

Saludos


Nada. Solo me ha recordado el tema del Raytracing con el humo vendido de MS. Nada más [burla2]
Seguramente se trate de un truco de buffers, no sera raytracing fuerza bruta pixel a pixel con GI.

si tienes el juego en 1080p, quizás hara un pase en 720p para la luz directa y otro a 480p para luz indirecta. No se, mirad el marmoset 3 tiene GI en tiempo real, y funciona con Voxeles. El resultado quizas sea vistoso, pero no llegará a la calidad de un motor offline ni de coña, al menos a corto medio plazo.

Pero que os creeis que hace Unreal 4, directamente hace bake de los mapas de sombra resultante de un raytracing. El tiempo real es distino, pero el resultado no se si merecera la pena.
Pachinno escribió:Seguramente se trate de un truco de buffers, no sera raytracing fuerza bruta pixel a pixel con GI.

si tienes el juego en 1080p, quizás hara un pase en 720p para la luz directa y otro a 480p para luz indirecta. No se, mirad el marmoset 3 tiene GI en tiempo real, y funciona con Voxeles. El resultado quizas sea vistoso, pero no llegará a la calidad de un motor offline ni de coña, al menos a corto medio plazo.

Pero que os creeis que hace Unreal 4, directamente hace bake de los mapas de sombra resultante de un raytracing. El tiempo real es distino, pero el resultado no se si merecera la pena.


Lo que hace es lo que he comentado yo antes... Utiliza muchos menos rayos y luego una IA se encarga de completar la información faltante usando redes neuronales (vamos, algo parecido a lo que hace el algoritmo de Google que presentaron hace poco que permite hacer zoom 'ilimitado' a una imagen sin pérdida de calidad usando una IA -obviamente inventándose la información faltante pero completándola de forma congruente con el contexto-). Veremos a ver que resultado dá esto... A ver si muestran algo los próximos días los responsables de los motores gráficos más extendidos, que por lo visto algo van a comentar en sus presentaciones.
alfax está baneado por "troll"
mejor nos iría a todos si se dejase de apoyar DirectX de una puñetera vez. Hay cosas mejores, y que no limitan a determinada plataforma. Como la api Vulkan. Si no se hace esto, m$ siempre hará con nosotros lo que quiera y nos forzará a usar determinado sistema operativo simplemente y no permitiendo que su última versión de DX se pueda instalar más que en su último o más reciente sistema operativo.

a ver si vamos espabilando respecto a esto.
Es simple, el Ray tracing real (y no pseudo Ray tracing) en juegos no será una realidad hasta que no integren en las graficas chips dedicado a esta tarea exclusivamente.
mercadotecnia. No saben como cargar los frames para que necesitemos nuevo hardware. Mientras tanto algunos juegos se ven de lujo con tarjetas de game media por la buena optimizacion de los programadores.
moiky está baneado del subforo por "troll"
JAJJAJAJAJA y muchos todavida dicen que la ps4 es la mejor consola cuando no es mas que algo obsoleto de hace 10 años [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto]
moiky escribió:JAJJAJAJAJA y muchos todavida dicen que la ps4 es la mejor consola cuando no es mas que algo obsoleto de hace 10 años [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto] [qmparto]


Ningún hardware de usuario actual puede mover algo en tiempo real con la técnica del Raytracing. Ni tarjetas gráficas ni absolutamente nada. Es una técnica que hasta ahora se ha usado en animación y renders. Sony nunca vendió el Raytracing, MS sí xdd
equipowa escribió:mercadotecnia. No saben como cargar los frames para que necesitemos nuevo hardware. Mientras tanto algunos juegos se ven de lujo con tarjetas de game media por la buena optimizacion de los programadores.


Otras veces puede que si, pero si realmente la cosa funciona como dicen y se logra hacer algo que sea la mitad de bueno y realista que el Raytracing ya conocido pero en tiempo real, es un cambio tan importante como el que se dió al pasar de los juegos 2D a los 3D (basta echar un ojo a lo que puse algunos mensajes antes para comprobar el realismo que se consigue con ese tipo de iluminación). Lo que sí me temo es que esta vez ha pillado nVidia a AMD con los pantalones bajados en este asunto (a no ser que nos sorprendan en su conferencia, pero creo que no va a ser así), donde están más avanzados y lo van implementar por hardware mientras que AMD parece que va a tener que hacerlo por software de momento.
Esto tira de los tensor cores.... Difícil veo que vendan gráficas orientadas a la IA para pc domésticos a un precio decente...

Saludos
Seguirá siendo 3D "a medias" y muy lejos quedamos del Raytracing aplicado "sin trucos" en videojuegos, pero ése es el camino y bien hace Microsoft en promover su uso aunque sea parcialmente por ahora.

Hay un estancamiento desde mi punto de vista en el 3D usado en nuestras plataformas de juego, sobretodo a nivel de iluminación, por lo que aplaudo que se muestren avances en ese campo.

Yo soy de los que sacrificaría la resolución en pro del raytracing (1080p como estándar por ejemplo) y que se usaran recursos en otros ámbitos al menos hasta tener máquinas mas capaces (CPU/GPU).
42 respuestas