Metro Exodus muestra las posibilidades del raytracing en tiempo real con RTX

Entre las muchas demostraciones técnicas de las que pudieron disfrutar los asistentes a la recién clausurada Game Developers Conference, la que tratamos en esta noticia cuenta con el honor de corresponder a un proyecto jugable, en desarrollo y destinado al hardware de consumo.

El estudio ucraniano 4A Games, responsable de la adaptación a videojuego de la serie Metro y habitual pionero en la incorporación de soluciones tecnológicas avanzadas, ha anunciado una colaboración con Nvidia que conducirá al debut de la recientemente presentada tecnología RTX en su próximo juego, Metro Exodus.

El apartado de esta tecnología que los desarrolladores han incorporado a su motor 4A Engine es su solución de iluminación global basada en trazado de rayos en tiempo real, un proceso costoso pero alcanzable con el hardware de un PC de nivel alto que se aplica en el vídeo de demostración al cómputo de la oclusión ambiental y de la iluminación indirecta.


La iluminación en tiempo real siempre ha sido considerada por el estudio como un elemento clave de la estética y ambientación de sus juegos, que hasta ahora desarrollaban una gran parte de su historia en oscuros subterráneos poblados por fuentes de luz con un papel clave en la jugabilidad.

Metro Exodus, que abandona los claustrofóbicos túneles de transporte en favor de amplios niveles en la superficie (aunque no un mundo abierto), necesitaba una solución más práctica que el conjunto de aproximaciones de los anteriores juegos, y según el responsable de la tecnología del estudio RTX proporciona exactamente eso.

Al prescindir de unos datos de iluminación global precalculados, el motor reduce de forma considerable el consumo de memoria y obtiene una mayor flexibilidad con respecto a la destrucción de elementos del escenario. También dejan de suponer un problema los objetos no visibles para el jugador y se anula el problema de la presentación en los bordes de la pantalla, donde se acaba la información usable por un algoritmo en tiempo real tradicional.

Una implementación como RTX se basa en el trazado masivo de rayos desde el punto de vista de la cámara hasta todos los puntos de cada elemento que corresponderán con un píxel en pantalla, decidiendo el color correspondiente en cada frame.

Sin embargo, es importante señalar que, al contrario que con una técnica completa de path tracing como la que vimos en acción hace unos meses, en el caso de Metro Exodus la geometría y parte de la iluminación y sombras se dibujan con rasterizado convencional. Se trata por tanto de una aplicación muy parcial del raytracing, pero por tanto también el alcance del hardware de consumo (a diferencia de la impactante demo de Unreal Engine, movida por 70.000 dólares en hardware).

Durante la presentación de RTX, el equipo de Nvidia explicaba que esta tecnología solamente podría ejecutarse a nivel de hardware en las GPU Volta y posteriores. También se mencionaba la incorporación de soporte parcial en software para generaciones anteriores, pero todavía es pronto para evaluar el rendimiento de esta opción y su aplicabilidad a implementaciones parciales como la de este juego.

Fuente: Entrada en la página del estudio
En este juego tengo puestas todas las esperanzas de ver como exprimen la Xbox One X y demuestran de lo que es capaz la máquina. Esperemos que no defraude pero el trailer del E3 era impactante...

[bye]
Tiene la serie 2000 Nvidia calentita, calentita
Lo único malo de estos videos, es que está acelerado para ver como se ve y hacer creer a la gente que con una 2070 o 2080 llegará a eso, cuando todos sabemos que es falso. Todo video que muestra cosas de estas, si al lado no ponen los fps y la configuración, poco te puedes creer o que esté destinado al consumidor.
Cada vez que veo uno de estos videos recuerdo como, siendo un chaval, vi el Zelda en Nintendo64 por vez primera y pense : «joder esto es el tope al que van a llegar los videojuegos»

Que tierno era
Joder podría implementar lo en varias escalas.

La serie 20xx en su máximo o casi explendor.
La serie 10xx en alto.
Y la serie 9xx en bajo/ medio.

>> Como la tessellation
Aguasamen escribió:En este juego tengo puestas todas las esperanzas de ver como exprimen la Xbox One X y demuestran de lo que es capaz la máquina. Esperemos que no defraude pero el trailer del E3 era impactante...

[bye]


Exprimirla la exprimirá seguro, lo que no sabemos es cuantos downgrades habra que hacerle para que pueda "encajar" (que de momento ya lleva 1).
uchi23a escribió:Joder podría implementar lo en varias escalas.

La serie 20xx en su máximo o casi explendor.
La serie 10xx en alto.
Y la serie 9xx en bajo/ medio.

>> Como la tessellation

Pero es que el problema no es la potencia en sí, es el hardware.
Volta monta tensor cores y esos son los que calculan la RTX por hardware, y ni Maxwell ni Pascal montan tensor cores.
Físicamente es imposible.
¿Es cosa mía o en el video "ingame" del E3 2017 se veía mejor?

E3 2017
https://youtu.be/DuvN4YcJ0ZA?t=180

Hoy:
https://youtu.be/2NsdM1VS5u8?t=31
La iluminación bien, pero ese movimiento síncrono y repetitivo de la vegetación es algo mucho más notorio.
Eso y no se la manía que hay de poner trillones de partículas del tamaño de un moscardón flotando.
No creo que se vea peor que en el video del E3, aqui estan mostrando algo que en ese video no se veia, solo se ve diferente, yo no veo downgrade, pero vamos no tengo ojos bionicos como otros XD
¿Es cosa mia, o pega saltos la imagen??
Que golpe me he dado en la cabeza con la mesa cuando he ido a buscar los huevos que se me han caído por el suelo al ver el video.
quizas lo pongan de opción como : activar o desactivar raytracing
El tope es el fotorealismo total y al paso que van no debe de quedar mucho para alcanzarlo. Sólo hay que pensar en los gráficos que había hace 10 o 15 años y ver lo que tenemos ahora. Y cada vez el avance es más alto y rápido. Ahora sólo falta que lo acompañen con ideas y argumentos a la altura y dejemos de recibir más remakes que nuevas historias.
Llamadme ciego, pero no veo nada especial en ese vídeo.
Vamos, un vende graficas, actualizar insensatosss...
paco_man escribió:Llamadme ciego, pero no veo nada especial en ese vídeo.


Ni yo tampoco. Sólo me fijo en los fallos, que no son pocos. Y no veo nada extraordinario, sinceramente. Me debe faltar una gráfica de dos mil euros para saber apreciarlo.
Vale, creo que ya entiendo que ha ocurrido aqui. Los desarrolladores tanto de juegos y de HW sobretodo de HW, se han dado cuenta que los motores actuales estan llegando a puntos donde apenas se necesita mejorar la potencia del HW y por tanto eso supone vender menos por no requerir un HW mejor, así que la mejor solución es meter algo que necesita muchísimo HW para funcionar y que mejor que el RayTracing que no lo mueven ni las mejores gráficas en tiempo real en una calidad decente, y al igual que los televisores aunque lleguen al limite del ojo humano como es el caso de pantallas 4K - 8K donde ya no hay diferencia eso no les impedirá seguir subiendo la cantidad de muestreo a pesar de no ver diferencia. Un render básico con 64 muestras es suficiente a veces, otros 256, otros 400 y otros 1024, irse a más de esta cantidad ya es para imágenes de muy alta resolución o que la escena creada está muy mal diseñada y genera mucho ruido por luces mal colocadas. Vamos un colar doblada innecesario.

Al menos yo lo entiendo así ya que no encuentro sentido sacar juegos ahora de esta forma. Los motores gráficos actuales han pasado por muchos años de desarrollo para lograr un prerenderizado muy bueno que iguale a los renders normales que tardan lo suyo en calcular toda la imagen, seria tirar a la basura muchos años de investigación y mejoras. Pienso que si mejorasen más esos motores podrían igualar al RayTracing que es lo que pretenden el eevee de blender aunque aun muy verde como para lograr eso. En los últimos 10 años la evolución gráfica de los juegos me ha sorprendido el nivel de detalles que puede alcanzar en comparación con un render de RayTracing, claro que se nota un huevo las diferencias pero el salto que han dado los juegos es increíble. Otros 10 años mas y ya tenemos el RayTracing sin necesidad de usar tanto HW. Supongo que lo que importa es el dinero y si algo se puede mejorar mucho no vale la pena si no da beneficio, verdad Nvidia? Parece marketing de Nvidia estos videos que salen ahora.
Hola
Pasaran como poco 5-10 años hasta que veamos juegos con esta tecnica al completo implementada y ya no digamos a nivel de hard, si ya nvidia gameworks se folla las graficas, cuando se apliquen ambas tecnicas al mismo tiempo los PCs volveran a la edad de piedra y las consolas ya no digamos.
Saludos
Aguasamen escribió:En este juego tengo puestas todas las esperanzas de ver como exprimen la Xbox One X y demuestran de lo que es capaz la máquina. Esperemos que no defraude pero el trailer del E3 era impactante...
</div>
[bye]
Como esperes por microsoft te comes los mocos.
No noto la diferencia.
Como siempre AMDeros y consoleros diciendo gilipolleces para variar.
Luce espectacular. Pero me falta por ver comparaciones con el pseudo raytracing de RTX activado, y desactivado.

Ojalá toda esa potencia extra de las gpus de alta gama se pudieran aprovechar en modelados y geometria, no en filtros.
Reverendo escribió:La iluminación bien, pero ese movimiento síncrono y repetitivo de la vegetación es algo mucho más notorio.
</div>Eso y no se la manía que hay de poner trillones de partículas del tamaño de un moscardón flotando.


Ya ves, entre eso y lo ortopédico del movimiento del agua, por muy bien que se vea te saca totalmente del entorno.
mmiiqquueell escribió:Vale, creo que ya entiendo que ha ocurrido aqui. Los desarrolladores tanto de juegos y de HW sobretodo de HW, se han dado cuenta que los motores actuales estan llegando a puntos donde apenas se necesita mejorar la potencia del HW y por tanto eso supone vender menos por no requerir un HW mejor, así que la mejor solución es meter algo que necesita muchísimo HW para funcionar y que mejor que el RayTracing que no lo mueven ni las mejores gráficas en tiempo real en una calidad decente, y al igual que los televisores aunque lleguen al limite del ojo humano como es el caso de pantallas 4K - 8K donde ya no hay diferencia eso no les impedirá seguir subiendo la cantidad de muestreo a pesar de no ver diferencia. Un render básico con 64 muestras es suficiente a veces, otros 256, otros 400 y otros 1024, irse a más de esta cantidad ya es para imágenes de muy alta resolución o que la escena creada está muy mal diseñada y genera mucho ruido por luces mal colocadas. Vamos un colar doblada innecesario.

Al menos yo lo entiendo así ya que no encuentro sentido sacar juegos ahora de esta forma. Los motores gráficos actuales han pasado por muchos años de desarrollo para lograr un prerenderizado muy bueno que iguale a los renders normales que tardan lo suyo en calcular toda la imagen, seria tirar a la basura muchos años de investigación y mejoras. Pienso que si mejorasen más esos motores podrían igualar al RayTracing que es lo que pretenden el eevee de blender aunque aun muy verde como para lograr eso. En los últimos 10 años la evolución gráfica de los juegos me ha sorprendido el nivel de detalles que puede alcanzar en comparación con un render de RayTracing, claro que se nota un huevo las diferencias pero el salto que han dado los juegos es increíble. Otros 10 años mas y ya tenemos el RayTracing sin necesidad de usar tanto HW. Supongo que lo que importa es el dinero y si algo se puede mejorar mucho no vale la pena si no da beneficio, verdad Nvidia? Parece marketing de Nvidia estos videos que salen ahora.


Yo más bién creo que se hace porque si se quiere dar un gran paso y lograr una evolución notable, el paso a usar raytracing en tiempo real es necesario. Tengo entendido que nVidia lleva al menos 10 años poniendo mucho esfuerzo al tema. La aproximación que quieren aplicar ellos, usando una IA para ahorrar cálculo de rayos y completar la escena, si funciona, podría revolucionar bastante el tema, no sólo a nivel de videojuegos sino a nivel profesional en los campos de animación 3D y todos los relacionados, ya que rebajaría las necesidad de invertir en granjas de equipos para el renderizado y agilizaría muy mucho la producción si el resultado es bueno.

Es cierto que los motores gráficos actuales hacen un buen trabajo, pero aún así están lejos de conseguir cosas como lo que mostré de Brigade en otro hilo sobre el tema (y hablamos de un engine de raytracing en tiempo real, en principio orientado para juegos, que tiene ya unos cuantos años a sus espaldas, todas las capturas tienen 4-5 años). De hecho, en dichas capturas, si uno se fija bién, puede apreciar que los modelados de los objetos son más simples que los que vemos hoy día en la mayoría de videojuegos importantes. Vuelvo a poner aquí dichas capturas:

Imagen
Imagen
Imagen
Imagen
Imagen
Imagen
Imagen
Imagen
Imagen
Imagen
Imagen
Imagen
Imagen
Imagen

Por otro lado, el tema de que se ponga tanto empeño en los gráficos por parte de productoras de videojuegos y fabricantes, y en otras áreas se avance poco (interacción con el entorno, IA de los enemigos, etc...) es porque es lo primero que entra por los ojos de un juego. Sin embargo, los otros aspectos no los compruebas hasta que tienes el mando en las manos y pruebas el juego, por eso los dejan en un segundo plano.
Mover esto en la One X ya va a ser una auténtica proeza. No sé cómo lo van a hacer en la One original. :-|
No me gusta nada ese giro de la industria gráfica buscando el movimiento de acuarelas y oleos, en vez de centrarse en el realismo.

Nivel de sorprendido: cero. Más de lo mismo.
indigo_rs está baneado por "saltarse el ban con un clon"
Espero que expriman al máximo la Xbox One X.
Tremendo juego!! no veo la hora que llegue el día de su lanzamiento.
Reverendo escribió:La iluminación bien, pero ese movimiento síncrono y repetitivo de la vegetación es algo mucho más notorio.
Eso y no se la manía que hay de poner trillones de partículas del tamaño de un moscardón flotando.


venia a comentar lo mismo, la iluminacion es preciosa, pero pareciera que hace mas apreciables las tecnicas que utiliza el juego para ahorrar recursos en los objetos, los cambios en LOD cantan mucho, y el cliping de los objetos, el cesped puede verse el corte donde se dobla, es un cambio drastico de los tech demos donde no tienen que limitarse a los sistemas del juego, pero es interesante por que es un ejemplo real de como funcionaria en un juego actual y eso se agradece

hace pensar que estas tecnicas no podran sacar tanto partido como vemos en los tech demos hasta que no se llegue el punto donde el LOD en sus puntos mas bajos aumente de sobremanera, en esta generacion los personajes se ven muy bien pero los escenarios sufren en el LOD cuando son muy amplios y mas cuando se busca un framerate alto, quizas en 2 generaciones de consolas los assets lleguen a ese punto, y esto por que con tanto 4k los assets vuelven a cantar a la distancia a comparacion de 1080p
Me apuesto lo que sea a que sacan otro juego con una optimización pésima.
El que espere esta tecnologia en las consolas de hoy en dia que espere sentado. Les pueden meter RT simulado lo mas "low" posible y bueno "menos es na", por ejemplo para el video de Star Wars usando UE4, usaron un equipo con 4 nvidia tesla v100, valorado en 69000$ y aun asi solo corria a 24fps.

https://www.xataka.com/componentes/asi-es-nvidia-tesla-v100-5-120-nucleos-cuda-que-estrenan-la-arquitectura-volta

Tal vez para Ps5 y Xbox X2 se vea algo "medio decente", para los pcgamers en 2 o 3 años con las nuevas tarjetas sera una mejora mas seria y acorde a la "economia" del personal.
Durandarte escribió:El que espere esta tecnologia en las consolas de hoy en dia que espere sentado. Les pueden meter RT simulado lo mas "low" posible y bueno "menos es na", por ejemplo para el video de Star Wars usando UE4, usaron un equipo con 4 nvidia tesla v100, valorado en 69000$ y aun asi solo corria a 24fps.

https://www.xataka.com/componentes/asi-es-nvidia-tesla-v100-5-120-nucleos-cuda-que-estrenan-la-arquitectura-volta

Tal vez para Ps5 y Xbox X2 se vea algo "medio decente", para los pcgamers en 2 o 3 años con las nuevas tarjetas sera una mejora mas seria y acorde a la "economia" del personal.


Es por lo que Nvidia está trabajando junto a Microsoft y AMD, a los que de hecho está dado soporte para implementar esto de poder renderizar usando raytracing en tiempo real. Pero el tema es que no es algo que depende del software solo, sino que depende del hard, y por eso solamente las proximas gráficas de Nvidia van a ser capaces de aprovechar esta técnica, que empieza ya a dar sus primeros pasitos en los juegos que se avecinan, y que va a marcar una diferencia importante entre quiienes puedan optar a ella y quienes no. Tampoco en PC todos vamos a poder gozarla, a no ser que hagamos el cambio a Nvidia y una de estas gráficas que se avecinan.

Va a pasar mucho, pero que mucho tiempo, hasta que esta técnica se vea en consolas, y me temo que aun cuando se vea, va a ser en malas condiciones, puesto que Nivida no le va a fabricar las graficas a AMD...por mucho que los fabricantes de consolas, instalados en AMD, presionen y lo pidan. No se si me explico.

Ahora mismo, por ejemplo, en el mundo del render art 3d, los que tenemos AMD estamos jodidos desde hace un tiempo, porque los principales programas de renderizado ofrecen tecnicas de este tipo, desarrolladas y perfeccionadas por Nvidia, que al no poseer gráficas de dicha casa, no podemos utilizar de manera eficiente, o directamente no podemos hacerlo de ninguna manera. Podemos renderizar por software, por cortesia de Nvidia, sin apollo de la GPU, pero se hace practicamente insufrible, tardando dias en renderias lo que se hace en horas con la GPU, o horas para renderizar una escena que con una Nvidia son minutos...

Asi es como está la cosa, y tampoco es la primera vez que el PC, de la mano de Nvidia, cuenta con mejoras gráficas que pasan muchos años exclusivamente en compatibles, mientras las consolas cierran los ojos y las ocultan o ningunean. De hecho, miralas ahí, todavia, viviendocon sus x4y x8 de anisotropico, o sin AA real en practicamente ningun juego, tirando del chapucero FXAA y sus derivados...No es ninguna novedad que pase esto.

Pero como decimos, hay que esperar a ver que rendimiento real en cuanto a frames tienen las nuevas tarjetas Nvidia usando esta técnica, y tambien hay que ver cuantos estudios de desarrollo se "atreven" a desafiar a los fabricantes de consolas, ofreciendo está técnica de iluminación en la version de compatibles de sus juegos, porque se van a ver diferencias muy sangrantes y a dia de hoy, dudo muchisimo que PS5 vaya a poder ofrecerla, sabiendo que no van a cambiar a Nvidia, con la consola pracitamente ya montada y rondando por ahi en fase de muestra, y que para otra XBOX falta aun mas tiempo, y One X ya no puede acceder a esto, salvo que encuentren la forma de hacerlo por soft, que es lo que estan buscando en ese consorcio, pero que dudo mucho que se pueda de manera minimamente eficiente. A ver que pasa, porque todo apunta a que esto va a ser una diferencia marcada, no solo entre jugar en PC o en consolas, sino entre tener o no tener una Nvidia en el equipo. Que tampoco nos la van a regalar a los que somos usuarios de PC [+risas] [+risas]

El caso es que este es el primer pasito, y ya va a suponer una ventaja marcada sobre todo lo que venga detras, que siempre irá a remolque, salvo como digo, que las consolas cambien de plataforma a Nvidia (PS3 ya se apolló en la marca y Nintendo lo hace en chuiff) o que AMD desarrolle o presente sus propias gpus compatibles en breve, o su propio recurso para aplicar esta técnica en juegos, apollados en nuevas gpus, cosa que me sorprendería mucho, viendoles como van...

De todos modos, y sea como sea, es una gran noticia la llegada, por fin, del raytracing en tiempo real, al mundillo del videojuego. Va a ser una gran paso, de esos que marcan un antes y un despues. [beer]
De que genero será el juego? es de tiros...? de ser asi pasando olimpicamente por mucho rtx que tenga...
usuariopc escribió:Mover esto en la One X ya va a ser una auténtica proeza. No sé cómo lo van a hacer en la One original. :-|



Como lo lo hicieron PS3/360 para correr Last Light
@SIRDRAK Como diseño 3D el RayTracing es sin duda una faena a la hora de renderizar, por eso la fundación Blender está trabajando en eevee para ahorrar esos renders innecesarios de prueba pero el resultado dista mucho del render final así que al final toca comérselo con patatas digitales. Igual Blender tiene un pequeño algoritmo para reducir el tiempo de raytracing e igualar la calidad de un render 10 veces con más muestras, pero es una castaña ya que falla muchísimo. Igual por mucho algoritmo que utilicen para optimizar usar 4 T100 de Nvidia es una monstruosidad, cierto que las empresas no usan eso ni de coña, utilizan mejor HW a base de Xeons que es mucho más rápido y fácil de administrar entre secciones de la empresa.

Como sea, los motores gráficos actuales de juegos comparados con los renders con RayTracing apenas hay diferencia notable en lo que respecta color, sombreado y reflejos. Las diferencias que veo es la cantidad de vertices y texturas/materiales de los modelos, un render de tiempo real no puede mientras que uno calculado si. Igual se pueden lograr renders muy realistas sin usar RayTracing. Ya digo que esto huele a publicidad de Nvidia para vender su próxima gama de gráficas y forzar a la gente a cambiar porque meterán esto en los juegos por la fuerza bruta. Me lo veo venir, no seria la primera vez que hacen una guarrada de estas. Igual usar el RayTracing ahora supone un freno bestial para los juegos, yo trabajo en varios proyectos con blender y aun usando 4 samples para el cubo de inicio en 480x272 (resolución de PSP) lo máximo que logro son unos 3 - 5 FPs con una GTX 1060 y eso que blender ha logrado una optimización muy buena desde la versión 2.77, y efectivamente Nvidia lleva unos añitos con el tema del RayTracing para renders pero poco a poco se está quedando atrás contra el OpenCL de AMD, la diferencia antes era considerable pero ahora casi están por igual.

Ahora miraba el de brigade, no dan ningún tipo de información sobre cantidad de muestras o HW utilizado. Los renders mostrados son muy similares a usar los de Blender Render cuya calidad es muy básica y que hasta una simple gráfica decente puede mover casi en tiempo real.
Una demo técnica, y más de un espacio cerrado. Eso siempre va a tener buena pinta, con raytracing o no.

A mi esto del RTX me parece una excusa para aumentar dramáticamente los requisitos a cambio de prácticamente nada.
mmiiqquueell escribió:@SIRDRAK Como diseño 3D el RayTracing es sin duda una faena a la hora de renderizar, por eso la fundación Blender está trabajando en eevee para ahorrar esos renders innecesarios de prueba pero el resultado dista mucho del render final así que al final toca comérselo con patatas digitales. Igual Blender tiene un pequeño algoritmo para reducir el tiempo de raytracing e igualar la calidad de un render 10 veces con más muestras, pero es una castaña ya que falla muchísimo. Igual por mucho algoritmo que utilicen para optimizar usar 4 T100 de Nvidia es una monstruosidad, cierto que las empresas no usan eso ni de coña, utilizan mejor HW a base de Xeons que es mucho más rápido y fácil de administrar entre secciones de la empresa.

Como sea, los motores gráficos actuales de juegos comparados con los renders con RayTracing apenas hay diferencia notable en lo que respecta color, sombreado y reflejos. Las diferencias que veo es la cantidad de vertices y texturas/materiales de los modelos, un render de tiempo real no puede mientras que uno calculado si. Igual se pueden lograr renders muy realistas sin usar RayTracing. Ya digo que esto huele a publicidad de Nvidia para vender su próxima gama de gráficas y forzar a la gente a cambiar porque meterán esto en los juegos por la fuerza bruta. Me lo veo venir, no seria la primera vez que hacen una guarrada de estas. Igual usar el RayTracing ahora supone un freno bestial para los juegos, yo trabajo en varios proyectos con blender y aun usando 4 samples para el cubo de inicio en 480x272 (resolución de PSP) lo máximo que logro son unos 3 - 5 FPs con una GTX 1060 y eso que blender ha logrado una optimización muy buena desde la versión 2.77, y efectivamente Nvidia lleva unos añitos con el tema del RayTracing para renders pero poco a poco se está quedando atrás contra el OpenCL de AMD, la diferencia antes era considerable pero ahora casi están por igual.

Ahora miraba el de brigade, no dan ningún tipo de información sobre cantidad de muestras o HW utilizado. Los renders mostrados son muy similares a usar los de Blender Render cuya calidad es muy básica y que hasta una simple gráfica decente puede mover casi en tiempo real.


Estoy aprendiendo a modelar y a animar y bueno, ya que he leido esto y aun no me entero bien de toda la jerga queria preguntarte, ¿que es un sample?
Un saludo.
D0NV1T0 escribió:Estoy aprendiendo a modelar y a animar y bueno, ya que he leido esto y aun no me entero bien de toda la jerga queria preguntarte, ¿que es un sample?
Un saludo.


Es una buena pregunta y que si estas aprendiendo el diseño 3D te va a ser muy útil. La cantidad de "samples" o "muestras" en Español es la cantidad de veces que un rayo de luz rebotara por toda la zona antes de finalizar su vida, eso es el RayTracing, Si indicas por ejemplo 4 samples entonces los rayos de luz tendrán una vida de 4 saltos, lo que dará como resultado una imagen con muchísimo ruido. Si la cantidad de samples es mayor entonces la vida del rayo de luz sera mayor por lo que a más rebotes menos ruido tendrá y por tanto mejor calidad de imagen. Pero hay que tener en cuenta que esto puede suponer un problema a la hora de renderizar. Utilizar pocas muestras tendrá un render rápido pero de baja calidad, una cantidad alta de muestras tendrá como resultado un impacto considerable en el hardware haciendo que requiera mucho tiempo pero la calidad sera mejor.

Está imagen explicara mejor quizás lo que quiero decir.

https://sinmantyx.files.wordpress.com/2 ... bined.jpeg

Donde la luz (derecha) todos los rayos de luz rebotan muchísimas veces. Por el contrario en el lado izquierdo apenas llegan los rayos de luz, de la misma forma puede explicar que de izquierda a derecha la cantidad de muestras se va incrementando pero eso, a medida que aumenta la cantidad de muestras también aumenta el tiempo requerido. Normalmente para materiales simples como plástico sin reflejo 64 suele ser suficiente, para un render de baja calidad tipo cámara de 2Mpx con 256 a 400 basta y para renders de alta calidad de 1024 a 25.000 es suficiente, claro que a mi por ejemplo con 256 samples/muestras un render puede tardarme unos 20 minutos 1920x1080 con una GTX 1060, pasar a 1024 samples aumentara el tiempo a unos 80 minutos aprox. mientras que 4096 ya serán unas 6 horas. Igual usar el procesador es más lento, una imagen igual con 1024 muestras usando un Dual Core de 2.3GHz puede tardar 9 horas. Por eso que se requiera de 4 gráficas Quadro para mover los juegos en tiempo real con RayTracing. (No se me da bien explicar estas cosas)...


No se que programa utilizas pero yo utilizo BLENDER (es muy fácil de usar y gratuito) y tienes canales como Blender Guru y Tutor4u que enseñan y explican muchos detalles.
mmiiqquueell escribió:
D0NV1T0 escribió:Estoy aprendiendo a modelar y a animar y bueno, ya que he leido esto y aun no me entero bien de toda la jerga queria preguntarte, ¿que es un sample?
Un saludo.


Es una buena pregunta y que si estas aprendiendo el diseño 3D te va a ser muy útil. La cantidad de "samples" o "muestras" en Español es la cantidad de veces que un rayo de luz rebotara por toda la zona antes de finalizar su vida, eso es el RayTracing, Si indicas por ejemplo 4 samples entonces los rayos de luz tendrán una vida de 4 saltos, lo que dará como resultado una imagen con muchísimo ruido. Si la cantidad de samples es mayor entonces la vida del rayo de luz sera mayor por lo que a más rebotes menos ruido tendrá y por tanto mejor calidad de imagen. Pero hay que tener en cuenta que esto puede suponer un problema a la hora de renderizar. Utilizar pocas muestras tendrá un render rápido pero de baja calidad, una cantidad alta de muestras tendrá como resultado un impacto considerable en el hardware haciendo que requiera mucho tiempo pero la calidad sera mejor.

Está imagen explicara mejor quizás lo que quiero decir.

https://sinmantyx.files.wordpress.com/2 ... bined.jpeg

Donde la luz (derecha) todos los rayos de luz rebotan muchísimas veces. Por el contrario en el lado izquierdo apenas llegan los rayos de luz, de la misma forma puede explicar que de izquierda a derecha la cantidad de muestras se va incrementando pero eso, a medida que aumenta la cantidad de muestras también aumenta el tiempo requerido. Normalmente para materiales simples como plástico sin reflejo 64 suele ser suficiente, para un render de baja calidad tipo cámara de 2Mpx con 256 a 400 basta y para renders de alta calidad de 1024 a 25.000 es suficiente, claro que a mi por ejemplo con 256 samples/muestras un render puede tardarme unos 20 minutos 1920x1080 con una GTX 1060, pasar a 1024 samples aumentara el tiempo a unos 80 minutos aprox. mientras que 4096 ya serán unas 6 horas. Igual usar el procesador es más lento, una imagen igual con 1024 muestras usando un Dual Core de 2.3GHz puede tardar 9 horas. Por eso que se requiera de 4 gráficas Quadro para mover los juegos en tiempo real con RayTracing. (No se me da bien explicar estas cosas)...


No se que programa utilizas pero yo utilizo BLENDER (es muy fácil de usar y gratuito) y tienes canales como Blender Guru y Tutor4u que enseñan y explican muchos detalles.


Si utilizo blender tambien, aun no llevo mucho, unas 200 h de uso mas o menos, aun me falta mucha soltura, sobre todo para modelar animales o personas, de todos mas o menos he entendido tu explicacion, eso si la he tenido que leer 2 veces haha, gracias por la respuesta amigo.
41 respuestas