Nvidia anuncia DLSS 4.5 con Frame Generation 6x, mayor calidad de imagen y generación dinámica de...

Nvidia se ha presentado al CES 2026 sin nuevas tarjetas gráficas GeForce RTX, y en su lugar ha revelado nuevas características para Deep Learning Super Sampling (DLSS), su tecnología estrella impulsada por inteligencia artificial. La compañía ha anunciado y lanzado DLSS 4.5, que introduce un modelo Transformer de segunda generación para la superresolución que promete una mayor calidad de imagen, y revelado que en primavera llegará Multi Frame Generation 6x y Dynamic Multi Frame Generation (generación dinámica de fotogramas múltiples).

DLSS 4.5 ya se encuentra disponible mediante la última actualización de la Nvidia App para todos los usuarios de una tarjeta gráfica RTX, pero su rendimiento es mejor en las RTX de las series 40 y 50 debido a que se benefician de unos núcleos Tensor más rápidos y avanzados. Su principal novedad es la primera gran actualización para la arquitectura Transformer, la misma que el año pasado sustituyó el modelo basado en CNN (Redes Neuronales Convolucionales). Para usar DLSS 4.5 en los juegos con DLSS hay que seleccionar DLSS Override feature - Model Presets en la pestaña Graphics y elegir Latest.

Imagen


"Este modelo de segunda generación es el más sofisticado hasta la fecha, ya que utiliza cinco veces la potencia de cálculo del modelo Transformer original y ha sido entrenado con un conjunto de datos de alta fidelidad significativamente ampliado", dice Nvidia. "El modelo tiene una comprensión más profunda de cada escena y utiliza de forma más inteligente el muestreo de píxeles y los datos de movimiento del motor del juego para ofrecer imágenes con mejor iluminación, bordes más definidos y mayor claridad de movimiento".

"Si bien la Super Resolution DLSS 4.5 mejora la calidad de imagen en todos los ajustes, incluidos los modos Calidad y Equilibrado, la transformación es mayor en los modos Rendimiento y Rendimiento ultra, donde hay menos píxeles renderizados disponibles", añade Nvidia.

Multi Frame Generation 6x y Dynamic Multi Frame Generation

En primavera Nvidia lanzará para todos los usuarios de tarjetas gráficas de la serie RTX 50 el modo 6x de Multi Frame Generation, que usa el nuevo modelo Transformer y las mejoras en la calidad de imagen para que DLSS 4.5 pueda generar cinco fotogramas adicionales (o falsos) por cada uno renderizado de forma nativa. A día de hoy Multi Frame Generation de DLSS 4 es capaz de generar tres fotogramas adicionales. Nvidia asegura que el salto de 4x a 6x "aumenta la velocidad de fotogramas 4K en títulos con ray tracing hasta en un 35 %". Esta opción está pensada para jugar en resolución 4K y alcanzar los 240 Hz o 360 Hz.

Imagen


También en primavera Nvidia añadirá a DLSS 4.5 Dynamic Multi Frame Generation, un sistema que en lugar de ceñirse a un multiplicador fijo cambia automáticamente entre diferentes multiplicadores de fotogramas para lograr un equilibrio entre velocidad de fotogramas, calidad de imagen y capacidad de respuesta. "En otras palabras, solo genera los fotogramas necesarios para maximizar la velocidad de fotogramas objetivo o la frecuencia de actualización de la pantalla, ya sea de 120 Hz, 144 Hz, 240 Hz o superior", dice la compañía. El sistema supervisa la diferencia entre el rendimiento de la GPU y la frecuencia máxima del monitor y se adapta en tiempo real.

"En situaciones con gran intensidad gráfica, 'sube de marcha' y aumenta la generación de fotogramas para compensar las caídas de rendimiento [...]", explica Nvidia. "Por el contrario, a medida que la carga de trabajo se aligera, reduce el multiplicador de forma fluida para calcular solo lo necesario".

Veremos mi rtx3080 lo que dura.
Vamos.

Contentísimo con mi 5090 de salida, porque estamos en la era de la viagra, todo sube, nada baja.
Artefactos y lag para todos.
Al final el 99,99% de píxeles serán inventados
Jhonny escribió:Al final el 99,99% de píxeles serán inventados
eres muy inocente si crees que una retransmisión de televisión es 100% fidedigna [carcajad]
Unpopular opinion: DLSS es de lo mejor que le ha pasado a los juegos de PC en años. Podemos discutir el uso que le dan algunos desarrolladores, pero como tecnología es una barbaridad. Es magia negra. En dos clics tienes más FPS y calidad sin bajar de resolución en pantalla ni cambiar el hardware. DLSS ha matado a la resolución nativa y ahora a la generación nativa de fotogramas.

Cuando he usado generación de fotogramas en juegos como Doom The Dark Ages yo no he visto artefactos ni apreciado lag. Quizás hay artefactos, pero no juego analizando la pantalla.
Yo más de 1 fotograma inventado entre 2 reales no tolero, y me parece el punto justo. Puesto que se recomienda para tasas de al menos cerca de 60 fps, es subir la tasa al rango de los hasta 120. Más no vas a ver, y tampoco le veo sentido porque necesitarlos es por tema input lag, cosa que va en contra de la generación de fotogramas.

Salirse de ahí es artefactos por todas partes, y para eso mejor tener menos fotogramas pero más fidedignos.

Así que todo esto me parece puro marketing barato. El objetivo debería ser asegurar 1 fotograma inventado de la mayor calidad posible, muy deseable que se pudiera usar toda esa potencia de IA para generarlo en tasas de los 30 fps para poder subir a 60 con el mínimo de artefactos, en lugar de inventarse 4, 5, o 20 fotogramas de una tasa ya elevada. Para que cojones quiero yo 360 fps casi todos inventados.
Me parece excesivo esto... No termino de verle ninguna utilidad.
Pues al final no dirán que una 5070 iguala a la 4090, dirán q una 5070 supera a una 4090! [looco]
No me interesa nada esta tecnología porque lo considero un lastre para los videojuegos haciendo desarrolladores cada vez más vagos y gastando menos presupuesto pero bueno, a mucha gente le gusta esto lo cual respeto
Benzo escribió:Unpopular opinion: DLSS es de lo mejor que le ha pasado a los juegos de PC en años. Podemos discutir el uso que le dan algunos desarrolladores, pero como tecnología es una barbaridad. Es magia negra. En dos clics tienes más FPS y calidad sin bajar de resolución en pantalla ni cambiar el hardware. DLSS ha matado a la resolución nativa y ahora a la generación nativa de fotogramas.

Cuando he usado generación de fotogramas en juegos como Doom The Dark Ages yo no he visto artefactos ni apreciado lag. Quizás hay artefactos, pero no juego analizando la pantalla.


Yo también estoy deacuerdo, el dlss es un recurso o bien una alternativa viable para mantener un buen equilibrio entre potencia y rendimiento. (No hablemos ee optimización de los desarrolladores).


Ahora inventarse hasta 6 frames es como que cargar Doom, decirle a dlss que es GTA y se inventa otro juego nuevo.. XD XD
Me gusta el dinámico ese que se adapta. Yo tampoco noté nada raro jugando Cyberpunk con todo al máximo a 2K y 100-120fps gracias a esto.
La presentación de Nvidia la pillé empezada y sólo vi la parte que hablaba de los centros de datos y servidores, me pareció un mojón de presentación, ni una sola novedad en cuanto a tarjetas gráficas para jugar, ni rastro de las RTX 5000 super.
Aunque creo que hay otra conferencia hoy sobre esto, no sé si estoy equivocado.

defensivepepe escribió:Veremos mi rtx3080 lo que dura.


A la mía le queda todavía mecha. Estuve MUY tentado este black Friday en cambiarla por una RX9070XT, pero luego ves que todavía es un tarjetón que todavía aguanta el tipo. Así que he decidido esperar un poco más.
Hola Men escribió:La presentación de Nvidia la pillé empezada y sólo vi la parte que hablaba de los centros de datos y servidores, me pareció un mojón de presentación, ni una sola novedad en cuanto a tarjetas gráficas para jugar, ni rastro de las RTX 5000 super.
Aunque creo que hay otra conferencia hoy sobre esto, no sé si estoy equivocado.


Creo que viste la primera conferencia sobre Vera Rubin. La otra conferencia de hoy es esta de DLSS 4.5 que fue a las 6 de la mañana hora peninsular española.
Yo me pregunto si los que siempre están con "fps fakes" "artefactos y lag por todos lados" han realmente probado a jugar con dichas tecnologías o simplemente hablan por hablar, yo he jugado con DLSS4 y MFGx3 en DOOM DA y Cyberpunk y va de LUJO, ofreciendo un resultado MUCHO mejor que si no tuviera dichas tecnologías.

Es cierto que en ciertos juegos y configuraciones (hay factores que influyen) puede dar un resultado no deseado, pero la tecnología funciona y muy bien.
Todo lo que sea para mejor son buenas noticias, pero siempre y cuando la tendencia no sea desarrollar peor esperando que esto lo resuelva, aunque en ese caso igualmente rara vez nos daríamos cuenta.

Korpas escribió:Vamos.

Contentísimo con mi 5090 de salida, porque estamos en la era de la viagra, todo sube, nada baja.


En septiembre empecé a mirar componentes para renovar el PC de sobremesa… con las dudas lo dejé pasar y ahora no hay bolsillo que pague gráfica y ram

Lo malo es que si espero más igual en unos meses cuestan el triple o así… no hace mucho en otro notica ya puse que la tecnología va a pasar a ser artículo de lujo, sino lo es ya.
Benzo escribió:
Hola Men escribió:La presentación de Nvidia la pillé empezada y sólo vi la parte que hablaba de los centros de datos y servidores, me pareció un mojón de presentación, ni una sola novedad en cuanto a tarjetas gráficas para jugar, ni rastro de las RTX 5000 super.
Aunque creo que hay otra conferencia hoy sobre esto, no sé si estoy equivocado.


Creo que viste la primera conferencia sobre Vera Rubin. La otra conferencia de hoy es esta de DLSS 4.5 que fue a las 6 de la mañana hora peninsular española.


Jajaj exacto, porque hasta las 6 no me quedé, gracias por el apunte. [+risas]
Lo he probado en mi RTX 3080. Perdida de rendimiento entre un 10-15%. Sí es cierto que se ve algo más nítido, pero no estamos como para perder fps. Seguiremos con el modelo K
El problema no son los fakes frames es que no aportan jugabilidad al inventarse las coordenadas que seran mas fidedignas... pero. Y ojo el DLSS puede dar mejores graficos que nativa porque digamos a veces corrige defectos del renderizado original, es como nuestro cerebro con los ojos, los mejora xD.

Es una pena, que no saquen mas gpus con mas vram pero tb visto lo visto la 5060 no es una mala gráfica y todo va caro. Mas pena con otras gamas que deberian durar mas...

En fin siguen siendo los reyes y marcan los ritmos como quieren, y como pueden tb con la tecnología que hay de Si.
Nvidia construyendo la narrativa perfecta para las futuras, RTX 6070, con 12 GB de VRam, en un contexto donde la VRam es carísima.

Si vas a jugar con DLSS 4.5, con 12GB de VRam para las RTX6070 te sobra, estarás jugando, internamente a 60 1080p, pero los numeritos marcaran 240 2160P.

Saludos [oki] [oki]
Benzo escribió:Unpopular opinion: DLSS es de lo mejor que le ha pasado a los juegos de PC en años. Podemos discutir el uso que le dan algunos desarrolladores, pero como tecnología es una barbaridad. Es magia negra. En dos clics tienes más FPS y calidad sin bajar de resolución en pantalla ni cambiar el hardware. DLSS ha matado a la resolución nativa y ahora a la generación nativa de fotogramas.

Cuando he usado generación de fotogramas en juegos como Doom The Dark Ages yo no he visto artefactos ni apreciado lag. Quizás hay artefactos, pero no juego analizando la pantalla.

Yo no estoy en contra, de hecho me gustan, pero creo que estaría bien conocerlas y tener claro qué hacen y cuándo merece la pena su uso.

DLSS, como escalador, está bien para la mayoría de casos, pero en títulos que no usen TAA o van bien a su resolución nativa, quizá esta sea una mejor opción. Frame Generation también está bien si partes de 60 FPS y tienes un monitor de +120 Hz, para evitar tirones de 10/15 FPS (en conjunto con VRR es buena opción) o incluso para conseguir 60 FPS si juegas con un mando a un juego single player, pero usarlo para pasar de 30 FPS a 60 FPS si juegas con ratón, en competitivo o usar la solución de AMD en la Deck para pasar de 15 FPS a 30 FPS en juegos como Outlaws, por ejemplo, pues yo no lo usaría...

Qué oye, cada uno tiene sus preferencias, pero a mí me pasa lo mismo que con el Ray Tracing, ni lo adoro, ni lo criminalizo, simplemente creo que no siempre merece la pena y que aún le queda "estandarización", pero que ha venido para quedarse y es el futuro. El problema es que lo vendan como que todos son pros cuándo, como todo, también tiene sus contras.
defensivepepe escribió:Veremos mi rtx3080 lo que dura.


Pues alrededor de 10 fps menos en una pantalla 1440p en el modo calidad, tenemos que admitir que los requisitos son cada vez mayores y las latencias son cada vez más altas en las RTX antiguas que son las 2000 y 3000, el DLSS no es magia.

Todo a partir de este DLSS 4.5 con la segunda generación del modelo Transformer recomiendo a partir de las RTX 5000. En las RTX 4000 es más entre perder un pelín de rendimiento y ganar calidad y mejoras extra, pero para eso directamente me quedaba usando el antiguo DLSS 4.0 en las RTX 4000 también, aún que depende del caso de uso de cada uno.

Por cierto estoy hablando del DLSS 4.5 que es el "upscaler", no de la generación de fotogramas.

Tened en cuenta que todo lo que se esta probando son todavía versiones beta tempranas del desarrollo del 4.5 y todavía queda hasta que saquen el oficial definitivo y a partir de ahí Nvidia va sacando actualizaciones mejorándolo.

Yo tengo una RX 6600 de AMD usando XeSS de Intel y la planeo explotar con el SAM activado, OC en memorias y todo hasta 2027 o 2028 cuando me plantee mejorar a una RTX 6000, en concreto a ver si actualizo a una RTX 6060 en 2027 o 2028 que esa ya va a tener si o si al menos 12GB o 16GB de vram. Y a ver también como salen las "RX 10000 RDNA 5" o se supone que iba a ser UDNA con AMD.
Soy de los que con el frame 60 me basta y el 61 me da igual.

Nunca entendí la carrera loca por los centenares de FPS. Pero supongo que es lo que se puede vender una vez que los saltos gráficos de hace 30 años pasaron al olvido.
John Wayne escribió:Soy de los que con el frame 60 me basta y el 61 me da igual.

Nunca entendí la carrera loca por los centenares de FPS. Pero supongo que es lo que se puede vender una vez que los saltos gráficos de hace 30 años pasaron al olvido.


60 fps es una tasa decente y se juega bien, pero vamos comprate un monitor de 144hz por ejemplo y prueba a jugar a 120 fps, la diferencia es clara y notoria.

Yo por ejemplo el Doom DA lo he jugado con MFGx3 capado a 120 fps (daba más) y te digo que probé por curiosidad a 60 fps nativo y tarde segundos en volver a activar el MFG... mucho pero mucho más agradable a 120 fps.

No se a tasas más altas hasta que punto se notaran, mi monitor es 165hz pero lo tengo bajado a 120hz, pero desde luego jugar a 120 fps vs 60 fps es una clara mejora.
No te lo discuto. Mi televisor es 120 herzios y noto mejoría por supuesto cuando juego a más de 60, pero no lo veo esencial.

Sí veo crítico el salto de 30 a 60.

Pero claro, he visto una pieza de Nvidia enseñando el Resident Evil a 200 FPS...¿Para qué?
De esto se podrá aprovechar la switch 2??? O son cosas totalmente distintas?
ElSrStinson escribió:
Jhonny escribió:Al final el 99,99% de píxeles serán inventados
eres muy inocente si crees que una retransmisión de televisión es 100% fidedigna [carcajad]

Y los reyes son los padres.
Jhonny escribió:Al final el 99,99% de píxeles serán inventados


En un videojuego todos los píxeles son inventados. Lo que importa es el resultado. Siempre se han usado técnicas para ahorrar, la cosa es que esto funciona realmente bien.
Hola Men escribió:La presentación de Nvidia la pillé empezada y sólo vi la parte que hablaba de los centros de datos y servidores, me pareció un mojón de presentación, ni una sola novedad en cuanto a tarjetas gráficas para jugar, ni rastro de las RTX 5000 super.
Aunque creo que hay otra conferencia hoy sobre esto, no sé si estoy equivocado.

defensivepepe escribió:Veremos mi rtx3080 lo que dura.


A la mía le queda todavía mecha. Estuve MUY tentado este black Friday en cambiarla por una RX9070XT, pero luego ves que todavía es un tarjetón que todavía aguanta el tipo. Así que he decidido esperar un poco más.


Las rtx 50 super ya han dicho que la cancelan y se centrarán en las futuras rtx 60 a futuro.


--------------------------------

Respecto a la noticia , nos debemos acostumbrar que el futuro de los videojuegos será el uso de las IA para creación de frames, RT etc etc...

Nos hacemos viejos pero si queremos seguir en este hobby hay que adaptarse, Nos guste más o menos.
Es posible que en el futuro todo esto sea la polla con cebolla, o no, no lo se.

Pero el presente y futuro más inmediato es que esta tecnología de escalados y demás "falseamientos" está en pañales, y no exenta de fallos.

Pero eh, felices de que nos cobren a precio de oro el ser conejillos de indias hasta que den con la tecla [qmparto]
issus escribió:
Jhonny escribió:Al final el 99,99% de píxeles serán inventados


En un videojuego todos los píxeles son inventados. Lo que importa es el resultado. Siempre se han usado técnicas para ahorrar, la cosa es que esto funciona realmente bien.

Algunos tenéis la comprensión lectora muy limitada o tenéis ganas de gresca.
Funciona realmente bien, al nivel de "una 5070 rinde igual que una 4090"
No necesitas explicarme que los videojuegos son mentira y los píxeles no existen, y a algunos nos molestan los trucos de magia para suplir las carencias en potencia bruta.
nxname escribió:
Benzo escribió:Unpopular opinion: DLSS es de lo mejor que le ha pasado a los juegos de PC en años. Podemos discutir el uso que le dan algunos desarrolladores, pero como tecnología es una barbaridad. Es magia negra. En dos clics tienes más FPS y calidad sin bajar de resolución en pantalla ni cambiar el hardware. DLSS ha matado a la resolución nativa y ahora a la generación nativa de fotogramas.

Cuando he usado generación de fotogramas en juegos como Doom The Dark Ages yo no he visto artefactos ni apreciado lag. Quizás hay artefactos, pero no juego analizando la pantalla.


Yo también estoy deacuerdo, el dlss es un recurso o bien una alternativa viable para mantener un buen equilibrio entre potencia y rendimiento. (No hablemos ee optimización de los desarrolladores).


Ahora inventarse hasta 6 frames es como que cargar Doom, decirle a dlss que es GTA y se inventa otro juego nuevo.. XD XD


Predecir no es lo mismo que Inventar.
Tocawebs escribió:
nxname escribió:
Benzo escribió:Unpopular opinion: DLSS es de lo mejor que le ha pasado a los juegos de PC en años. Podemos discutir el uso que le dan algunos desarrolladores, pero como tecnología es una barbaridad. Es magia negra. En dos clics tienes más FPS y calidad sin bajar de resolución en pantalla ni cambiar el hardware. DLSS ha matado a la resolución nativa y ahora a la generación nativa de fotogramas.

Cuando he usado generación de fotogramas en juegos como Doom The Dark Ages yo no he visto artefactos ni apreciado lag. Quizás hay artefactos, pero no juego analizando la pantalla.


Yo también estoy deacuerdo, el dlss es un recurso o bien una alternativa viable para mantener un buen equilibrio entre potencia y rendimiento. (No hablemos ee optimización de los desarrolladores).


Ahora inventarse hasta 6 frames es como que cargar Doom, decirle a dlss que es GTA y se inventa otro juego nuevo.. XD XD


Predecir no es lo mismo que Inventar.


A fines practicos en este caso, si. Si el siguiente frame real es distinto, nos dio X frames mal. No importa si el sistema los “predijo”: el usuario está viendo información visual que no corresponde al estado real del juego.

La generación de fotogramas no ejecuta lógica, no conoce el input futuro ni simula el gameplay. Asume continuidad temporal, y cuando esa continuidad no se cumple, ya sea por caídas de frametime o eventos discretos, la predicción falla y el error se muestra.

Benzo escribió:Unpopular opinion: DLSS es de lo mejor que le ha pasado a los juegos de PC en años. Podemos discutir el uso que le dan algunos desarrolladores, pero como tecnología es una barbaridad. Es magia negra. En dos clics tienes más FPS y calidad sin bajar de resolución en pantalla ni cambiar el hardware. DLSS ha matado a la resolución nativa y ahora a la generación nativa de fotogramas.

Cuando he usado generación de fotogramas en juegos como Doom The Dark Ages yo no he visto artefactos ni apreciado lag. Quizás hay artefactos, pero no juego analizando la pantalla.


Y se quedará como impopular. Sacrificar latencia por frames generados por predicción no es un compromiso aceptable. La generación de fotogramas no aumenta el framerate real ni responde al input. Solo interpola estados visuales asumiendo continuidad temporal.

Podemos hacer un paralelismo con el motion smoothing de los televisores. Aunque sea técnicamente más sofisticado y use información del motor, el principio es el mismo: interpolación temporal. Un TV ya apesta haciendo esto con una fuente no interactiva. En un entorno dinámico e interactivo el problema es mayor. Sí, puede ser menos intrusivo que la interpolación de un televisor, pero en la práctica se siente como el motion smoothing del TV… pero menos horrible. Y aun así, sigue siendo horrible. Si no sentiste lag, yo quiero saber, que framerate real tenias? porque no es lo mismo tener un framerate de 90fps que uno de 45fps.

Y no olvidemos las porquerias que se haran en el futuro por usar estas tecnicas como muletas.
He estado probando el dlss super resolution tranformer de segunda generación en Clair obscur expedition 33 es el preset M en la nvidia app , se nota una mejora importante en la calidad de imagen respecto al preset K que es el modelo transformer de primera generación , la perdida de rendimiento con el preset M con una RTX 4080 ajustes en epico a 4k con dlss rendimiento + frame generation + RTX HDR no es muy grande , paso de 114 fps a 110 fps en un mismo punto cargando la partida sin mover el personaje para que sea exactamente lo mismo , así que bienvenida sea cualquier mejora de imagen y si es tan buena como esta mejor aun

saludos.
Para que tanta tecnología si la mayoría de juego son una basura..
Pues yo iba muy "ilusionado" con la generación de fotogramas hasta que la probé con mi Grafica nueva.....

El problema no han sido los artefactos ni nada parecido. Soy poco exigente con cosas como la tasa de refresco y algún elemento mas, pero el tearing me mata, no lo soporto.

Y, como en muchos juegos no se puede poner la generación de fotogramas y la sincronización vertical a la vez (o si la pones la imagen hace cosas loquisimas), he descubierto que prefiero jugar a muchos menos FPS (a tasas que muchos de por aquí seguramente considerarían inaceptables) que ir a muchos mas fotogramas pero con un tearing completamente repugnante.

Cada cual es un mundo, pero no entiendo como hay peña que puede soportar el tearing con tal de ver muchos FPS en el afterburner.


Para mi esta tecnología ha sido una decepcion enorme :(
Si queréis una buena recomendación, empezar a guardar "Salvar" los drivers que estáis bajando manualmente para vuestras gráficas..
@Caos1 +1 a lo del tearing, en mi caso no lo soporto y es una verdadera mierda que no sea compatible con la generación de fotogramas.
Caos1 escribió:Pues yo iba muy "ilusionado" con la generación de fotogramas hasta que la probé con mi Grafica nueva.....

El problema no han sido los artefactos ni nada parecido. Soy poco exigente con cosas como la tasa de refresco y algún elemento mas, pero el tearing me mata, no lo soporto.

Y, como en muchos juegos no se puede poner la generación de fotogramas y la sincronización vertical a la vez (o si la pones la imagen hace cosas loquisimas), he descubierto que prefiero jugar a muchos menos FPS (a tasas que muchos de por aquí seguramente considerarían inaceptables) que ir a muchos mas fotogramas pero con un tearing completamente repugnante.

Cada cual es un mundo, pero no entiendo como hay peña que puede soportar el tearing con tal de ver muchos FPS en el afterburner.


Para mi esta tecnología ha sido una decepcion enorme :(


No creo que nadie soporte el tearing, es algo super molesto, dicho esto yo no tengo ningún problema de tearing y he usado el MFGx3 en varios juegos.

Investiga un poco... quizás sea problema de tu monitor, el cable, como lo configures o vete a saber.
beat it escribió:De esto se podrá aprovechar la switch 2??? O son cosas totalmente distintas?


En teoría podría, pero no se sabe nada todavía.
Caos1 escribió:Pues yo iba muy "ilusionado" con la generación de fotogramas hasta que la probé con mi Grafica nueva.....

El problema no han sido los artefactos ni nada parecido. Soy poco exigente con cosas como la tasa de refresco y algún elemento mas, pero el tearing me mata, no lo soporto.

Y, como en muchos juegos no se puede poner la generación de fotogramas y la sincronización vertical a la vez (o si la pones la imagen hace cosas loquisimas), he descubierto que prefiero jugar a muchos menos FPS (a tasas que muchos de por aquí seguramente considerarían inaceptables) que ir a muchos mas fotogramas pero con un tearing completamente repugnante.

Cada cual es un mundo, pero no entiendo como hay peña que puede soportar el tearing con tal de ver muchos FPS en el afterburner.


Para mi esta tecnología ha sido una decepcion enorme :(


Me pasó lo mismo la primera vez [+risas], luego descubrí que no tenía el Gsync activado [buuuaaaa].

Lo que tienes que hacer es desde la Nvidia App en la pestaña "Sistema > Pantalla" es activar el Gsync en modo ventana y pantalla completa, puedes activar el indicador en pantalla para saber si está funcionando (solo sale al jugar), también en esa misma pestaña en el apartado donde cambias los HZ activar el check Gsync para la pantalla que vas a utilizar.

Luego en la pestaña "Graficos > Configuración global" bloquear los fps de 4 a 2 fps por debajo de la maxima tasa de refresco de tu monitor, por ejemplo si es 144 puedes bloquearlo a 140.

Haciendo esto tendrás activado Gsync en todo momento en todos los juegos a nivel global [beer], funciona perfecto con nativo y Frame Generation.

@SeijuroG prueba esta configuración que sugiero, usualmente dentro de los juegos bloquean esas opciones, pero a nivel de driver se soluciona fácilmente.

Saludos.
@AN_AR
Así es como efectivamente se elimina el tearing [ok]
Hay gente que muchas veces habla, y sobre todo se queja, sin pararse a pensar que puede ser que no se sepa configurar una gráfica. Además de pincharla en el slot PCIe hay que hacer un mínimo de configuración.

Lo que tú dices es más que correcto y con eso el tearing desaparece. Añado que hay que activar la Sicronización vertical en la Configuración global.
Para no tener que capar los fps con un número también está la opción de poner la Latencia en la Configuración Global en modo Ultra, y así la gráfica automáticamente capará los fps un poco por debajo de los Hz de refresco del monitor.

Ah! y otra cosa! Hay que QUITAR siempre el VSYNC en las opciones del juego ya que ya la hemos activado en el panel de Nvidia y puede traer problemas.
@Caos1

el frame generation para jugarlo sin tearing se hace de la siguiente manera (si no tienes gsync) , solo hay una opción posible , hay activar el vsync desde la nvidia app o desde el panel de control nvidia para ese juego asegurandote de jugar siempre a un frame rate fijo sin que baje ya que si baja la experiencia no es buena por los temblores de imagen además que si juegas por ejemplo a un frame rate fijo de 60fps el input lag tampoco es bueno , pero para disfrutar de una experiencia perfecta con el frame generation se tiene que usar G-sync VRR a altas tasas de fps y como al activar el frame generation el vsync del juego queda inutilizado (menos en GTAV enhanced que utiliza una ultima versión del streamline de nvidia que si permite usar el vsync con frame generation en el juego igual se implemente en mas juego en un futuro) hay que activarlo desde la nvidia app o desde el panel de control para evitar precisamente eso el tearing
Jhonny escribió:
issus escribió:
Jhonny escribió:Al final el 99,99% de píxeles serán inventados


En un videojuego todos los píxeles son inventados. Lo que importa es el resultado. Siempre se han usado técnicas para ahorrar, la cosa es que esto funciona realmente bien.

Algunos tenéis la comprensión lectora muy limitada o tenéis ganas de gresca.
Funciona realmente bien, al nivel de "una 5070 rinde igual que una 4090"
No necesitas explicarme que los videojuegos son mentira y los píxeles no existen,
y a algunos nos molestan los trucos de magia para suplir las carencias en potencia bruta.


Me la sopla lo que os moleste a algunos. Es irrelevante. Cuando digo que son inventados, es que se usan algoritmos de todo tipo para decidir el color de cada píxel en pantalla. No se pinta un pixel de un color que decidió alguien en un momento determinado. Los videojuegos hace mucho que en general no funcionan así. El DLSS es una forma más de decidir qué color pintar en un pixel determinado.

¿A ver si vas a ser tu el que tiene problemas de comprensión?


Saludos
@AN_AR gracias, pero mi monitor no tiene gsync ni ninguna tecnologia de sincronizacion.


Bio81 escribió:@Caos1

el frame generation para jugarlo sin tearing se hace de la siguiente manera (si no tienes gsync) , solo hay una opción posible , hay activar el vsync desde la nvidia app o desde el panel de control nvidia para ese juego asegurandote de jugar siempre a un frame rate fijo sin que baje ya que si baja la experiencia no es buena por los temblores de imagen además que si juegas por ejemplo a un frame rate fijo de 60fps el input lag tampoco es bueno , pero para disfrutar de una experiencia perfecta con el frame generation se tiene que usar G-sync VRR a altas tasas de fps y como al activar el frame generation el vsync del juego queda inutilizado (menos en GTAV enhanced que utiliza una ultima versión del streamline de nvidia que si permite usar el vsync con frame generation en el juego igual se implemente en mas juego en un futuro) hay que activarlo desde la nvidia app o desde el panel de control para evitar precisamente eso el tearing


Gracias @Bio81 , si eso ya lo probé (vsync en el panel nvidia) y el resultado fue desastroso. No se si hay en algún juego que eso solucione el problema, pero en los que probé solo los hacia injugables porque la imagen hacia cosas raras.


Si tener un panel con gsync es mandatorio para usar la generación de fotogramas sin acabar asqueado, pues estaría bien que lo dejaran claro, porque te venden la burra sin indicarte que luego necesitas cierto tipos de alforjas para sacarle provecho.
Benzo escribió:Unpopular opinion: DLSS es de lo mejor que le ha pasado a los juegos de PC en años. Podemos discutir el uso que le dan algunos desarrolladores, pero como tecnología es una barbaridad. Es magia negra. En dos clics tienes más FPS y calidad sin bajar de resolución en pantalla ni cambiar el hardware. DLSS ha matado a la resolución nativa y ahora a la generación nativa de fotogramas.

Cuando he usado generación de fotogramas en juegos como Doom The Dark Ages yo no he visto artefactos ni apreciado lag. Quizás hay artefactos, pero no juego analizando la pantalla.


Muy buenas Benzo. Es posible que este equivocado, porque no he tenido ni el tiempo ni la dedicacion de poder estudiar a fondo todo lo que hace que el DLSS sea tan extraordinario como resulta ser. Pero hay algo de lo que creo tener razon, y es que el DLSS tiene una caracteristica, que para los que como tu o yo venimos de la vieja escuela, creo que en cierto modo, entenderemos.

Si algo recuerdo muy bien en la epoca de los 90 y entrada de los 2000, es que la infinita mayoria de gente que jugaba con PC, cometia muchisimos errores a la hora de configurar su hardware y optimizar el rendimiento con determinados juegos. Que quiero decir ... pues que si le metias mucha resulucion, no fueras tan necio de aplicarle antialiasing. Si le metias muchisima calidad de texturas, no le pusieras una calidad alta al sombreado. Si le incluias un visualizacion en el horizonte enorme, no tuvieras el anisotropico alto. Y asi ... con todo.

Que sucede ... que esto, los que venimos de esa epoca, y que hemos sudado y nos hemos curtido con esas configuraciones tan sumamente delicadas, y de las cuales, muchas veces, aprendiamos a base de prueba y error, o en el mejor de los casos, de bajarnos algun Config.txt en el que "alguien", ya habia dejado las specs adecuadas para un determinado tipo de graficas.

Por lo consiguiente, que quiero decir con todo esto. Pues que nVidia, con el paso de los años, ha dedicado muchos recursos a sacar Drivers que perfilan y ajustan en rendimiento de manera muy concreta con juegos muy especificos, evitando que muchisimas desarrolladoras sacaran parches destinados a la mejora del rendimiento del juego (si Mahoma no va a la montaña ...)

Por lo tanto, si tenemos presente que es lo que hace el DLSS, en cierto modo, nVidia puede realizar un algoritmo y programarlo de forma, que evite realizar incorrectamente una serie de ajustes tecnicos en tiempo real, que evitan que el usuario pueda cometer errores en la configuracion de un juego (con un hardware concreto), logrando que el renderizado del juego sea infinitamente mas eficiente que si el mismo juego se "auto-optimiza" y lo hace incorrectamente.

Al final, no hay nadie mejor que el propio fabricante de las graficas, que sabe perfectamente como balancear el rendimiento, haciendo que el antialiasing, el anisotropico, el texturizado, el calculo por RT, el sombreado, particulas y infinitas configuraciones graficas, sean capaces de no solaparse impidiendo que el renidimiento pueda mermar, por esa configuracion que podria afectar negativamente, siendo el DLSS el que lo consiga sin mayores problemas.

SI al mismo tiempo, a nivel de resolucion, a nivel de iluminacion, a nivel de dibujado y profundidad de campo, puedes "aliminar o restar" cosas, y agregar otras para realizar "lo mismo", con mas frames, lo que realmente haces, es optimizar la escena en tiempo real, sin que haya nada mas que lo que estas "mirando" en ese momento. Antiguamente una escena concreta, podia estar calculando (y restando rendimiento) con cosas que ni tan siquiera veiamos en pantalla.

Por eso, tal cual comentas, el DLSS es tan cojonudo, porque han logrado que sea casi como magia negra activarlo, y ver como todo funciona tan estupendamente.
Yo tengo una 4070ti S y como mucho uso DLSS en juegos realmente demandantes como CP2077 que con todo al maximo+path tracing a 1080@60fps no queda otra que tirar de reescalado y respecto al FG no lo uso.
Benzo escribió:Unpopular opinion: DLSS es de lo mejor que le ha pasado a los juegos de PC en años. Podemos discutir el uso que le dan algunos desarrolladores, pero como tecnología es una barbaridad. Es magia negra. En dos clics tienes más FPS y calidad sin bajar de resolución en pantalla ni cambiar el hardware. DLSS ha matado a la resolución nativa y ahora a la generación nativa de fotogramas.

Cuando he usado generación de fotogramas en juegos como Doom The Dark Ages yo no he visto artefactos ni apreciado lag. Quizás hay artefactos, pero no juego analizando la pantalla.


Justamente, ningún Doom "moderno" con IDTech, necesita generador de frames para volar en gráficas "antiguas" con resoluciones nativas y ajustes gráficos generosos. Porque son juegos (software al fin y al cabo) muy optimizados y el motor (junto con su diseño) están bien pensados de base, para que esos extras de potencia raster y escaladores IA sean algo OPCIONAL y no un requisito indispensable para que el juego se mueva de forma correcta.

Justificar el DLSS para que la morralla de juegos en Unity/UE funcionen a 120-140 fps rascados reescalando desde 720p mientras generas frames, no es que sea impopular, es directamente bajarse los pantalones delante de Nvidia y sus abusos/recortes/precios. Son grandes soluciones para pasar de 300 fps o para lidiar con cargas de path tracing, pero no para que los juegos se optimicen cada vez menos y haya que renovar cada dos años GPUs (el sueño húmedo de Jensen el Chupanegra).

Hablando de artefactos y ghosting, solo tienes que ver como funciona DLSS 3 en 7 Days to Die, un juego que aún funciona con DX11, con una optimización terrible digna de becario, donde cualquier objeto o npc en movimiento a varios metros es un amasijo de sombras y pixeles. Por poner un ejemplo, vaya, porque esto pasa en más juegos.
55 respuestas
1, 2