[HO] NVIDIA | DLSS - Megageometry - DX 1.2 - RTX REMIX - RTX HDR - ASC y mucho más

HILOS RECOMENDADOS
🔲RTX REMIX | REMASTERIZACIÓN DE JUEGOS ANTIGUOS
🔲RTX HDR Y RTX SUPER RES | HDR y REESCALADO EN TODO TIPO DE CONTENIDO EN TIEMPO REAL
🔲DLSS5 I SUPER UPSCALERS POR IA: El DLSS DEL FUTURO I VIDEOJUEGOS HIPERREALISTAS
NVIDIA
Creo este hilo para discutir cosas generales sobre NVIDIA, que abarquen cualquier serie de tarjeta, eventos, modificación, cualquier software, incluso temas relacionados con robótica, IA, etc... En principio lo he hecho para crear una wiki que concentre el software necesario moderno que nos ofrece su ecosistema en la gama Geforce, y así unificar el resto de hilos sobre series, modificaciones y aplicaciones que nos puedan ser útiles. Algunos apartados de la wiki dirigirán directamente a hilos dedicados.
Adjunto la noticia de EOL de NVIDIA sobre el acuerdo con GROQ

noticias/tecnologia/nvidia-groq-acuerdo-licencia

Nvidia firma un acuerdo de licencia con Groq, una startup de chips para la inferencia de IA, por 20.000 millones
Nvidia vuelve a sacar la cartera y en esta ocasión lo hace para firmar un acuerdo de licencia no exclusiva con la startup Groq. No ha trascendido el montante de la operación, pero según la CNBC se trata de una operación de 20.000 millones de dólares. Como parte de esta alianza Jonathan Ross, fundador y director ejecutivo de Groq, Sunny Madra, presidente de Groq, y otros miembros del equipo de Groq, se unirán a Nvidia para impulsar el desarrollo de la tecnología licenciada. Simon Edwards, director financiero de Groq, se queda al frente de la startup.

Las GPU de Nvidia son ampliamente conocidas por sus capacidades a la hora acelerar las tareas de aprendizaje automático y profundo, pero cuando se trata con un modelo de IA el entrenamiento no lo es todo. En el ciclo de vida de un modelo de IA también existe la inferencia, que es el proceso de aplicar todo lo aprendido para decidir, predecir o extraer conclusiones a partir de los datos. Para ejecutar esta parte del proceso de forma más rápida Groq ha estado trabajando en un chip diferente conocido como Unidad de Procesamiento de Lenguaje (LPU, por sus siglas en inglés), que puede ejecutar un modelo más rápido y con menor consumo.

En agosto de 2024, cuando Groq anunció el resultado de una ronda de financiación, dijo que su motor de inferencia LPU podría ejecutar modelos de IA generativa existentes a una velocidad diez veces superior y con un consumo de energía diez veces menor. Cuando mayor es la inferencia, más rápido responde el modelo y más natural es la comunicación.

"Planeamos integrar los procesadores de baja latencia de Groq en la arquitectura de IA de Nvidia, ampliando la plataforma para dar servicio a una gama aún más amplia de inferencias de IA y cargas de trabajo en tiempo real", ha dicho Jensen Huang, director ejecutivo de Nvidia, en una carta enviada a sus empleados. Huang también ha comentado que a pesar de que algunos empleados de Groq pasarán a formar parte de Nvidia y que han obtenido una licencia de la propiedad intelectual, "no hemos adquirido a Groq como compañía".

Los 20.000 millones de dólares que Nvidia pagará por la licencia de Groq no es una cifra oficial, pero tampoco ha sido desmentida por la compañía. Lo que no sabemos son los detalles del acuerdo. Nvidia no ha encontrado competidor con sus chips para acelerar tareas de aprendizaje, pero ahora que los modelos ya han escalado de forma generosa los ojos se han puesto en los chips de inferencia.

Groq es una compañía fundada en 2016 por un grupo de ingenieros liderados por Jonathan Ross, que durante su etapa en Google fue uno de los responsables de la unidad de procesamiento tensorial (TPU), un chip de aceleración de IA con un diseño personalizado que está optimizado para el entrenamiento y la inferencia de grandes modelos de IA. La TPU de Google puede ser un gran rival para Nvidia, así que esta se ha puesto las pilas.

Aquí un artículo de 2024 sobre Groq y sus chips
https://www.xataka.com/robotica-e-ia/gr ... acen-volar

Groq (no Grok) es el nuevo fenómeno de la IA, pero no hace LLMs: fabrica chips que los hacen volar
Imagen

El pasado 9 de noviembre Jonathan Ross escribió un post en el blog de su empresa. Lo tituló "Bienvenido a la galaxia de Groq, Elon". Musk acababa de presentar su chatbot, Grok.

Resultó que ese nombre ya estaba cogido hacía tiempo —aunque con una "q" al final en lugar de una "k"— por parte de esta desconocida empresa que ahora se ha convertido en el nuevo fenómeno del mundo de la IA.



Groq no hace LLMs. No tiene un modelo que compita con GPT-4, con PaLM 2 o con Llama 2. Tampoco tiene un chatbot propio que compita con ChatGPT, Gemini o Copilot. No. Hace algo muy distinto, pero tan importante como eso... o puede que más.

Groq fabrica chips de inteligencia artificial. Los llaman Language Processing Units (LPUs), y con ellos logra algo espectacular: permite que la generación de texto de estos chatbots sea muchísimo más rápida que la que se obtiene con cualquier otro chip, incluidas las potentes GPUs de VIDIA.

Ross —que inició el proyecto en 2016 y que antes creó el primer Tensor Processig Unit en Google— demostró la capacidad de sus chips hace unos días en una entrevista en la CNN. En ella explicó cómo Groq hace que las conversaciones —de texto o habladas— con el chatbot resulten mucho más naturales y mucho más atractivas para quien interactúa con las máquinas.

Velocidad de vértigo = conversaciones naturales
La clave está en la velocidad. Los humanos somos por lo general poco pacientes, y los chatbots tardan en respondernos porque para hacerlo necesitan tener acceso a una capacidad de cálculo enorme. Hasta ahora las GPUs de NVIDIA eran la mejor opción para obtener conversaciones más o menos fluidas, pero Groq deja a esas GPUs a la altura del betún.

Lo hemos comprobado haciendo una pequeña prueba que cualquiera puede replicar: basta con abrir dos ventanas, una con ChatGPT o cualquier otro chatbot en una parte de la pantalla y la demo de Groq en la otra parte. La velocidad de respuesta del chatbot de Mistral (pero se puede aplicar a cualquier otro) gracias a Groq es sencillamente espectacular.

Hay estudios independientes como el de Artificial Analysis que dejan clara la diferencia: no solo la velocidad es superior, sino que además Groq es más económico.

Así, Groq ofrecía una tasa de 246,79 tokens por segundo con el LLM Llama 2 con un coste de 0,72 dólares por cada millón de tokens. Usar ese mismo LLM en la infraestructura Microsoft Azure daba 18 tokens por segundo y un coste de 1,6 dólares.

Otros análisis confirman esas prestaciones. En el ranking de LLMPerf monitorizado por la empresa Anyscale, Groq es 18 veces más rápido en inferencia LLM que los principales proveedores de esta función en la nube.

Cómo logra Groq ser tan rápido
Estamos pues ante una prometedora revolución no en la precisión o calidad de las respuestas de estos modelos y sus chatbots, sino en la velocidad con la que nos responden. De repente mantener una conversación puede resultar mucho más natural, y esto plantea implicaciones importantes en ese uso práctico de esta tecnología.
Imagen

¿Cómo logran los chips de Groq algo así? Ross lo explicaba en esa entrevista de la CNN con una analogía sencilla.

"La mayoría de los chips de IA no tienen demasiada memoria disponible. Es como cuando fabricas coches: necesitas grandes fábricas y un millón de pies cuadrados en líneas de ensamblaje. Si no tienes ese tipo de edificio, necesitas dividir las líneas de ensamblaje una y otra vez para que ocupen menos. Eso es lento y lleva mucho tiempo, y eso es lo que pasa con la GPU: tienes que leer de la memoria miles de veces por cada palabra que se genera, como si tuvieras que configurar la línea de ensamblaje una y otra vez [para sacar la pieza necesaria del coche]".
Aunque los responsables de Groq lógicamente no quieren dar muchos detalles sobre cómo funcionan sus chips, sí que explican en el sitio web oficial de la compañía que "la LPU está diseñada para superar los dos cuellos de botella de los LLM: la densidad de cálculo y el ancho de banda de la memoria". La empresa, eso sí, enlaza a estudios premiados de 2020 en los que ya hablaba de procesadores especializados para acelerar tareas de aprendizaje profundo.

Ross explicó que estos chips no están disponibles para usuarios finales, así que no esperéis poder comprar algún tipo de tarjeta PCIe para añadirla a vuestro PC. Al menos, no de momento: la empresa trabaja con compañías que pueden beneficiarse de esta potencia de cálculo en sus centros de datos para luego ofrecer esa velocidad de generación de texto en sus servicios en la nube.

Es de esperar que poco a poco veamos este tipo de solución implantada en chatbots públicamente accesibles —y seguramente, de pago—, pero lo interesante es que esto abre la puerta a que efectivamente este tipo de mejora haga que las GPUs de NVIDIA (o AMD, que avanza en este campo) cuenten con al menos una alternativa totalmente especializada en este ámbito. Y si ha aparecido una, lo lógico es pensar que acabarán apareciendo más y quizás lo hagan con propuestas destinadas a los consumidores.
Copio la noticia de Benzo hilo_nvidia-anuncia-dlss-4-5-con-frame-generation-6x-mayor-calidad-de-imagen-y-generacion-dinamica-de_2528200

NVIDIA ANUNCIA DLSS 4.5 CON FRAME GENERATION 6X, MAYOR CALIDAD DE IMAGEN Y GENERACIÓN DINÁMICA DE FOTOGRAMAS MÚLTIPLES
Nvidia se ha presentado al CES 2026 sin nuevas tarjetas gráficas GeForce RTX, y en su lugar ha revelado nuevas características para Deep Learning Super Sampling (DLSS), su tecnología estrella impulsada por inteligencia artificial. La compañía ha anunciado y lanzado DLSS 4.5, que introduce un modelo Transformer de segunda generación para la superresolución que promete una mayor calidad de imagen, y revelado que en primavera llegará Multi Frame Generation 6x y Dynamic Multi Frame Generation (generación dinámica de fotogramas múltiples).

DLSS 4.5 ya se encuentra disponible mediante la última actualización de la Nvidia App para todos los usuarios de una tarjeta gráfica RTX, pero su rendimiento es mejor en las RTX de las series 40 y 50 debido a que se benefician de unos núcleos Tensor más rápidos y avanzados. Su principal novedad es la primera gran actualización para la arquitectura Transformer, la misma que el año pasado sustituyó el modelo basado en CNN (Redes Neuronales Convolucionales). Para usar DLSS 4.5 en los juegos con DLSS hay que seleccionar DLSS Override feature - Model Presets en la pestaña Graphics y elegir Latest.

Imagen


"Este modelo de segunda generación es el más sofisticado hasta la fecha, ya que utiliza cinco veces la potencia de cálculo del modelo Transformer original y ha sido entrenado con un conjunto de datos de alta fidelidad significativamente ampliado", dice Nvidia. "El modelo tiene una comprensión más profunda de cada escena y utiliza de forma más inteligente el muestreo de píxeles y los datos de movimiento del motor del juego para ofrecer imágenes con mejor iluminación, bordes más definidos y mayor claridad de movimiento".

"Si bien la Super Resolution DLSS 4.5 mejora la calidad de imagen en todos los ajustes, incluidos los modos Calidad y Equilibrado, la transformación es mayor en los modos Rendimiento y Rendimiento ultra, donde hay menos píxeles renderizados disponibles", añade Nvidia.

Multi Frame Generation 6x y Dynamic Multi Frame Generation

En primavera Nvidia lanzará para todos los usuarios de tarjetas gráficas de la serie RTX 50 el modo 6x de Multi Frame Generation, que usa el nuevo modelo Transformer y las mejoras en la calidad de imagen para que DLSS 4.5 pueda generar cinco fotogramas adicionales (o falsos) por cada uno renderizado de forma nativa. A día de hoy Multi Frame Generation de DLSS 4 es capaz de generar tres fotogramas adicionales. Nvidia asegura que el salto de 4x a 6x "aumenta la velocidad de fotogramas 4K en títulos con ray tracing hasta en un 35 %". Esta opción está pensada para jugar en resolución 4K y alcanzar los 240 Hz o 360 Hz.

Imagen


También en primavera Nvidia añadirá a DLSS 4.5 Dynamic Multi Frame Generation, un sistema que en lugar de ceñirse a un multiplicador fijo cambia automáticamente entre diferentes multiplicadores de fotogramas para lograr un equilibrio entre velocidad de fotogramas, calidad de imagen y capacidad de respuesta. "En otras palabras, solo genera los fotogramas necesarios para maximizar la velocidad de fotogramas objetivo o la frecuencia de actualización de la pantalla, ya sea de 120 Hz, 144 Hz, 240 Hz o superior", dice la compañía. El sistema supervisa la diferencia entre el rendimiento de la GPU y la frecuencia máxima del monitor y se adapta en tiempo real.

"En situaciones con gran intensidad gráfica, 'sube de marcha' y aumenta la generación de fotogramas para compensar las caídas de rendimiento [...]", explica Nvidia. "Por el contrario, a medida que la carga de trabajo se aligera, reduce el multiplicador de forma fluida para calcular solo lo necesario".

La serie RTX 50 Super refresh de Nvidia se retrasa, y la serie RTX 60 podría irse a 2027


Se esperaba que la gran renovación de las GPU de la serie RTX 50 de Nvidia se presentara en el CES 2026 en enero, pero no fue así. The Information informa de que, en diciembre, los directivos de Nvidia decidieron no lanzar las nuevas tarjetas según lo previsto y optaron por dar prioridad a los chips de IA debido al suministro limitado de RAM disponible en la actualidad. Además, «Nvidia también está recortando la producción de su línea actual de chips para juegos», la serie RTX 50, que ya tiene una gran demanda y se agota constantemente en las tiendas.



El cambio de prioridad, alejándose de las GPU para juegos, se produce tras los ingresos récord de Nvidia, impulsados por sus chips de IA. Los ingresos de los centros de datos representaron 51 200 millones de dólares del total de 57 000 millones de dólares que Nvidia declaró en sus resultados del tercer trimestre de 2026. Aunque los ingresos por juegos también aumentaron un 30 % durante ese mismo periodo, representan una porción mucho menor del pastel que antes.



El retraso de la serie RTX 50 Super no solo significa que actualmente no hay previsto ningún lanzamiento de nuevas GPU para juegos por parte de Nvidia para este año, sino que también podría retrasar las tarjetas de próxima generación. Según la fuente de The Information, la serie RTX 60 «tenía previsto inicialmente comenzar la producción en masa a finales de 2027», y retrasarla podría posponerla hasta 2028 o incluso más tarde.

Como señala The Information, no es imposible que Nvidia pueda adelantar la fecha de lanzamiento de sus nuevas GPU para juegos. Sin embargo, dado que la escasez de RAM continúa, lo que provoca un aumento de los precios y retrasa las fechas de lanzamiento de todo tipo de productos, desde iPhones hasta Steam Machine, es posible que las actualizaciones de hardware previstas para los jugadores de PC tengan que esperar.

https://www.theverge.com/tech/874439/nv ... ries-delay
¡SI AYER INSTALASTEIS LOS DRIVERS DEL 26 DE FEBRERO PARA RESIDENT EVIL 9, AL TANTO!

Nvidia revierte su última actualización de controladores: el controlador Game Ready 595.59 supuestamente causa problemas con los ventiladores en las GPU de las series RTX 3000, 4000 y 5000.
https://www.tomshardware.com/pc-compone ... eries-gpus
Este problema del controlador parece simple pero podría ser catastrófico.
Imagen

Nvidia acaba de lanzar el controlador GeForce Game Ready 595.59, que supuestamente optimizaba sus GPU para Resident Evil Requiem . Sin embargo, ComputerBase [traducción automática] informa que esto ha estado causando problemas en las tarjetas RTX de la serie 3000 y posteriores, y los usuarios comentan que el controlador solo detecta un ventilador en las GPU.

Si bien algunos pensaron que aplicaciones de terceros como MSI Afterburner podrían haber estado causando interferencias, otro usuario informó el mismo problema incluso sin Afterburner instalado.

Según múltiples reportes en los foros oficiales GeForce, algunos usuarios comenzaron a detectar que tras instalar el driver 595.59 WHQL, sus GPUs mostraban un comportamiento anómalo en el sistema de refrigeración, llegando incluso a funcionar solo uno de los ventiladores del disipador. Este fallo afecta directamente a la gestión térmica del hardware, elevando el riesgo de temperaturas inestables bajo carga.

Además del control de ventilación, también se han documentado incidencias relacionadas con la estabilidad de frecuencias de GPU, variaciones inesperadas en la frecuencia de funcionamiento y comportamientos inconsistentes durante sesiones de juego prolongadas. Este tipo de errores resulta especialmente crítico en controladores gráficos, ya que el driver actúa como capa esencial entre el silicio de GPU, el sistema operativo y los motores gráficos.

Los malos lanzados ayer que han retirado
NVIDIA GeForce 595.59 WHQL driver download 26 de febrero


Lo anteriores de enero buenos
NVIDIA GeForce 591.86 WHQL driver download 27 de enero

En unas horas puede que los lancen de nuevo, pero hasta entonces es recomendable revertirlos a los de enero si los instalasteis ayer, yo no los instalé por ejemplo.


Parece que Nvidia ha retirado la actualización del controlador, ya que ya no está disponible en el sitio web de la compañía. Sin embargo, si ya has actualizado a la última versión del controlador y tienes problemas, debes volver a la versión anterior. Puedes hacerlo en la aplicación de Nvidia haciendo clic en los tres puntos de la pestaña Controladores.

Si no tienes instalado el software de Nvidia, puedes ir al Administrador de dispositivos de Windows, desplegar Adaptadores de pantalla y hacer doble clic en tu GPU. En la ventana de propiedades, haz clic en la pestaña Controlador y selecciona "Revertir controlador". Si el botón no está disponible, Nvidia te indica que desinstales el controlador de la GPU y luego descargues y reinstales el controlador más reciente disponible, lo que debería solucionar el problema, ya que el controlador problemático ya está disponible.

Podéis también bajar los drivers de forma manual desde la web de NVIDIA https://www.nvidia.com/es-es/drivers/
Por eso NUNCA hay que actualizar drivers hasta que no sea estrictamente necesario. Cuando un PC funciona, no lo toques

Pero todavia se sigue escuchando a un monton de cuñados decir que hay que tenerlos siempre actualizados.
cobi escribió:Por eso NUNCA hay que actualizar drivers hasta que no sea estrictamente necesario. Cuando un PC funciona, no lo toques

Pero todavia se sigue escuchando a un monton de cuñados decir que hay que tenerlos siempre actualizados.


Vaya ABSURDEZ..

Hay que tenerlos actualizados, en cada revisión arreglan problemas y añaden opciones en juegos.. sobretodo si tienes la serie RTX 50
Ryoga99 escribió:
cobi escribió:Por eso NUNCA hay que actualizar drivers hasta que no sea estrictamente necesario. Cuando un PC funciona, no lo toques

Pero todavia se sigue escuchando a un monton de cuñados decir que hay que tenerlos siempre actualizados.


Vaya ABSURDEZ..

Hay que tenerlos actualizados, en cada revisión arreglan problemas y añaden opciones en juegos.. sobretodo si tienes la serie RTX 50


Jamas lo hago. 0 problemas. Sin embargo una vez me jodieron una grafica, igual que ahora parece que nuevamente hay drivers problematicos

Absurdez es actualizar algo que funciona perfectamente
Ryoga999 escribió:Vaya ABSURDEZ..

Hay que tenerlos actualizados, en cada revisión arreglan problemas y añaden opciones en juegos.. sobretodo si tienes la serie RTX 50

No siempre es así, en general los nuevos drivers se lanzan para mejoras en juegos lanzados, algunos llevan correcciones de errores, pero a veces también meten problemas, si no vas a jugar a juegos nuevos te puedes quedar perfectamente en unos drivers estables antiguos, instalar de nuevos puede ser contraproducente, también está la línea de los studio que son más estables, porque en general NVIDIA no añade casi nada nuevo relevante, o por lo menos no lo ha hecho últimamente salvo con el DLSS


De todas formas el problema con los drivers de febrero ya está solucionado, NVIDIA los retiró, no debe quedar mucha gente con ellos instalados a no ser que cayera en coma justo ese día porque creo que gran parte de la gente se enteró y no dio tampoco mucho tiempo a instalarlos, los retiraron bastante rápido.
katatsumuri escribió:si no vas a jugar a juegos nuevos te puedes quedar perfectamente en unos drivers estables



Incluso jugando novedades puedes estar sin actualizar. 8 años tuve la 1070 y solo fue actualizada una vez. Jugue a todo sin problema

Ahora llevo un par de años con otra, 0 actualizaciones y jugando a todo lo nuevo sin problema
@katatsumuri Ya estan disponibles con las mejoras corregidas.
Ryoga99 escribió:@katatsumuri Ya estan disponibles con las mejoras corregidas.

Por lo visto, la últíma versión lanzada ayer mismo sigue dando problemas: hilo_ho-nvidia-geforce-rtx-5000_2507243_s19950#p1756569783

Saludos.
@javier españoll yo he notado el tema de que la imagen viene y va como algunos han comentado en reddit
javier español escribió:
Ryoga99 escribió:@katatsumuri Ya estan disponibles con las mejoras corregidas.

Por lo visto, la últíma versión lanzada ayer mismo sigue dando problemas: hilo_ho-nvidia-geforce-rtx-5000_2507243_s19950#p1756569783

Saludos.

Consecuencias de que la IA sea la que programe
Hildr está baneado por "Clon de usuario baneado"
581.42 y me he dejado de historias. Ya le vale a Nvidia.
¿Creéis que NVIDIA está boicoteando los juegos para vender el PathTracing? Es que lo de Resident Evil 9 es una locura, que con el mismo preset en ultra la cara de la protagonista parezca como en LOW, cuando en la mayoría de juegos sin PT la cara de los protas se ve como con Pathtracing, quiero decir, que se ve bien, que no parecen consumidores crónicos de metanfetaminas a los que se les salen los ojos.

¿Esto sería culpa de CAPCOM o de ambas? Me refiero a si CAPCOM ha cedido a NVIDIA para vender el PT como algo a otro nivel y con ello ha nerfeado el rostro de los personajes sin aplicarles sombras ni iluminación sin PT ¿Es cosa de que CAPCOM no ha sabido manejar PT junto a iluminación normal?
Imagen
Confirmo que con los último drivers 595.71 se reinicia el driver de pantalla de forma aleatoria.
@bumperianoo tienes un hotfix de NVIDIA para el driver, lo puedes descargar de la web de NVidia https://nvidia.custhelp.com/app/answers ... /a_id/5812

NVIDIA PREPARA LA ACTUALIZACIÓN DE LA COMUNIDAD GEFORCE ON PARA LA GDC 2026
En la Conferencia de Desarrolladores de Juegos (GDC) de este año en San Francisco, NVIDIA preparó una actualización especial para la comunidad GeForce ON, programada para mañana, donde la compañía se dirigirá a su público gamer. Si bien no tenemos expectativas oficiales para esta actualización de GeForce ON, NVIDIA podría presentar un avance de las nuevas tecnologías que la compañía está desarrollando para sus jugadores o de nuevas implementaciones en juegos y motores de juego. Normalmente, esto se centra en tecnologías como el Supermuestreo de Aprendizaje Profundo, el Trazado de Rayos, el Trazado de Trayectorias, la expansión GeForce NOW, monitores para juegos como las Pantallas de Juego de Gran Formato (Big Format Gaming Displays) o algo completamente diferente. Curiosamente, NVIDIA también podría presentar un avance de posibles lanzamientos de productos para su GTC 2026, que comienza dentro de una semana, el 16 de marzo, y se extenderá hasta el 19 de marzo. Esperamos con entusiasmo cualquier anuncio formal; pueden ver el enlace del video que da inicio al estreno mañana a continuación.
https://youtu.be/bqraHG7ARVM
NVIDIA anuncia el primer parche de DLSS 4.5 y explica los avances y aplicaciones de su innovadora tecnología llamada RTX Mega Geometry que puede ser una revolución. La marca ha desvelado novedades en este GDC 2026, como la fecha de lanzamiento final de DLSS 4.5 y la nueva tecnología RTX Mega Geometry. Han centrado la presentación en Dynamic Multi Frame Generation y cómo aprovecha todos los hercios del monitor, aunque ya se empieza a hablar de Path Tracing en serio.



NVIDIA RTX Mega Geometry Boost
RTX Mega Geometry Boost, una tecnología que se organiza en clústeres. En cada escena hay más de 10.000 objetos para procesar en lo que ha iluminación se refiere. Pues, con esta tecnología ahorras VRAM y tienes un incremento de FPS hasta en un 20%. Así lo han mostrado con Alan Wake 2.

No solo beneficia a iluminación, sino al sistema de follaje de The Witcher 4. Sabemos que este juego está desarrollado con Unreal Engine 5 y pinta muy bien, pues han usado la tecnología de RTX Mega Geometry para procesar millones de objetos por escena donde hay una geometría animada bastante compleja (hojas de árbol).
Imagen
Imagen

NVIDIA DLSS 4.5 llega el 31 de marzo con Dynamic Multi Frame Generation
NVIDIA ya presentó DLSS 4.5 y su nuevo Dynamic Multi Frame Generation, así como su modo 6X para aumentar aún más los FPS con IA. Sin embargo, faltaba por determinar la fecha de lanzamiento a través de drivers GeForce, así que la marca ha confirmado su llegada el 31 de marzo, dentro de 3 semanas exactas.

Haciendo recap, Dynamic Multi Frame Generation es una tecnología por la que se pretende brindar los FPS que necesitas para aprovechar tus hercios y, además, tener la máxima calidad de imagen en el proceso. Conforme vayamos aumentando el multiplicador de Multi Frame Generation (MFG), la calidad de imagen puede caer y aparecer más artefactos en la escena.

De esta manera, la GPU junto al juego va a adecuando a tiempo real el multiplicador de MFG para obtener los FPS que necesitas para aprovechar los hercios (120, 165, 180, 200, 240, 280, 360, 480 hz, etc.). La casuística es muy amplia según la resolución a la que juegues, tu PC y el monitor que uses.

Te ahorras tiempo de ir probando ajustes gráficos hasta encontrar el preset que mejor se ajuste a tu PC y tus exigencias. Con este ajuste automático, todo se simplifica.

Recordad que DLSS 4.5 estará disponible solo para las NVIDIA RTX 50.


MEJORAS EN RTX REMIX
Nvidia ha anunciado mejoras en partículas y la capacidad de poder añadir lógica a los juegos, como por ejemplo poder establecer diferentes estados del día (amanecer, mañana, tarde, atardecer, noche) en un juego que no tenía programado eso.
Jensen Huang hablando sobre la NVIDIA GEFORCE 3 y celebrando sus 25 años.

Han pasado 25 años desde GeForce 3. ¿Por qué 25 años fueron tan importantes y por qué esta GPU en particular fue tan importante? Introdujimos el primer acelerador gráfico convencional exitoso, RIVA 128, y posteriormente RIVA TNT, RIVA TNT2, y lo que hicimos bien fue reconocer que la canalización gráfica es realmente profunda. La interceptamos justo en el lugar correcto. Estábamos pasando la geometría. Todo lo que vino después se aceleró con coma flotante. Toda esa etapa de la canalización, incluyendo el intenso tráfico de memoria, el procesamiento de texturas, todo eso se hizo en hardware. Y esa psicología sobre NVIDIA como acelerador de canalización es un acelerador de algoritmos. Lo que acabo de decir es realmente importante. Un acelerador de algoritmos es esencialmente una empresa de computación acelerada. GeForce 3 fue una gran transición para nosotros. Fue dentro de la empresa. Una estrategia realmente importante a considerar, y la razón es que el concepto de aceleración y el concepto de programabilidad están en conflicto entre sí. Y por otro lado, los gráficos por computadora se veían exactamente iguales. Todos los juegos se veían exactamente iguales. Parecía muy filtrado y todo estaba filtrado bilineal o trilineal y no había dinámica alguna en el juego. Y sentíamos que los juegos no eran como el CAD. El juego era un medio para la expresión artística. Y que si miras todos estos juegos diferentes, queríamos que todos se vieran diferentes. Y si quieres que todos se vean diferentes, necesitas la capacidad de expresar el arte en algún tipo de programa. No puede estar precodificado. Y nuestra empresa realmente no tenía mucha capacidad de tecnología de compilación. Y entonces, mientras estábamos haciendo la transición de una tubería acelerada por hardware fijo a una tubería de hardware fijo también programable, nos dimos cuenta de que teníamos que entrar y convertirnos en una empresa de computación. Esta es, por supuesto, la primera manifestación de eso, ¿verdad? Unos 30 y pico millones de transistores solo para poner en perspectiva, ahora tenemos varios cientos de miles de millones de transistores en un chip. Me decías antes, Andrew, esto es lo que son 35 vatios. 35 vatios. Ahora estamos rozando los 3500 vatios. [risas] Así que los chips han recorrido un largo camino. Mientras estamos aquí celebrando GeForce 3, literalmente podía ver los pasos mentales en mi mente mientras dábamos un paso tras otro que nos llevaron hasta hoy. Cada decisión, en muchos sentidos, se construyó sobre eso. Quiero decir feliz cumpleaños GeForce 3 y [risas] y a todos los que estábamos, ya saben, Dios, éramos jóvenes. Hace 25 años. Ni siquiera creo que estuviéramos bebiendo whisky en ese momento. ¿Teníamos la edad legal para beber en ese momento? [risas] En fin, ¡salud! ¡Salud! Los quiero, chicos. ¡Salud! Gracias. Feliz cumpleaños. Los quiero, chicos. Y gracias a todos por inspirarnos todos estos años y, ya saben, tomamos muchas buenas decisiones.También hicimos muchas cosas graciosas y todos ustedes siempre nos dejaron espacio para explorar el futuro a nuestra manera. Una de las cosas de las que estoy muy orgulloso es el gran riesgo que asumimos al llevar al mundo al trazado de rayos, que es tan computacionalmente intensivo que dimos un gran paso atrás en la velocidad de fotogramas, lo que requirió inteligencia artificial para impulsarnos. Y como saben, cuando trabajamos en algo, trabajamos en ello literalmente durante toda nuestra vida. Y el concepto de renderizado neuronal está aportando capacidad generativa a los gráficos por computadora.
que es completamente controlable y el renderizado generativo que es menos controlable pero más bello más imaginativo estamos unificando estos dos métodos de generación de imágenes y comenzamos a hacerlo - ¿cuándo fue RTX? (2018) a punto de cumplir una década y así que solo quiero que sepan que hemos estado persiguiendo esta visión de unificar um combinando la capacidad de renderizado de gráficos por computadora y sombreado programable y todas las cosas que hacemos con gráficos por computadora y IA generativa en esto llamado renderizado neuronal durante casi una década. Así que de alguna manera les dice qué tan avanzados tenemos que pensar en las cosas y quiero que todos sepan que estamos pensando en dentro de una década el tipo de cosas que vamos a poder habilitar. Así que ha sido una gran alegría uh servirles a todos ustedes. Gracias por todo lo que han hecho por GeForce. Sin GeForce no habría CUDA. Sin CUDA no habría IA. Sin IA no habría hoy y así que todos ustedes lo han hecho posible. Así que muchas gracias y feliz cumpleaños. ¡Salud! ¡Salud chicos! ¡Salud, chicos! ¡Salud! Los quiero mucho. Gracias.
NVIDIA AÑADE “AUTO SHADER COMPILATION BETA” A LA APLICACIÓN NVIDIA.
Nvidia pretende solucionar el problema de los tirones en los sombreadores con su versión beta de compilación automática de sombreadores.
Nvidia está tomando medidas contra los problemas de rendimiento causados ​​por la compilación de sombreadores. Con su nueva función de Compilación Automática de Sombreadores (ASC), Nvidia ofrece a los jugadores la opción de reconstruir los sombreadores del juego fuera del tiempo de ejecución para brindar una experiencia de juego más fluida. Mientras tu PC está inactiva, puede actualizar los sombreadores del juego para ahorrar tiempo y evitar problemas de rendimiento posteriores.

Un aspecto molesto del tartamudeo en la compilación de sombreadores es que estos deben recompilarse después de cada actualización del controlador de la GPU y del juego. La función ASC de Nvidia permite a los usuarios actualizar sus sombreadores cuando el sistema está inactivo, lo que significa que no es necesario actualizarlos posteriormente durante la ejecución del juego. Esta opción ya está disponible en la pestaña Gráficos de la aplicación de Nvidia. También existe la opción "Compilar ahora" para los jugadores que deseen realizar esta tarea de inmediato.

Hacer que las actualizaciones de controladores sean un poco menos molestas.
ASC permite a los jugadores de PC actualizar los controladores de su GPU, sabiendo que los sombreadores del juego podrían recompilarse antes de que puedan volver a jugar. Lamentablemente, esta función solo actualiza los sombreadores ya compilados; no descarga sombreadores precompilados de internet. Esto puede evitar interrupciones en el juego y ahorrar tiempo a los usuarios en las pantallas de carga iniciales.

Si bien los sombreadores aún deben generarse primero mediante los juegos, ASC simplifica enormemente el proceso de recompilación. Esto es una excelente noticia para los jugadores de PC, especialmente para aquellos que prefieren mantener sus controladores actualizados.

Todos lo hemos experimentado: enciendes el ordenador, te sientas a jugar y te encuentras con la temida barra de progreso "Compilando sombreadores". Otras veces, entras directamente al juego, pero los sombreadores se compilan en segundo plano, provocando molestos tirones.

Para combatir estos problemas, presentamos una versión beta de NVIDIA Auto Shader Compilation (ASC), que reconstruye los sombreadores de DirectX 12 mientras el sistema está inactivo, lo que reduce la frecuencia de compilación en tiempo de ejecución del juego después de las actualizaciones de los controladores.

Los shaders definen cada píxel en pantalla. Dado que este código está escrito en lenguajes amigables para desarrolladores, debe traducirse a código máquina compatible. Este proceso, conocido como compilación, comienza al instalar el juego. Durante este tiempo, la CPU convierte el código genérico del shader a un formato optimizado que la GPU puede ejecutar. Los títulos modernos requieren decenas de miles de traducciones de shaders, un proceso que debe repetirse después de las actualizaciones del juego o de los controladores de la GPU. Esta versión beta es el primer paso para optimizar la compilación de shaders para los jugadores de GeForce.

De forma predeterminada, la compilación automática de sombreadores estará desactivada, pero puedes activarla en la pestaña Gráficos de la aplicación NVIDIA, en Configuración global > Caché de sombreadores. Si deseas recompilar los sombreadores inmediatamente, en lugar de esperar a que se recompilen mientras el sistema está inactivo, puedes seleccionar la opción "Compilar ahora", ubicada debajo de los tres puntos en la pantalla de Caché de sombreadores.

Tenga en cuenta que, tras descargar un juego por primera vez, deberá generar los sombreadores dentro del juego. La compilación automática de sombreadores de NVIDIA actualizará estos sombreadores tras una actualización del controlador.

La compilación automática de sombreadores de NVIDIA requiere el controlador GeForce Game Ready 595.97 WHQL o posterior. Si tiene comentarios sobre la compilación automática de sombreadores de NVIDIA, compártalos a través del formulario integrado en la aplicación de NVIDIA, que se encuentra en la esquina superior derecha de la ventana de la aplicación.

Imagen

(Beta de compilación automática de sombreadores de Nvidia)

Sinceramente, esta es una gran incorporación a la aplicación de Nvidia. La compilación de shaders es uno de los mayores quebraderos de cabeza en los juegos de PC. Contar con un proceso automático de recompilación de shaders es una gran ventaja para la aplicación de Nvidia. Actualmente, esta función está en fase beta y está desactivada por defecto. Si esta beta funciona correctamente, podemos esperar que esté disponible para todos los usuarios de Nvidia próximamente.

Actualmente, esta función requiere el controlador GeForce Game Ready 595.97 WHQL de Nvidia o una versión posterior.

https://overclock3d.net/news/software/n ... vidia-app/


Introducción a la rama NVIDIA RTX de Unreal Engine 5.7
https://www.youtube.com/watch?v=mpNE0doOKN4



ESTE MOD FRAMEWORK PERMITE AÑADIR DLSS, FSR, HDR A CUALQUIER JUEGO CON DX11 https://github.com/Filoppi/Luma-Framework
Luma es un framework de modding que facilita la mejora gráfica en juegos de DirectX 11. Aprovecha el sistema de complementos ReShade para añadir o modificar pases de renderizado (y reemplazar shaders (por ejemplo, postprocesamiento)) mediante ganchos DirectX. Aunque la mayoría del código genérico de shaders está enfocado en el soporte de salida HDR, ya hay mucho más (como soporte DLSS), y no hay límite a lo que puede hacer. Ya hay varios juegos en el código, incluido un proyecto plantilla, y añadir uno nuevo es relativamente fácil. Luma también actúa como analizador gráfico, con capacidades profundas de depuración (capturando todos los comandos de dibujo/despacho y cambios de estado en DX (por ejemplo, SRV/RTV/UAV/DSV/CBs, etc.), descarga el analizador gráfico para usarlo en cualquier juego DX11.

Luma es similar a RenoDX (https://github.com/clshortfuse/renodx), de donde se inspiró, pero Luma está más centrado en moddear juegos en el fondo, como por ejemplo añadir y reemplazar técnicas completas de renderizado, añadir soporte para DLSS o Ultrapanorámico, etc. Portar mods sencillos entre ambos es relativamente fácil.


La comunidad de modding de Luma Framework sigue creciendo: ahora tenemos un puñado de modders dedicados y talentosos que agregan HDR, DLSS/FSR y otras características de renderizado (GTAO, bloom moderno, ...) a los juegos.

Los siguientes mods de mejora de resolución DLSS/FSR están en desarrollo:
- Watch Dogs (jugable)
- Watch Dogs 2
- Mafia III (~jugable)
- Batman: Arkham Knight
- Ruptura cuántica
- Luz moribunda
- El Reino Venga: Liberación
- Granblue Fantasy Relink (jugable)

Te invitamos a unirte a nosotros; el código facilita bastante la adición de estas funciones y siempre hay gente dispuesta a ayudar.

Comparativa de Watch Dogs DLSS 1080p:


LA COMPRESIÓN DE TEXTURAS NEURONALES DE NVIDIA OFRECE UN AHORRO DE VRAM DEL 90 % CON DXR 1.2.
Imagen

En Twitter/X, @opinali https://x.com/opinali/status/1944974731263856746?s=20 ha probado el impacto de la tecnología de compresión de texturas neuronales de Nvidia ( demostración aquí https://github.com/NVIDIA-RTX/RTXNTC ) cuando se utiliza junto con la función de vectores cooperativos de DirectX Raytracing 1.2 ( DXR 1.2 ).

Cooperative Vectors permitirá a los desarrolladores integrar cargas de trabajo de IA en el flujo de renderizado en tiempo real. Esto les permitirá aprovechar las operaciones vectoriales y matriciales aceleradas por hardware, posibilitando usos creativos de la IA en cargas de trabajo de juegos estándar.

Mediante la compresión de texturas neuronales (NTC), el tamaño de las texturas se puede reducir en casi un 90 %. Esto reduce significativamente el consumo de memoria de los juegos, lo que permite renderizar gráficos más complejos en hardware con menos VRAM.
Imagen

La función Vectores Cooperativos de DXR 1.2 permitirá utilizar el hardware de IA de diversas arquitecturas de GPU para lograr estos resultados. Esto significa que la compresión de texturas neuronales no será una función exclusiva de Nvidia, lo cual es una excelente noticia para todos los jugadores de PC.

Las texturas representan entre el 50 y el 70 % del uso de VRAM en los juegos.
@opinali afirma que las texturas pueden representar entre el 50 % y el 70 % del uso de VRAM en los juegos. Esto significa que el hardware de IA podría utilizarse para que los juegos de alta gama sean más viables en tarjetas gráficas con poca VRAM. Sin embargo, esto no reducirá el uso de VRAM de los juegos actuales, y muchos juegos modernos tienen dificultades para funcionar correctamente en tarjetas gráficas con 8 GB de memoria.
Imagen


En definitiva, la compresión de texturas neuronales es una tecnología fascinante. Tiene el potencial de revolucionar los videojuegos. Como mínimo, permitirá a los desarrolladores optimizar sus recursos. Además, esta tecnología podría utilizarse para reducir el tamaño de descarga de los juegos, ahorrando valioso espacio en el SSD. Cabe destacar que esta tecnología estará disponible en futuros ordenadores y consolas. Por lo tanto, es solo cuestión de tiempo que se generalice su uso.


La charla de NVIDIA en la GDC muestra que la renderización neuronal no se limita a DLSS 5, sino que también puede reducir el uso de VRAM en un 85%.
https://x.com/VideoCardz/status/2040351 ... 08188?s=20
https://videocardz.com/newz/nvidia-show ... b-to-970mb
Poco después de que Jensen presentara DLSS5 en GTC 2026, NVIDIA también habló sobre la renderización neuronal en la práctica durante una charla en GTC 2026, tan solo unos días después. La charla se centró en un nivel más técnico y en cómo esta tecnología no solo transforma los procesos de...

Imagen
Imagen

El ejemplo más sencillo fue la compresión de texturas neuronales (NTC).  NVIDIA mostró que su escena Tuscan Wheels reducía el consumo de VRAM de aproximadamente 6,5 GB con texturas comprimidas con BCN tradicional a 970 MB con NTC, manteniendo una calidad de imagen cercana a la original. La compañía...

Otro aspecto interesante del renderizado con IA son los Materiales Neuronales , que siguen la misma lógica. En lugar de manejar una gran cantidad de datos de textura separados y realizar cálculos BRDF más complejos, NVIDIA comprime el comportamiento del material en una representación latente...


Imagen
Imagen

Es posible que NVIDIA haya cometido un error al mostrar DLSS5 tan pronto, y en lugar de centrarse en los beneficios para los jugadores, como un menor uso de VRAM, texturas de mayor calidad y pequeñas actualizaciones en el proceso de renderizado del juego, decidieron promocionar una tecnología que...
https://www.tomshardware.com/pc-compone ... 80-percent

BENCHMARKING DE NVIDIA'S RTX NEURAL TEXTURE COMPRESSION, LA TECNOLOGÍA QUE PUEDE REDUCIR EL USO DE VRAM POR ENCIMA DEL 80%
Pusimos a prueba la compresión de texturas neuronales RTX con varias GPU y en un ordenador portátil.

Hoy vamos a realizar pruebas comparativas y analizar una de las nuevas tecnologías más interesantes que Nvidia está desarrollando: RTX Neural Texture Compression (NTC), una tecnología basada en IA que utiliza Tensor Cores para comprimir y descomprimir datos, reduciendo así los requisitos de VRAM hasta en un 80 %.

Cuando Nvidia presentó las tarjetas gráficas de la serie RTX 50, también anunció varias tecnologías de renderizado neuronal junto con esas GPU. Estas tecnologías mejoran la representación de los materiales, proporcionan una compresión más eficiente de las texturas y aumentan la calidad de la luz indirecta mediante rayos trazados por inferencia.

Todo esto forma parte de un nuevo paradigma para gráficos en tiempo real llamado sombreado neuronal, que permite entrenar parte del pipeline gráfico. Se ejecutan pequeñas redes neuronales dentro de los sombreadores, que trabajan conjuntamente con el resto del motor de renderizado y son aceleradas por hardware mediante vectores cooperativos para lograr un rendimiento eficiente en tiempo real.

En lugar de tener que escribir código de sombreado complejo, los desarrolladores pueden entrenar modelos de IA para estimar el resultado que habría calculado dicho código. Este enfoque permite abordar desafíos de renderizado difíciles de resolver con métodos tradicionales.

Hoy nos centraremos en una de estas tecnologías en particular: la compresión de texturas neuronales RTX. Explicaremos cómo funciona NTC, realizaremos pruebas de rendimiento en varias GPU y compartiremos algunas ideas de Alexey Panteleev, ingeniero de desarrollo de tecnología de Nvidia y desarrollador de NTC.

¿QUÉ ES LA COMPRESIÓN DE TEXTURAS NEURONALES RTX?
RTX Neural Texture Compression (NTC) es un método de compresión y descompresión de texturas basado en aprendizaje automático. En DirectX 12, puede ejecutarse en tres modos diferentes: Inferencia al cargar, Inferencia al muestrear e Inferencia al recibir retroalimentación. En Vulkan , la Inferencia al recibir retroalimentación no es compatible, por lo que los únicos dos modos disponibles son Inferencia al cargar e Inferencia al muestrear.

La fase de compresión consiste en transformar las texturas originales en una combinación de pesos para una pequeña red neuronal y características latentes. En el modo de inferencia sobre muestra, la fase de descompresión consiste en leer los datos latentes y realizar una operación de inferencia pasándolos a través de una pequeña red de perceptrón multicapa (MLP) cuyos pesos se determinaron durante la fase de compresión. Cada texel se descomprime cuando es necesario. NTC es determinista; no es generativo.

Para reducir los artefactos visuales, se utiliza el filtrado de texturas estocástico (STF) para introducir aleatoriedad y obtener texturas filtradas. Las GPU Blackwell ofrecen una mejora de 2x en la tasa de filtrado de texturas por muestreo puntual, por lo que el proceso es especialmente rápido en estas tarjetas gráficas.

La técnica de descompresión mencionada se conoce como Inferencia sobre Muestra, que es lo que la mayoría de la gente piensa cuando se habla de compresión de texturas neuronales. Ofrece la mayor reducción en el consumo de VRAM, pero puede resultar poco práctica para algunas GPU debido a su impacto en el rendimiento. Por suerte, también existen soluciones para hardware de gama baja.

La inferencia bajo carga descomprime las texturas NTC durante la carga del juego o mapa y las transcodifica a formatos comprimidos por bloques (BCn) simultáneamente. La descompresión se realiza completamente en la GPU. En la práctica, esto mantiene el mismo rendimiento que las texturas comprimidas por bloques, por lo que no hay penalización de rendimiento como ocurre con la inferencia bajo muestreo. Además, reduce significativamente el espacio que ocupan las texturas en el disco y disminuye el tráfico PCIe. La desventaja es que no reduce el uso de VRAM en comparación con las texturas comprimidas por bloques.

La inferencia basada en retroalimentación utiliza la retroalimentación del muestreador y descomprime únicamente el conjunto de mosaicos de textura necesarios para renderizar la vista actual. Este modo ofrece un punto intermedio entre los dos modos anteriores. Proporciona una gran reducción en el uso de VRAM, aunque no al mismo nivel que la inferencia basada en muestra. Esto se debe a que la retroalimentación del muestreador requiere una asignación adicional de memoria dinámica. Su rendimiento suele estar entre el de la inferencia basada en carga y el de la inferencia basada en muestra.

Gracias a las extensiones de vectores cooperativos para Vulkan y Direct3D 12, los sombreadores de píxeles pueden aprovechar la aceleración por hardware mediante unidades de aceleración de IA en las GPU modernas (Nvidia Tensor Cores, AMD AI Accelerators o motores Intel XMX). Esto permite a NTC sacar partido de esta aceleración por hardware para lograr una mejora significativa en el rendimiento de la inferencia.

¿POR QUÉ UTILIZAR COMPRESIÓN DE TEXTURAS NEURONALES?
La compresión de textura neuronal logra índices de compresión más altos que otros formatos como BCn. Además, admite materiales con un alto número de canales, ya que procesa hasta 16 canales simultáneamente. La compresión por bloques solo procesa imágenes de 1 a 4 canales.

Los datos que se muestran a continuación se obtuvieron al ejecutar el ejemplo de compresión de texturas neuronales RTX en GitHub con la escena base Intel Sponza y el paquete Colorful Curtains (consulte los detalles de nuestro sistema de prueba más abajo para obtener información sobre la configuración).
Imagen

En comparación con NTC Inference on Load, que transcodifica las texturas a un formato comprimido por bloques para la memoria de trabajo, se puede observar que Inference on Sample ofrece una enorme reducción del 85 % en la memoria de textura necesaria.

La inferencia basada en muestras no solo reduce drásticamente el consumo de VRAM, sino que, como se puede observar a continuación, genera una imagen más cercana a la de referencia que las texturas transcodificadas con BCn. Las texturas en el modo de inferencia basada en muestras son prácticamente idénticas a las texturas de referencia.

Sin embargo, no está exento de problemas. Las imágenes anteriores se tomaron con DLSS activado. El filtrado de textura estocástico (STF) se utiliza para obtener texturas filtradas en NTC mediante la introducción de aleatoriedad. Como resultado, activar STF sin utilizar ningún tipo de suavizado de bordes puede producir una imagen con mucho ruido. Este ruido se elimina por completo con DLSS. TAA limpia la imagen en gran medida, pero no del todo. El modo de inferencia en muestra requiere el uso de STF, por lo que no se puede desactivar. Por lo tanto, este modo requiere el uso de suavizado de bordes, preferiblemente DLSS, para obtener los mejores resultados.

El año pasado, durante una presentación sobre la compresión de texturas neuronales RTX en Vulkanised 2025, Nvidia explicó que, además de reducir la memoria de texturas, la NTC también se puede utilizar para proporcionar una calidad de textura drásticamente superior incluso con las mismas limitaciones de memoria.
Imagen
En la escena anterior, se utiliza la misma cantidad de VRAM tanto para BCn como para NTC, pero NTC logra conservar significativamente más detalles de textura y fidelidad visual. A continuación, analizaremos las pruebas de rendimiento, pero no olvides leer más abajo para obtener información adicional sobre NTC proporcionada por un técnico de Nvidia.

¿QUÉ TAL FUNCIONA?
Las ventajas de esta tecnología son evidentes, pero ¿cómo se comporta en la práctica? Analizaremos varias GPU y cómo gestionan la compresión de texturas neuronales (NTC) en el ejemplo RTX Neural Texture Compression disponible en GitHub.

La inferencia en carga transcodifica las texturas NTC a BCn durante la carga del juego o mapa, por lo que no genera sobrecarga de rendimiento en comparación con la compresión por bloques. Por otro lado, la inferencia en muestreo conlleva una pérdida de rendimiento en todas las GPU, ya que realiza la decodificación neuronal sobre la marcha durante el muestreo. Idealmente, esta pérdida de rendimiento debería ser mínima para que resulte práctica.

La muestra se probará utilizando la escena base Intel Sponza con el paquete Colorful Curtains para simular una carga de trabajo de juego más exigente que la del modelo predeterminado. Sin embargo, es importante destacar que, si bien la escena base Intel Sponza es más realista que el modelo predeterminado, la muestra aún cuenta únicamente con un pase hacia adelante básico y TAA/DLSS.

Un juego tendrá muchas más pasadas de renderizado que esta, y la mayoría de ellas no se verán afectadas por NTC. Por lo tanto, el coste relativo de tiempo de fotograma en un juego real puede ser menor que el que experimentamos en esta muestra. Esta es también la razón por la que medimos el rendimiento en términos de tiempo de fotograma. Dado que la mayoría de las demás pasadas de renderizado en un juego pueden no verse afectadas por NTC, la cantidad de milisegundos que añade en esta muestra podría darnos una mejor idea del coste absoluto de tiempo de fotograma en un juego real.

Las pruebas de rendimiento se centrarán en la resolución más adecuada para cada GPU.

La implementación de vectores cooperativos en DirectX 12 requiere Microsoft DirectX 12 Agility SDK 1.717.x-preview y el controlador para desarrolladores de Nvidia 590.26 para la funcionalidad de Shader Model 6.9. Por lo tanto, utilizamos este controlador para todos los escenarios probados a lo largo del artículo.

La función NTC on Feedback solo está disponible en DirectX 12 debido a la falta de un equivalente en Vulkan para DirectX 12 Sampler Feedback.

-Sistema de prueba
-AMD Ryzen 7 9800X3D
-64 GB (2 x 32 GB) G.Skill Flare X5 DDR5 a 6200 MHz CL30
-SSD Crucial T700 Gen5
-Asus ROG STRIX B850-F Gaming WiFi
-Refrigerador todo en uno Corsair Nautilus 360 RS
-HAGS habilitado
-Windows 11 25H2 (Compilación 26200.8117)
-Controlador para desarrolladores de Nvidia 590.26


Imagen
-----------------------
Imagen

La RTX 5090 es la primera en aparecer, y como se puede observar, incluso a 4K, el coste en tiempo de fotograma de Inferencia en Muestra con TAA es bastante bajo en comparación con las texturas transcodificadas BC en Inferencia en Carga. Habilitar DLSS supone un coste adicional, ya que exige más a los núcleos Tensor. Sin embargo, en un juego real con más pasadas de renderizado y mucha más acción en pantalla, el rendimiento debería seguir beneficiándose del renderizado a una resolución menor gracias al uso de DLSS.

Imagen
-----------------------
Imagen

En la RTX 5070 a 1440p, el coste del modo Inferencia en Muestra, comparado con las texturas transcodificadas con BCn, oscila entre 0,50 y 0,70 ms, según el escenario. La diferencia es inferior a 1 ms. Cabe destacar que los juegos reales implican muchas más pasadas de renderizado (no todas afectadas por NTC) y suelen tener tiempos de fotograma totales significativamente mayores que los de esta muestra. Por consiguiente, el coste de rendimiento relativo de NTC probablemente sea mucho más aceptable en la práctica.

A 4K, el coste es de aproximadamente 1,20 ms.
Imagen
-----------------------
Imagen

En la RTX 5060 a 1080p, el coste de rendimiento de la inferencia en muestras oscila entre 0,60 y 0,70 ms, dependiendo del escenario. A una resolución adecuada para esta GPU, volvemos a estar dentro de 1 ms.

Sin embargo, la 5060 tiene dificultades con resoluciones más altas. A 1440p, el tiempo de respuesta supera 1 ms, y a 4K, se acerca a los 2 ms, aunque esto es de esperar para una GPU de este nivel.

Ahora veamos un sistema de gama baja: un portátil con una GPU móvil RTX 4060.


Sistema de prueba móvil
Tarjeta gráfica para portátil RTX 4060
Intel Core i7-13620H
SSD Gen4
16 GB DDR5
HAGS habilitado
Windows 11 25H2 (Compilación 26200.8117)
Controlador para desarrolladores de Nvidia 590.26

Imagen
Imagen

El coste de rendimiento del modo de inferencia por muestra a 1080p en la GPU 4060 para portátiles es de aproximadamente 0,70-0,85, dependiendo del escenario.

El coste de la 4060 se acerca a 1 ms. Aún podría haber situaciones en las que la 4060, con su memoria intermedia de 8 GB, se beneficie de la inferencia por muestreo. Si la VRAM es la principal limitación, entonces podría valer la pena usar este modo. Como menciona Alexey Panteleev más adelante, si un juego te obliga a reducir la calidad de las texturas porque de otro modo no cabrían en la VRAM, pero el juego funciona con suficiente fluidez al hacerlo, entonces la inferencia por muestreo podría resultar beneficiosa.


INFORMACIÓN DE UN DESARROLLADOR DE COMPRESIÓN DE TEXTURAS NEURONALES EN NVIDIA
Cuando subí un par de videos de NTC al canal de YouTube de Compusemble en octubre de 2025, Alexey Panteleev, ingeniero de DevTech distinguido en Nvidia y desarrollador de NTC, se unió generosamente a la sección de comentarios. Compartió información adicional y respondió preguntas de los espectadores.

¿Qué GPU se recomiendan para cada modo?
Alexey Panteleev: La inferencia en muestras solo es viable en las GPU más rápidas, y por eso también ofrecemos el modo de inferencia bajo carga, que transcodifica a BCn y solo proporciona una reducción del tamaño del disco o del tamaño de descarga, no beneficios de VRAM.

La velocidad de una GPU para realizar inferencias sobre muestras depende principalmente de la implementación específica del juego. Por ejemplo, si se utilizan texturas de materiales en alguna pasada además del búfer G, la complejidad del modelo de materiales y el tamaño de los sombreadores, etc. Estamos trabajando para mejorar la eficiencia de la inferencia.

¿Cómo se podría implementar NTC en los juegos para garantizar una buena experiencia para todos?
Alexey Panteleev: Nuestra idea es que los juegos incluyan texturas NTC y ofrezcan la opción de seleccionar el modo de carga/retroalimentación frente a la opción de muestreo. Los usuarios podrían elegir la que prefieran según el rendimiento del juego en su equipo. Creo que la regla general sería: si un juego te obliga a bajar la calidad de las texturas porque, de lo contrario, no caben en la VRAM, pero al hacerlo funciona con suficiente fluidez, entonces debería ser un buen candidato para la opción NTC de muestreo.

Otro aspecto importante: los juegos no tienen por qué usar NTC en todas sus texturas; puede ser una decisión que se tome para cada textura individualmente. Por ejemplo, si una textura sufre una pérdida de calidad inaceptable, se puede mantener como una textura sin NTC. O si una textura se usa por separado de otras texturas en un material, como un mapa de desplazamiento, probablemente debería mantenerse como una textura independiente sin NTC.


¿Cómo se comportaría NTC en un juego real en comparación con su rendimiento en la muestra?
Alexey Panteleev: El modo On Sample es notablemente más lento que On Load, que no tiene costo en el tiempo de renderizado. Sin embargo, tenga en cuenta que un juego real tendría muchos más pases de renderizado que solo el pase directo básico y TAA/DLSS que tenemos aquí, y la mayoría de ellos no se verían afectados, lo que hace que la diferencia general en el tiempo de fotograma no sea tan grande. La diferencia de rendimiento relativa entre On Load y On Sample dentro de la misma familia de GPU debería ser similar. Si una GPU se queda sin VRAM, On Load no ayudaría en absoluto, porque no reduce el tamaño del conjunto de trabajo, y las cargas a través de PCIe solo ocurren cuando se transmiten nuevas texturas o mosaicos.

Sobre el efecto del filtrado de textura estocástico (STF) en la imagen
Cuando se publicó la muestra NTC el año pasado, algunos usuarios notaron que la imagen presentaba mucho ruido al desactivar el suavizado de bordes (anti-aliasing). Este ruido se eliminó por completo al usar DLSS y, en gran medida, al usar TAA, aunque no del todo. Esto se debe al uso de STF. Al desactivar STF, ya no se observó ruido en la imagen con el suavizado de bordes desactivado. Sin embargo, STF es necesario para la inferencia en la muestra.

Alexey Panteleev: Cabe destacar que el filtrado estocástico de texturas (STF) influye significativamente en el aspecto de elementos con reflejos especulares detallados, como las cortinas. En los modos Referencia y Carga, se puede activar o desactivar el STF, pero no en el modo Muestra, ya que este último requiere STF y siempre está activado. El STF está activado por defecto en todos los modos para facilitar la comparación.


UN VISTAZO AL FUTURO DEL RENDERIZADO
La muestra analizada aquí ofrece una visión fascinante del futuro de la renderización de gráficos. La compresión de texturas neuronales (NTC) puede ofrecer índices de compresión extremadamente altos sin sacrificar la calidad de la imagen y, de hecho, parece ofrecer una mejor calidad de imagen que los formatos comprimidos por bloques en algunos casos.

Resulta muy impresionante que el modo de inferencia sobre muestra produjera una calidad de imagen ligeramente superior a la de las texturas transcodificadas BCn en la escena base de Intel Sponza, al tiempo que reducía la memoria de texturas en un 85 %. El modo de inferencia sobre muestra se ajustó casi a la perfección a los materiales de referencia (sin comprimir).

Dicho esto, aún quedan algunas salvedades. El filtrado de textura estocástico (STF) introduce ruido visible cuando el suavizado de bordes está completamente desactivado, y puede aparecer algo de ruido residual incluso al usar el suavizado de bordes temporal (TAA). Actualmente, NTC requiere que DLSS ofrezca su mejor rendimiento al usar STF, lo cual es obligatorio para la inferencia en muestras.

También destacó la compatibilidad de esta tecnología con una amplia gama de GPU. Los desarrolladores pueden comprimir texturas usando NTC, pero también ofrecen un modo de inferencia bajo carga, que transcodifica las texturas NTC a BCn durante la carga del juego o mapa. Si bien esto no reduce el uso de VRAM, no afecta el rendimiento y disminuye considerablemente el espacio que ocupan los juegos en disco. La tecnología también es compatible con GPU de AMD e Intel.

La compresión de texturas neuronales está llamada a desempeñar un papel crucial en el futuro de los gráficos en tiempo real, y será emocionante ver cómo evoluciona y madura con el tiempo.
¿Alguien lo ha probado con la serie 3000?


DLSS ENABLER AHORA PUEDE SIMULAR DLSS 4 MULTI-FRAME GEN X5 Y X6 EN CUALQUIER GPU DX12.
https://www.dsogaming.com/mods/dlss-ena ... -dx12-gpu/
Se ha lanzado una nueva versión de DLSS Enabler que permite a los usuarios simular DLSS 4 Multi-Frame Generation X5 y X6 en cualquier GPU compatible con DX12. Esto seguramente complacerá a muchos usuarios que querían probar estos modos MFG pero no podían, ya que son exclusivos de las GPU de la serie RTX 50.

Anteriormente, DLSS Enabler podía proporcionar MFG X3 y X4 en cualquier GPU compatible con DX12 , siempre y cuando el juego ya fuera compatible con DLSS 4 y Multi-Frame Generation. En los títulos compatibles con DLSS 4, DLSS Enabler puede, en esencia, "desbloquear" MFG para que funcione en todas las GPU compatibles con DX12. Esto significa que tanto los usuarios de Intel como de AMD pueden beneficiarse de esta función.

Como ya se mencionó, DLSS Enabler simula DLSS 4 MFG. Por lo tanto, los resultados no son tan buenos como los de DLSS 4 MFG cuando se ejecuta en una GPU de la serie RTX 50. Así que téngalo en cuenta.

Sin embargo, esta podría ser una herramienta indispensable para muchos propietarios de tarjetas gráficas de la serie RTX 40. Por ejemplo, la NVIDIA RTX 4090 es mucho más potente que la RTX 5080. Esto significa que puede proporcionar una mayor tasa de fotogramas base para MFG. Así, con DLSS Enabler, puedes usar MFG X6 y obtener resultados excelentes.

Para obtener la mejor calidad de imagen, necesitas una velocidad de fotogramas base de 40-50 FPS. Si intentas usar MFG X4 o MFG X6 en un juego que funciona a 20 FPS, aparecerán muchos artefactos. Cuanto mayor sea la velocidad de fotogramas base, menos artefactos visuales tendrá MFG.

La razón por la que usé la imagen del Desierto Carmesí como encabezado es porque DLSS Enabler la admite. Con DLSS Enabler y MFG X5, la NVIDIA RTX 4090 puede alcanzar más de 220 FPS. Esto con la configuración máxima y la reconstrucción de rayos de NVIDIA. Y si no te gusta MFG X5 o X6, puedes usar Dynamic Frame Gen para fijar la velocidad de fotogramas a un valor específico.

Y eso no es todo. DLSS Enabler es compatible con Resident Evil Requiem. Esto alegrará a muchos fans de RE que no tengan una tarjeta gráfica RTX serie 50. Samson es otro juego nuevo que también funciona con esta función.

De todos modos, puedes descargar la última versión de DLSS Enabler desde este enlace .
https://www.nexusmods.com/site/mods/757?tab=description

Imagen

https://videocardz.com/newz/dlss-enable ... -40-series


¿Qué sería de las funciones de juego, como el escalado de imagen y la generación de fotogramas, sin herramientas de terceros? Como mínimo, estas herramientas demuestran que las funciones que los fabricantes suelen limitar a su propio hardware también pueden ejecutarse en otras GPU. Simplemente, no les conviene habilitar oficialmente dicha compatibilidad.

La popularidad de los mods de Nukem y OptiScaler también impulsó a otros desarrolladores a crear herramientas más sencillas e intuitivas para los jugadores. Sin embargo, estas herramientas aún no se recomiendan para jugar en línea. En esos casos, las opciones oficiales de escalado y generación de fotogramas siguen siendo la opción más segura, ya que modificar el juego a menudo implica alterar los archivos del mismo.

Hablamos de DLSS Enabler hace dos meses, cuando incorporó compatibilidad con Multi-Frame Generation a GPUs como la serie AMD Radeon . Actualmente, solo NVIDIA e Intel ofrecen compatibilidad oficial con Multi-Frame Generation. AMD sigue actuando como si esto no fuera posible, al igual que mantiene FSR 4 INT8 limitado a la serie RDNA 4. No está claro qué piensa el equipo de GPUs de AMD, pero al menos DLSS Enabler ofrece a los usuarios la posibilidad de probar una tecnología similar.

Desde entonces, NVIDIA ha dado un paso más al habilitar la generación de fotogramas x5 y x6, superando los modos 2x y 3x anteriores. Desafortunadamente, NVIDIA aún mantiene la generación de fotogramas x3 y superiores en exclusiva para la serie GeForce RTX 50. Ahora existe una alternativa, aunque en realidad no utiliza DLSS para la generación de fotogramas. Irónicamente, en su lugar, se basa en la generación de fotogramas de AMD.

Generación de múltiples fotogramas para todos.
DLSS Enabler ha recibido una nueva actualización, y en esta ocasión el mod añade compatibilidad con los modos de generación de multifotogramas x5 y x6. Según el registro de cambios del proyecto en Nexus Mods, la versión 4.5.0.0 añadió compatibilidad con MFG x5 y x6, aunque también requiere archivos Streamline 2.11 más recientes en el juego de destino, y es posible que los usuarios deban forzar el modo manualmente si el menú del juego no muestra esas opciones.

La herramienta traduce o emula la función en lugar de mostrar la implementación nativa de NVIDIA en hardware que no sea RTX 50. La compatibilidad nativa con la generación de múltiples fotogramas DLSSG se especifica explícitamente para las tarjetas de la serie RTX 50, mientras que las GPU no compatibles siguen utilizando rutas alternativas de generación de fotogramas y soluciones para reducir la latencia.

Imagen

El mod no incorpora la generación de fotogramas DLSS 4.5 nativa a las tarjetas Radeon o Arc. El registro de cambios de DLSS Enabler muestra que las GPU no compatibles siguen dependiendo de las rutas de generación de fotogramas basadas en FSR a través de OptiScaler, con versiones anteriores que pasaron de FSR 3.0 a FSR 3.1, y versiones más recientes que añaden mejoras basadas en DP4A para el código de generación de fotogramas FSR3 en hardware compatible.

La herramienta traduce o emula la función en lugar de mostrar la implementación nativa de NVIDIA en hardware que no sea RTX 50. La compatibilidad nativa con la generación de múltiples fotogramas DLSSG se especifica explícitamente para las tarjetas de la serie RTX 50, mientras que las GPU no compatibles siguen utilizando rutas alternativas de generación de fotogramas y soluciones para reducir la latencia.

No creo que la compatibilidad oficial con Multi-Frame Generation vaya a llegar a las tarjetas GeForce RTX serie 40 o anteriores, y probablemente tampoco a las Radeon RX serie 7000 o GPU anteriores. La atención se centra ahora en Intel, que podría lanzar una versión basada en DP4a con compatibilidad entre diferentes fabricantes. Esto supondría un gran avance, pero también plantea una pregunta sencilla: ¿por qué querría Intel ayudar a los fabricantes de GPU de la competencia a implementar esta tecnología?

https://www.nexusmods.com/site/mods/757 ... d=14458739
https://research.nvidia.com/labs/rtr/pu ... tenhanced/
https://www.profesionalreview.com/2026/ ... cidad/amp/

NVIDIA ha desarrollado un nuevo algoritmo para el path tracing que lo hará 2-3 veces más rápido, ofrecerá mejor calidad visual y mejorará la robustez del path tracing en tiempo real. Programada para una demostración tecnológica en la conferencia ACM sobre Gráficos por Ordenador y Técnicas Interactivas en mayo, NVIDIA ha encontrado la manera de convertir el path tracing en tiempo real en un proceso de renderizado totalmente realista, superando las técnicas habituales de emulación, reducción de ruido por software, escalado y otras técnicas que usamos hoy en día. Dado que el path tracing en tiempo real requiere muchísimo cálculo, las GPUs modernas aún no son lo suficientemente potentes para ejecutar toda la tecnología de path tracing en todo su potencial. En su lugar, actualmente dependemos de emulaciones en juegos modernos, implementadas en muchos títulos para satisfacer esta demanda computacional. A continuación se muestra el resumen descrito en la página de NVIDIA, aunque el artículo aún no está disponible ya que su publicación está prevista para mayo. Sin embargo, hay que tener en cuenta que la tecnología aún está en desarrollo y tenemos que esperar más a que llegue a los juegos comerciales.

PATH TRACING: RESTIR PT ENHANCED PROMETE HASTA 3 VECES MÁS VELOCIDAD
Imagen
Nvidia trabaja en una solución para mejorar el rendimiento del Path Tracing utilizando el método ReSTIR PT Enhanced (Reservoir Spatiotemporal Importance Resampling), que permite que el proceso de Path Tracing sea entre 2 y 3 veces más rápido que con las implementaciones anteriores. Lo más impresionante es que esta mejora en el rendimiento no conlleva un sacrificio en la calidad, como se puede observar en uno de los ejemplos, al contrario, el nuevo algoritmo reduce simultáneamente los errores visuales y numéricos, logrando una imagen más limpia con menos recursos.

Para lograrlo, ReSTIR optimiza cómo se reutilizan las muestras de luz entre píxeles y fotogramas. El documento detalla que han logrado reducir a la mitad el coste de la reutilización espacial y han implementado nuevos criterios de reconexión basados en la «huella» de los rayos, lo que mejora la estabilidad de la imagen.

Imagen

Es importante destacar que, por ahora, se trata de tecnología en fase de investigación. Nvidia aclara que, aunque el método está mucho más cerca de ser «apto para producción», no significa que lo veremos implementado en juegos en el corto plazo. Actualmente, el Ray Tracing en tiempo real depende en gran medida de técnicas, o «trucos», como el denoiser y el escalado (DLSS) para que puedan verse bien y de forma fluida.
Imagen

Este avance busca que el Patch Tracing se vea mejor en movimiento y se reduzca parpadeo (flicker), permitiendo que los motores gráficos en el futuro puedan gestionar una iluminación global unificada de manera mucho más eficiente que ahora.

Imagen

Abstracto
Los algoritmos que aprovechan la reutilización espaciotemporal al estilo ReSTIR se han multiplicado recientemente, aumentando enormemente el número efectivo de muestras para el transporte de luz en trazadores de rayos y trayectorias en tiempo real. Muchos artículos han explorado mejoras teóricas novedosas, pero las mejoras algorítmicas y las perspectivas de ingeniería para una implementación óptima se han descuidado en gran medida. Demostramos mejoras en ReSTIR PT que lo hacen 2-3 veces más rápido, disminuyen tanto el error visual como el numérico y mejoran su robustez, acercándolo a la producción. Reducimos a la mitad el costo de reutilización espacial mediante la selección recíproca de vecinos, robustecemos los mapeos de desplazamiento con nuevos criterios de reconexión basados ​​en la huella y reducimos la correlación espaciotemporal con mapas de duplicación. Mejoramos aún más tanto el rendimiento como la calidad mediante una optimización exhaustiva, unificando la iluminación directa y global en los mismos reservorios y utilizando técnicas existentes para la reducción del ruido de color y del ruido de desoclusión.
25 respuestas