[HO] NVIDIA | 2026 rumbo a la GDC del 9 al de 13 Marzo y a la GTC del 16 al 19 de Marzo

NVIDIA
Creo este hilo para discutir cosas generales sobre NVIDIA, que abarquen cualquier serie de tarjeta, eventos, modificación, cualquier software, incluso temas relacionados con robótica, IA, etc... En principio lo he hecho para crear una wiki que concentre el software necesario moderno que nos ofrece su ecosistema en la gama Geforce, y así unificar el resto de hilos sobre series, modificaciones y aplicaciones que nos puedan ser útiles. Algunos apartados de la wiki dirigirán directamente a hilos dedicados.
Adjunto la noticia de EOL de NVIDIA sobre el acuerdo con GROQ

noticias/tecnologia/nvidia-groq-acuerdo-licencia

Nvidia firma un acuerdo de licencia con Groq, una startup de chips para la inferencia de IA, por 20.000 millones
Nvidia vuelve a sacar la cartera y en esta ocasión lo hace para firmar un acuerdo de licencia no exclusiva con la startup Groq. No ha trascendido el montante de la operación, pero según la CNBC se trata de una operación de 20.000 millones de dólares. Como parte de esta alianza Jonathan Ross, fundador y director ejecutivo de Groq, Sunny Madra, presidente de Groq, y otros miembros del equipo de Groq, se unirán a Nvidia para impulsar el desarrollo de la tecnología licenciada. Simon Edwards, director financiero de Groq, se queda al frente de la startup.

Las GPU de Nvidia son ampliamente conocidas por sus capacidades a la hora acelerar las tareas de aprendizaje automático y profundo, pero cuando se trata con un modelo de IA el entrenamiento no lo es todo. En el ciclo de vida de un modelo de IA también existe la inferencia, que es el proceso de aplicar todo lo aprendido para decidir, predecir o extraer conclusiones a partir de los datos. Para ejecutar esta parte del proceso de forma más rápida Groq ha estado trabajando en un chip diferente conocido como Unidad de Procesamiento de Lenguaje (LPU, por sus siglas en inglés), que puede ejecutar un modelo más rápido y con menor consumo.

En agosto de 2024, cuando Groq anunció el resultado de una ronda de financiación, dijo que su motor de inferencia LPU podría ejecutar modelos de IA generativa existentes a una velocidad diez veces superior y con un consumo de energía diez veces menor. Cuando mayor es la inferencia, más rápido responde el modelo y más natural es la comunicación.

"Planeamos integrar los procesadores de baja latencia de Groq en la arquitectura de IA de Nvidia, ampliando la plataforma para dar servicio a una gama aún más amplia de inferencias de IA y cargas de trabajo en tiempo real", ha dicho Jensen Huang, director ejecutivo de Nvidia, en una carta enviada a sus empleados. Huang también ha comentado que a pesar de que algunos empleados de Groq pasarán a formar parte de Nvidia y que han obtenido una licencia de la propiedad intelectual, "no hemos adquirido a Groq como compañía".

Los 20.000 millones de dólares que Nvidia pagará por la licencia de Groq no es una cifra oficial, pero tampoco ha sido desmentida por la compañía. Lo que no sabemos son los detalles del acuerdo. Nvidia no ha encontrado competidor con sus chips para acelerar tareas de aprendizaje, pero ahora que los modelos ya han escalado de forma generosa los ojos se han puesto en los chips de inferencia.

Groq es una compañía fundada en 2016 por un grupo de ingenieros liderados por Jonathan Ross, que durante su etapa en Google fue uno de los responsables de la unidad de procesamiento tensorial (TPU), un chip de aceleración de IA con un diseño personalizado que está optimizado para el entrenamiento y la inferencia de grandes modelos de IA. La TPU de Google puede ser un gran rival para Nvidia, así que esta se ha puesto las pilas.

Aquí un artículo de 2024 sobre Groq y sus chips
https://www.xataka.com/robotica-e-ia/gr ... acen-volar

Groq (no Grok) es el nuevo fenómeno de la IA, pero no hace LLMs: fabrica chips que los hacen volar
Imagen

El pasado 9 de noviembre Jonathan Ross escribió un post en el blog de su empresa. Lo tituló "Bienvenido a la galaxia de Groq, Elon". Musk acababa de presentar su chatbot, Grok.

Resultó que ese nombre ya estaba cogido hacía tiempo —aunque con una "q" al final en lugar de una "k"— por parte de esta desconocida empresa que ahora se ha convertido en el nuevo fenómeno del mundo de la IA.



Groq no hace LLMs. No tiene un modelo que compita con GPT-4, con PaLM 2 o con Llama 2. Tampoco tiene un chatbot propio que compita con ChatGPT, Gemini o Copilot. No. Hace algo muy distinto, pero tan importante como eso... o puede que más.

Groq fabrica chips de inteligencia artificial. Los llaman Language Processing Units (LPUs), y con ellos logra algo espectacular: permite que la generación de texto de estos chatbots sea muchísimo más rápida que la que se obtiene con cualquier otro chip, incluidas las potentes GPUs de VIDIA.

Ross —que inició el proyecto en 2016 y que antes creó el primer Tensor Processig Unit en Google— demostró la capacidad de sus chips hace unos días en una entrevista en la CNN. En ella explicó cómo Groq hace que las conversaciones —de texto o habladas— con el chatbot resulten mucho más naturales y mucho más atractivas para quien interactúa con las máquinas.

Velocidad de vértigo = conversaciones naturales
La clave está en la velocidad. Los humanos somos por lo general poco pacientes, y los chatbots tardan en respondernos porque para hacerlo necesitan tener acceso a una capacidad de cálculo enorme. Hasta ahora las GPUs de NVIDIA eran la mejor opción para obtener conversaciones más o menos fluidas, pero Groq deja a esas GPUs a la altura del betún.

Lo hemos comprobado haciendo una pequeña prueba que cualquiera puede replicar: basta con abrir dos ventanas, una con ChatGPT o cualquier otro chatbot en una parte de la pantalla y la demo de Groq en la otra parte. La velocidad de respuesta del chatbot de Mistral (pero se puede aplicar a cualquier otro) gracias a Groq es sencillamente espectacular.

Hay estudios independientes como el de Artificial Analysis que dejan clara la diferencia: no solo la velocidad es superior, sino que además Groq es más económico.

Así, Groq ofrecía una tasa de 246,79 tokens por segundo con el LLM Llama 2 con un coste de 0,72 dólares por cada millón de tokens. Usar ese mismo LLM en la infraestructura Microsoft Azure daba 18 tokens por segundo y un coste de 1,6 dólares.

Otros análisis confirman esas prestaciones. En el ranking de LLMPerf monitorizado por la empresa Anyscale, Groq es 18 veces más rápido en inferencia LLM que los principales proveedores de esta función en la nube.

Cómo logra Groq ser tan rápido
Estamos pues ante una prometedora revolución no en la precisión o calidad de las respuestas de estos modelos y sus chatbots, sino en la velocidad con la que nos responden. De repente mantener una conversación puede resultar mucho más natural, y esto plantea implicaciones importantes en ese uso práctico de esta tecnología.
Imagen

¿Cómo logran los chips de Groq algo así? Ross lo explicaba en esa entrevista de la CNN con una analogía sencilla.

"La mayoría de los chips de IA no tienen demasiada memoria disponible. Es como cuando fabricas coches: necesitas grandes fábricas y un millón de pies cuadrados en líneas de ensamblaje. Si no tienes ese tipo de edificio, necesitas dividir las líneas de ensamblaje una y otra vez para que ocupen menos. Eso es lento y lleva mucho tiempo, y eso es lo que pasa con la GPU: tienes que leer de la memoria miles de veces por cada palabra que se genera, como si tuvieras que configurar la línea de ensamblaje una y otra vez [para sacar la pieza necesaria del coche]".
Aunque los responsables de Groq lógicamente no quieren dar muchos detalles sobre cómo funcionan sus chips, sí que explican en el sitio web oficial de la compañía que "la LPU está diseñada para superar los dos cuellos de botella de los LLM: la densidad de cálculo y el ancho de banda de la memoria". La empresa, eso sí, enlaza a estudios premiados de 2020 en los que ya hablaba de procesadores especializados para acelerar tareas de aprendizaje profundo.

Ross explicó que estos chips no están disponibles para usuarios finales, así que no esperéis poder comprar algún tipo de tarjeta PCIe para añadirla a vuestro PC. Al menos, no de momento: la empresa trabaja con compañías que pueden beneficiarse de esta potencia de cálculo en sus centros de datos para luego ofrecer esa velocidad de generación de texto en sus servicios en la nube.

Es de esperar que poco a poco veamos este tipo de solución implantada en chatbots públicamente accesibles —y seguramente, de pago—, pero lo interesante es que esto abre la puerta a que efectivamente este tipo de mejora haga que las GPUs de NVIDIA (o AMD, que avanza en este campo) cuenten con al menos una alternativa totalmente especializada en este ámbito. Y si ha aparecido una, lo lógico es pensar que acabarán apareciendo más y quizás lo hagan con propuestas destinadas a los consumidores.
Copio la noticia de Benzo hilo_nvidia-anuncia-dlss-4-5-con-frame-generation-6x-mayor-calidad-de-imagen-y-generacion-dinamica-de_2528200

NVIDIA ANUNCIA DLSS 4.5 CON FRAME GENERATION 6X, MAYOR CALIDAD DE IMAGEN Y GENERACIÓN DINÁMICA DE FOTOGRAMAS MÚLTIPLES
Nvidia se ha presentado al CES 2026 sin nuevas tarjetas gráficas GeForce RTX, y en su lugar ha revelado nuevas características para Deep Learning Super Sampling (DLSS), su tecnología estrella impulsada por inteligencia artificial. La compañía ha anunciado y lanzado DLSS 4.5, que introduce un modelo Transformer de segunda generación para la superresolución que promete una mayor calidad de imagen, y revelado que en primavera llegará Multi Frame Generation 6x y Dynamic Multi Frame Generation (generación dinámica de fotogramas múltiples).

DLSS 4.5 ya se encuentra disponible mediante la última actualización de la Nvidia App para todos los usuarios de una tarjeta gráfica RTX, pero su rendimiento es mejor en las RTX de las series 40 y 50 debido a que se benefician de unos núcleos Tensor más rápidos y avanzados. Su principal novedad es la primera gran actualización para la arquitectura Transformer, la misma que el año pasado sustituyó el modelo basado en CNN (Redes Neuronales Convolucionales). Para usar DLSS 4.5 en los juegos con DLSS hay que seleccionar DLSS Override feature - Model Presets en la pestaña Graphics y elegir Latest.

Imagen


"Este modelo de segunda generación es el más sofisticado hasta la fecha, ya que utiliza cinco veces la potencia de cálculo del modelo Transformer original y ha sido entrenado con un conjunto de datos de alta fidelidad significativamente ampliado", dice Nvidia. "El modelo tiene una comprensión más profunda de cada escena y utiliza de forma más inteligente el muestreo de píxeles y los datos de movimiento del motor del juego para ofrecer imágenes con mejor iluminación, bordes más definidos y mayor claridad de movimiento".

"Si bien la Super Resolution DLSS 4.5 mejora la calidad de imagen en todos los ajustes, incluidos los modos Calidad y Equilibrado, la transformación es mayor en los modos Rendimiento y Rendimiento ultra, donde hay menos píxeles renderizados disponibles", añade Nvidia.

Multi Frame Generation 6x y Dynamic Multi Frame Generation

En primavera Nvidia lanzará para todos los usuarios de tarjetas gráficas de la serie RTX 50 el modo 6x de Multi Frame Generation, que usa el nuevo modelo Transformer y las mejoras en la calidad de imagen para que DLSS 4.5 pueda generar cinco fotogramas adicionales (o falsos) por cada uno renderizado de forma nativa. A día de hoy Multi Frame Generation de DLSS 4 es capaz de generar tres fotogramas adicionales. Nvidia asegura que el salto de 4x a 6x "aumenta la velocidad de fotogramas 4K en títulos con ray tracing hasta en un 35 %". Esta opción está pensada para jugar en resolución 4K y alcanzar los 240 Hz o 360 Hz.

Imagen


También en primavera Nvidia añadirá a DLSS 4.5 Dynamic Multi Frame Generation, un sistema que en lugar de ceñirse a un multiplicador fijo cambia automáticamente entre diferentes multiplicadores de fotogramas para lograr un equilibrio entre velocidad de fotogramas, calidad de imagen y capacidad de respuesta. "En otras palabras, solo genera los fotogramas necesarios para maximizar la velocidad de fotogramas objetivo o la frecuencia de actualización de la pantalla, ya sea de 120 Hz, 144 Hz, 240 Hz o superior", dice la compañía. El sistema supervisa la diferencia entre el rendimiento de la GPU y la frecuencia máxima del monitor y se adapta en tiempo real.

"En situaciones con gran intensidad gráfica, 'sube de marcha' y aumenta la generación de fotogramas para compensar las caídas de rendimiento [...]", explica Nvidia. "Por el contrario, a medida que la carga de trabajo se aligera, reduce el multiplicador de forma fluida para calcular solo lo necesario".

La serie RTX 50 Super refresh de Nvidia se retrasa, y la serie RTX 60 podría irse a 2027


Se esperaba que la gran renovación de las GPU de la serie RTX 50 de Nvidia se presentara en el CES 2026 en enero, pero no fue así. The Information informa de que, en diciembre, los directivos de Nvidia decidieron no lanzar las nuevas tarjetas según lo previsto y optaron por dar prioridad a los chips de IA debido al suministro limitado de RAM disponible en la actualidad. Además, «Nvidia también está recortando la producción de su línea actual de chips para juegos», la serie RTX 50, que ya tiene una gran demanda y se agota constantemente en las tiendas.



El cambio de prioridad, alejándose de las GPU para juegos, se produce tras los ingresos récord de Nvidia, impulsados por sus chips de IA. Los ingresos de los centros de datos representaron 51 200 millones de dólares del total de 57 000 millones de dólares que Nvidia declaró en sus resultados del tercer trimestre de 2026. Aunque los ingresos por juegos también aumentaron un 30 % durante ese mismo periodo, representan una porción mucho menor del pastel que antes.



El retraso de la serie RTX 50 Super no solo significa que actualmente no hay previsto ningún lanzamiento de nuevas GPU para juegos por parte de Nvidia para este año, sino que también podría retrasar las tarjetas de próxima generación. Según la fuente de The Information, la serie RTX 60 «tenía previsto inicialmente comenzar la producción en masa a finales de 2027», y retrasarla podría posponerla hasta 2028 o incluso más tarde.

Como señala The Information, no es imposible que Nvidia pueda adelantar la fecha de lanzamiento de sus nuevas GPU para juegos. Sin embargo, dado que la escasez de RAM continúa, lo que provoca un aumento de los precios y retrasa las fechas de lanzamiento de todo tipo de productos, desde iPhones hasta Steam Machine, es posible que las actualizaciones de hardware previstas para los jugadores de PC tengan que esperar.

https://www.theverge.com/tech/874439/nv ... ries-delay
¡SI AYER INSTALASTEIS LOS DRIVERS DEL 26 DE FEBRERO PARA RESIDENT EVIL 9, AL TANTO!

Nvidia revierte su última actualización de controladores: el controlador Game Ready 595.59 supuestamente causa problemas con los ventiladores en las GPU de las series RTX 3000, 4000 y 5000.
https://www.tomshardware.com/pc-compone ... eries-gpus
Este problema del controlador parece simple pero podría ser catastrófico.
Imagen

Nvidia acaba de lanzar el controlador GeForce Game Ready 595.59, que supuestamente optimizaba sus GPU para Resident Evil Requiem . Sin embargo, ComputerBase [traducción automática] informa que esto ha estado causando problemas en las tarjetas RTX de la serie 3000 y posteriores, y los usuarios comentan que el controlador solo detecta un ventilador en las GPU.

Si bien algunos pensaron que aplicaciones de terceros como MSI Afterburner podrían haber estado causando interferencias, otro usuario informó el mismo problema incluso sin Afterburner instalado.

Según múltiples reportes en los foros oficiales GeForce, algunos usuarios comenzaron a detectar que tras instalar el driver 595.59 WHQL, sus GPUs mostraban un comportamiento anómalo en el sistema de refrigeración, llegando incluso a funcionar solo uno de los ventiladores del disipador. Este fallo afecta directamente a la gestión térmica del hardware, elevando el riesgo de temperaturas inestables bajo carga.

Además del control de ventilación, también se han documentado incidencias relacionadas con la estabilidad de frecuencias de GPU, variaciones inesperadas en la frecuencia de funcionamiento y comportamientos inconsistentes durante sesiones de juego prolongadas. Este tipo de errores resulta especialmente crítico en controladores gráficos, ya que el driver actúa como capa esencial entre el silicio de GPU, el sistema operativo y los motores gráficos.

Los malos lanzados ayer que han retirado
NVIDIA GeForce 595.59 WHQL driver download 26 de febrero


Lo anteriores de enero buenos
NVIDIA GeForce 591.86 WHQL driver download 27 de enero

En unas horas puede que los lancen de nuevo, pero hasta entonces es recomendable revertirlos a los de enero si los instalasteis ayer, yo no los instalé por ejemplo.


Parece que Nvidia ha retirado la actualización del controlador, ya que ya no está disponible en el sitio web de la compañía. Sin embargo, si ya has actualizado a la última versión del controlador y tienes problemas, debes volver a la versión anterior. Puedes hacerlo en la aplicación de Nvidia haciendo clic en los tres puntos de la pestaña Controladores.

Si no tienes instalado el software de Nvidia, puedes ir al Administrador de dispositivos de Windows, desplegar Adaptadores de pantalla y hacer doble clic en tu GPU. En la ventana de propiedades, haz clic en la pestaña Controlador y selecciona "Revertir controlador". Si el botón no está disponible, Nvidia te indica que desinstales el controlador de la GPU y luego descargues y reinstales el controlador más reciente disponible, lo que debería solucionar el problema, ya que el controlador problemático ya está disponible.

Podéis también bajar los drivers de forma manual desde la web de NVIDIA https://www.nvidia.com/es-es/drivers/
Por eso NUNCA hay que actualizar drivers hasta que no sea estrictamente necesario. Cuando un PC funciona, no lo toques

Pero todavia se sigue escuchando a un monton de cuñados decir que hay que tenerlos siempre actualizados.
cobi escribió:Por eso NUNCA hay que actualizar drivers hasta que no sea estrictamente necesario. Cuando un PC funciona, no lo toques

Pero todavia se sigue escuchando a un monton de cuñados decir que hay que tenerlos siempre actualizados.


Vaya ABSURDEZ..

Hay que tenerlos actualizados, en cada revisión arreglan problemas y añaden opciones en juegos.. sobretodo si tienes la serie RTX 50
Ryoga99 escribió:
cobi escribió:Por eso NUNCA hay que actualizar drivers hasta que no sea estrictamente necesario. Cuando un PC funciona, no lo toques

Pero todavia se sigue escuchando a un monton de cuñados decir que hay que tenerlos siempre actualizados.


Vaya ABSURDEZ..

Hay que tenerlos actualizados, en cada revisión arreglan problemas y añaden opciones en juegos.. sobretodo si tienes la serie RTX 50


Jamas lo hago. 0 problemas. Sin embargo una vez me jodieron una grafica, igual que ahora parece que nuevamente hay drivers problematicos

Absurdez es actualizar algo que funciona perfectamente
Ryoga999 escribió:Vaya ABSURDEZ..

Hay que tenerlos actualizados, en cada revisión arreglan problemas y añaden opciones en juegos.. sobretodo si tienes la serie RTX 50

No siempre es así, en general los nuevos drivers se lanzan para mejoras en juegos lanzados, algunos llevan correcciones de errores, pero a veces también meten problemas, si no vas a jugar a juegos nuevos te puedes quedar perfectamente en unos drivers estables antiguos, instalar de nuevos puede ser contraproducente, también está la línea de los studio que son más estables, porque en general NVIDIA no añade casi nada nuevo relevante, o por lo menos no lo ha hecho últimamente salvo con el DLSS


De todas formas el problema con los drivers de febrero ya está solucionado, NVIDIA los retiró, no debe quedar mucha gente con ellos instalados a no ser que cayera en coma justo ese día porque creo que gran parte de la gente se enteró y no dio tampoco mucho tiempo a instalarlos, los retiraron bastante rápido.
katatsumuri escribió:si no vas a jugar a juegos nuevos te puedes quedar perfectamente en unos drivers estables



Incluso jugando novedades puedes estar sin actualizar. 8 años tuve la 1070 y solo fue actualizada una vez. Jugue a todo sin problema

Ahora llevo un par de años con otra, 0 actualizaciones y jugando a todo lo nuevo sin problema
@katatsumuri Ya estan disponibles con las mejoras corregidas.
Ryoga99 escribió:@katatsumuri Ya estan disponibles con las mejoras corregidas.

Por lo visto, la últíma versión lanzada ayer mismo sigue dando problemas: hilo_ho-nvidia-geforce-rtx-5000_2507243_s19950#p1756569783

Saludos.
@javier españoll yo he notado el tema de que la imagen viene y va como algunos han comentado en reddit
javier español escribió:
Ryoga99 escribió:@katatsumuri Ya estan disponibles con las mejoras corregidas.

Por lo visto, la últíma versión lanzada ayer mismo sigue dando problemas: hilo_ho-nvidia-geforce-rtx-5000_2507243_s19950#p1756569783

Saludos.

Consecuencias de que la IA sea la que programe
581.42 y me he dejado de historias. Ya le vale a Nvidia.
¿Creéis que NVIDIA está boicoteando los juegos para vender el PathTracing? Es que lo de Resident Evil 9 es una locura, que con el mismo preset en ultra la cara de la protagonista parezca como en LOW, cuando en la mayoría de juegos sin PT la cara de los protas se ve como con Pathtracing, quiero decir, que se ve bien, que no parecen consumidores crónicos de metanfetaminas a los que se les salen los ojos.

¿Esto sería culpa de CAPCOM o de ambas? Me refiero a si CAPCOM ha cedido a NVIDIA para vender el PT como algo a otro nivel y con ello ha nerfeado el rostro de los personajes sin aplicarles sombras ni iluminación sin PT ¿Es cosa de que CAPCOM no ha sabido manejar PT junto a iluminación normal?
Imagen
Confirmo que con los último drivers 595.71 se reinicia el driver de pantalla de forma aleatoria.
@bumperianoo tienes un hotfix de NVIDIA para el driver, lo puedes descargar de la web de NVidia https://nvidia.custhelp.com/app/answers ... /a_id/5812

NVIDIA PREPARA LA ACTUALIZACIÓN DE LA COMUNIDAD GEFORCE ON PARA LA GDC 2026
En la Conferencia de Desarrolladores de Juegos (GDC) de este año en San Francisco, NVIDIA preparó una actualización especial para la comunidad GeForce ON, programada para mañana, donde la compañía se dirigirá a su público gamer. Si bien no tenemos expectativas oficiales para esta actualización de GeForce ON, NVIDIA podría presentar un avance de las nuevas tecnologías que la compañía está desarrollando para sus jugadores o de nuevas implementaciones en juegos y motores de juego. Normalmente, esto se centra en tecnologías como el Supermuestreo de Aprendizaje Profundo, el Trazado de Rayos, el Trazado de Trayectorias, la expansión GeForce NOW, monitores para juegos como las Pantallas de Juego de Gran Formato (Big Format Gaming Displays) o algo completamente diferente. Curiosamente, NVIDIA también podría presentar un avance de posibles lanzamientos de productos para su GTC 2026, que comienza dentro de una semana, el 16 de marzo, y se extenderá hasta el 19 de marzo. Esperamos con entusiasmo cualquier anuncio formal; pueden ver el enlace del video que da inicio al estreno mañana a continuación.
https://youtu.be/bqraHG7ARVM
NVIDIA anuncia el primer parche de DLSS 4.5 y explica los avances y aplicaciones de su innovadora tecnología llamada RTX Mega Geometry que puede ser una revolución. La marca ha desvelado novedades en este GDC 2026, como la fecha de lanzamiento final de DLSS 4.5 y la nueva tecnología RTX Mega Geometry. Han centrado la presentación en Dynamic Multi Frame Generation y cómo aprovecha todos los hercios del monitor, aunque ya se empieza a hablar de Path Tracing en serio.



NVIDIA RTX Mega Geometry Boost
RTX Mega Geometry Boost, una tecnología que se organiza en clústeres. En cada escena hay más de 10.000 objetos para procesar en lo que ha iluminación se refiere. Pues, con esta tecnología ahorras VRAM y tienes un incremento de FPS hasta en un 20%. Así lo han mostrado con Alan Wake 2.

No solo beneficia a iluminación, sino al sistema de follaje de The Witcher 4. Sabemos que este juego está desarrollado con Unreal Engine 5 y pinta muy bien, pues han usado la tecnología de RTX Mega Geometry para procesar millones de objetos por escena donde hay una geometría animada bastante compleja (hojas de árbol).
Imagen
Imagen

NVIDIA DLSS 4.5 llega el 31 de marzo con Dynamic Multi Frame Generation
NVIDIA ya presentó DLSS 4.5 y su nuevo Dynamic Multi Frame Generation, así como su modo 6X para aumentar aún más los FPS con IA. Sin embargo, faltaba por determinar la fecha de lanzamiento a través de drivers GeForce, así que la marca ha confirmado su llegada el 31 de marzo, dentro de 3 semanas exactas.

Haciendo recap, Dynamic Multi Frame Generation es una tecnología por la que se pretende brindar los FPS que necesitas para aprovechar tus hercios y, además, tener la máxima calidad de imagen en el proceso. Conforme vayamos aumentando el multiplicador de Multi Frame Generation (MFG), la calidad de imagen puede caer y aparecer más artefactos en la escena.

De esta manera, la GPU junto al juego va a adecuando a tiempo real el multiplicador de MFG para obtener los FPS que necesitas para aprovechar los hercios (120, 165, 180, 200, 240, 280, 360, 480 hz, etc.). La casuística es muy amplia según la resolución a la que juegues, tu PC y el monitor que uses.

Te ahorras tiempo de ir probando ajustes gráficos hasta encontrar el preset que mejor se ajuste a tu PC y tus exigencias. Con este ajuste automático, todo se simplifica.

Recordad que DLSS 4.5 estará disponible solo para las NVIDIA RTX 50.


MEJORAS EN RTX REMIX
Nvidia ha anunciado mejoras en partículas y la capacidad de poder añadir lógica a los juegos, como por ejemplo poder establecer diferentes estados del día (amanecer, mañana, tarde, atardecer, noche) en un juego que no tenía programado eso.
Jensen Huang hablando sobre la NVIDIA GEFORCE 3 y celebrando sus 25 años.

Han pasado 25 años desde GeForce 3. ¿Por qué 25 años fueron tan importantes y por qué esta GPU en particular fue tan importante? Introdujimos el primer acelerador gráfico convencional exitoso, RIVA 128, y posteriormente RIVA TNT, RIVA TNT2, y lo que hicimos bien fue reconocer que la canalización gráfica es realmente profunda. La interceptamos justo en el lugar correcto. Estábamos pasando la geometría. Todo lo que vino después se aceleró con coma flotante. Toda esa etapa de la canalización, incluyendo el intenso tráfico de memoria, el procesamiento de texturas, todo eso se hizo en hardware. Y esa psicología sobre NVIDIA como acelerador de canalización es un acelerador de algoritmos. Lo que acabo de decir es realmente importante. Un acelerador de algoritmos es esencialmente una empresa de computación acelerada. GeForce 3 fue una gran transición para nosotros. Fue dentro de la empresa. Una estrategia realmente importante a considerar, y la razón es que el concepto de aceleración y el concepto de programabilidad están en conflicto entre sí. Y por otro lado, los gráficos por computadora se veían exactamente iguales. Todos los juegos se veían exactamente iguales. Parecía muy filtrado y todo estaba filtrado bilineal o trilineal y no había dinámica alguna en el juego. Y sentíamos que los juegos no eran como el CAD. El juego era un medio para la expresión artística. Y que si miras todos estos juegos diferentes, queríamos que todos se vieran diferentes. Y si quieres que todos se vean diferentes, necesitas la capacidad de expresar el arte en algún tipo de programa. No puede estar precodificado. Y nuestra empresa realmente no tenía mucha capacidad de tecnología de compilación. Y entonces, mientras estábamos haciendo la transición de una tubería acelerada por hardware fijo a una tubería de hardware fijo también programable, nos dimos cuenta de que teníamos que entrar y convertirnos en una empresa de computación. Esta es, por supuesto, la primera manifestación de eso, ¿verdad? Unos 30 y pico millones de transistores solo para poner en perspectiva, ahora tenemos varios cientos de miles de millones de transistores en un chip. Me decías antes, Andrew, esto es lo que son 35 vatios. 35 vatios. Ahora estamos rozando los 3500 vatios. [risas] Así que los chips han recorrido un largo camino. Mientras estamos aquí celebrando GeForce 3, literalmente podía ver los pasos mentales en mi mente mientras dábamos un paso tras otro que nos llevaron hasta hoy. Cada decisión, en muchos sentidos, se construyó sobre eso. Quiero decir feliz cumpleaños GeForce 3 y [risas] y a todos los que estábamos, ya saben, Dios, éramos jóvenes. Hace 25 años. Ni siquiera creo que estuviéramos bebiendo whisky en ese momento. ¿Teníamos la edad legal para beber en ese momento? [risas] En fin, ¡salud! ¡Salud! Los quiero, chicos. ¡Salud! Gracias. Feliz cumpleaños. Los quiero, chicos. Y gracias a todos por inspirarnos todos estos años y, ya saben, tomamos muchas buenas decisiones.También hicimos muchas cosas graciosas y todos ustedes siempre nos dejaron espacio para explorar el futuro a nuestra manera. Una de las cosas de las que estoy muy orgulloso es el gran riesgo que asumimos al llevar al mundo al trazado de rayos, que es tan computacionalmente intensivo que dimos un gran paso atrás en la velocidad de fotogramas, lo que requirió inteligencia artificial para impulsarnos. Y como saben, cuando trabajamos en algo, trabajamos en ello literalmente durante toda nuestra vida. Y el concepto de renderizado neuronal está aportando capacidad generativa a los gráficos por computadora.
que es completamente controlable y el renderizado generativo que es menos controlable pero más bello más imaginativo estamos unificando estos dos métodos de generación de imágenes y comenzamos a hacerlo - ¿cuándo fue RTX? (2018) a punto de cumplir una década y así que solo quiero que sepan que hemos estado persiguiendo esta visión de unificar um combinando la capacidad de renderizado de gráficos por computadora y sombreado programable y todas las cosas que hacemos con gráficos por computadora y IA generativa en esto llamado renderizado neuronal durante casi una década. Así que de alguna manera les dice qué tan avanzados tenemos que pensar en las cosas y quiero que todos sepan que estamos pensando en dentro de una década el tipo de cosas que vamos a poder habilitar. Así que ha sido una gran alegría uh servirles a todos ustedes. Gracias por todo lo que han hecho por GeForce. Sin GeForce no habría CUDA. Sin CUDA no habría IA. Sin IA no habría hoy y así que todos ustedes lo han hecho posible. Así que muchas gracias y feliz cumpleaños. ¡Salud! ¡Salud chicos! ¡Salud, chicos! ¡Salud! Los quiero mucho. Gracias.
20 respuestas