Nvidia dice que el escalado de imagen de DLSS y no la resolución nativa es el futuro para una mej...

1, 2, 3
La tecnología de escalado de imagen que incluyen soluciones como DLSS (Nvidia), FSR (AMD) y XeSS (Intel) usa la IA para generar fotogramas de mayor resolución desde una entrada de resolución más baja. Esta técnica está cada vez más extendida en los juegos de PC, pero no todo el mundo la ve como algo positivo. ¿Realmente sirve para mejorar la calidad de imagen o solo es una herramienta para que los desarrolladores puedan lanzar juegos sin optimizar? Para Nvidia no hay discusión: la resolución nativa es cosa del pasado y el futuro pasa por el escalado de imagen debido a que ofrece una mejor calidad gráfica y de imagen.

La opinión de Nvidia la hemos conocido gracias a una charla organizada por Digital Foundry donde se trata el impacto de DLSS en el desarrollo de juegos como Cyberpunk 2077. En la mesa redonda Bryan Catanzaro, vicepresidente de investigación de aprendizaje profundo aplicado de Nvidia, asegura que gracias a DLSS el renderizado a resolución nativa ya no es la mejor opción para ofrecer la mayor calidad gráfica o de imagen. Catanzaro compara la resolución nativa con el uso de la fuerza bruta y asegura que para lograr nuevos avances se necesitan técnicas que ahorren recursos, algo que la tecnología DLSS hace gracias a la IA.

En la charla también está presente Jakub Knapik, director de arte de CD Projekt Red, que se alinea con Catanzaro. Knapik recuerda que el renderizado gráfico en los juegos siempre ha usado todo tipo de “trucos” como el mipmapping o mapas MIP. Tanto el representante de Nvidia como el de CD Projekt Red coinciden en afirmar que el path tracing (trazado de ruta), un modo de renderizado que simula la verdadera física de la luz que utiliza el ray tracing, altera completamente la presentación gráfica de Cyberpunk 2077 y no sería posible sin DLSS.

El pasado abril, cuando CD Projekt Red incorporó a Cyberpunk 2077 el renderizado path tracing con el Ray Tracing: Overdrive Mode, Nvidia publicó un vídeo donde mostraba que la RTX 4090, la tarjeta gráfica más potente de su catálogo, no era capaz de ejecutar el juego a 4K y 30 FPS sólidos. Sin embargo, al activar DLSS 3 el contador de fotogramas por segundo subía a más de 100. Recientemente la tecnología DLSS ha ido más allá con DLSS 3.5, que incorpora reconstrucción de rayos para mejorar la calidad en escenas con trazado de rayos intensivo.

Nvidia es la primera interesada en que cualquier tecnología que use la IA se convierta en una tendencia o incluso una necesidad en la industria del videojuego. Su inversión en el sector de la IA está demostrando ser enormemente rentable y los desarrolladores parecen apoyar estos esfuerzos. En PC cada vez hay más juegos que usan tecnologías como DLSS, incluso Remnant II se desarrolló teniendo en cuenta el escalado de imagen, mientras que en consolas la mayoría de los títulos con gran carga gráfica usan el escalado de imagen desde resoluciones inferiores a 4K para llegar a los 60 FPS. Si los 4K son nativos suele ser a cambio de jugar a 30 FPS.

Fuente: techspot
Pues llamame tradicional, pero no lo veo...

Donde este nativo yo dlss y fsr los veo borrosos o glicheados
Gluch escribió:Pues llamame tradicional, pero no lo veo...

Donde este nativo yo dlss y fsr los veo borrosos o glicheados


¿DLSS borroso? ¿De FSR lo entiendo, pero de DLSS? ¿Cuando mejora la calidad de salida por encima de la resolución nativa y aumentando de una forma brutal los frames?

Tradicional no sé, pero erróneo un rato.
    Editado por [erick]. Razón: flame, offtopic
    ¿que va a decir si esa tecnología le hace vender más gráficas y le ahorra trabajo a los desarrolladores ofreciendo juegos con poca resolución? Esto huele a meternos en la cabeza el negocio del dlss para nvidia y el ahorro de costes para los desarrolladores para ganar el mismo dinero con mínimo esfuerzo. Es todo un negocio.

    Verdad es que el dlss mola (en algún caso me han demostrado que hasta se ve mejor que el nativo del juego pero creo que es por el juego en cuestión) pero nos van a hacer creer que es mejor pero como somos así de influenciables pues nos lo comeremos.
    @COCONUT_EOL El DLSS se ve peor que la resolución nativa, y personalmente diría que por mucho, hasta el punto de que no puedo usarlo porque se carga toda la IQ, otro tema a tratar es lo entrenado que tenga el ojo cada uno, y ahí ya es algo subjetivo donde no me meto.

    Y no, nada puede mejorar la imagen nativa. Todo lo que se haga sobre ella es trastocar la imagen original.
    Para llenarse los bolsillos ellos con sobreprecios de la hostia en unas GPU que no entregan la potencia bruta que deberían... vaya futuro.

    Eso sí, qué ironía, los jugadores de PC que nos hemos pasado décadas menospreciando a las consolas por usar tecnologías de reescalando para paliar la falta de potencia bruta, y hoy las estamos alabando... what a time to be alive.
    Valhan escribió:@COCONUT_EOL El DLSS se ve peor que la resolución nativa, y personalmente diría que por mucho, hasta el punto de que no puedo usarlo porque se carga toda la IQ, otro tema a tratar es lo entrenado que tenga el ojo cada uno, y ahí ya es algo subjetivo donde no me meto.

    Y no, nada puede mejorar la imagen nativa. Todo lo que se haga sobre ella es trastocar la imagen original.


    Pero en qué calidad pones el dlss? A mi en calidad, no se si es ultra o alta, lo veo significativamente mejor que el FSR equivalente (hasta que salga el 3 y veamos). Y con respecto a nativos, tampoco veo diferencias excesivas (imagino que dependerá del tipo de juegos).
    otro que prefiere jugar nativamente que tener que usar a la fuerza con dlss.
    para nvidia el dlss ha pasado de ser algo opcional por si no llegabas a x fps, a ser como si fuese de uso obligatorio

    COCONUT_EOL escribió:
    Gluch escribió:Pues llamame tradicional, pero no lo veo...

    Donde este nativo yo dlss y fsr los veo borrosos o glicheados


    ¿DLSS borroso? ¿De FSR lo entiendo, pero de DLSS? ¿Cuando mejora la calidad de salida por encima de la resolución nativa y aumentando de una forma brutal los frames?

    Tradicional no sé, pero erróneo un rato.

    en dlss 1 y 2 aumentaban los fps porque no deja de renderizar el juego a una resolucion inferior...
    y del dlss 3 con frames inventados ya mejor ni hablamos... que te sacan unas graficas con mismo rendimiento que la gen anterior y cobrándote esa tecnologia
    Gluch escribió:Pues llamame tradicional, pero no lo veo...

    Donde este nativo yo dlss y fsr los veo borrosos o glicheados


    Eso pensaba yo. Y en realidad en lo personal así lo he experimentado. Pero supuestamente hay varios casos en los que DLSS en calidad alta, analizando imágenes, si arrojaba mejor calidad de imagen que la resolución nativa (no recuerdo el análisis, pero por ahí había tablas).

    De todas formas, se quiera o no, los reescalados van a ser necesarios sí o sí, al menos en consolas. En cuanto se han acabado los juegos intergen, ya van unos cuantos que tanto en Ps5 como en SeriesX tienen que bajar a 1080p, 720p o incluso menos (como los 640p del Jedi) para mantener simplemente los 60fps. O sacan consolas cada 3 años, o los 4k (e incluso los 1440p) nativos van a ser una utopía a poco que cada vez haya un poquito de "mejores gráficos".

    Y mejor una tecnología de reescalado decente que no reescalados cochinos de televisores con filtros y demás...
    Es que llevamos 10 años de 4k y sigue siendo una trituradora de recursos. Es una resolución totalmente fuera de su tiempo que nos han metido con calzador. 1080p en sus inicios iba infinitamente mejor que 4k tras 10 años
    Efectivamente DLSS en Calidad deberia ofrecer mejor aspecto que TAA en Nativo. Dependiendo de la implementación puede haber glitches o ghosting aqui o allá, pero eso ya es más de cara al curro que se haya metido el desarrollador.

    La cosa está clara señores, o usamos DLSS/FSR o ya podeis ir olvidandoos del Ray Tracing en general a resoluciones 4K. Y ya ni hablemos de Path Tracing....

    Y a quien DLSS y/o Frame Generation les parezcan "frames falsos" que se ponga a leer documentación técnica. Que a lo mejor esos "frames falsos" son más reales que la mitad de efectos visuales que nos llevamos 20 años comiendo como el Screen Space Reflection.

    De hecho haceos a la idea de que en consola va a ser FSR o similar hasta el fin de los tiempos. Y bien que hacen.
    Valhan escribió:@COCONUT_EOL El DLSS se ve peor que la resolución nativa, y personalmente diría que por mucho, hasta el punto de que no puedo usarlo porque se carga toda la IQ, otro tema a tratar es lo entrenado que tenga el ojo cada uno, y ahí ya es algo subjetivo donde no me meto.

    Y no, nada puede mejorar la imagen nativa. Todo lo que se haga sobre ella es trastocar la imagen original.


    LOL [facepalm]

    Me da risa todos los que dicen "pixeles falsos" "frames falsos" Todo en un puto juego es un pixel y frame falso, todos son hacks tratando de simular lo que se quiere, se simula la luz, los arboles, los detalles, etc etc.

    TODO son pixeles falsos.

    Nadie se quejo de Spiderman en ps4 pro o ps5 que usa IGTI, etc.

    La resolucion nativa es una ESTUPIDEZ, consumir 50% mas potencia, cuando con DLSS puede obtener los mismos resultados obteniendo entre un 90 y 110% de la calidad de la imagen original pero ahorrandome el 40% de potencia de la gpu para meterle mas calidad? SOLD

    Una RTX 2060 con DLSS te mueve juegos que tradicionalmente no deberia mover.

    Incluso hoy puedes seguir jugando juegazos actuales en una GTX 970 gracias a FSR



    Gracias a tecnologias como estas podre jugar a Alan Wake II y Cyberpunk completamente Pathtraced y a mas de 60fps.

    Asi que Bienvenidas sean
    Y más barato para el bolsillo..

    Que se dejen tanto de 4k, 8k que es un come recursos y implementen ese tipo de soluciones, además que tambien les reportará menos tiempo de trabajo.

    La historia es saber cuando lo veremos en consola
    Anda que no se nota una resolución a 4k nativa respecto una con escalado, los objetos en la lejanía se ven con una nitidez asombrosa, cosa que no pasa con el truco del pañuelo del dlss o fsr. Las tarjeta no dan de sí, ya no te cuento si le metes el raytracing. Se ve venir el Unreal5 para los juegos, pinta tiene que no vamos a tener chicha .

    Saludos eolianos.
    dicanio1 escribió:Y más barato para el bolsillo..

    Que se dejen tanto de 4k, 8k que es un come recursos y implementen ese tipo de soluciones, además que tambien les reportará menos tiempo de trabajo.

    La historia es saber cuando lo veremos en consola

    Lo malo es que cada vez cobran más por los juegos y el hardware es más caro. Mínimo trabajo gracias a la IA y máximo beneficio.
    Nvidia barriendo para casa. ¿Alguien esperaba algo distinto?
    @Valhan dlss y las evoluciones que ha tenido no lo noto diferencia alguna, y hablo de un monitor aw3423dwf y una 4090 que sin llegar a 4K y siendo oled no noto diferencia, si encima añade frame generation ni hablamos. Entiendo que las versiones o aquellos juegos que usen versiones no actualizadas lastren pero es una tecnología que hace que ganes muchos fps y que cada vez logra ir mejor. Entiendo fsr2 (que nose como irá la 3) pero el dlss no noto diferencia más que la perdida de fps por no usarlo. Pero allá cada uno. Si os da igual... Y dejar esos frames por perdidos pues oye...

    @Fie nadie te lo obliga, pero es una tecnología que todas tienen e invierten muchos recursos en ella (Intel,AMD,Nvidia) por incorporarlo y lleva ya con nosotros bastante tiempo, por lo que es lógico que gracias a sus beneficios está se quede con nosotros. Yo tengo una 4090 y doy uso de ella. Pero igualmente podría no hacerlo. Por lo tanto no, obligatoria no es, pero muy útil si.
    Es verdad que en ciertas ocasiones, y no se porque la verdad, se ve mejor el DLSS Calidad y algunos puntos de nitidez mejor que la resolución nativa, y como he dicho no tengo ni puta idea de porque.. si alguien me ilumina porfiplease [beer]
    Con una resolución nativa de 1080p y un buen reescalado se podrían conseguir virgerías mucho mejores que las que se pueden obtener con 4K nativos actualmente. En el futuro ya veremos cómo va evolucionando la tecnología, pero es bastante prometedor que, estando en pañales, arroje resultados tan positivos.
    El gran problema del DLSS es que al ser una IA necesita una cierta cantidad de tiempo para ejecutar la tarea que tiene programada (como cualquier algoritmo), puede no llegar ni a 10 milésimas de segundo pero aún así es tiempo de postprocesado que a la larga debe tener alguna repercusión.
    En imágenes estáticas o con poco movimiento el DLSS brilla en todo su esplendor, porque le das más tiempo al algoritmo para aprender de la escena y rellenar los pixeles faltantes.

    Pero si ponemos un juego de acción con cambios de cámara muy bestias, ya no resulta tan efectivo usar estas técnicas, porque la escena es muy errática y es menos tiempo para la IA.
    Encima si a eso le ponemos 120 fps equivalentes a 8ms entre fotograma y fotograma pues ya me vais entendiendo.


    Ni la resolución nativa es una estupidez como ha dicho uno más arriba, ni la IA tan maravillosa como clama NVIDIA.

    Por mi parte no uso ningún tipo de estas tecnologías ni las usaré nunca, pero eso es solo mi preferencia.
    @hugoboss69x

    Tal como dices HardwareUnboxed hizo pruebas y en los 24 juegos probados a resolución 4K, DLSS 2 mejora la calidad de imagen con respecto a la resolución nativa en 10 juegos, mientras que iguala la calidad en 4 juegos, el resto de juegos la resolución nativa se ve mejor.

    Con una resolución de 1440p, DLSS 2 también se ve mejor en 10 juegos con respecto a la resolución nativa. En 5 juegos la tecnología de Nvidia iguala la calidad de la resolución nativa.

    Es una tecnología en constante evolución por lo que es un complemento que creo que tiene mucho futuro, aún así siempre habrá detractores como en todas

    Yo veo la cosa sencilla. 4K y a la vez mas y mejores gráficos, no puede ser. No podemos aumentar el consumo de gráficos de los juegos y encima pedirles que se rendericen a una resolución mayor que antes. Y ojo que ahora viene el 8K y todo esto mientras estamos tocando techo en cuanto a rendimiento (al menos en las arquitecturas actuales).

    Toca falsear los resultados usando DLSS u otras tecnologías similares.

    Respecto a resultados, pues depende. En digital foundry hablan muy bien de cómo el DLSS mete cierto sharpen a los juegos que hacen que queden bastante mejor que nativos, y mejorando un poquito el contraste en objetos lejanos ¿Es mejor que nativo? Pues también hay que ver a qué consideramos nativo ¿pura resolución 4K "cruda" con todos sus dientes de sierra? ¿O de una imagen suavizada por TAA u otras tecnologías? La primera no dudo que tendrá mucho más detalle, pero a qué precio. La segunda ya tiene otras tecnologías "tocando" o "falseando" el resultado
    2 gráficas de nVidia misma serie, una más potente que otra, 60 fps fijos con todas las configuraciones gráficas iguales pero una va a 4K nativos y otra a “2k” reescalado a 4K mediante DLSS.
    Cual se ve mejor? Imagino que la nativa.

    Ahora coge la tarjeta que está escalando el juego, ponla a 4K nativos quitando el dlss y bajando las configuraciones para mantener el rendimiento.
    Como se ve mejor, con la resolución nativa y bajando opciones gráficas o sin bajar las opciones pero con dlss?
    Imagino que en este caso será la que tenga dlss, no?
    Es el futuro que no queremos. El futuro de "va mal el juego, pero si le activamos el DLSS alcanza los 30fps como un juego de PS360". El futuro de "¿Optimizar? Activamos el DLSS y eso que nos ahorramos". Dentro de 30 años jugaremos con gráficos de PS2 a 30fps por culpa del DLSS.

    @COCONUT_EOL En Gotham Knights tuve que desactivar el DLSS porque las sombras en el campanario "parpadeaban", por ejemplo. También pasaban cosas raras con las luces en el juego, pero esa era la más evidente y fácil de reproducir porque pasaba siempre que el ventanal estaba en pantalla.
    Curiosa dicotomía el actual camino que han tomado.

    Raytracing por un lado y técnicas de reescalado acompañandolo. Y es que las argumentaciones para explicar porque se apuesta por una son antagónicas a la de porque se apuesta por la otra al mismo tiempo.


    :-|
    Linkale2 escribió:No podemos aumentar el consumo de gráficos de los juegos y encima pedirles que se rendericen a una resolución mayor que antes.

    Toca falsear los resultados usando DLSS u otras tecnologías similares.


    This
    Yo que tengo ojo biónico, me pongo un juego en 4k y en DLSS calidad y no soy capaz de notar la diferencia, los veo idénticos

    El frame generator también me parece una brujería increíble

    A mí estás tecnologías la verdad es que no me molestan en lo absoluto y mucho menos soy un detractor, por qué mi sigan avanzando en estos campos, lo veo bastante bien
    Mientras bajen el precio de las gráficas lo veo correcto, cosa que de momento no es así
    Claro,que va a decir Nvidia [qmparto] [qmparto]
    Para ojos inexpertos como los míos (vengo de consola y según vosotros, trago con todo XD) el Dlss es una p*ta maravilla. De haberme jugado el The Last of Us 1 sin Dlss+FG cuando salió y el otro día bajarme un mod Dlss+FG y probarlo (no bajar de 100 fps en los momentos de más estrés gráfico con todo en ultra) no tengo palabras. Lo que ya no me gusta tanto (y esto, a mí parecer, ya está pasando) es que con la excusa del Dlss, no se optimiza. Veo un futuro con gráficas no tan potentes para lo que cuestan y apoyándose (quizás demasiado) en la I.A para potenciarlas. Esto no debería ser así. Dame una gráfica TOP y luego, además, el boost de la I.A.
    Un saludo
    No se para mi la tecnonogía DLSS sobre todo el 3.0 con FG es una barbaridad, en muchos casos literalmente doblando el framerate sin perdida alguna de calidad (excepto si buscamos zooms exagerados en screenshots que igual tienen 1 milimetro de ghosting).

    No veo que sea algo criticable, de hecho el día que sea una tecnología incorporada en todas las gráficas y motores de juegos permitirá niveles gráficos mucho mucho más exigentes de lo que sería posible con el actual hardware.
    Y no tendrá que ver esto con manejar resoluciones más bajas para poder usarlas con los juegos a través de la nube?
    konosoke escribió:Es el futuro que no queremos. El futuro de "va mal el juego, pero si le activamos el DLSS alcanza los 30fps como un juego de PS360". El futuro de "¿Optimizar? Activamos el DLSS y eso que nos ahorramos". Dentro de 30 años jugaremos con gráficos de PS2 a 30fps por culpa del DLSS.

    Eso no es tan así. Optimizar tienen que optimizar, porque si no pasa lo del Jedi Survivor que los shaders no vienen precompilados y cada dos por tres mete un lagazo. Ese lagazo te lo comes ya tengas DLSS o no. Igual con todo lo que sea "optimizar" cosas de las que se encargue la CPU. Lo único que hace DLSS es aligerar la carga de la gráfica en cuanto a qué resolución se está moviendo un juego, pero eso solo es una parte del conjunto. Para que un juego vaya bien a 4K DLSS, como mínimo ha de ir bien a 1080p sin dlss, cosa que:
    A) muchos juegos (Jedi Survivor cof cof) no consiguen
    B) era una resolución que hasta no hace tanto nos parecía una utopía llegar de forma estable.

    Ahora se han inventado que los juegos deben ir como minimo a 4K y, si me apuras, 60fps parece que son pocos ahora. Todo esto mientras metemos raytracing, texturas de mayor resolución, mejores shaders... Es que todo no se puede tener

    alagar7101 escribió:Y no tendrá que ver esto con manejar resoluciones más bajas para poder usarlas con los juegos a través de la nube?
    Desde luego es parte del encanto que cosas mas vistosas graficamente pueda ser movido en hardware más modesto. Hace poco lo implementaron en las Meta Quest (hardware limitadito para todo lo que queremos que haga) y yo apostaría a que es la clave detrás de que el iPhone 15 ahora pueda mover juegos potentes
    Yo como no tengo ni puta idea de las tecnologías, no puedo opinar si es mejor 4K Nativo o 4K DLSS.

    Pero si con eso se consigue, el mismo resultado con menos recursos, no se cual es el problema. Y si el problema es entrenar a la IA, eso se podría hacer no se idea loca, con un modo espectador, que ejecute el juego como si se estuviese jugando y que la IA ya tenga memorizado el juego y así no tener que hacerlo al vuelo (por eso que comentaba el compi de esos 10 ms).

    Y si esto avanza, sería un puntazo para Nintendo, podría ejecutar todos los juegos tmde terceros sin despeinarse.
    Los mentirosos no tienen credibilidad.
    No he visto cómo funciona el DLSS en vivo, pero si el futuro es la borrosidad de FSR 1 y 2, me bajo del tren. Hay que estar ciego para no reconocer que activarlo hace que todo se vea como el culo.

    Igual DLSS se ve bien. Espero que sí, porque si no es imposible que nos quieran vender esa moto.
    @St. Anger Un compañero puso arriba un vídeo, lo vuelvo a poner

    https://www.youtube.com/watch?v=O5B_dqi_Syc

    FSR es bastante más limitado, al menos a dia de hoy. Y XeSS ya ni te digo
    Imagen

    El chino Juan se puede dedicar al humor cuando se jubile.
    Es lo que pasa cuando no tienes competencia
    El futuro es el GamePass con juego nativo a 720p reescalado a 8K.
    Linkale2 escribió:Yo veo la cosa sencilla. 4K y a la vez mas y mejores gráficos, no puede ser.

    ¿Pero que gilipollez es esta? ¿Tendriamos que seguir jugando con graficos de la NES? Segun tu no se puede aumentar la resolucion ni los graficos a la vez. o jugamos al Mario de la NES en HD pero con grafios y sprites de 8 bits o tenemos al Mario Odyssey con sus graficos modernos a 224p. ¿Pero jugar a un Mario en HD con graficos actuales? Imposiburu

    Supongo que hara falta el chip gordo o algo para tener las dos cosas, ¿no?
    Nvidia dice que su tecnología es la pera.

    Normal.
    Yo tambien soy los del team DLSS/FSR/XeSS

    La ganancia en rendimiento y de paso cuando estan bien implementados, sobretodo DLSS, se ve mejor que en nativo asi que mejor.
    Mr_Touchdown escribió:
    Linkale2 escribió:Yo veo la cosa sencilla. 4K y a la vez mas y mejores gráficos, no puede ser.

    ¿Pero que gilipollez es esta? ¿Tendriamos que seguir jugando con graficos de la NES? Segun tu no se puede aumentar la resolucion ni los graficos a la vez. o jugamos al Mario de la NES en HD pero con grafios y sprites de 8 bits o tenemos al Mario Odyssey con sus graficos modernos a 224p. ¿Pero jugar a un Mario en HD con graficos actuales? Imposiburu

    Supongo que hara falta el chip gordo o algo para tener las dos cosas, ¿no?

    Y también entre la SNES y la 64 hubo un salto de calidad increíble, como entre la 64 y la Gamecube, y ese tipo de saltos ya no los estamos viendo. De PS4 a PS5 ya no hay ese salto.

    Yo solo digo que estamos pidiendo raytracing, mejores shaders, mejores modelos y texturas, todo esto a la vez que cuadruplicar resolución respecto a 1080p. Creo que la época de la calidad cuadruplicándose de una consola a otra ya ha pasado. Hay una razón por la que los juegos de PS5 te dan a elegir 60fps "rendimiento" o 30fps "calidad": que ambas cosas no pueden ser. Desarrolladores vagos puede haber en un juego, pero no en todos. Tema gráficas lo mismo: La muestra es que ni la tarjeta más potente de Nvidia puede mover a 4K nativo algunos juegos en su calidad más alta ¿Nvidia son vagos y timadores? Bueno ¿y entonces donde está la tarjeta de AMD o Intel que sí lo consigue? La realidad es que está claro que el salto es demasiado.
    Los algoritmos propietarios se los pueden meter por el ojete.
    No vayan a hacer los programadores su trabajo haciendo juegos optimizados de acuerdo al hardware y no vaya Nvidia a venderte un hardware nuevo acorde al precio bien inflado que pagas por él. Mucho mejor este tipo de cosas, dónde va a parar. Y mientras Nvidia a llenarse bien los bolsillos con precios jodidamente sobredimensionados y los desarrolladores cada vez currándoselo menos a la hora de hacer videojuegos.

    Ahora tienes que comerte que un escalado por IA va a ser mejor que la propia resolución nativa. Claro, como el "lag negativo" aquel de Stadia. Al final Nvidia que deje de fabricar gráficas y con la misma que tienes te venda un software para que pases de una 5080 a una 6080. Eso sí, a 1500 pavetes el "cambio de gráfica". ¡Mucho mejor hombre, no necesitas ni abrir el ordenador para montarla!
    Claro hombre, eso está muy bien, te venden una gráfica que dice que es para 4k, pero que si lo pones en nativo empieza a cagar chips y se pone debajo de 30 fps, hay que usar DLSS porque sino esa gráfica que te venden para jugar a 4k, no puede con los 4k, cuando compras la gráfica no te dice en ningún lado "para jugar a 4k a 60+ fps "solo con DLSS", no te lo dice no, yo a esto lo llamo "publicidad engañosa", pero la gente traga con todo.

    Y que va decir una compañía de videojuegos? le interesa esta tecnología para que pueda jugar sus juegos todos, porque si no hubiera DLSS no podrían ofrecer la calidad que ofrecen, y de paso, nos ahorramos algo en optimización, que la magia del DLSS hace el resto [looco]

    No estoy en contra de esta tecnología ni mucho menos, pero parece que la gente, mucha al menos, no termina de darse cuenta que la IA "se inventa píxeles" cuando hace el reescalado, ni si quiera está ofreciendo al 100% lo que el desarrollador del juego quiere mostrar, y esto lo saben, pero como les beneficia pues nada, todos contentos, esto es como coger un cuadro de pintura, como "La noche estrellada" de Vincent van Gogh, pasarlo por uno de estos programas de IA famosos en los últimos tiempos y que lo convierta en una imagen realista, el concepto es el mismo? si, es lo que quería mostrar el pintor? ni de puto lejos, a CDPR le interesa mucho esto si, sino no hay dios que mueva su CP2077, sin DLSS las gráficas empiezan a cagar chips los ventiladores, como no le va interesar? a ellos y a cualquier compañía :-|

    A Nvidia le interesa especialmente, son los primeros que te engañan con su producto, considero que te engañan si no se especifica claramente en el producto que "podrás jugar a 4k a 60+fps SOLO si usas DLSS, y sino, confórmate con 30, con suerte", ponme eso en la caja y me lo vendes más rápido incluso, solo por la sinceridad vaya [qmparto]

    P.D: En mi opinión, la tecnología actual tanto por parte de las compañías de las gráficas como de los juegos, no están preparadas todavía para mover los 4k con la soltura en que se hace a 1440p (por descontado a 1080p), sigo viendo esta resolución como una "beta" y te la quieren meter como sea a costa de los precios, y punto.
    Y Emilio Arias dice que sus pipas son las mejores.
    Cada cual barre para su casa.
    Resolucion nativa siempre sera mejor que reescalada y ya que se pone nVIDIA si sus graficas van a ser menos potentes al tirar los juegos de DLSS muy bien pero al vender hard menos potente que bajen tambien el precio no te jode.
    Pues a mí no me gusta. Esto empezó con las consolas. En xbox 360 y ps3, querían juegos a 720p nativos, pero muchos iban a una resolución interna inferior.

    Luego en ps4 y xbox one fue la moda la resolución dinámica, porque muchos juegos no soportaban 1080p en todo momento. Eso después se pasó al pc.

    Que me digáis que esto vale para el que pilla una gráfica de 150€ y poder estirarla más, pues vale. Pero que te lo vendan como opción estrella para el buque insignia. [facepalm]

    Esto luego hace que sea más vagos, tanto la marca, como las desarrolladoras de juegos. Si un juego va mal activa el dlss y listo, aunque te engañen diciendo que se ve igual que nativo. [qmparto]
    119 respuestas
    1, 2, 3