Nvidia dice que el escalado de imagen de DLSS y no la resolución nativa es el futuro para una mej...

1, 2, 3
El problema que veo con esto es que ciertos juegos triple A no soportan esta tecnología de salida, por lo que los usuarios de PC con tarjetas Nvidia nos tenemos que comer problemas de rendimiento mientras no sacan el parche correspondiente. Y esto es así porque se desarrolla pensando en las consolas, que son AMD.
Que si… pero que antes había que actualizar el equipo porque sino no movía las cada vez mas altas resoluciones y ahora hay que actualizarlo porque no es compatible con las versiones mas nuevas del DLSS o lo que sea… 🤣

La verdad es que el DLSS en calidad y si no reescala de una resolución muy baja es muy buen apaño.
Cada vez más resolución en los Paneles, y cada vez más software de rescalados. Claro que si.
@Valhan te dije lo de las 2 capturas (cosa que se tarda menos de 5 min, no te pedía un gran esfuerzo) porque me refería a que mostrases en 2 imágenes de lo que a simple vista ves tan mal del DLSS así rápidamente podemos ver si vemos (o nos molesta) mas o menos como tú. Pero vamos, que no tienes por qué molestarte en hacerlo habiendo tantísimas comparativas en internet, te pongo un ejemplo:

El ejemplo de Death Stranding, de hecho es el video que pusieron antes en este hilo. Tú este video ves el DLSS mucho peor como decías? Min 15:06:

Lo que opine la "mayoría" la verdad que no la tengo en consideración desde el momento en el que afirman cosas sin argumentar o demostrar nada (Orestes por ejemplo sí lo hizo, esa opinión sí la tengo en cuenta).

Los medios profesionales, y hay muchos, también argumentan y aportan pruebas y diría que la gran mayoría (por no decir todos) NO ven que el DLSS sea mucho peor que el nativo.

En cualquier caso respeto que no quieras seguir con el tema, aunque si puedes me gustaría que al menos me respondieras a esa pregunta: ¿La parte del video del Death Stranding que puse en el spoiler la ves mucho peor con DLSS que en nativo?

----------------------------------------------------------------------
----------------------------------------------------------------------

Orestes escribió:
Rvilla87 escribió:Por lo tanto con esa prueba puedes determinar tú mismo que el DLSS sin activar la nueva función "beta" del RR no destroza la imagen. ¿Ahora mejor?

El argumento original es que DLSS puede mejorar la imagen nativa y eso es una mentira como un castillo porque mucho o poco siempre la empeora.

No cambies el tema de nuestra conversación. Yo no he entrado a debatir las declaraciones de Nvidia. En nuestra conversación, tú empezaste citando mi frase donde dije lo de que la gente dice tonterías del DLSS, ese es el argumento original de nuestro debate.

Si luego entré a tu debate de la calidad de imagen no fue para debatir "si DLSS puede mejorar la imagen nativa", sino para que vieras como precisamente tú que me citaste esa frase dijiste una tontería al comparar la calidad de imagen sin tener en cuenta que no era el SR quien la "destrozaba" sino el RR y atribuías esos "destrozos" en general al "DLSS".

Orestes escribió:¿Es una técnica cojonuda para ganar FPS? Sin duda. ¿Puede producir mejor (o si me apuras igual) calidad que una imagen nativa? No, no puede. Es físicamente imposible.

Por si no quedaba claro con todo lo que ya te he dicho, ¿me dices dónde yo he afirmado eso? A ver si vamos a estar discutiendo por algo que no he dicho.


Dejando de lado que desvíes mas o menos el tema de nuestra conversación, como me da la impresión que te interesa saber qué opino de la calidad de imagen del DLSS, esto es lo que opino:
Algunos no estáis entendiendo (o comentando) que gracias al reescalado como el del DLSS se gana un rendimiento que te puede aportar otras mejoras de calidad de imagen: aumentar la calidad de sombras/iluminación/texturas/etc del juego. O te puedes quedar con mayor fps con una calidad muy similar (sobre todo a simple vista).

En la comparación de esa imagen del Cyberpunk estás comparando el mismo juego a la misma calidad gráfica. Ponte a comparar el juego a calidad media a 4k en nativo (por ejemplo yendo a 60fps) vs 4k con DLSS con calidad alta (o la que sea que vaya a 60fps) y me vuelves a hablar de calidad de imagen [rtfm]
Rvilla87 escribió:No cambies el tema de nuestra conversación. Yo no he entrado a debatir las declaraciones de Nvidia. En nuestra conversación, tú empezaste citando mi frase donde dije lo de que la gente dice tonterías del DLSS, ese es el argumento original de nuestro debate.

No, lo mío iba por esta ignorantada:

Rvilla87 escribió:El DLSS se compone, entre otras cosas, en el módulo de Superresolución y Antialiasing de deep learning (el de toda la vida) que es el que puede mejorar incluso la resolución nativa al aplicar ese Antialiasing (en respuesta a lo que preguntaba hugoboss69x del DLSS calidad).

Andabas pidiendo que la gente que no digas chorradas y sueltas esta perla.

Rvilla87 escribió:Si luego entré a tu debate de la calidad de imagen no fue para debatir "si DLSS puede mejorar la imagen nativa", sino para que vieras como precisamente tú que me citaste esa frase dijiste una tontería al comparar la calidad de imagen sin tener en cuenta que no era el SR quien la "destrozaba" sino el RR y atribuías esos "destrozos" en general al "DLSS".

Es que no hay ningún modo de DLSS que mejore la calidad de la imagen sobre una resolución nativa. Es un placebo encima de otro y otro extra en medio. Ahora parece que metas "deep learning" o "AI" en la etiqueta de un producto y haga magia.

Rvilla87 escribió:
Orestes escribió:¿Es una técnica cojonuda para ganar FPS? Sin duda. ¿Puede producir mejor (o si me apuras igual) calidad que una imagen nativa? No, no puede. Es físicamente imposible.

Por si no quedaba claro con todo lo que ya te he dicho, ¿me dices dónde yo he afirmado eso? A ver si vamos a estar discutiendo por algo que no he dicho.

Me remito a la cita de arriba.

Rvilla87 escribió:Dejando de lado que desvíes mas o menos el tema de nuestra conversación, como me da la impresión que te interesa saber qué opino de la calidad de imagen del DLSS, esto es lo que opino:
Algunos no estáis entendiendo (o comentando) que gracias al reescalado como el del DLSS se gana un rendimiento que te puede aportar otras mejoras de calidad de imagen: aumentar la calidad de sombras/iluminación/texturas/etc del juego. O te puedes quedar con mayor fps con una calidad muy similar (sobre todo a simple vista).

Es la forma de enfocarlo más loca que he visto. El DLSS no mejora la calidad de la imagen en ningún caso, mejora el rendimiento que es diferente.

Resumido: A mismos parámetros el DLSS mejora el rendimiento pero nunca (repito: nunca) mejora la calidad. Tu gráfica puede producir una imagen nativa a 2 FPS y el DLSS no va a ser capaz jamás de mejorarla por mucho que llegue a 60 FPS.

Rvilla87 escribió:En la comparación de esa imagen del Cyberpunk estás comparando el mismo juego a la misma calidad gráfica. Ponte a comparar el juego a calidad media a 4k en nativo (por ejemplo yendo a 60fps) vs 4k con DLSS con calidad alta (o la que sea que vaya a 60fps) y me vuelves a hablar de calidad de imagen

No, gracias.
@Orestes para la próxima vez, ¿que tal si citas la frase en cuestión a la que te refieres (y no otra) y así evitamos malentendidos? Menuda pérdida de tiempo si al final todo ha sido por mi comentario de mejorar la resolución nativa.

Pues sí, lo dije en ese mensaje y me expresé mal, porque efectivamente no es una cosa que mejore la resolución propiamente sino que quería referirme a la mejora de la calidad de imagen general con cosas como ese antialiasing con ejemplos como el que puse antes del video del Death Stranding. Concretamente mi respuesta era acerca el texto que dijo hugoboss69x: "se ve mejor el DLSS Calidad". Cosa que por cierto también comparten otros medios: https://www.techspot.com/article/2665-d ... rendering/

Imagen


Como ves reconozco mis errores. Aún estoy esperando que reconozcas la tontería que dijiste en tu 1º análisis del "destrozo" que hacía el DLSS cuando quien lo "destrozaba" era el RR y no el SR, que era precisamente lo que criticaba en el mensaje que tú me citaste (por error parece).
@Rvilla87 No es necesario video porque Death Stranding es un título que he jugado en primera persona (aún así, los videos no se pueden usar como ejemplo, de hecho yo no los he usado para hablar del DLSS3 porque no le veo sentido). Jugué en su día al Death Stranding y te confirmo que no me gustó la IQ con DLSS (al igual que con el resto de títulos que lo he probado).

Y no, no tengo ni cinco minutos para ponerme a hacer comparativas, de hecho, sigo con este juego de ping pong por respeto hacia ti, y no dejar el tema (con el abogado del "Lol" he terminado antes bloqueándolo porque los tíos que pasan los cuarenta y escriben como niños de primaria prefiero que los cuiden sus padres). Ahora mismo, con 44 años, me han dado una horquilla de tiempo de vida por un tema de salud y desde luego no me apetece para nada perderla en conversaciones vacias, solo meterme para comentar y desconectar de la mierda que me ha caído encima por culpa de terceros, con lo que, con todas mis disculpas, mi punto de vista es el mismo, y de nuevo, respeto tu opinión, pero sigo perdiendo un tiempo que no tengo con posts vacios.

Gracias igualmente, Rvilla, por tomarte las molestias, pero ya he abandonado el hilo. Solo he leído tu post para contestarte y no se siquiera como vais con el partido.

Un saludo. ;)
@Valhan hostia lo siento, de haberlo sabido no te hubiera molestado :(

Pues sí, desconecta como dices y haz lo que te apetezca. No tiene sentido dedicar tiempo a algo que no te vaya aportar nada positivo y/o no tengas ganas. Ánimo! [beer]
Linkale2 escribió:Yo solo digo que estamos pidiendo raytracing, mejores shaders, mejores modelos y texturas, todo esto a la vez que cuadruplicar resolución respecto a 1080p. Creo que la época de la calidad cuadruplicándose de una consola a otra ya ha pasado. Hay una razón por la que los juegos de PS5 te dan a elegir 60fps "rendimiento" o 30fps "calidad": que ambas cosas no pueden ser. Desarrolladores vagos puede haber en un juego, pero no en todos. Tema gráficas lo mismo: La muestra es que ni la tarjeta más potente de Nvidia puede mover a 4K nativo algunos juegos en su calidad más alta ¿Nvidia son vagos y timadores? Bueno ¿y entonces donde está la tarjeta de AMD o Intel que sí lo consigue? La realidad es que está claro que el salto es demasiado.


Los estudios pasan de optimizar, es algo que se ha implantado en la industria. Tanto es asi que los juegos que se lanzan hoy dia hace 20 años se considerarian betas o incluso alfas.

Nvidia ha creado una solucion para un problema que nadie tenia, capitalismo en estado puro. En lugar de dedicarse a mejorar nos vende chapuzas a precio de oro

y AMD va a la zaga, para variar. Quien marca el camino a seguir es Nvidia, por que es quien tiene mayor cuota de mercado. No importa cuanto innoves y mejores la industria si nadie compra tus productos, al final no te queda otra que seguir al lider si quieres seguir a flote.

AMD lanzo en 2013 las memorias HBM que son superiores a la memoria GDDR5 (menor consumo y tamaño con un rendimiento muy superior, tienen un bus de 4096 bits, las memorias GDDR tienen un bus de 512 bits como maximo) aunque algunas tarjetas graficas han usado este tipo de memoria, es muy minoritario. Por que quien maneja la batuta es Nvidia.

Pero ojo, que Nvidia el mes pasado se puso en serio con este tipo de memoria, en unos años tendremos lo que deberian haber llevado las tarjetas graficas desde 2013...
@Rvilla87 No has molestado, compi, solo que prefiero dedicar ese tiempo a otras cosas. Hace unos años (o meses) me podría haber enganchado en un buen debate que hubiera acabado en tablas igualmente. XD

Aún así, seguimos con otro chascarrillo más banal en otros hilos, que tengo tu nick grabado de hace tiempo en la cabeza y es porque seguro que coincidimos en otro hilo más a menudo, aunque no recuerdo en cual.

Un abrazo. [beer]
(mensaje borrado)
@Valhan te recuerdo, a parte de leerte de vez en cuando en el hilo de las RTX 4000, de... a ver si te acuerdas: 43W808C [plas]

Y mira, te digo más, si quieres la TV es tuya, que no me importaría renovar la TV del salón (es esa de 43") por una mas grande, que no usamos para nada el interpolador.


Mr_Touchdown escribió:y AMD va a la zaga, para variar. Quien marca el camino a seguir es Nvidia, por que es quien tiene mayor cuota de mercado. No importa cuanto innoves y mejores la industria si nadie compra tus productos, al final no te queda otra que seguir al lider si quieres seguir a flote.

AMD lanzo en 2013 las memorias HBM que son superiores a la memoria GDDR5 (menor consumo y tamaño con un rendimiento muy superior, tienen un bus de 4096 bits, las memorias GDDR tienen un bus de 512 bits como maximo) aunque algunas tarjetas graficas han usado este tipo de memoria, es muy minoritario. Por que quien maneja la batuta es Nvidia.

Una pregunta sobre lo que comentas, porque veo mucha crítica a los juegos mal optimizados (y es evidente que pasa mucho, pero no sé si es el problema de base), y vale que se puede entender que Nvidia ha sido lista por sacar una solución a un problema que no teníamos (no entro a valorar si me parece que es así o no), pero lo que dices de AMD no sé si lo entiendo.

Pongamos que es como dices (cosa que no sé), por qué AMD no ha dado con la tecla para darnos la solución? Ya sea que se centren en potencia pura y se olviden de los reescalados (y el RT, que también penaliza mucho) o lo que sea necesario.

No entiendo lo de seguir al líder, precisamente lo que hace e líder provoca muchas quejas (este hilo está lleno), y si yo fuera AMD y vista la situación sería quien intentaría dar la solución a todos esos jugadores asqueados de la situación actual del mundo gaming por el penoso rendimiento de los juegos.

Lo que me planteo es, no será que AMD realmente no puede/sabe dar esa solución y no puede/sabe hacer otra cosa que seguir al líder? No sé cómo interpretar el hecho que Nvidia saca su DLSS y posteriormente Frame Generation (una vuelta de tuerca mas a mejorar el rendimiento para solventar la mala optimización de los juegos?) y posteriormenta AMD saca FSR y su frame generation. ¿AMD llegó a la misma conclusión o se copió? Sea como sea, no parece que sea sacarnos del problema de optimización de otro modo diferente al de Nvidia.

Podemos pintar a Nvidia como el líder malo, vale, pero cómo pintamos a AMD? Como el seguidor inepto? Para mi casi que queda en peor lugar AMD, porque quizás nos puede sacar de este problema, pero son tan ineptos que no saben y se limitan a seguir al líder malo. Y qué decir de Intel en el tema gráficas, cuando se presente le saludamos :Ð


@Kavezacomeback puedes poner la web/fuente de lo que vas poniendo para echarle un vistazo en detalle?

PD: Vaya, ya la has borrado... supongo que habrás interpretado mal esa imagen, por eso precisamente no suelo hacer caso de capturas sueltas sin contexto alguno. Pero ya que estamos, también lo dijiste con la foto 1080p del Lies of P. Creo que hay mucho que interpretar de esa imagen, partiendo ya por el hecho de que quizás sea una mala implementación y/o un bug (yo al menos no hago ni caso del rendimiento/calidad gráfica de los juegos de salida, si salen casi en beta todos) o por ejemplo que es 1080p y no 4k con lo que eso conlleva a una peor calidad del reescalado. Se ve igual de mal el reescalado a 2k o 4k? Lo dudo muchísimo pero aunque así fuera insisto, es un juego "beta".
@Rvilla87 estaba mal en Tokyo Ghost. Me tardo en cargar y por lo tanto es un fallo mio y no del juego, supongo a veces tarda en cambiar settings.

Pero si te gusta estas cosas, supongo como a mí, mira Hitman 3 en Mendoza el FSR vs DLSS (con nvidia hace lo mismo que con amd) que yo creo han implementado bastante mal el fsr al punto que reescalando con desde los drivers de amd que se supone usa una técnica peor al FSR 2 pues se ven mejor... da que pensar hacia donde se dirige todo esto viendo cosas así yo otras por parte de amd como el rendimiento de nvidia en Starfield.

No afirmo lo hagan a conciencia, pero seguro que optimizan para uno y al otro le den por culo por cuestiones de colaboración, tiempo, etc...

Imagen
Imagen
download png logo

Creo eran estas, las puse al máximo que podía por si era algo que se activaba con ciertos parámetros y después la probé en el equipo con AMD obteniendo el mismo resultado al activar el FSR. En este juego tengo la impresión de que esta realizado sin filtro alguno en resolución nativa para así destacar el reescalado de nvidia, pero vamos que esto da para mucho y opiniones varias.

El Lies of P es así, lo puede probar fácilmente también, no hice nada excepto activar el DLSS en calidad. Para comparar tranquilamente te aconsejo uses ICAT que es una herramienta gratuita de nvidia.

https://www.nvidia.com/es-la/geforce/technologies/icat/

Por cierto pase por alto lo que comentas de que no es lo mismo reescalar en 4K que en 1080P y tienes razón, en 4K al tener mejor resolución base el reescalado se ve mejor (puede probar con el Lies of P), pero curiosamente lo que recomienda nvidia es usar en 4K rendimiento o ultrarendimiento y la verdad es que ahí ya ni sentido tiene o eso me parece.
@Kavezacomeback aaa, que son capturas tuyas. Vale, ya entiendo, entonces no dije nada.

Pues de comparativa la verdad las que suelo hacer son de HDR, de reescalado de momento no porque juego casi siempre en nativo (quizás a alguno le peta la cabeza después de mi debate que podría parecer pro-DLSS :Ð ).

Vaya diferencia las capturas que pones, a simple vista en la 1º se ve menos definido el prota en general (brillo de la calva, texturas del traje...) y qué decir de las no-"tira de luces" de la fiesta XD
No sé si te he entendido, decías que la que se ve mejor es la de AMD, no? Bueno, sea así o te haya entendido mal, creo que te entiendo, sí, todos estos rollos de patrocinios y de favorecer a una u otras gráficas me parece una mierda.

En cuanto al ICAL, a priori por los tipos de ficheros que dice que acepta no veo el jxr (HDR) y quizás no me sirve para lo que necesito pero sí que me servirá para los casos en los que sí activo el reescalado y quiera probar entre DLSS y FSR. Me lo apunto, gracias! [oki]
@Rvilla87 en Hitman 3 se ve mucho peor FSR que DLSS como has podido ver (con esto creo que da claro) al punto que reescalando desde los drivers de AMD con RSR se ve mejor y sobre el HDR pues no lo suelo activar cuando hago capturas por que solo lo tengo disponible en la TV y después en otras pantallas se ve mal.

Imagen
Imagen

Ya puestos con HDR y RT on/off reescalado con RSR desde 1440P :p

Por cierto las veo fatal [carcajad]
@Rvilla87 Osti! Toda la razón, que memoria de pez tengo. Si tengo a buen recaudo tus MPs precisamente por si moría la Sony, es más, no te lo creerás, pero hace justo una semana estuve en Huesca con mi mujer y le dije: "Que no le mandaré un mail al compañero de la W808 y si quiere venderla nos pasamos a por ella, que nos pilla al lado, y así tengo repuesto". Te doy mi palabra de que ha sido así, de ahí que estuviera rumiando tu nick, pero me daba hasta vergüenza enviarte un MP por una TV del año de la polca. [carcajad]

Lo mejor de todo es que la que más insistía es mi mujer, que como recordarás, está harta de verme comprar y devolver TVs que la violan en calidad de imagen, pero ese Frame Generation de Hacendado me tiene enganchado a ella y no la cambio por nada. Así me sale todo. XD

Pues si tienes la intención de cambiarla, soy todo oídos, compi. Lástima no haberte pegado el toque porque la hubiera embutido en el maletero. [360º]

Y mis disculpas porque me he marcado un off-topic paralelo digno de la Marvel.
Ahora mismo es imposible tener 4K-60fps-ultra y trazado de rayos por 500€ en casa (y sin que te salten los plomos al enchufar la consola/PC y dos radiadores).

Así que estos trucos los veo más que bien para mientras la tecnología avanza y llega al punto de poder tener todo eso nativo por 300€ y con un consumo se 50-70W. Claro que para entonces se llorará que usan el DLSS o lo que inventen para pasar de 4K nativos a 16K porque son unos vagos y blablabla.
@Kavezacomeback a, vale, el DLSS mejor en Hitman 3, te leí mal y como no veía en la propia captura si era DLSS o FSR no estaba seguro si te había entendido bien.

A nivel de HDR ese juego al menos en PC estaba roto cuando jugué a finales de 2022, y en el mundo PC por lo que he ido viendo muy poca gente tiene HDR (un HDR de calidad al menos). Hilo de un juego de pc que me meto, hilo que me quedo mas solo que la una cuando pregunto qué tal funciona el HDR en ese juego :Ð

Sobre que lo veas tan mal, por mi experiencia supongo que es porque has hecho la captura con el Nvidia Geforce Experience y has cogido la SDR o la HDR convertida a SDR de forma incorrecta. Pero vamos, puede ser por muchas otras cosas. Para mi la mejor app de captura para HDR es la del Xbox Game Bar (tanto Win10 como Win11).

A veces pienso que estaría bien crear un hilo de comparativa HDR en juegos de PC porque veo normalmente mucha información contradictoria (gente diciendo que el HDR de un juego se ve perfecto, otros diciendo que está roto...), así como tampoco se conoce qué herramientas usar (tanto de captura como de visualización como de conversión HDR --> SDR). Pero luego veo que apenas nadie habla del tema y es cuando pienso que para hacer un monólogo yo solo paso XD Aunque en el hilo de las RTX 4000 creo que Anvic también comentaba cosas del HDR y él prueba mucho, quizás le digo algo y a lo mejor puede salir algo útil. Porque es que es leer reddit y uff, también menudo caos, gente con monitores de mierda diciendo que X juego tiene el HDR roto y lo que está roto es su monitor que no le da el HDR. En fin, ya veré que esto es mucho offtopic aquí.


Valhan escribió:Y mis disculpas porque me he marcado un off-topic paralelo digno de la Marvel.

Y que lo digas XD
Ya te mando un PM y seguimos ahí [oki]
Mr_Touchdown escribió:Los estudios pasan de optimizar, es algo que se ha implantado en la industria. Tanto es asi que los juegos que se lanzan hoy dia hace 20 años se considerarian betas o incluso alfas.

Hace 20 años nos colaban muchos juegos de PSX y N64 que no llegaban ni a 30fps asi que no se muy bien qué me estas diciendo. Mismamente mario9 64, mientras que un youtuber lleva meses optimizando su código y ha demostrado que en hardware original ese juego se podría haber movido a 60fps casi estables.
[Akira] escribió:Efectivamente DLSS en Calidad deberia ofrecer mejor aspecto que TAA en Nativo. Dependiendo de la implementación puede haber glitches o ghosting aqui o allá, pero eso ya es más de cara al curro que se haya metido el desarrollador.

La cosa está clara señores, o usamos DLSS/FSR o ya podeis ir olvidandoos del Ray Tracing en general a resoluciones 4K. Y ya ni hablemos de Path Tracing....

Y a quien DLSS y/o Frame Generation les parezcan "frames falsos" que se ponga a leer documentación técnica. Que a lo mejor esos "frames falsos" son más reales que la mitad de efectos visuales que nos llevamos 20 años comiendo como el Screen Space Reflection.

De hecho haceos a la idea de que en consola va a ser FSR o similar hasta el fin de los tiempos. Y bien que hacen.


DLSS 1 y 2 son simplemente frames reescalados, con mejores o peores resultados dependiendo del juego. En fotos y secuencias lentas o estáticas funciona siempre bien por el TAA, pero en movimiento entran en juego el ghosting y las distorsiones.

El DLSS 3 es en mi opinión un tema totalmente diferente, estos si que son literalmente frames falsos interpolados entre los reales.

Mi problema con esto es que el framerate no es algo simplemente visual, sino que tiene un impacto directo en la jugabilidad. Un juego a 60FPS tarda la mitad de tiempo en reconocer un input del jugador que uno a 30FPS, y por tanto responde más rápido y mejor.

Los frames falsos del DLSS 3 se sienten bien al ojo, pero no al mando. Ya que los inputs del jugador se reconocen solo en los frames reales.
119 respuestas
1, 2, 3