[HO] NVIDIA GeForce RTX 5000

¿Alguien sabe si los drivers nuevos de hoy incluyen la nueva versión de DLSS 310.5.3?

https://github.com/NVIDIA/DLSS/releases
sirodyn escribió:Por lo que he entendido en el vídeo de digital foundry (mi inglés es muy malo) en la serie 5000 es mejor utilizar, en casi todo los casos, el preset M en modo rendimiento que el preset K en calidad. Que en juegos con ray tracing no está muy conseguido el preset M pero no me queda claro que en estos casos sea mejor el preset K.
He entendido bien el vídeo?
Estáis de acuerdo con eso? Que el preset M en rendimiento vaya mejor que el K en calidad?

No es preset k en calidad, si te fijas en el texto de cada modo, la mayoría de casos (por no decir todos) comparan el preset K en performance (PERF) con el preset M en performance.

Me parece una comparación algo engañosa porque el M tiene mas pérdida de rendimiento que el E, y quizás lo suyo hubiera sido comparar los modos como Nvidia recomienda: preset K en calidad (o balance que es algo peor) vs preset M en performance.

Luego cuando hablan de rendimiento comparan los preset K y M para demostrar lo que ya se sabía y dijo Nvidia, y es que el nuevo M penaliza mas en generaciones anteriores (sobre todo 3000).

Y a ver, aunque hay cosas que se deducen que podría estar mal en preset K calidad igual que lo hace en performance, como el tema de ghosting, pero el caso es que han mostrado preset K performance y no calidad con lo cual... y si no es así y el preset K en calidad se ve bien? Pues el M tendría menos sentido.

En cuanto a lo del ray tracing hay que destacar que no son todos los casos de ray tracing, cuando se usa ray reconstruction el modo M no penaliza a nivel visual como sí lo hace los que no tienen ray tracing, lo expliqué en este post de la info que ponen en el video: viewtopic.php?p=1756492345#p1756492345
Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/
Strait escribió:Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/

Pero pone que aumenta latencia.
Ya lo evito actualmente en juegos competitivos, pues con eso, más aún.
Y ya el Ma para estos juegos,me lo pienso.
hh1 escribió:
Strait escribió:Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/

Pero pone que aumenta latencia.
Ya lo evito actualmente en juegos competitivos, pues con eso, más aún.
Y ya el Ma para estos juegos,me lo pienso.


Para juegos competitivos está prohibido usar DLSS ni FG. Todo eso añade latencia (y no poca)
Strait escribió:
hh1 escribió:
Strait escribió:Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/

Pero pone que aumenta latencia.
Ya lo evito actualmente en juegos competitivos, pues con eso, más aún.
Y ya el Ma para estos juegos,me lo pienso.

Para juegos competitivos está prohibido usar DLSS ni FG. Todo eso añade latencia (y no poca)

No confundas, DLSS cuando se entiende como el super resolution, NO añade latencia sino que la mejora. FG ya es otro tema porque de base sí añade latencia por cómo se inventa le frame, aunque con Nvidia Reflex (y la tecnología de AMD) reduzca esa latencia.

Precisamente DLSS lo que consigue es que tengas mas fps reales (desde distinta resolución origen), pero el frame no se ha inventado, si eso "estirado" y a menos que visualmente notes algún tipo de imperfección molesta, es totalmente recomendado usarlo para ganar mas fps y por lo tanto tener menos latencia.

Y aclaro por si vas a entrar a un detalle absurdo para justificarte, por mucho que DLSS Super resolution pueda añadir un mínimo de latencia por el simple hecho de hacer algo más que simplemente no hacer nada (esto es de lógica), lo que ganas de latencia como resultado de tener mas FPS destroza esa posible pérdida de latencia y encima ayuda a que todavía se tenga menos latencia que sin DLSS.


@hh1 ahora leo tu comentario... lees que se gana latencia porque como también dice, se pierde rendimiento, lo que hace tener menos fps y por lógica mas latencia por justo lo que acabo de explicar: but performance also dropped w/ a INCREASE to latency.

Es como decir que porque hace mas calor hace menos frio, parece que ha liado mas que otra cosa XD

No leáis al 1º donnadie en reddit o donde sea y os creáis lo que dice como si fuera la verdad, suele tener mas sentido hacer mas caso a comentarios mas breves con mas votos (y no una biblia como el 1º post que quizás dice muchas cosas útiles y varios bulos pero la gente valora el esfuerzo). Por ejemplo, sin ir lejos, la 1º respuesta mas votada dice lo siguiente, cosa que lo veo correcto y es lo que explicaba:
DLSS FG only adds input latency when enabled. Simple as that. If there is no FG turned on, there is no increase input latency.

Now DLSS upscaling vs native, the upscaling will have less latency since it will have a higher FPS.


De hecho justo buscando a ver qué comentaban del DLSS precisamente había visto un comentario de otro que tampoco tenía ni idea diciendo precisamente que el DLSS se recomienda NO usar en juegos competitivos... y tenía 1 voto negativo y respuestas diciéndole que se equivocaba. Pero he refrescado la página y ya no veo ese mensaje, quizás lo ha borrado el autor para evitar esparcir bulos (bien hecho si así lo ha hecho).
Strait escribió:Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/


Pero esta hablando de consumo

Dice que baja el consumo y sube la latencia, lo cual siendo realistas no tiene puto sentido ninguna de las 2 [qmparto]
Strait escribió:
hh1 escribió:
Strait escribió:Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/

Pero pone que aumenta latencia.
Ya lo evito actualmente en juegos competitivos, pues con eso, más aún.
Y ya el Ma para estos juegos,me lo pienso.


Para juegos competitivos está prohibido usar DLSS ni FG. Todo eso añade latencia (y no poca)

Ya ,pero DLSS si quiero fps y que se vea bien, es lo que hay.
FG ,ni de coña.

Tampoco tengo yo muy claro que DLSS sea algo chungo agregando latencia,o eso tenía entendido
hh1 escribió:
Strait escribió:Parece que con los últimos drivers han cambiado el preset L y ahora no es tan tragón https://www.reddit.com/r/nvidia/comments/1qp177q/dlss_45_l_updated_012726_w_driver_59186_arc/

Pero pone que aumenta latencia.
Ya lo evito actualmente en juegos competitivos, pues con eso, más aún.
Y ya el Ma para estos juegos,me lo pienso.

Prueba el preset E, yo lo uso en BF6 y da fps a cholón!
Una pregunta sobre el 4.5 que no me queda muy claro en que escenarios usarlo.

Yo juego en 4k Nativo/DLAA y como mucho DLSS calidad, el rendimiento no me preocupa ya que me sobra.

Bien, en el panel lo tengo todo por defecto, es decir: "Utilizar la configuración de la aplicación 3D".

Me estoy perdiendo algo? como dije antes el rendimiento no me preocupa y lo que quiero es la mayor calidad posible.
@Rvilla87 yo entiendo que el dlss añade algo de latencia, no se cuánta pero tiene que añadir.

Entiendo que la GPU genera una imagen y luego con dlss se agranda debería añadir justamente ese tiempo, lo que tarde en agrandar la imagen que debería ser muy poco.

En los juegos competitivos normalmente se ponen casi todos los detalles al mínimo y a nada que tengas un pc decente llegas al máximo de fps que da tu monitor ya que no suelen ser juegos muy exigentes.

Yo entiendo que en ese caso, es preferible no usar dlss ni cualquier otra tecnología de escalado.

Ahora bien si tú pc no llega a los Hz del monitor en ese caso yo si usaría dlss.

Por supuesto que el fg lo dejaría desactivado siempre.
_Bender_ escribió:@Rvilla87 yo entiendo que el dlss añade algo de latencia, no se cuánta pero tiene que añadir.

Entiendo que la GPU genera una imagen y luego con dlss se agranda debería añadir justamente ese tiempo, lo que tarde en agrandar la imagen que debería ser muy poco.

Sí, sin saber cuánta latencia añade, tiene lógica que así sea, pero es que no tiene sentido hablar de ese posible añadido de latencia, es lo que explico en la parte de "Y aclaro por si vas a entrar a un detalle absurdo".

A ver, lo explico porque quizás doy por hecho que es mas conocido de lo que realmente es.

Uno de los valores mas importantes en el tema latencia son los FPS, y el motivo es que cuanto antes te llegue la imagen, antes podrás actuar. Con esta tabla (en parte sacado de rtings) se puede ver la diferencia (vamos a suponer que usamos VRR y fps = hz):

    - 1 fps --> La imagen se refresca cada 1000 ms
    - 30 fps --> La imagen se refresca cada 33,33 ms
    - 60 fps --> La imagen se refresca cada 16,67 ms
    - 120 fps --> La imagen se refresca cada 8,33 ms
    - 240 fps --> La imagen se refresca cada 4,17 ms

Si tienes un monitor que soporte 240 hz y el juego sin DLSS te va a 200 fps y con DLSS te va a 240 fps, tendrías menos latencia simplemente por la mejora de fps. Lo que internamente tarde el DLSS en darte la imagen no retrasará nada la latencia porque precisamente está haciendo que la imagen te llegue antes. Si internamente tarda 1 nanosegundo o 200 nanosegundos en hacerlo, da igual porque lo que te consigue adelantar la imagen redimensionada se ha "cargado" esa minúscula latencia de nanosegundos de sobras.

_Bender_ escribió:En los juegos competitivos normalmente se ponen casi todos los detalles al mínimo y a nada que tengas un pc decente llegas al máximo de fps que da tu monitor ya que no suelen ser juegos muy exigentes.

Yo entiendo que en ese caso, es preferible no usar dlss ni cualquier otra tecnología de escalado.

Ahora bien si tú pc no llega a los Hz del monitor en ese caso yo si usaría dlss.

Claro, eso último es clave, si tu PC no llega a los hz del monitor... por eso cuando decía que DLSS ayuda precisamente a tener menos latencia era porque como decía, ganaba FPS ("lo que consigue es que tengas mas fps reales"). Si no se gana FPS (el caso que dices de llegar a los hz máximos que soporta tu monitor), no se cumple lo que decía de que se gana rendimiento y por lo tanto no aplica lo que decía.

Vamos, que así como decir que FG aumenta latencia aunque se gane en rendimiento/fps y de eso no hay duda (por poca que pueda haber con reflex o similar), con DLSS no se puede afirmar lo mismo, y eso es lo que trataba de explicar.
Rvilla87 escribió:
_Bender_ escribió:@Rvilla87 yo entiendo que el dlss añade algo de latencia, no se cuánta pero tiene que añadir.

Entiendo que la GPU genera una imagen y luego con dlss se agranda debería añadir justamente ese tiempo, lo que tarde en agrandar la imagen que debería ser muy poco.

Sí, sin saber cuánta latencia añade, tiene lógica que así sea, pero es que no tiene sentido hablar de ese posible añadido de latencia, es lo que explico en la parte de "Y aclaro por si vas a entrar a un detalle absurdo".

A ver, lo explico porque quizás doy por hecho que es mas conocido de lo que realmente es.

Uno de los valores mas importantes en el tema latencia son los FPS, y el motivo es que cuanto antes te llegue la imagen, antes podrás actuar. Con esta tabla (en parte sacado de rtings) se puede ver la diferencia (vamos a suponer que usamos VRR y fps = hz):

    - 1 fps --> La imagen se refresca cada 1000 ms
    - 30 fps --> La imagen se refresca cada 33,33 ms
    - 60 fps --> La imagen se refresca cada 16,67 ms
    - 120 fps --> La imagen se refresca cada 8,33 ms
    - 240 fps --> La imagen se refresca cada 4,17 ms

Si tienes un monitor que soporte 240 hz y el juego sin DLSS te va a 200 fps y con DLSS te va a 240 fps, tendrías menos latencia simplemente por la mejora de fps. Lo que internamente tarde el DLSS en darte la imagen no retrasará nada la latencia porque precisamente está haciendo que la imagen te llegue antes. Si internamente tarda 1 nanosegundo o 200 nanosegundos en hacerlo, da igual porque lo que te consigue adelantar la imagen redimensionada se ha "cargado" esa minúscula latencia de nanosegundos de sobras.

_Bender_ escribió:En los juegos competitivos normalmente se ponen casi todos los detalles al mínimo y a nada que tengas un pc decente llegas al máximo de fps que da tu monitor ya que no suelen ser juegos muy exigentes.

Yo entiendo que en ese caso, es preferible no usar dlss ni cualquier otra tecnología de escalado.

Ahora bien si tú pc no llega a los Hz del monitor en ese caso yo si usaría dlss.

Claro, eso último es clave, si tu PC no llega a los hz del monitor... por eso cuando decía que DLSS ayuda precisamente a tener menos latencia era porque como decía, ganaba FPS ("lo que consigue es que tengas mas fps reales"). Si no se gana FPS (el caso que dices de llegar a los hz máximos que soporta tu monitor), no se cumple lo que decía de que se gana rendimiento y por lo tanto no aplica lo que decía.

Vamos, que así como decir que FG aumenta latencia aunque se gane en rendimiento/fps y de eso no hay duda (por poca que pueda haber con reflex o similar), con DLSS no se puede afirmar lo mismo, y eso es lo que trataba de explicar.

Si he entendido bien lo que explicas del DLSS llevándolo a un ejemplo más mundano sería algo como el siguiente ejemplo (corrígeme si estoy equivocado)

El DLSS (hablando del escalado de resolución) es como comerse un yogurt desnatado, estás metiendo a tu cuerpo las calorías de comerte el yogurt (incremento de latencia por encender el DLSS) pero al final tu cuerpo gasta más calorías de las que has consumido con el propio yogurt para poder hacer la digestión del mismo (mejora de la latencia por ganar rendimiento en FPS al haber activado el DLSS) por lo que comerte el yogurt en el cómputo final te ha hecho perder calorías no ganarlas (es decir bajar la latencia no subirla)
Rvilla87 escribió:
Strait escribió:
hh1 escribió:Pero pone que aumenta latencia.
Ya lo evito actualmente en juegos competitivos, pues con eso, más aún.
Y ya el Ma para estos juegos,me lo pienso.

Para juegos competitivos está prohibido usar DLSS ni FG. Todo eso añade latencia (y no poca)

No confundas, DLSS cuando se entiende como el super resolution, NO añade latencia sino que la mejora. FG ya es otro tema porque de base sí añade latencia por cómo se inventa le frame, aunque con Nvidia Reflex (y la tecnología de AMD) reduzca esa latencia.

Precisamente DLSS lo que consigue es que tengas mas fps reales (desde distinta resolución origen), pero el frame no se ha inventado, si eso "estirado" y a menos que visualmente notes algún tipo de imperfección molesta, es totalmente recomendado usarlo para ganar mas fps y por lo tanto tener menos latencia.

Y aclaro por si vas a entrar a un detalle absurdo para justificarte, por mucho que DLSS Super resolution pueda añadir un mínimo de latencia por el simple hecho de hacer algo más que simplemente no hacer nada (esto es de lógica), lo que ganas de latencia como resultado de tener mas FPS destroza esa posible pérdida de latencia y encima ayuda a que todavía se tenga menos latencia que sin DLSS.


@hh1 ahora leo tu comentario... lees que se gana latencia porque como también dice, se pierde rendimiento, lo que hace tener menos fps y por lógica mas latencia por justo lo que acabo de explicar: but performance also dropped w/ a INCREASE to latency.

Es como decir que porque hace mas calor hace menos frio, parece que ha liado mas que otra cosa XD

No leáis al 1º donnadie en reddit o donde sea y os creáis lo que dice como si fuera la verdad, suele tener mas sentido hacer mas caso a comentarios mas breves con mas votos (y no una biblia como el 1º post que quizás dice muchas cosas útiles y varios bulos pero la gente valora el esfuerzo). Por ejemplo, sin ir lejos, la 1º respuesta mas votada dice lo siguiente, cosa que lo veo correcto y es lo que explicaba:
DLSS FG only adds input latency when enabled. Simple as that. If there is no FG turned on, there is no increase input latency.

Now DLSS upscaling vs native, the upscaling will have less latency since it will have a higher FPS.


De hecho justo buscando a ver qué comentaban del DLSS precisamente había visto un comentario de otro que tampoco tenía ni idea diciendo precisamente que el DLSS se recomienda NO usar en juegos competitivos... y tenía 1 voto negativo y respuestas diciéndole que se equivocaba. Pero he refrescado la página y ya no veo ese mensaje, quizás lo ha borrado el autor para evitar esparcir bulos (bien hecho si así lo ha hecho).


Esto ya se demostró hace muchos años. Si comparamos la imagen real con el DLSS gana el DLSS en tiempo de respuesta, pero porque estamos comparando una imagen a 2k con pocos fps a otra a 1080p reescalada con más FPS, pero si cogemos la imagen real y la ponemos al mismo tamaño de la imagen a la que funciona el DLSS tiene mejor input lag. En este caso es 1ms mejor. Es tontería, el DLSS es un postprocesado relativamente complejo, y todo lo que sean postprocesados añaden algo de latencia. Demasiado bien va para lo que es. Lo que no sé si el DLSS actual funciona más rápido o más lento (puede que sea más lento viendo que el rendimiento de los presets nuevos es cada vez peor)

Imagen
@dunkam82 sí, ese ejemplo me parece que concuerda con lo que explicaba.

Otro ejemplo que se me ocurre, es como si te pesaras en una báscula y ves que indica 70 Kg pero luego tienes un cinturón especial (DLSS) que pesa 1 KG (con lo cual pesarías 71 Kg) pero tiene micropropulsores que te intentan propulsar muy levemente hacia arriba haciendo que "pierdas" 10 Kg y acabando con un peso final de 61 Kg.

Vamos, aunque es verdad que el cinturón te haga pesar mas por el simple hecho de ponerte algo adicional, te ayuda a que peses menos por el trabajo que hace.

Aunque ahora explico mejor la relación de fps <--> latencia porque tampoco es una relación directa en un caso real, ya que el tema está relacionado con muchas otras cosas que no solo los fps/hz.

Strait escribió:Esto ya se demostró hace muchos años. Si comparamos la imagen real con el DLSS gana el DLSS en tiempo de respuesta, pero porque estamos comparando una imagen a 2k con pocos fps a otra a 1080p reescalada con más FPS, pero si cogemos la imagen real y la ponemos al mismo tamaño de la imagen a la que funciona el DLSS tiene mejor input lag. En este caso es 1ms mejor. Es tontería, el DLSS es un postprocesado relativamente complejo, y todo lo que sean postprocesados añaden algo de latencia. Demasiado bien va para lo que es.

Imagen

¿Por qué no pones la fuente para que todos lo podamos comprobar y veamos si interpretamos lo mismo que tú o quizás algo diferente? Qué poco me gusta cuando la gente hace esto, a ti justamente ya te lo he visto hacer alguna que otra vez: hilo_ho-nvidia-geforce-rtx-5000_2507243_s12850#p1755713335

Aquí la fuente justo en esa parte de tu captura (min 10:53):

Justo lo he puesto en ese momento pero donde, anda qué raro que convenientemente no lo hubieras visto (porque no lo has visto, no?) hablan del caso 1080p donde justo indica que con DLSS calidad tiene la misma latencia que su respectivo modo sin DLSS a 85% de resolución a similar número de fps.

Y luego, otra cosa que tampoco habrás visto convenientemente, que son las conclusiones a las que llega Hardware Unboxed en el min 11:20 y que creo que despeja cualquier duda del tema:
(castellano)
Hardware Unboxed escribió:Ahora tenemos una respuesta bastante buena a la pregunta de si DLSS afecta a la latencia de entrada. La respuesta a esta pregunta, en la mayoría de los casos de uso realistas, es no.

Si DLSS proporciona un aumento del rendimiento, es muy probable que también se observe una disminución de la latencia de entrada.

El grado en que mejora la latencia de entrada está muy relacionado con el aumento de la velocidad de fotogramas. Cuanto más aumente DLSS la velocidad de fotogramas, más disminuirá la latencia de entrada. Pero incluso cuando el aumento del rendimiento es pequeño, normalmente también se observa una pequeña mejora en la latencia.

Sin embargo, hay algunos casos extremos en los que DLSS puede perjudicar la latencia de entrada. Estos se dan cuando la CPU está limitada [...]. En estas situaciones, DLSS no proporciona ninguna ventaja de rendimiento, ya que la reducción de la resolución de renderizado no suele mejorar la velocidad de fotogramas cuando la CPU está limitada. De hecho, el rendimiento puede empeorar debido a la sobrecarga de DLSS, lo que provoca un pequeño aumento de la latencia en un par de escenarios que hemos evaluado, normalmente 1080 con ajustes bajos.

(inglés)
Hardware Unboxed escribió:So now we have a pretty god answer to question wether DLSS impacts input latency. The answer to this in most realistic use cases is gonna be no.

If DLSS is providing a performance increase it's very likely you'll also be seeing a decreased input latency.

The degree to which input latency inproves is tied pretty closely to the rise in frame rate. The most DLSS can boost that frame rate the more it will decrease input latency. But even when permormance increases are small, typically you'll still see a small latency benefit as well.

However there are some edge cases where DLSS can hurt input latency. These are going to be when you're CPU limited [...]. In these situations DLSS doesn't provide any performance benefit as reducing the render resolution typically doesn't improve framerate when CPU limited. In fact performance can get worse due to the overhed of DLSS leading to a small increase of latency in a couple of scenarios we benchmarked, typically 1080 using low settings.

Precisamente es lo que expliqué en mi anterior comentario, que viene siendo lo que se ve en el 99% de casos de ese video, y no ese caso puntual que indicaste.

En juegos competitivos, o mas que el hecho que sean competitivos, los que tengamos limitación por CPU, el DLSS es peor pero por la sencilla lógica, como también explican los de Hardware Unboxed, que con DLSS tendremos menos FPS. Vamos, de nuevo se cumple lo que expliqué antes.

La pregunta que me hago es, ¿cómo es posible que hayas llegado a la fuente de información y de forma totalmente partidista solo destacaste una parte minúscula de ese video parece que te da la razón a lo que afirmaste cuando el 99,9% restante del video no te la da a ti sino a lo que explicaba yo? Es que hasta el punto ha sido cutre que cortaste la captura para que solo se vea el caso 1440p y no el de 1080p que desmonta lo que decías. Quizás lo has sacado de otro sitio y ha sido otra persona quien fue partidista, pero vamos, no es la 1º vez que lo haces y déjame que dude de tus buenas intenciones.


Y aun con todo esto, es que resulta que la latencia no es solo un tema de FPS e incluso ese caso aislado que comentas (para nada algo general como hiciste ver con tu 1º comentario), podría estar afectando por otros factores diferente a los FPS. Hay mucho mas detrás, aquí lo explica un ingeniero de Nvidia:


No he visto el video pero recuerdo ver algo similar, tampoco me interesa saber todo ese detalle porque no me molesta especialmente unos pocos milisegundos de latencia. A quien le interese mucho el tema y quieran aplicarlo, si no recuerdo mal creo que había una web donde daban muchos consejos, a nivel de elegir mejores componentes (ratón/gamepad/monitor/etc), configuración de juegos o panel de control de la gráfica, activar/desactivar cosas en windows/apps y cosas así, lo leí muy en diagonal y ahora ni recuerdo qué web era.
En un mismo hardware siempre vas a ganar reducción en latencia con DLSS activado porque esa es su magia, escalar desde una resolución inferior, pero obviamente, si enfrentas DLSS escalado a otro Hardware potente que mueve la misma resolución en nativo a los mismos FPS el DLSS te va a meter un poco de latencia, tampoco una locura, pero si que la mete, pero la gracia del DLSS no está en compararlo entre dos máquinas diferentes, una más potente que otra, está en la ventaja que da desde un mismo hardware, donde ahí si ganas una reducción de latencia bastante pronunciada que copensa de sobras esa ridícula latencia que mete, todo eso gracias a ese reescalado mágico desde una resolución inferior.


Al final la latencia, el frame time, está directamente condicionado por los FPS, a más FPS menos frame time, a menos FPS más frame time, por lo que en una misma máquina si no haces un downscale a una resolución inferior, si vas ahogado en la nativa, el frame time será superior, por eso no tiene sentido compararlo con otro PC o romperse la cabeza con que introduce latencia, que lo hace, pero no es algo malo porque lo que ganas es una locura, es como si por dar 20 céntimos te diesen 50 euros, pues si, pierdes 20 céntimos, pero has ganado 50 euros, buscarle a eso las cosquillas pues no tiene mucho sentido la verdad, porque todos cambiaríamos esos 20 céntimos por esos 50 euros, y el que tiene 50 euros los cambiaría por 12500.

Además está el tema de que actúa como un AA muy bueno respecto a un AA como podría ser el TAA que es el que estaba más extendido por su bajo consumo en recursos, pero es que es mejor que MSAA, que para mover MSAA tenías que tener una GPU muy top o incluso esperar una generación siguiente.

De hecho tuve un enganche fuera del foro sobre el tema donde me vendían que el DLSS era una mierda y que metía input lag, todo el rato intentando despreciarlo, que no era 4K real, por el típico debate de que no necesitas gastar 3000 euros en un PC (aunque ahora con lo de la ram y tal igual si que compro ese argumento [carcajad] ), todo para justificar que se habían dejado un pastizal en sus GPUs y que jugar en nativo era mejor, lo mismo ni usaban DLAA, no les pregunté por los monitores pero no me extrañaría 1440p y 5080 + 5090 [carcajad]

Les dolió que con una 3080 estuviera jugando en 4K 60fps a muchos juegos actuales con presets casi en ultra X D, aunque ansío sus 5080 cuando uso reshade o ciertos mods gráficos [+risas]
19765 respuestas
1392, 393, 394, 395, 396