[HO] NVIDIA GeForce RTX 5000

Hildr escribió:@ziu Y que tal el input lag? XD

Deja de malmeter ya, que cansas.
Tan feliz con tú 4090 no serás cuando no paras de marear la perdiz a la gente que opina diferente.

Hueles a Troll desde leguas.
@KoGollin Que? Malmeter a la gente que opina diferente? Cuando he hecho yo eso? Tu si que vienes a malmeter y vas a ser reportado y bloqueado, trolazo mas que trolazo. Anda ya a cagar hombre.
Hildr escribió:@ziu Y que tal el input lag? XD

Aunque no lo creas no lo noto, ya te digo q la tecnología va muy fina y cada vez mas, al menos en la serie 50, en la 40 pues está mas capadita, míralo así, tengo una gráfica que consume 4 veces menos y me costó 4 veces menos y juego igual que en la tuya con las tecnologías de la seríe 50 [sonrisa]
@ziu Bueno es saberlo, el otro día leí creo que por aquí que esas tecnologías producían input lag y artefactos. Si me dices que no es así yo te creo.
Os cuento mi experiencia porque estoy de un calentamiento importante. He estado probando la 5070 con el Battlefield 6 he intentado darle una oportunidad al DLSS y mira, yo se los regalo.

Para jugar a un Stray o algo relajado en 4K mientras te comes unos doritos, pues vale, queda muy bonito. Pero para FPS competitivos... yo paso olímpicamente. En cuanto lo activas, te metes una latencia digna de jugar en consola con una tele de 2010.

Que no es que yo sea un sibarita de la vida ni un pro-player del CS, pero es que la sensación de "flotatividad" es insufrible. Al final, donde se pongan unos frames nativos y una buena tasa de refresco, que se quite toda la morralla de frames inventados.

Prefiero mil veces bajar settings a medio/bajo y tener un tiempo de respuesta decente que verle los pelos de la nariz al soldado pero disparar con medio segundo de retraso.

Ya en si el propio juego no ayuda demasiado, lo que juegan bf6 saben a lo que me refiero, netcode y derivados.
@keverson303 Yo he jugado BF6 con FG x2 y DLSS en calidad y no he notado nada de eso. Vale no tengo una grafica de la serie 5000 pero se supone que la tuya gestiona mejor esas tecnologías. Sin ir mas lejos @ziu me lo ha comentado hace un rato.
Estas seguro que no es otra cosa lo que te esta jorobando la experiencia?. A ver si algún forero que tenga tu misma grafica sabe orientarte.

pd: y si Netcode es una soberana [shit]
@the_aeon Yo es que viendo la escalada de precios a cada generación independentemente de la gama que elijas he preferido esta vez tirar para el tope de gama (es la primera vez que lo hago) .
7 años estoy convencido que podré jugar sin demasiados problemas. Y luego ya veremos cómo está el mundo. De momento parece que el salto entre gamas estará mas cerca de los tres años que de los dos... Y una cosa es cuando sale la gama y otra cuando el consumidor medio puede comprarlo sin historias.

El tiempo me dira si hecho mal o bien... De momento estoy ya aprovechando mucho mas las quest3 en pcvr.

Saludos .

Edit.El input lag se hace notar mas en teclado y ratón que si juegas en pad.
Torru85 escribió:Edit.El input lag se hace notar mas en teclado y ratón que si juegas en pad.

Sí, es cierto porque con el mando tienes ayudas al movimiento pero con el teclado y raton no las tienes. Pero con una 5090 no deberias notar cosas malas porque aunque uses el generador de fps, de seguro que tus fps base seran altos. Es lo que tiene, si jugases a algo a 30fps, todo lo lento iba asi, asi ira con el generador aunque marque 120fps.

Mira el DLSS 4.5, la serie 2000 y 3000 se ahogan con ese DLSS.

Hombre......tanto como eso....lo que pasa es que los años no pasan en valde para ninguna maquina. Yo tengo 4 RTX, una 4070Ti, una 5060Ti 16GB, una 3070 y una 3060, con los drivers nuevos no es tan terrorifico con las RTX 30, la 3070 ya tenia su falta de memoria pero usandola a 1080p es mil veces mejor que una 5060 en muchas cosas.

Lo de cuanto puedes jugar con una 5090, pues depende mucho de a que resolución vayas a jugar durante ese tiempo.
keverson303 escribió:Os cuento mi experiencia porque estoy de un calentamiento importante. He estado probando la 5070 con el Battlefield 6 he intentado darle una oportunidad al DLSS y mira, yo se los regalo.

Para jugar a un Stray o algo relajado en 4K mientras te comes unos doritos, pues vale, queda muy bonito. Pero para FPS competitivos... yo paso olímpicamente. En cuanto lo activas, te metes una latencia digna de jugar en consola con una tele de 2010.

Que no es que yo sea un sibarita de la vida ni un pro-player del CS, pero es que la sensación de "flotatividad" es insufrible. Al final, donde se pongan unos frames nativos y una buena tasa de refresco, que se quite toda la morralla de frames inventados.

Prefiero mil veces bajar settings a medio/bajo y tener un tiempo de respuesta decente que verle los pelos de la nariz al soldado pero disparar con medio segundo de retraso.

Ya en si el propio juego no ayuda demasiado, lo que juegan bf6 saben a lo que me refiero, netcode y derivados.


Tu hablas del frame generation no del dlss, no es lo mismo....
keverson303 escribió:Os cuento mi experiencia porque estoy de un calentamiento importante. He estado probando la 5070 con el Battlefield 6 he intentado darle una oportunidad al DLSS y mira, yo se los regalo.

Para jugar a un Stray o algo relajado en 4K mientras te comes unos doritos, pues vale, queda muy bonito. Pero para FPS competitivos... yo paso olímpicamente. En cuanto lo activas, te metes una latencia digna de jugar en consola con una tele de 2010.

Que no es que yo sea un sibarita de la vida ni un pro-player del CS, pero es que la sensación de "flotatividad" es insufrible. Al final, donde se pongan unos frames nativos y una buena tasa de refresco, que se quite toda la morralla de frames inventados.

Prefiero mil veces bajar settings a medio/bajo y tener un tiempo de respuesta decente que verle los pelos de la nariz al soldado pero disparar con medio segundo de retraso.

Ya en si el propio juego no ayuda demasiado, lo que juegan bf6 saben a lo que me refiero, netcode y derivados.

He pasado miles de horas jugando a shooters competitivos, el ultimo año a CS2, van mas de 600 en menos de 12 meses.
Asi que algo sabre, y alguna prueba que otr ahabre hecho.

Evidentemente si te lo tomas minimamente en serio quieres que el juego responda al milisegundo, es una idiotez usar dlss, fsr, fg... nada de eso por dios.

Este tipo de juegos lo que tienes que intentar es que los graficos se vean lo mejor posible que te de tu pc MANTENIENDO ROCOSAMENTE LOS FPS QUE TU MONITOR MUESTRE.

Rasterizado por favor, ninguna tecnología que añada NADA por muy buena que sea.
Graficos lo justo, en cada juego se priorizara una cosa, en algunos anularía todas las sombras, en otros dejaría solo las que me den ventaja competitiva.


El DLSS y el Frame Generation son la hostia, pero para Single Players, y dejan al FSR a la altura del betun por cierto, el que lo prueba lo ve.
El DLSS no añade latencia... de hecho la reduce y bastante, o sea que por temas de latencia eso de decir que no hay usarlo en competitivo tiene muy poco sentido, en todo caso podría ser un "problema" por algún artefacto o borrosidad en objetos lejanos, pero pienso que a fecha de hoy eso tampoco será un problema.

El FG en cambio si añade algo de latencia, pero vamos personalmente jugando singleplayers no he notado absolutamente nada, incluso tan frenéticos como DOOM DA, el cual jugando en su máxima dificultad con teclado +ratón y usando MFGx3 iba sencillamente PERFECTO, en competitivo serio no lo he comprobado pues hace mucho que no juego a ese tipo de juegos.


Pda: @ProfesorFrink dices :
"
MANTENIENDO ROCOSAMENTE LOS FPS QUE TU MONITOR MUESTRE
."

Pues precisamente lo que siempre se hace en competitivo es jugar a MUCHOS fps sin importar si coincide o no con el monitor, vamos todos los que puedas y más, pues aunque no vayas a ver más fps que los hz del monitor, SI tiene un impacto en la reducción de latencia y eso se nota en el manejo.
Jezebeth escribió:El DLSS no añade latencia... de hecho la reduce y bastante, o sea que por temas de latencia eso de decir que no hay usarlo en competitivo tiene muy poco sentido, en todo caso podría ser un "problema" por algún artefacto o borrosidad en objetos lejanos, pero pienso que a fecha de hoy eso tampoco será un problema.

El FG en cambio si añade algo de latencia, pero vamos personalmente jugando singleplayers no he notado absolutamente nada, incluso tan frenéticos como DOOM DA, el cual jugando en su máxima dificultad con teclado +ratón y usando MFGx3 iba sencillamente PERFECTO, en competitivo serio no lo he comprobado pues hace mucho que no juego a ese tipo de juegos.


Y volvemos a lo mismo de ayer. Justo ahora ando probando el mod que desbloquea el x3 y x4 en cualquier gráfica y da bastante información sobre el método de reescalado. Arriba a la izquierda se puede ver:

Imagen


En este caso es 4k balanceado preset M y marca una media de 2,68ms. Que por cierto, tras reescalado y añadir todos los fake frames el resultado final son 64ms (se ve arriba). Esto en un juego competitivo sería un suicidio.

EDIT: Por cierto, mis sospechas de ayer eran ciertas. Esto es el preset E y el tiempo de respuesta es de tan solo 0,72ms, y la latencia total es de 60ms. El input lag del DLSS se ha ido multiplicando conforme se ha ido actualizando y mejorando.

Imagen


@Rvilla87 Mira el EDIT que te lo comparo con una versión de DLSS antigua.
Strait escribió:
Jezebeth escribió:El DLSS no añade latencia... de hecho la reduce y bastante, o sea que por temas de latencia eso de decir que no hay usarlo en competitivo tiene muy poco sentido, en todo caso podría ser un "problema" por algún artefacto o borrosidad en objetos lejanos, pero pienso que a fecha de hoy eso tampoco será un problema.

El FG en cambio si añade algo de latencia, pero vamos personalmente jugando singleplayers no he notado absolutamente nada, incluso tan frenéticos como DOOM DA, el cual jugando en su máxima dificultad con teclado +ratón y usando MFGx3 iba sencillamente PERFECTO, en competitivo serio no lo he comprobado pues hace mucho que no juego a ese tipo de juegos.


Y volvemos a lo mismo de ayer. Justo ahora ando probando el mod que desbloquea el x3 y x4 en cualquier gráfica y da bastante información sobre el método de reescalado. Arriba a la izquierda se puede ver:

Imagen


En este caso es 4k balanceado preset M y marca una media de 2,68ms. Que por cierto, tras reescalado y añadir todos los fake frames el resultado final son 64ms (se ve arriba). Esto en un juego competitivo sería un suicidio.

Quita el DLSS y pon pantallazo sin el DLSS, que solo con 1 captura no demuestras nada.

Si quitas el DLSS debería bajar los fps de esos 107.6 de media a, por ejemplo 90 y el frametime de esos 9ms subiría a 11ms o así.

Pero vamos, si no te quedó claro el mensaje del otro día que lo explicaba perfectamente Hardware Unboxed que me molesté en transcribir lo que dijo, yo ya poco puedo hacer, cada uno es libre de creer lo que considere aunque medios profesionales que saben del tema digan lo contrario.

PD: Y por cierto, no sé qué quieres demostrar con el FG activado, o eso me ha parecido entender. Obviamente desactiva el FG que eso sí añade latencia y haz entonces la prueba.


PD2: No estamos hablando de la diferencia de rendimiento o latencia entre versiones de DLSS, estamos hablando de la latencia que añade el escalador de DLSS... que es NULA siempre y cuando ganes FPS.
Para demostrar, como quieres hacer, que el escalador de DLSS añade latencia, lo primero de todo que tienes que hacer es desactivar el FG poque eso sí añade latencia. Y una vez desactivado es hacer 1 captura SIN DLSS y luego otra con DLSS. Esa es la prueba correcta, no capturas con FG y/o comparando un preset u otro, nadie estaba hablando de eso cuando hablamos de latencia.
@Strait DLSS añade latencia pero a la vez la resta con lo cual el resultado es que la reduce, es sencillo de entender.

La ridícula cantidad añadida de latencia por activar DLSS se ve contrarrestada y por mucho con los fps que ganas, los cuales implican una reducción de latencia mucho mayor al añadida, o sea que lo dicho, el DLSS no añade latencia la REDUCE.

No entiendo que sigas con lo mismo... precisamente cuando ya te lo explicaron.
Jezebeth escribió:
Pda: @ProfesorFrink dices :
"
MANTENIENDO ROCOSAMENTE LOS FPS QUE TU MONITOR MUESTRE
."

Pues precisamente lo que siempre se hace en competitivo es jugar a MUCHOS fps sin importar si coincide o no con el monitor, vamos todos los que puedas y más, pues aunque no vayas a ver más fps que los hz del monitor, SI tiene un impacto en la reducción de latencia y eso se nota en el manejo.

Eso es tan de la vieja escuela que ya estaba desmentido en csgo pero bueno.

Que sepas que hoy en dia muchos profesionales están evaluando incluso el usar vsync acompañando al gsync/freesync (limita los fps a 1 o 2 menos que los del monitor) obteniendo muy buenos resultados.

Lo de deslimitar los fps pudo tener sentido en hardware de hace mas de una decada (tampoco era jugador competitivo en ese momento asi que no se si ayudaba) pero tengo claro que hoy en dia no.

Y lo pruebo, si cacharreo mas de la cuenta todas las opciones para quedarme la mejor, en breve puede que me lanze a los 300hz.

Lo del DLSS ahora mismo no estoy seguro, puede que tengas razon, en cs2 tampoco lo necesito. En fortnite hace años me pareció una mierda, pero igual ya va mejor.
Yo juego en 2 TVS OLED de 65" alternándolas con los 2 pcs , Sony A95L 4K 120Hz y Samsung S90C 4K 144Hz , mi configuración ideal es:

Vsync Forzado desde el panel de control Nvidia a activado

Gsync Activado en pantalla completa y ventana (aunque solo en completa me va igual)

Las Tvs no se el porqué me limitan los FPS automaticamente a 115 fps en el panel de 120Hz y 138 Fps en el panel de 144Hz
(así me evito el tener que limitar a 3/4 fps menos del limite como aconsejan)

Va todo suave sin tearing ni suttering

Por cierto ya he instalado la RTX 5080 y la verdad esta grafica tiene un poco de MAGIA , yo soy el primero que teniendo también una 4090 defendía la 4090 muy por encima, pero me he dado cuenta de que no es así, y obviando que solo tiene 16 gigas de Vram, en FPS puro y duro no está muy lejos de la 4090 (prácticamente con bajar el DLSS de calidad a equilibrado y bajar las sombras un punto saca los mismos FPS "mas o menos"

De temperatura como diría Chespirito es fresca como una lechuga, muy buena grafica vaya [beer]

EDITO: bueno he leido por ahi cosas del FG, inputlag y demas, yo no juego online competitivo , juego cientos de horas al año al online sin que me paguen jajajaj

Llevo jugando en televisores 4K ya hace mas de 1 década y he pasado por muchos ejemplos de inputlag, cuando 50 ms era un valor muy bueno, bajamos a 40 ms y flipabamos, luego salio la LG C8 creo con 20ms y ya fue el despelote y despues estos OLEDS modernos con 4 ms que quitan el hipo....y al Gears of war 1 de la xbox360 con mando , lag y un par de pelotas alla por 2005 acompañado de un plasma PAnasonic con el HUD quemado en el panel como está mandao!!! [beer]

El FG x2 es magia divina y la verdad que funciona acojonantemente bien.
ProfesorFrink escribió:
Jezebeth escribió:
Pda: @ProfesorFrink dices :
"
MANTENIENDO ROCOSAMENTE LOS FPS QUE TU MONITOR MUESTRE
."

Pues precisamente lo que siempre se hace en competitivo es jugar a MUCHOS fps sin importar si coincide o no con el monitor, vamos todos los que puedas y más, pues aunque no vayas a ver más fps que los hz del monitor, SI tiene un impacto en la reducción de latencia y eso se nota en el manejo.

Eso es tan de la vieja escuela que ya estaba desmentido en csgo pero bueno.

Que sepas que hoy en dia muchos profesionales están evaluando incluso el usar vsync acompañando al gsync/freesync (limita los fps a 1 o 2 menos que los del monitor) obteniendo muy buenos resultados.

Lo de deslimitar los fps pudo tener sentido en hardware de hace mas de una decada (tampoco era jugador competitivo en ese momento asi que no se si ayudaba) pero tengo claro que hoy en dia no.

Y lo pruebo, si cacharreo mas de la cuenta todas las opciones para quedarme la mejor, en breve puede que me lanze a los 300hz.

Lo del DLSS ahora mismo no estoy seguro, puede que tengas razon, en cs2 tampoco lo necesito. En fortnite hace años me pareció una mierda, pero igual ya va mejor.

Yo no diría vieja escuela. Los expertos en el tema son blursbusters y por lo que dicen apunta a lo que se lleva diciendo hace tiempo de vsync off y FPS al máximo: https://blurbusters.com/howto-low-lag-vsync-on/

Las mejores medidas se consiguen así según las pruebas:
Imagen

O aquí tenéis la de 60hz sin cambiar entre una y otra: https://blurbusters.com/wp-content/uplo ... s-60Hz.png

También recomiendan configuraciones a nivel de CPU o raton: https://blurbusters.com/gsync/gsync101- ... ttings/14/

Ahora, la diferencia en según qué casos es tan pequeña (por ejemplo el caso del modo 240hz) que si se quiere jugar sin tearing a costa de unos pocos ms de latencia, pues allá cada uno.
@Rvilla87 @Jezebeth Os he hecho caso y he hecho la prueba sin el MFG entre el DLSS con y sin, pero para no comparar una imagen 4k (sin DLSS) con la imagen con DLSS (2262x1272) lo he comprado entre la imagen con DLSS (Preset M equilibrado) vs 2560x1440 sin DLSS, que es la resolución más próxima por encima.

DLSS:
Imagen


2560x1440:
Imagen


Como veis la imagen sin DLSS pese a tener menos FPS tiene 2 ms menos de latencia. Si bajara a 2262x1272 quizás ganaría algún FPS más y bajaría 1 o 2 ms más.
Strait escribió:@Rvilla87 @Jezebeth Os he hecho caso y he hecho la prueba sin el MFG entre el DLSS con y sin, pero para no comparar una imagen 4k (sin DLSS) con la imagen con DLSS (2262x1272) lo he comprado entre la imagen con DLSS (Preset M equilibrado) vs 2560x1440 sin DLSS, que es la resolución más próxima por encima.

DLSS:
Imagen


2560x1440:
Imagen


Como veis la imagen sin DLSS pese a tener menos FPS tiene 2 ms menos de latencia. Si bajara a 2262x1272 quizás ganaría algún FPS más y bajaría 1 o 2 ms más.


Madre mia... de verdad que lo tuyo tiene delito eh xDDD, claro que 1440p vs 4k DLSS tiene algo más de latencia (ridicula por cierto tal y como ya te dije antes) la de 4k, esa comparación es absurda !!!, lo que debes de comparar es la latencia de 4k nativo vs 4k DLSS y ahi es donde compensa con creces y da MENOS latencia usar DLSS.

Cuando se habla de usar DLSS se habla de usar la MISMA resolución, nativa vs DLSS, por eso te explique antes que la latencia añadida por el DLSS se compensa y mucho porque ganas MUCHOS fps y eso baja la latencia mucho más de lo que ha subido por usar DLSS.

@Rvilla87 Cuanto más alta es la tasa de fps menos se percibe el tearing, no lo he probado pero vamos pienso que el tipico que juega a +400 fps no va a notar tearing en absoluto aunque su monitor no llegue a tanto.
Jezebeth escribió:
Strait escribió:@Rvilla87 @Jezebeth Os he hecho caso y he hecho la prueba sin el MFG entre el DLSS con y sin, pero para no comparar una imagen 4k (sin DLSS) con la imagen con DLSS (2262x1272) lo he comprado entre la imagen con DLSS (Preset M equilibrado) vs 2560x1440 sin DLSS, que es la resolución más próxima por encima.

DLSS:
Imagen


2560x1440:
Imagen


Como veis la imagen sin DLSS pese a tener menos FPS tiene 2 ms menos de latencia. Si bajara a 2262x1272 quizás ganaría algún FPS más y bajaría 1 o 2 ms más.


Madre mia... de verdad que lo tuyo tiene delito eh xDDD, claro que 1440p vs 4k DLSS tiene algo más de latencia (ridicula por cierto tal y como ya te dije antes) la de 4k, esa comparación es absurda !!!, lo que debes de comparar es la latencia de 4k nativo vs 4k DLSS y ahi es donde compensa con creces y da MENOS latencia usar DLSS.

Cuando se habla de usar DLSS se habla de usar la MISMA resolución, nativa vs DLSS, por eso te explique antes que la latencia añadida por el DLSS se compensa y mucho porque ganas MUCHOS fps y eso baja la latencia mucho más de lo que ha subido por usar DLSS.


Es que la imagen 4k DLSS no es una imagen 3840x2160. Es una imagen a 2262x1272 escalada a 3840x2160. He bajado la resolución a 1440p para comparar la imagen reescalada con DLSS vs la imagen reescalada por la GPU de forma simple. Si ves el tamaño de las 2 capturas ambas son 4k. Y he sido generoso con la comparación porque el DLSS parte incluso de menos resolución.

Lo que no tiene ningún sentido es comparar una imagen real 4k a 30fps con una imagen a 2262x1272 a 60fps. Obviamente que va a dar menos input lag la segunda opción ya que la primera opción está dibujando más de 8 millones de pixeles reales y la segunda opción está dibujando menos de 3 millones de pixeles. Si comparamos 2 métodos de reescalado (DLSS vs simple) hay que hacerlo en igualdad de condiciones.
Strait escribió:
Jezebeth escribió:
Strait escribió:@Rvilla87 @Jezebeth Os he hecho caso y he hecho la prueba sin el MFG entre el DLSS con y sin, pero para no comparar una imagen 4k (sin DLSS) con la imagen con DLSS (2262x1272) lo he comprado entre la imagen con DLSS (Preset M equilibrado) vs 2560x1440 sin DLSS, que es la resolución más próxima por encima.

DLSS:
Imagen


2560x1440:
Imagen


Como veis la imagen sin DLSS pese a tener menos FPS tiene 2 ms menos de latencia. Si bajara a 2262x1272 quizás ganaría algún FPS más y bajaría 1 o 2 ms más.


Madre mia... de verdad que lo tuyo tiene delito eh xDDD, claro que 1440p vs 4k DLSS tiene algo más de latencia (ridicula por cierto tal y como ya te dije antes) la de 4k, esa comparación es absurda !!!, lo que debes de comparar es la latencia de 4k nativo vs 4k DLSS y ahi es donde compensa con creces y da MENOS latencia usar DLSS.

Cuando se habla de usar DLSS se habla de usar la MISMA resolución, nativa vs DLSS, por eso te explique antes que la latencia añadida por el DLSS se compensa y mucho porque ganas MUCHOS fps y eso baja la latencia mucho más de lo que ha subido por usar DLSS.


Es que la imagen 4k DLSS no es una imagen 3840x2160. Es una imagen a 2262x1272 escalada a 3840x2160. He bajado la resolución a 1440p para comparar la imagen reescalada con DLSS vs la imagen reescalada por la GPU de forma simple. Si ves el tamaño de las 2 capturas ambas son 4k. Y he sido generoso con la comparación porque el DLSS parte incluso de menos resolución.

Lo que no tiene ningún sentido es comparar una imagen real 4k a 30fps con una imagen a 2262x1272 a 60fps. Obviamente que va a dar menos input lag la segunda opción ya que la primera opción está dibujando más de 8 millones de pixeles reales y la segunda opción está dibujando menos de 3 millones de pixeles. Si comparamos 2 métodos de reescalado (DLSS vs simple) hay que hacerlo en igualdad de condiciones.


Yo creo que mas sencillo no te lo puedo explicar... El ejemplo practico y real es comparar entre jugar a 4k nativo y 4k DLSS y tienes mucha menos latencia con la de DLSS, ya esta no hay más que rebuscar,

Es absurdo decir que DLSS añade latencia (que si es cierto, pero vuelvo a repetir es jodidamente ridícula) porque en su uso real vas a ganar muchos FPS y bajar latencia que el nativo y dar mucho mejor resultado que estirar la imagen sin más.
leonigsxr1000 escribió:Yo juego en 2 TVS OLED de 65" alternándolas con los 2 pcs , Sony A95L 4K 120Hz y Samsung S90C 4K 144Hz , mi configuración ideal es:

Vsync Forzado desde el panel de control Nvidia a activado

Gsync Activado en pantalla completa y ventana (aunque solo en completa me va igual)

Las Tvs no se el porqué me limitan los FPS automaticamente a 115 fps en el panel de 120Hz y 138 Fps en el panel de 144Hz
(así me evito el tener que limitar a 3/4 fps menos del limite como aconsejan)

Va todo suave sin tearing ni suttering

Por cierto ya he instalado la RTX 5080 y la verdad esta grafica tiene un poco de MAGIA , yo soy el primero que teniendo también una 4090 defendía la 4090 muy por encima, pero me he dado cuenta de que no es así, y obviando que solo tiene 16 gigas de Vram, en FPS puro y duro no está muy lejos de la 4090 (prácticamente con bajar el DLSS de calidad a equilibrado y bajar las sombras un punto saca los mismos FPS "mas o menos"

De temperatura como diría Chespirito es fresca como una lechuga, muy buena grafica vaya [beer]

EDITO: bueno he leido por ahi cosas del FG, inputlag y demas, yo no juego online competitivo , juego cientos de horas al año al online sin que me paguen jajajaj

Llevo jugando en televisores 4K ya hace mas de 1 década y he pasado por muchos ejemplos de inputlag, cuando 50 ms era un valor muy bueno, bajamos a 40 ms y flipabamos, luego salio la LG C8 creo con 20ms y ya fue el despelote y despues estos OLEDS modernos con 4 ms que quitan el hipo....y al Gears of war 1 de la xbox360 con mando , lag y un par de pelotas alla por 2005 acompañado de un plasma PAnasonic con el HUD quemado en el panel como está mandao!!! [beer]

El FG x2 es magia divina y la verdad que funciona acojonantemente bien.


Hay dos casos en lo que los fps se limitan 3/4 fps menos de forma automática para no llegar a máximo de los hz de la pantalla para que no salte el vsync y añada latencia.
Activar Nvidia reflex en el juego.
Activar gsync+vsync+modo latencia en ultra

Si el el juego tiene nvidia Reflex es más efectivo que gsync+vsync+modo baja latencia ultra
sirodyn escribió:
leonigsxr1000 escribió:Yo juego en 2 TVS OLED de 65" alternándolas con los 2 pcs , Sony A95L 4K 120Hz y Samsung S90C 4K 144Hz , mi configuración ideal es:

Vsync Forzado desde el panel de control Nvidia a activado

Gsync Activado en pantalla completa y ventana (aunque solo en completa me va igual)

Las Tvs no se el porqué me limitan los FPS automaticamente a 115 fps en el panel de 120Hz y 138 Fps en el panel de 144Hz
(así me evito el tener que limitar a 3/4 fps menos del limite como aconsejan)

Va todo suave sin tearing ni suttering

Por cierto ya he instalado la RTX 5080 y la verdad esta grafica tiene un poco de MAGIA , yo soy el primero que teniendo también una 4090 defendía la 4090 muy por encima, pero me he dado cuenta de que no es así, y obviando que solo tiene 16 gigas de Vram, en FPS puro y duro no está muy lejos de la 4090 (prácticamente con bajar el DLSS de calidad a equilibrado y bajar las sombras un punto saca los mismos FPS "mas o menos"

De temperatura como diría Chespirito es fresca como una lechuga, muy buena grafica vaya [beer]

EDITO: bueno he leido por ahi cosas del FG, inputlag y demas, yo no juego online competitivo , juego cientos de horas al año al online sin que me paguen jajajaj

Llevo jugando en televisores 4K ya hace mas de 1 década y he pasado por muchos ejemplos de inputlag, cuando 50 ms era un valor muy bueno, bajamos a 40 ms y flipabamos, luego salio la LG C8 creo con 20ms y ya fue el despelote y despues estos OLEDS modernos con 4 ms que quitan el hipo....y al Gears of war 1 de la xbox360 con mando , lag y un par de pelotas alla por 2005 acompañado de un plasma PAnasonic con el HUD quemado en el panel como está mandao!!! [beer]

El FG x2 es magia divina y la verdad que funciona acojonantemente bien.


Hay dos casos en lo que los fps se limitan 3/4 fps menos de forma automática para no llegar a máximo de los hz de la pantalla para que no salte el vsync y añada latencia.
Activar Nvidia reflex en el juego.
Activar gsync+vsync+modo latencia en ultra

Si el el juego tiene nvidia Reflex es más efectivo que gsync+vsync+modo baja latencia ultra

Gracias majo por la información:)
En mi caso al poner gsync la tv los capa automáticamente:)
Soy usuario de una RTX 5080 Windforce OC y un monitor XG32UCWMG de Asus.

En juegos con el HDR disponible tengo muchas veces dudas de cómo ajustarlo bien.

En el caso particular de Battlefield 6.. ¿sabéis si con activar esa opción y ponerlo en el valor máximo dentro del menú del juego además de configurar el HDR Gaming en el monitor con los ajustes también al tope en cuanto a brillo se consigue un HDR óptimo?

No encuentro vídeos donde expliquen bien cómo configurar ese valor bien para este monitor u otros con uso de HDR.

Lo pregunto en este hilo ya que tal vez hay que tocar algo en el panel de control de NVIDIA.

EDITO: Después de buscar info por foros y tal se ve que en HDR hace si tienes el brillo en el monitor por encima del 80 parpadeos cuando hay luces muy intensas.

https://www.reddit.com/r/OLED_Gaming/co ... ?tl=es-419

Mi conclusión es.. o jugar con esa limitación (del 80 al 90 se nota mucho ese extra de brillo pero hay esos parpadeos) o jugar en SDR y olvidarse de esos problemas. Lo que es cierto es que en SDR lo veo todo mucho mas colorido y mas plano en general (se ve de lujo pero el HDR debería ser mejor entiendo).

Salu2
Inmortal Joe escribió:Soy usuario de una RTX 5080 Windforce OC y un monitor XG32UCWMG de Asus.

En juegos con el HDR disponible tengo muchas veces dudas de cómo ajustarlo bien.

En el caso particular de Battlefield 6.. ¿sabéis si con activar esa opción y ponerlo en el valor máximo dentro del menú del juego además de configurar el HDR Gaming en el monitor con los ajustes también al tope en cuanto a brillo se consigue un HDR óptimo?

No encuentro vídeos donde expliquen bien cómo configurar ese valor bien para este monitor u otros con uso de HDR.

Lo pregunto en este hilo ya que tal vez hay que tocar algo en el panel de control de NVIDIA.

EDITO: Después de buscar info por foros y tal se ve que en HDR hace si tienes el brillo en el monitor por encima del 80 parpadeos cuando hay luces muy intensas.

https://www.reddit.com/r/OLED_Gaming/co ... ?tl=es-419

Mi conclusión es.. o jugar con esa limitación (del 80 al 90 se nota mucho ese extra de brillo pero hay esos parpadeos) o jugar en SDR y olvidarse de esos problemas. Lo que es cierto es que en SDR lo veo todo mucho mas colorido y mas plano en general (se ve de lujo pero el HDR debería ser mejor entiendo).

Salu2


Yo el HDR de mi TV lo configuré a través de los menús de ajustes de Windows 11 (no recuerdo exactamente donde pero se encuentra fácil). Cuando encuentres el apartado de configurar el HDR te manda directamente a la store de Microsoft y te bajas un calibrador de HDR que una vez sigas los pasos (típico de subir/bajar unas barras hasta que dejes de ver los logos) te genera un perfil que luego cargas en las opciones de ajustes de Windows.
Mira por YouTube si hay algún vídeo de tu modelo de monitor en concreto por si tienes que tocar algún ajuste del menú del monitor.
Prueba a ver si así mejora.
Yo me pregunto pa cuando el Reflex2. Si ya esta dando que ver el, "Inventa frames", no veas el "Inventa donde vá estar, frame".

Y lo digo como un exanti Fg
Ahora salvo competitivo o muy pasado de fps pongo el x2 siempre. El x3 lo acepto y el x4 empiezo a ver cosas pero puede pasar.

Jodida magia negra y con el dlls 4.5 perfil m, aún más.
Strait escribió:Es que la imagen 4k DLSS no es una imagen 3840x2160. Es una imagen a 2262x1272 escalada a 3840x2160. He bajado la resolución a 1440p para comparar la imagen reescalada con DLSS vs la imagen reescalada por la GPU de forma simple. Si ves el tamaño de las 2 capturas ambas son 4k. Y he sido generoso con la comparación porque el DLSS parte incluso de menos resolución.

Hombre decir que has sido generoso por esos 40x19 píxeles que le has ahorrado... cuidado no te vayan a descuadrar las pruebas [looco]

Strait escribió:Lo que no tiene ningún sentido es comparar una imagen real 4k a 30fps con una imagen a 2262x1272 a 60fps.

Precisamente es la gracia del DLSS, ganar fps mientras mantiene una calidad casi inapreciable si no mejor a simple vista, ¿cómo no va a tener sentido el uso fundamental de esa tecnología? :-?

Lo que no tiene sentido es usar el DLSS de esa forma tan rara como lo estás haciendo, por el simple motivo (parece) de querernos hacer ver que tenías razón al decir que DLSS añade latencia cuando su escalador, lejos de añadirla, la reduce. Justo es lo que comentaba Hardware Unboxed al final de su video (en el que incluía muchas pruebas, no solo 1), que en la mayoría de casos de uso realistas el DLSS va a reducir la latencia y no la aumenta como tu afirmas. ¿Es que no te enteraste de lo que dijeron ellos o yo en mi respuesta del otro día? hilo_ho-nvidia-geforce-rtx-5000_2507243_s19750#p1756503786

Por lo que sea has preferido ignorar lo que dicen, y lo que es mas gracioso, ¿es que acaso pretendes desmentir lo que afirman y todo lo que demostraron y probaron con 1 sola prueba tuya? ¬_¬

Strait escribió:Obviamente que va a dar menos input lag la segunda opción ya que la primera opción está dibujando más de 8 millones de pixeles reales y la segunda opción está dibujando menos de 3 millones de pixeles. Si comparamos 2 métodos de reescalado (DLSS vs simple) hay que hacerlo en igualdad de condiciones.

En igualdad de condiciones dices... estás de cachondeo, no?

¿Te has fijado la peor calidad visual del escalado simple que dices con esos 1440p nativos sin DLSS y cómo lo hace mucho mejor el DLSS? Y encima ganando fps... por 2ms de latencia que tiene truco porque puede ir variando como luego explicaré.
Imagen

Precisamente la gracia del DLSS es la calidad de su escalado. Si no le sacas provecho te cargas toda la gracia de la prueba. Si no te importa la calidad gráfica, como demuestras con esa prueba de uso irreal del DLSS, ya que estás ponlo en ultrarendimiento que quizás se ve mejor que esos 1440p nativos gracias a la magia del DLSS y ganarás mas FPS así como reducirás la latencia.

No compares píxeles en nativo vs píxeles origen con DLSS como si fueran lo mismo, para nada son comparables. Fíjate esa calidad penosa (comparativamente hablando) de los mismos píxeles en origen y fíjate cómo DLSS hace magia y lo otro es una mierda como un templo. ¿Qué será lo siguiente? ¿Decir que vas a jugar en modo ventana a 720p porque no quieres DLSS ya que te añade latencia? Ya es lo que te faltaba por decir.


Pero vamos, que visto que pasas de lo que dice Hardware Unboxed u otros medios profesionales y le das mas valor a tu prueba (aunque no tenga sentido alguno, y los mismos de Hardware Unboxed lo explican con lo del uso real), voy a jugar a tu juego de querer demostrarlo con una prueba nuestra.

Mi prueba incluye un caso de uso real como lo que decimos y también una de otro un uso irreal como el que tú haces con el DLSS (no es un uso real, pero tú verás cómo quieres demostrar las cosas).

Tengo reflex desactivado y las diferencias con DLSS son tan evidentes que aquí da igual la pequeña variación de latencia o fps que pueda haber del momento justo de hacer la captura, que incluso se puede ver cómo el 4k DLSS calidad aún teniendo menos FPS que 1440p nativo tiene menor latencia:

4k sin DLSS - 39 fps, 118,5 ms latencia:
Imagen

4k con DLSS calidad - 82 fps, 54,8 ms latencia:
Imagen

1440p sin DLSS - 88 fps, 63,5 ms latencia:
Imagen

Y como dato adicional, en unas primeras pruebas me daba valores muy bajo de latencia que me parecieron raro, y resulta que es que en el panel de control de Nvidia tenía activada la opción opción "Low Latency Mode" en "Ultra" y veía que la latencia no cambiaba al activar o desactivar el Reflex en el menú de Cyberpunk 2077. Pues incluso estas pruebas tienen un resultado similar (a nivel comparativo) y se nota que DLSS mejora la latencia:

4k sin DLSS - 40 fps, 49,8 ms latencia:
Imagen

4k con DLSS calidad - 84 fps, 26,9 ms latencia:
Imagen

1440p sin DLSS - 89 fps, 37,9 ms latencia:
Imagen


Para que veas, incluso DLSS calidad teniendo menos fps que la resolución desde la que escala (1440p si la salida es 4k) consigue menos latencia. Para que encima digas que DLSS añade latencia así de forma general [facepalm]
Tampoco pretendo hacer lo que tú, yo no voy a decir que porque haya hecho esta prueba el DLSS no añade latencia, me baso en Hardware Unboxed u otros medios profesionales que saben del tema y lo demuestran con numerosas pruebas.

Y por último respecto a tu prueba hay unas cuantas cosas a tener en cuenta:

    - Con esa diferencia tan pequeña de FPS necesitaríamos saber el valor medio de latencia y no un valor puntual ya que puede dar a engaño. En una de mis pruebas incluso estando a unos 83-84 fps con una latencia que suele estar a unos 27 ms, puntualmente variaba por arriba o por debajo con una diferencia de más de 5ms... es decir, podía haber un total de 10ms de diferencia fácilmente entre el peor y mejor caso (y todo esto manteniendo esos 83-84 fps).
    Ya recortaste la prueba de Hardware Unboxed para que no se vea la info que no te interesaba, perfectamente ahora podrías coger el valor que te interese para demostrar tu teoría.. Tengo el Miles Morales que podría probarlo pero paso de perder tiempo instalándolo teniendo otros juegos para probar cuando tiene toda la pinta que simplemente no te da la gana no reconocer que no estuviste acertado con tu afirmación de que el DLSS añade latencia.
    Que encima surrealista me parece que dijeras que precisamente no es poca la latencia que añadía como si fuera algo notable y lo estás intentando demostrar con solo 2ms de un total de casi 40ms ¬_¬ ... si ya era absurda la afirmación a nivel general encima eso de "no poca" es otro nivel increíble).

    - Además tenemos que suponer que la CPU no te hace cuello de botella (justamente Spiderman es un caso conocido de juego bastante exigente a nivel de CPU), pero tampoco muestras esos datos. Si fuera el caso esa prueba todavía tendría menos sentido (ya lo explicó Hardware Unboxed con los juegos CPU dependientes).

    - Por mucho que tu prueba fuera perfecta (aún usando el DLSS sin sentido alguno, pero lo vamos a ignorar para este supuesto), pongamos que en Miles Morales el DLSS añade latencia... y? ¿Crees que eso desmonta todo lo analizado por Hardware Unboxed u otros medios? ¿Has encontrado algún artículo que demuestre que en muchos juegos el DLSS añade latencia? Porque supongo que de haberlo encontrado lo hubieras dicho para corroborar tu afirmación.
La latencia que genera el dlss super resolución es imperceptible para los humanos , la latencia que genera el frame generation si es notable depende de los fps base pero de lo que no hay duda es que es mejor jugar a 70 fps con una latencia un poco mejor que a 40 fps con reflex que jugar a 40 fps pero yo intento siempre tener una base de 60fps para aplicar el frame generation , y si nos ponemos tikismikis con la latencia todo en un pc genera latencia desde el mando , teclado ratón , la pantalla el SO , el renderizado y fuera del pc hasta el ojo humano genera latencia desde que el ojo ve la imagen hasta que el cerebro la procesa no es instantáneo existe una latencia , y la luz de la pantalla hasta que llega a los ojos también genera latencia , la velocidad de la luz no es instantanea [plas] , de todas formas cuando se compara el nativo con el dlss se hace de la siguiente manera un juego a 4k nativo va a 30fps pongamos de ejemplo con una latencia muy alta cuando activas dlss se renderiza a una resolución inferior como 1080p con dlss rendimiento pero mediante IA se reescala para parecerse lo máximo posible a la resolución nativa 4k , con esta técnica se consiguen tres cosas reducir mucho la latencia , subir mucho los fps (a mayor fps menor latencia) y que sea indistinguible o casi de la resolución nativa.
No sé para qué quieren sacar multiframe generation x6. No tiene sentido.

El x2 funciona de maravilla pero a partir del x3 ya se empiezan a apreciar cosas raras. No me quiero imaginar el x6.
usuariopc escribió:No sé para qué quieren sacar multiframe generation x6. No tiene sentido.

El x2 funciona de maravilla pero a partir del x3 ya se empiezan a apreciar cosas raras. No me quiero imaginar el x6.


Yo he usado el x3 en dos juegos :

Cyberpunk : con todo al máximo incluido path tracing en 1440p DLSS P con una 5060 ti 16gb, partiendo de una tasa fps nativa "baja", unos 45-50 fps para alcanzar los 120-130 fps, si me ponia adrede a buscar algo pues algo encontraba, como algún parpadeo en algún icono lejano, o algo de ghosting en la carretera yendo a toda ostia, pero como digo fijandote adrede a buscar el fallo, jugando normal no notabas nada y desde luego merece mucho la pena jugar así, latencia inapreciable (jugando con teclado y raton) y como digo se veia de la ostia sin notar nada raro.

Doom DA : En este partía de 60 +/- para jugar a 120 fps (capados) y sencillamente PERFECTO, ni buscando el fallo lo encontrabas, jugado al máximo de dificultad y por supuesto teclado+ratón.

Ese futuro x6 habrá que ver en que condiciones funciona pero seguramente bien configurado y usandolo con cabeza pueda dar buen resultado, también se mete mucho hate sobre el x3 y x4 y yo al menos lo que he probado es muy positivo.

Pda: También estoy jugando ahora al Space Marine 2 y el x3 va de lujo.
usuariopc escribió:No sé para qué quieren sacar multiframe generation x6. No tiene sentido.

El x2 funciona de maravilla pero a partir del x3 ya se empiezan a apreciar cosas raras. No me quiero imaginar el x6.


Es una locura pero viene muy bien para reducir carga de la CPU. En mi caso tengo una CPU justita a día de hoy y para juegos como Hogwarts Legacy se queda corta. Sin FG, con el x2 y x3 el stuttering es insoportable. Con el x4 la carga de la CPU baja considerablemente y deja de hacer cuello de botella, haciendo que el juego vaya bastante más fluido. Con el x6 seguramente vaya perfecto. No lo usaría en más situaciones que juegos muy limitados por CPU o juegos capados de FPS.
19832 respuestas
1393, 394, 395, 396, 397