Hildr escribió:@ziu Y que tal el input lag?
Hildr escribió:@ziu Y que tal el input lag?
Torru85 escribió:Edit.El input lag se hace notar mas en teclado y ratón que si juegas en pad.
Mira el DLSS 4.5, la serie 2000 y 3000 se ahogan con ese DLSS.
keverson303 escribió:Os cuento mi experiencia porque estoy de un calentamiento importante. He estado probando la 5070 con el Battlefield 6 he intentado darle una oportunidad al DLSS y mira, yo se los regalo.
Para jugar a un Stray o algo relajado en 4K mientras te comes unos doritos, pues vale, queda muy bonito. Pero para FPS competitivos... yo paso olímpicamente. En cuanto lo activas, te metes una latencia digna de jugar en consola con una tele de 2010.
Que no es que yo sea un sibarita de la vida ni un pro-player del CS, pero es que la sensación de "flotatividad" es insufrible. Al final, donde se pongan unos frames nativos y una buena tasa de refresco, que se quite toda la morralla de frames inventados.
Prefiero mil veces bajar settings a medio/bajo y tener un tiempo de respuesta decente que verle los pelos de la nariz al soldado pero disparar con medio segundo de retraso.
Ya en si el propio juego no ayuda demasiado, lo que juegan bf6 saben a lo que me refiero, netcode y derivados.
keverson303 escribió:Os cuento mi experiencia porque estoy de un calentamiento importante. He estado probando la 5070 con el Battlefield 6 he intentado darle una oportunidad al DLSS y mira, yo se los regalo.
Para jugar a un Stray o algo relajado en 4K mientras te comes unos doritos, pues vale, queda muy bonito. Pero para FPS competitivos... yo paso olímpicamente. En cuanto lo activas, te metes una latencia digna de jugar en consola con una tele de 2010.
Que no es que yo sea un sibarita de la vida ni un pro-player del CS, pero es que la sensación de "flotatividad" es insufrible. Al final, donde se pongan unos frames nativos y una buena tasa de refresco, que se quite toda la morralla de frames inventados.
Prefiero mil veces bajar settings a medio/bajo y tener un tiempo de respuesta decente que verle los pelos de la nariz al soldado pero disparar con medio segundo de retraso.
Ya en si el propio juego no ayuda demasiado, lo que juegan bf6 saben a lo que me refiero, netcode y derivados.
."MANTENIENDO ROCOSAMENTE LOS FPS QUE TU MONITOR MUESTRE
Jezebeth escribió:El DLSS no añade latencia... de hecho la reduce y bastante, o sea que por temas de latencia eso de decir que no hay usarlo en competitivo tiene muy poco sentido, en todo caso podría ser un "problema" por algún artefacto o borrosidad en objetos lejanos, pero pienso que a fecha de hoy eso tampoco será un problema.
El FG en cambio si añade algo de latencia, pero vamos personalmente jugando singleplayers no he notado absolutamente nada, incluso tan frenéticos como DOOM DA, el cual jugando en su máxima dificultad con teclado +ratón y usando MFGx3 iba sencillamente PERFECTO, en competitivo serio no lo he comprobado pues hace mucho que no juego a ese tipo de juegos.
Strait escribió:Jezebeth escribió:El DLSS no añade latencia... de hecho la reduce y bastante, o sea que por temas de latencia eso de decir que no hay usarlo en competitivo tiene muy poco sentido, en todo caso podría ser un "problema" por algún artefacto o borrosidad en objetos lejanos, pero pienso que a fecha de hoy eso tampoco será un problema.
El FG en cambio si añade algo de latencia, pero vamos personalmente jugando singleplayers no he notado absolutamente nada, incluso tan frenéticos como DOOM DA, el cual jugando en su máxima dificultad con teclado +ratón y usando MFGx3 iba sencillamente PERFECTO, en competitivo serio no lo he comprobado pues hace mucho que no juego a ese tipo de juegos.
Y volvemos a lo mismo de ayer. Justo ahora ando probando el mod que desbloquea el x3 y x4 en cualquier gráfica y da bastante información sobre el método de reescalado. Arriba a la izquierda se puede ver:
En este caso es 4k balanceado preset M y marca una media de 2,68ms. Que por cierto, tras reescalado y añadir todos los fake frames el resultado final son 64ms (se ve arriba). Esto en un juego competitivo sería un suicidio.
Jezebeth escribió:
Pda: @ProfesorFrink dices :
"."MANTENIENDO ROCOSAMENTE LOS FPS QUE TU MONITOR MUESTRE
Pues precisamente lo que siempre se hace en competitivo es jugar a MUCHOS fps sin importar si coincide o no con el monitor, vamos todos los que puedas y más, pues aunque no vayas a ver más fps que los hz del monitor, SI tiene un impacto en la reducción de latencia y eso se nota en el manejo.
![brindis [beer]](/images/smilies/nuevos2/brindando.gif)
ProfesorFrink escribió:Jezebeth escribió:
Pda: @ProfesorFrink dices :
"."MANTENIENDO ROCOSAMENTE LOS FPS QUE TU MONITOR MUESTRE
Pues precisamente lo que siempre se hace en competitivo es jugar a MUCHOS fps sin importar si coincide o no con el monitor, vamos todos los que puedas y más, pues aunque no vayas a ver más fps que los hz del monitor, SI tiene un impacto en la reducción de latencia y eso se nota en el manejo.
Eso es tan de la vieja escuela que ya estaba desmentido en csgo pero bueno.
Que sepas que hoy en dia muchos profesionales están evaluando incluso el usar vsync acompañando al gsync/freesync (limita los fps a 1 o 2 menos que los del monitor) obteniendo muy buenos resultados.
Lo de deslimitar los fps pudo tener sentido en hardware de hace mas de una decada (tampoco era jugador competitivo en ese momento asi que no se si ayudaba) pero tengo claro que hoy en dia no.
Y lo pruebo, si cacharreo mas de la cuenta todas las opciones para quedarme la mejor, en breve puede que me lanze a los 300hz.
Lo del DLSS ahora mismo no estoy seguro, puede que tengas razon, en cs2 tampoco lo necesito. En fortnite hace años me pareció una mierda, pero igual ya va mejor.
Strait escribió:@Rvilla87 @Jezebeth Os he hecho caso y he hecho la prueba sin el MFG entre el DLSS con y sin, pero para no comparar una imagen 4k (sin DLSS) con la imagen con DLSS (2262x1272) lo he comprado entre la imagen con DLSS (Preset M equilibrado) vs 2560x1440 sin DLSS, que es la resolución más próxima por encima.
DLSS:
2560x1440:
Como veis la imagen sin DLSS pese a tener menos FPS tiene 2 ms menos de latencia. Si bajara a 2262x1272 quizás ganaría algún FPS más y bajaría 1 o 2 ms más.
Jezebeth escribió:Strait escribió:@Rvilla87 @Jezebeth Os he hecho caso y he hecho la prueba sin el MFG entre el DLSS con y sin, pero para no comparar una imagen 4k (sin DLSS) con la imagen con DLSS (2262x1272) lo he comprado entre la imagen con DLSS (Preset M equilibrado) vs 2560x1440 sin DLSS, que es la resolución más próxima por encima.
DLSS:
2560x1440:
Como veis la imagen sin DLSS pese a tener menos FPS tiene 2 ms menos de latencia. Si bajara a 2262x1272 quizás ganaría algún FPS más y bajaría 1 o 2 ms más.
Madre mia... de verdad que lo tuyo tiene delito eh xDDD, claro que 1440p vs 4k DLSS tiene algo más de latencia (ridicula por cierto tal y como ya te dije antes) la de 4k, esa comparación es absurda !!!, lo que debes de comparar es la latencia de 4k nativo vs 4k DLSS y ahi es donde compensa con creces y da MENOS latencia usar DLSS.
Cuando se habla de usar DLSS se habla de usar la MISMA resolución, nativa vs DLSS, por eso te explique antes que la latencia añadida por el DLSS se compensa y mucho porque ganas MUCHOS fps y eso baja la latencia mucho más de lo que ha subido por usar DLSS.
Strait escribió:Jezebeth escribió:Strait escribió:@Rvilla87 @Jezebeth Os he hecho caso y he hecho la prueba sin el MFG entre el DLSS con y sin, pero para no comparar una imagen 4k (sin DLSS) con la imagen con DLSS (2262x1272) lo he comprado entre la imagen con DLSS (Preset M equilibrado) vs 2560x1440 sin DLSS, que es la resolución más próxima por encima.
DLSS:
2560x1440:
Como veis la imagen sin DLSS pese a tener menos FPS tiene 2 ms menos de latencia. Si bajara a 2262x1272 quizás ganaría algún FPS más y bajaría 1 o 2 ms más.
Madre mia... de verdad que lo tuyo tiene delito eh xDDD, claro que 1440p vs 4k DLSS tiene algo más de latencia (ridicula por cierto tal y como ya te dije antes) la de 4k, esa comparación es absurda !!!, lo que debes de comparar es la latencia de 4k nativo vs 4k DLSS y ahi es donde compensa con creces y da MENOS latencia usar DLSS.
Cuando se habla de usar DLSS se habla de usar la MISMA resolución, nativa vs DLSS, por eso te explique antes que la latencia añadida por el DLSS se compensa y mucho porque ganas MUCHOS fps y eso baja la latencia mucho más de lo que ha subido por usar DLSS.
Es que la imagen 4k DLSS no es una imagen 3840x2160. Es una imagen a 2262x1272 escalada a 3840x2160. He bajado la resolución a 1440p para comparar la imagen reescalada con DLSS vs la imagen reescalada por la GPU de forma simple. Si ves el tamaño de las 2 capturas ambas son 4k. Y he sido generoso con la comparación porque el DLSS parte incluso de menos resolución.
Lo que no tiene ningún sentido es comparar una imagen real 4k a 30fps con una imagen a 2262x1272 a 60fps. Obviamente que va a dar menos input lag la segunda opción ya que la primera opción está dibujando más de 8 millones de pixeles reales y la segunda opción está dibujando menos de 3 millones de pixeles. Si comparamos 2 métodos de reescalado (DLSS vs simple) hay que hacerlo en igualdad de condiciones.
leonigsxr1000 escribió:Yo juego en 2 TVS OLED de 65" alternándolas con los 2 pcs , Sony A95L 4K 120Hz y Samsung S90C 4K 144Hz , mi configuración ideal es:
Vsync Forzado desde el panel de control Nvidia a activado
Gsync Activado en pantalla completa y ventana (aunque solo en completa me va igual)
Las Tvs no se el porqué me limitan los FPS automaticamente a 115 fps en el panel de 120Hz y 138 Fps en el panel de 144Hz
(así me evito el tener que limitar a 3/4 fps menos del limite como aconsejan)
Va todo suave sin tearing ni suttering
Por cierto ya he instalado la RTX 5080 y la verdad esta grafica tiene un poco de MAGIA , yo soy el primero que teniendo también una 4090 defendía la 4090 muy por encima, pero me he dado cuenta de que no es así, y obviando que solo tiene 16 gigas de Vram, en FPS puro y duro no está muy lejos de la 4090 (prácticamente con bajar el DLSS de calidad a equilibrado y bajar las sombras un punto saca los mismos FPS "mas o menos"
De temperatura como diría Chespirito es fresca como una lechuga, muy buena grafica vaya
EDITO: bueno he leido por ahi cosas del FG, inputlag y demas, yo no juego online competitivo , juego cientos de horas al año al online sin que me paguen jajajaj
Llevo jugando en televisores 4K ya hace mas de 1 década y he pasado por muchos ejemplos de inputlag, cuando 50 ms era un valor muy bueno, bajamos a 40 ms y flipabamos, luego salio la LG C8 creo con 20ms y ya fue el despelote y despues estos OLEDS modernos con 4 ms que quitan el hipo....y al Gears of war 1 de la xbox360 con mando , lag y un par de pelotas alla por 2005 acompañado de un plasma PAnasonic con el HUD quemado en el panel como está mandao!!!![]()
El FG x2 es magia divina y la verdad que funciona acojonantemente bien.
sirodyn escribió:leonigsxr1000 escribió:Yo juego en 2 TVS OLED de 65" alternándolas con los 2 pcs , Sony A95L 4K 120Hz y Samsung S90C 4K 144Hz , mi configuración ideal es:
Vsync Forzado desde el panel de control Nvidia a activado
Gsync Activado en pantalla completa y ventana (aunque solo en completa me va igual)
Las Tvs no se el porqué me limitan los FPS automaticamente a 115 fps en el panel de 120Hz y 138 Fps en el panel de 144Hz
(así me evito el tener que limitar a 3/4 fps menos del limite como aconsejan)
Va todo suave sin tearing ni suttering
Por cierto ya he instalado la RTX 5080 y la verdad esta grafica tiene un poco de MAGIA , yo soy el primero que teniendo también una 4090 defendía la 4090 muy por encima, pero me he dado cuenta de que no es así, y obviando que solo tiene 16 gigas de Vram, en FPS puro y duro no está muy lejos de la 4090 (prácticamente con bajar el DLSS de calidad a equilibrado y bajar las sombras un punto saca los mismos FPS "mas o menos"
De temperatura como diría Chespirito es fresca como una lechuga, muy buena grafica vaya
EDITO: bueno he leido por ahi cosas del FG, inputlag y demas, yo no juego online competitivo , juego cientos de horas al año al online sin que me paguen jajajaj
Llevo jugando en televisores 4K ya hace mas de 1 década y he pasado por muchos ejemplos de inputlag, cuando 50 ms era un valor muy bueno, bajamos a 40 ms y flipabamos, luego salio la LG C8 creo con 20ms y ya fue el despelote y despues estos OLEDS modernos con 4 ms que quitan el hipo....y al Gears of war 1 de la xbox360 con mando , lag y un par de pelotas alla por 2005 acompañado de un plasma PAnasonic con el HUD quemado en el panel como está mandao!!!![]()
El FG x2 es magia divina y la verdad que funciona acojonantemente bien.
Hay dos casos en lo que los fps se limitan 3/4 fps menos de forma automática para no llegar a máximo de los hz de la pantalla para que no salte el vsync y añada latencia.
Activar Nvidia reflex en el juego.
Activar gsync+vsync+modo latencia en ultra
Si el el juego tiene nvidia Reflex es más efectivo que gsync+vsync+modo baja latencia ultra
Inmortal Joe escribió:Soy usuario de una RTX 5080 Windforce OC y un monitor XG32UCWMG de Asus.
En juegos con el HDR disponible tengo muchas veces dudas de cómo ajustarlo bien.
En el caso particular de Battlefield 6.. ¿sabéis si con activar esa opción y ponerlo en el valor máximo dentro del menú del juego además de configurar el HDR Gaming en el monitor con los ajustes también al tope en cuanto a brillo se consigue un HDR óptimo?
No encuentro vídeos donde expliquen bien cómo configurar ese valor bien para este monitor u otros con uso de HDR.
Lo pregunto en este hilo ya que tal vez hay que tocar algo en el panel de control de NVIDIA.
EDITO: Después de buscar info por foros y tal se ve que en HDR hace si tienes el brillo en el monitor por encima del 80 parpadeos cuando hay luces muy intensas.
https://www.reddit.com/r/OLED_Gaming/co ... ?tl=es-419
Mi conclusión es.. o jugar con esa limitación (del 80 al 90 se nota mucho ese extra de brillo pero hay esos parpadeos) o jugar en SDR y olvidarse de esos problemas. Lo que es cierto es que en SDR lo veo todo mucho mas colorido y mas plano en general (se ve de lujo pero el HDR debería ser mejor entiendo).
Salu2
Strait escribió:Es que la imagen 4k DLSS no es una imagen 3840x2160. Es una imagen a 2262x1272 escalada a 3840x2160. He bajado la resolución a 1440p para comparar la imagen reescalada con DLSS vs la imagen reescalada por la GPU de forma simple. Si ves el tamaño de las 2 capturas ambas son 4k. Y he sido generoso con la comparación porque el DLSS parte incluso de menos resolución.
Strait escribió:Lo que no tiene ningún sentido es comparar una imagen real 4k a 30fps con una imagen a 2262x1272 a 60fps.
Strait escribió:Obviamente que va a dar menos input lag la segunda opción ya que la primera opción está dibujando más de 8 millones de pixeles reales y la segunda opción está dibujando menos de 3 millones de pixeles. Si comparamos 2 métodos de reescalado (DLSS vs simple) hay que hacerlo en igualdad de condiciones.
![facepalm [facepalm]](/images/smilies/facepalm.gif)
... si ya era absurda la afirmación a nivel general encima eso de "no poca" es otro nivel increíble).
, de todas formas cuando se compara el nativo con el dlss se hace de la siguiente manera un juego a 4k nativo va a 30fps pongamos de ejemplo con una latencia muy alta cuando activas dlss se renderiza a una resolución inferior como 1080p con dlss rendimiento pero mediante IA se reescala para parecerse lo máximo posible a la resolución nativa 4k , con esta técnica se consiguen tres cosas reducir mucho la latencia , subir mucho los fps (a mayor fps menor latencia) y que sea indistinguible o casi de la resolución nativa. usuariopc escribió:No sé para qué quieren sacar multiframe generation x6. No tiene sentido.
El x2 funciona de maravilla pero a partir del x3 ya se empiezan a apreciar cosas raras. No me quiero imaginar el x6.
usuariopc escribió:No sé para qué quieren sacar multiframe generation x6. No tiene sentido.
El x2 funciona de maravilla pero a partir del x3 ya se empiezan a apreciar cosas raras. No me quiero imaginar el x6.