AMD lanza FSR Redstone, una revisión de su tecnología de escalado inteligente asistida por ML par...

cambios escribió:
mrmanson16v escribió:que lo pongan en Steam Deck que el Lossless Scaling con Decky no me va


En la deck , los drivers truchos de Nvidia han estado tirando perfectamente. De hecho me jugue el Hogwarts hace mas de un año y medio.

Ahora mismo , tambien se pueden inyectar los drivers del Pato que venden en Steam.

Eso del pato , tanto en Windows como en deck es un flipe...pero de los buenos.

La deck es la mejor consola que he tenido en la vida...solo espero que en breve saquen la 2 con rdna4....esa caeria el primer dia.


ostras, me dices algun tutorial de lossless para steam deck? porque yo segui este y los juegos no me arrancan

https://youtu.be/dmnEOZg7bKE

en cuanto pego el comando que dice el plugin en los juegos estos no arrancan
Duron600 escribió:@Madafack

Gracias por leerme, respeto lo que tú crees, será que no tengo ni idea de lo que digo.
Espero que se entienda que
estoy comparando jugar a 1400p en una buena pantalla 1080p vs 1080p en una pantalla 2160p

Nunca he comparado 2160p en pantalla 2160p vs 1080p en pantalla 1080p

El 4k es increíble a 4k, aquí se esta hablando de escaladores porque los equipos gaming medios de los usuarios

(RTX 5060 / 5070 , RX 9060 / 9070), no pueden con los juegos 3A a 4k en alto + RT y necesitan de escaladores.

Mi critica, mensaje, comparación es:

1080p escalado a 2160p en pantalla 2160p vs 1400p (super muestreo) en pantalla 1080p

Saludos [oki] [oki]


El reescalado por IA a 1080p se ve mejor que las imágenes nativas a 1080p porque las entrenan con imágenes de 16K, por lo que te quitas los dientes de sierra y otras historias que, según que imagenes, las afean muchísimo.

En tu primer mensaje me dio la impresión que criticabas el avance de las resoluciones como que es algo impostado que nadie demanda, disculpa si lo malinterpreté.

Pero una cosa es que la mayoría de jugadores de PC lo hagan a resoluciones inferiores y otra que no les gustaría jugar con mejores gráficos.

Saludos!
fidillo escribió:
Algo más de medio después


Corregir esta frase... [sonrisa]


Y esa, también. Con un "hay que" por delante, por ejemplo.
fidillo escribió:
Algo más de medio después


Corregir esta frase... [sonrisa]


Corregid *
Probotector escribió:GSYNC es mejor que FreeSync, por la sencilla razon de que un monitor con GSYNC Ultimate como el mio (Alienware AW2721D) soporta la sincronización adaptativa del rango de 10 Hz a 240 Hz, cosa que con Freesync no se puede, siempre se quedan en 48 Hz o algun afortunado a 40 o 30 Hz tirando de edicion de EDID del monitor...

Hombre si hablas del prehistórico "freesync", es verdad lo que dices. Pero existe Freesync Premium y Freesync Premium Pro. Justo en este video de hace 2 años ya hablaba de la idea errónea que mas de uno tiene de que Freesync no soporta refresco en bajos hz como 10 o menos: https://youtu.be/CQdo67SjIHk?t=697

TVs como las Samsung de hecho pasa de pagar nada a Nvidia por su modulo g-sync porque a efectos prácticos con Freesync Premium Pro ya tienen LFC entre otras muchas cosas.

Por cierto, aquí puedes ver una comparativa de tu monitor al que le quitaron el gsync ultimate (el que termina en 23) para usar Freesync premium pro y ambos soportan VRR en rangos de <20hz sin problema ("Variable Refresh Rate (VRR)"): https://www.rtings.com/monitor/tools/co ... 0236/34684
@Rvilla87

Imagen

Como puedes ver en la foto, tengo los dos modelos, el AW2723DF es peor monitor en terminos generales, no lo vendo por que me costo 600 papeles en su momento y ahora no me darian ni la mitad, tiene peor contraste, peor HDR (menos dimming zones) y el OC a 280 Hz va tan forzado que noto como un poco de desenfoque y lo tengo que dejar nativo a 240 Hz.

Dicho monitor duplica o triplica la tasa de refresco cuando un juego se capa a 30 fps, marcando 90 hz o 60 hz el monitor, pero da la sensacion de que no sirve para nada, no noto que vaya fino como con el AW2721D en las misma condiciones.

Aqui tienes la captura del sistema como reporta en el AW2723DF el rango de 48 a 240, que es basicamente el reporte del EDID:

Imagen


Cara a cara, el AW2721D va mas fino, tiene mejor HDR pero sólo es un panel de 8 bits, el AW2723DF al menos es de 10 bits y se nota menos el banding.
@Probotector no sé qué entendiste de mi anterior mensaje para todo lo que me has dicho que no tiene que ver con el tema de LFC que te cité. Encima no veo que corrijas o siquiera que reconozcas ni por asomo la mentira que dijiste de Freesync aún habiéndote pasado 2 fuentes distintas desmintiendo lo que dijiste de Freesync.

Probotector escribió:Dicho monitor duplica o triplica la tasa de refresco cuando un juego se capa a 30 fps, marcando 90 hz o 60 hz el monitor, pero da la sensacion de que no sirve para nada, no noto que vaya fino como con el AW2721D en las misma condiciones.

Aqui tienes la captura del sistema como reporta en el AW2723DF el rango de 48 a 240, que es basicamente el reporte del EDID:
Imagen

¿Y porque no tengas la misma sensación en los 2 monitores o porque Windows te diga lo de 48hz mínimos, no te da que pensar que mas que una limitación de Freesync, como decías, pueda deberse mas bien de un problema de tu monitor y/o de tu PC? :-?

Aún en el caso que ese modelo de monitor no permita LFC (cosa que no es lo que dice rtings en sus pruebas, pero pueden equivocarse), existen cientos de monitores/TVs Freesync con LFC, y de hecho desde hace bastantes años como para afirmar lo que dijiste en pleno 2025.

Freesync como mínimo tiene LFC desde 2017 (si no antes). Así que por esto me cuesta todavía mas creer que esa mentira esté tan extendida, que estamos ya casi en pleno 2026 con muchísimas pantallas que tienen Freesync con LFC como para que todavía se sigan escuchando este tipo de burradas.
Rvilla87 escribió:@Probotector no sé qué entendiste de mi anterior mensaje para todo lo que me has dicho que no tiene que ver con el tema de LFC que te cité. Encima no veo que corrijas o siquiera que reconozcas ni por asomo la mentira que dijiste de Freesync aún habiéndote pasado 2 fuentes distintas desmintiendo lo que dijiste de Freesync.


Yo en ningun momento estoy contradiciendo nada de rtings ni de HUB; cada monitor tiene un rango de frecuencias distinto; pero no conozco ninguno que sea VRR sin GSYNC por hardware que baje de los 48 Hz, sin que usen LFC, teconologia la cual no se sabe exactamente como funciona, teoricamente repitiendo los frames y por tanto duplicando o triplicando la tasa de refresco para realizar esa compensacion ya que esos monitores no pueden bajar de los 48 Hz

Por eso el AW2723DF se queda en 90 o 60 Hz en vez de bajar a 30 Hz como sí hace el AW2721D cuando el juego va a 30 fps.

Yo que tengo los dos monitores, se nota a leguas que no tiene jitter el gsync cuando toca bajar a 30 hz pero el otro es como si no hiciera nada el VRR, pero bueno, solo trato de ser objetivo, aunque parezca yo el nvidia fanboy de turno.

Un saludo
mrmanson16v escribió:
cambios escribió:
mrmanson16v escribió:que lo pongan en Steam Deck que el Lossless Scaling con Decky no me va


En la deck , los drivers truchos de Nvidia han estado tirando perfectamente. De hecho me jugue el Hogwarts hace mas de un año y medio.

Ahora mismo , tambien se pueden inyectar los drivers del Pato que venden en Steam.

Eso del pato , tanto en Windows como en deck es un flipe...pero de los buenos.

La deck es la mejor consola que he tenido en la vida...solo espero que en breve saquen la 2 con rdna4....esa caeria el primer dia.


ostras, me dices algun tutorial de lossless para steam deck? porque yo segui este y los juegos no me arrancan

https://youtu.be/dmnEOZg7bKE

en cuanto pego el comando que dice el plugin en los juegos estos no arrancan


https://www.youtube.com/watch?v=jvE2nHsi7Jc
Probotector escribió:Yo en ningun momento estoy contradiciendo nada de rtings ni de HUB; cada monitor tiene un rango de frecuencias distinto; pero no conozco ninguno que sea VRR sin GSYNC por hardware que baje de los 48 Hz, sin que usen LFC, teconologia la cual no se sabe exactamente como funciona, teoricamente repitiendo los frames y por tanto duplicando o triplicando la tasa de refresco para realizar esa compensacion ya que esos monitores no pueden bajar de los 48 Hz

Por eso el AW2723DF se queda en 90 o 60 Hz en vez de bajar a 30 Hz como sí hace el AW2721D cuando el juego va a 30 fps.

Hombre pues tanto rtings como HUB dicen básicamente que tanto Gsync como Freesync dan resultados similares y que en la práctica no importa tener uno u otro (aquí rtings que no puse antes), y en cambio tú dices una cosa diferente diciendo que sencillamente Gsync es mejor que Freesync porque "soporta la sincronización adaptativa del rango de 10 Hz a 240 Hz" y Freesync no puede... ahora añades el detalle de "sin que usen LFC" y encima dices por si no fuera suficiente con todo esto que "no se sabe exactamente como funciona".

Perdona, pero no se sabe cómo funciona o mas bien tú no sabes cómo funciona?

Justo en rtings dicen una cosa que me parece importante tener en cuenta, porque estás quitando LFC de la ecuación cuando es algo muy positivo y que precisamente deja como algo relativamente inútil el tener un rango mínimo de refresco muy bajo (menos de 40hz por ejemplo): https://www.rtings.com/monitor/tests/mo ... fresh-rate
As we test for the effective frame rate and not the actual refresh rate of the display, our minimum refresh rate is frequently lower than the minimum reported by the manufacturer. It's because many monitors support a feature known as Low Framerate Compensation (LFC). If the frame rate of the source drops below the minimum refresh rate of the display, the graphics card automatically multiplies frames to bring the frame rate back within the refresh rate range of the display. Since we look at the effective VRR range, we don't differentiate between monitors that use LFC and monitors that can reduce their actual refresh rate.

LFC como dices repite los frames, con lo cual a efectos prácticos que tengas 1 pantalla que soporte VRR desde 1hz reales y otra que lo haga desde los 40hz reales no va a importar siempre y cuando la 2º tenga LFC desde 1h... o mejor dicho, lo verás mejor en la que usa LFC y no en la de 1hz reales porque en esa te vas a quedar ciego con tantísimo parpadeo cuando los fps varíen en plan de 1-40 cuando con la otra ni te darás cuenta a nivel de parpadeo al mostrarlo a mas hz (que es lo que se busca al fin y al cabo).

Por otro lado, para qué quieres bajos hz reales y no simulados con LFC? Estás seguro que tu monitor AW2721D (desde 1hz teóricamente) si pones algo a 1fps te va a ir a 1fps sin LFC? Por ejemplo así se vería la pantalla parpadeando a 10hz y así a 2hz.

Nvidia con su gsync también usa LFC, por qué crees que no se usa? Es una tecnología que ayuda, no importa tanto el refresco mínimo de la pantalla sino los máximos, ya que con el LFC del VRR la idea es mostrar los máximos hz posibles en la pantalla independientemente de los fps que tengas (desde 1 hasta el infinito). Ahora, otra cosa diferente es que tengas problemas con tu monitor:
Probotector escribió:Yo que tengo los dos monitores, se nota a leguas que no tiene jitter el gsync cuando toca bajar a 30 hz pero el otro es como si no hiciera nada el VRR, pero bueno, solo trato de ser objetivo, aunque parezca yo el nvidia fanboy de turno.

Y si tu monitor con freesync sacara la imagen amarilla y el de gsync la sacara correctamente también dirías que freesync el problema que tiene es que te amarillenta la imagen? Porque es lo que veo ya es la 2º vez que estás anteponiento tu experiencia con la información que se puede encontrar buscando en internet o preguntando a la gente por su experiencia (diferente a la tuya, desde luego).
Rvilla87 escribió:Nvidia con su gsync también usa LFC, por qué crees que no se usa?

De hecho lo usa tanto que LFC está activo incluso jugando a 60 FPS.
Mis monitores disponen en el OSD de un indicador en tiempo real con los Hz a los que esta funcionando, nunca llega a 1 Hz en ningun de los dos monitores, solo veo como se dobla o triplica en FreeSync en el AW2723DF a 30 Hz pero no en el AW2721D, en este ultimo cuando el juego va a 30 fps muestra 30 Hz, ademas que este monitor (bueno, ninguno de los dos) no indica 1 Hz, lo mas bajo que me indica el OSD es 10 Hz, coincide con el rango de GSYNC.

¿No se supone que LFC es solo para AMD o es un estandar de VRR?

Trato de entenderlo; y claro que me baso en mi experiencia, dispongo de dos monitores con maxima compatibilidad en VRR, no sólo mirando por internet...
Probotector escribió:Mis monitores disponen en el OSD de un indicador en tiempo real con los Hz a los que esta funcionando, nunca llega a 1 Hz en ningun de los dos monitores, solo veo como se dobla o triplica en FreeSync en el AW2723DF a 30 Hz pero no en el AW2721D, en este ultimo cuando el juego va a 30 fps muestra 30 Hz, ademas que este monitor (bueno, ninguno de los dos) no indica 1 Hz, lo mas bajo que me indica el OSD es 10 Hz, coincide con el rango de GSYNC.

10hz me parece bajísimo, precisamente te pasé un video de un led parpadeando a 10hz (10 veces por segundo) para que veas lo exagerado que sería, ¿tu monitor parpadea 10 veces por segundo? Eso puede ser molesto para los ojos.

Y en todo caso lo dicho, es que aunque pudiera ser 10hz reales, no ganas nada cuando aplicando de forma correcta LFC tienes mejores sensaciones, menos vista cansada, etc. (a mas hz, más es mejor por lo general). Olvídate de los problemas que dijiste de tu monitor freesync que quizás funciona mal o lo tienes mal configurado, eso no es normal en freesync, no puedes extrapolar tu caso al resto de casos del mundo.

Probotector escribió:¿No se supone que LFC es solo para AMD o es un estandar de VRR?

LFC se usa tanto en Freesync de AMD, en Gsync de Nvidia e incluso en el caso mas reciente, el del VRR del HDMI Forum desde la versión 2.1 de HDMI (esto se hizo "famoso" por la PS5).

Probotector escribió:Trato de entenderlo; y claro que me baso en mi experiencia, dispongo de dos monitores con maxima compatibilidad en VRR, no sólo mirando por internet...

Hombre, más que lo de basarse en la experiencia y no te basta solo con mirar por internet, lo que veo es que te basas exclusivamente en la experiencia aun cuando se te ha dado información de medios profesionales que desmienten tu experiencia (debido a que posiblemente no entiendes bien lo que ves y/o tengas algo mal como ya dije antes).

Lo que me pareció raro es que no te vi preguntar sobre lo que puse que desmentía tu afirmación y seguías insistiendo con lo mismo (ahora has empezado a preguntar, después de 3 respuestas).
Tiene que haber diferencias en como gsync ultimate maneja las bajas frecuencias respecto a freesync, por que entonces no me mostraria 30 hz el monitor, ademas se nota visualmente como el panel refresca la pantalla "peor" por esos supuestos 30 hz haciendo un 1:1 respecto al juego.

Sera mas comodo para la vista, pero no.preciso y fidedigno, para emuladores o juegos antiguos para mí es crucial la fidelidad en el movimiento de scroll o girar cámara, por eso prefiero gsync antes que el lfc..

Y siempre usando grafica nvidia, supongo que usando amd en ese monitor usa freesync y ahi si duplica o tripilca con lfc, ya que no usaría la tecnología privativa del chip gsync o se activaria lfc por debajo de 48 Hz...

Ya te digo yo que un monitor "gsync compatible" no baja a 30 hz, usaría lfc, pero con gsync ultimate sí

Un saludo
Probotector escribió:Sera mas comodo para la vista, pero no.preciso y fidedigno, para emuladores o juegos antiguos para mí es crucial la fidelidad en el movimiento de scroll o girar cámara, por eso prefiero gsync antes que el lfc..

Y siempre usando grafica nvidia, supongo que usando amd en ese monitor usa freesync y ahi si duplica o tripilca con lfc, ya que no usaría la tecnología privativa del chip gsync o se activaria lfc por debajo de 48 Hz...

No es por ser pesado, pero insisto en que busques mas allá de tus pruebas.

Te explico mi caso, y no es porque le dé mas importancia a mi experiencia que a la tuya (lo 1º que hice fue aportar fuentes ajenas a mi, de medios profesionales), tengo gráfica Nvidia activando el VRR Gsync compatible, TV Samsung que NO tiene oficialmente nada de Gsync sino solo Freesync Premium Pro (como tu monitor AW2723DF) y con un rango de 40-144hz cuando pongo la demo G-SYNC Pendulum lo pongo incluso a 20fps y el LFC actúa haciendo que la TV se ponga a unos 80hz. Si la pongo a 30 fps la TV se pone a unos 60hz. Está duplicando la imagen el número de veces necesario de manera que a efectos prácticos cuando tú en 1 frame tienes 1 refresco, con LFC tienes x refrescos dentro del mismo tiempo en el que tú haces 1 refresco de ese mismo frame, no debe haber tearing ni ghosting ni nada parecido. Es lo que veo en mis pruebas, la demo permite mover la cámara y hay un péndulo moviéndose constantemente.

Pero bueno, más allá de todo esto (y de lo que no has dicho, que tenía curiosidad por saber realmente cómo ves tu pantalla a 10hz supuestamente reales), si quieres creer, como dijiste en su inicio, que Freesync no puede tener "sincronización adaptativa del rango de 10 Hz a 240 Hz" por tus pruebas, estás en tu derecho aunque no sea así para otras personas. Insistir tanto con alguien que dice que algo no funciona como debe funcionar me parece inútil. Si dijeras que que algo te funciona mejor que como en realidad debe funcionar ya me causaría curiosidad a ver si realmente has descubierto algo para mejorar una tecnología (que normalmente sería que no se entiende lo que se ve/prueba), pero si es para peor cuando a muchos nos funciona, al final es un problema tuyo aunque no lo quieras/sepas ver.
Pensaba que LFC era exclusivo de AMD y eso me hizo mezclar conceptos, cuando es algo que esta presente en el estandar VRR de Vesa (si no recuerdo mal), y eso explica como en tu monitor Gsync compatible se active LFC cuando baja del rango soportado, en tu caso por debajo de 40 Hz.

Noto que GSYNC cuando baja y mantiene ese ratio de 1:1, es ligeramente mas fluido y autentico que la tecnologia de LFC, quizas influya que el AW2721D tenga menos input lag o yo que se, pero veo como el indicador de Hz del monitor oscila mas rapido que con el AW2723DF, noto mas precision y rapidez en gsync ultimate.

Entiendo lo que me dices, que a efectos practicos deberia ser identico, pero yo noto mejor desempeño con gsync.

Pero bueno, he podido aclararme gracias a tu insistencia y paciencia

Un saludo tio [beer]
A mí lo que me jode de todo esto, es lo abandonados que nos tiene AMD a los que tenemos gráficas polaris. Cuando se saca una tecnología nueva, entiendo que funcione mejor en las gráficas más reciente pero no entiendo por qué no sacan algo de lo nuevo en las arquitecturas más antiguas y más cuando se siguen vendiendo en las tiendas.

Un saludo,

BY DERHYUS.[chulito]
66 respuestas
1, 2