[HO] Radeon RX 6000 Family

Pregunta , cambiarías una 3080 no LHR que a mí me da igual porque no mino de la marca KFA2 por una 6900xt asrock ? Es creo que la gama más alta de 21 fases de alimentación.
Me hace gracia los 16gb de memoria y luego el trasteo de probar una AMD pero lo pregunto aquí para que me deis una opinión si alguien ha podido probar las dos .
La mía es de noviembre de 2020 y la que me cambian de Julio de 2021 .
vtec16 escribió:Pregunta , cambiarías una 3080 no LHR que a mí me da igual porque no mino de la marca KFA2 por una 6900xt asrock ? Es creo que la gama más alta de 21 fases de alimentación.
Me hace gracia los 16gb de memoria y luego el trasteo de probar una AMD pero lo pregunto aquí para que me deis una opinión si alguien ha podido probar las dos .
La mía es de noviembre de 2020 y la que me cambian de Julio de 2021 .



En rendimiento plano es algo superior la 6900, en precio tambien es sustancialmente mas cara en un mundo paralelo sin la inflaccion loca de las gpus.

Creo que pierde en raytracing y los 16gb vs 10 de la 3080 puede venir bien a futuro.

En principio yo si la cambiaria porque le raytracing y DLSS me dan igual, pero tampoco es que vayas a notar un salto de rendimiento grande ni nada por el estilo, al menos hasta que esos 10gb de vram se queden cortos.
@PepeC12
Gracias , la verdad que estoy hecho un lío .
En realidad ya hay juegos que se comen los 10gb..
Por otro lado el rtx pues a mí también me da un poco igual pero el Dlss sí que lo noto en juegos que lo utilizan .
Y qué opináis de la Asrock ? Es buena marca ?
vtec16 escribió:Pregunta , cambiarías una 3080 no LHR que a mí me da igual porque no mino de la marca KFA2 por una 6900xt asrock ? Es creo que la gama más alta de 21 fases de alimentación.
Me hace gracia los 16gb de memoria y luego el trasteo de probar una AMD pero lo pregunto aquí para que me deis una opinión si alguien ha podido probar las dos .
La mía es de noviembre de 2020 y la que me cambian de Julio de 2021 .


Yo hice un cambio similar de una 3080 a una 6800 xt y estoy contento, eso si, yo lo hice antes de que las criptomonedas se fuesen a la verga y cambie mi 3080 de mayo de 2021 por una 6800 xt nueva que encima es de los mejores modelos (Aorus) y ademas me dieron 600 euros

En tu situación, a pelo, las dos graficas usadas que a saber por donde a pasado la otra, y que la diferencia va a ser pequeña incluso perder en algunos juegos, pierdes el dlss, en tu situación no lo haría.
@FranciscoVG
Gracias por el consejo , me quedare quieto jeje.
Además luego el rollo de las facturas si pasa algo en garantía ..
Seguire con la 3080 y en la próxima gen ya veremos
Ahora mismo tampoco creo que sea un buen momento para hacer ese cambio, ya que está al caer el refresh



Nuevos drivers 22.2.1 https://www.amd.com/en/support/kb/relea ... win-22-2-1
Creo que la voy a cambiar me apetece probar la AMD y los 16gb me tiran mucho .
El rtx me da un poco igual y el Dlss al jugar en 2k tampoco creo que sea una diferencia notoria con el FSR no soy de los que tienen ojo clínico para apreciar ciertas texturas ..
vtec16 escribió:Creo que la voy a cambiar me apetece probar la AMD y los 16gb me tiran mucho .
El rtx me da un poco igual y el Dlss al jugar en 2k tampoco creo que sea una diferencia notoria con el FSR no soy de los que tienen ojo clínico para apreciar ciertas texturas ..


Yo estaba en la misma hace nada y finamente pille una 6900 xt, muchísimo mas barata y sinceramente el rt a dia de hoy es un suicidio, que si bajar cosas que si poner dlss,si penalizara 15 fps seria aceptable pero es que el consumo es salvaje
Para nada es un mal cambio, yo entre la 3080 y la 6800XT me ha gustado mas la ultima, pues imaginate con la 6900.
Nada ya está quedaremos o esta tarde o mañana además vive a 6km de mi casa y parece legal , tiene factura de pc componentes . Lo que no se es si pasara algo con la gráfica como se gestiona la garantía con una factura de otro cliente .
Me parece buen bicho la 6900xt y mi monitor eS adaptative Sync y aunque es compatible con Gsync no sé si con AMD irá mejor y sobre todo los 16gb mismamente los últimos Resident Evil si le metes las texturas a tope ya se comen 12gb de memoria .
vtec16 escribió:Nada ya está quedaremos o esta tarde o mañana además vive a 6km de mi casa y parece legal , tiene factura de pc componentes . Lo que no se es si pasara algo con la gráfica como se gestiona la garantía con una factura de otro cliente .
Me parece buen bicho la 6900xt y mi monitor eS adaptative Sync y aunque es compatible con Gsync no sé si con AMD irá mejor y sobre todo los 16gb mismamente los últimos Resident Evil si le metes las texturas a tope ya se comen 12gb de memoria .

Dependerá del monitor imagino, en mi caso con un Acer XF270HUA sí me ha pasado, me va mejor con tarjetas AMD, va como más fino el freesync, tiene LFC por drivers que Nvidia creo que no lo soporta y además me daba parpadeos en negro cuando ponía vídeos de youtube a pantalla completa, con las AMD no sucede. Qué modelo de Asrock es?
@Pacorrr
Mi monitor es un Ozone 2k IPS 144hz, con NVIDIA no me ha dado ningun problema la verdad.
El modelo de la grafica es este:
asrock radeon 6900xt
vtec16 escribió:@Pacorrr
Mi monitor es un Ozone 2k IPS 144hz, con NVIDIA no me ha dado ningun problema la verdad.
El modelo de la grafica es este:
asrock radeon 6900xt


Esa lleva el chip normal XTX, creo que en Asrock sólo la OC Formula lleva el XTXH, pero vamos que salvo por benchs, tampoco ibas a notar diferencia.
vtec16 escribió:Pregunta , cambiarías una 3080 no LHR que a mí me da igual porque no mino de la marca KFA2 por una 6900xt asrock ? Es creo que la gama más alta de 21 fases de alimentación.
Me hace gracia los 16gb de memoria y luego el trasteo de probar una AMD pero lo pregunto aquí para que me deis una opinión si alguien ha podido probar las dos .
La mía es de noviembre de 2020 y la que me cambian de Julio de 2021 .

Yo sí que haría el cambio, encima el otro chico es de Valencia también?
(mensaje borrado)
@joanvicent

Si , ya la hemos cambiado.

Mi opinión después de 3 horas de pruebas.
Al principio me he acojonado al instalar los drivers de Radeon ya que no estoy familiarizado, el perfil de manera predeterminada estaba en modo Rage y como tenía el MSI Afterburner instalado con perfil custom de ventilación me ponía los ventiladores a tope, al final lo he puesto en modo equilibrado desde el panel de Amd y desinstalado el MSi Afterburner para que no entrara en conflicto.
La tarjeta es enorme, mas larga que la 3080 KFA2 me viene justa en la torre pero menos mal que entra.

Los juegos probados:
Resident Evil 3 con todo a tope y texturas en 8gb que antes no podía ponerlas porque me pasaba de los 10gb de memoria con la 3080, se nota la mayor potencia de la 6900xt, en NVIDIA tenía mayor bajada de FPS y aquí los mantiene prácticamente a 144fps siempre. Aparte aunque mi monitor tiene un HDR discretito y que en Windows lo tengo desactivado ya que son 400nits y activándolo se ve todo peor, pero en este juego tiene un modo de HDR Freesync 2 que antes no tenía esa opción, mejorando la calidad de imagen o por lo menos después de compararlo con y sin a mi me gusta mas. Antes el HDR de este juego lo tenía desactivado, aunque no entiendo muy bien la relación del HDR de AMD con el monitor ya que creo que esto no debería variar con Nvidia.

DeathLoop:
Activando el FSR 1.0 como decía en post mas atrás que creía que me iba a pasar, en juegos rápidos me cuesta apreciar la diferencia que la habrá sin lugar a dudas con DLSS, el juego en cuanto a rendimiento diría que es parecido a NVIDIA aunque por algun motivo que puede ser porque el monitor es GSYNC compatible noto mayor suavidad ahora cuando los FPS bailan, aunque puede ser sugestión.

God Of War:
Aquí no os voy a engañar, tengo el juego original en PS4 y la versión que tengo de PC no es la oficial, simplemente quería probar la diferencia gráfica con la PS4 pro y la suavidad de los FPS, en principio no tengo intención de volver a pasármelo de momento por lo que en este caso no se si el juego habrá recibido un parche de mejora.
El FSR se nota que pierde calidad con respecto al DLSS y pega unos tirones muy molestos, con NVIDIA iba como la seda. No se trata de que baja FPS porque los visualizo y están siempre rozando los 144 pero esos tirones no se de que pueden ser, creo que es lo llamado stuttering no?

Final Fantasy VII:
El mismo caso que el anterior, lo termine hace poco en PS5 y solamente quería comparar. Con NVIDIA ya tenia tirones y ahora pues lo mismo o mas. No le doy importancia porque no lo voy a rejugar.

Back4Blood:
Con FSR y siendo un juego rapido no noto diferencia palpable ni apreciable con DLSS, el juego va perfectamente con FPS altos en todo momento.

Resident Evil Vilage:
Con FSR y todo a tope que antes no podía porque me limitaba la memoria y RT activado el juego va mucho mejor en todos los aspectos, FPS mucho mas altos sin casi bajadas y mayor sensación de suavidad en todo momento, vuelvo a lo mismo, puede ser porque el Freesync sea mas efectivo que el Gsync Compatible en este monitor.
Con respecto al RT de Nvidia vs Amd no he notado en este juego nada que me llame poderosamente la atención en calidad y otra vez como en Resident Evil 3 el HDR en este juego mejora la calidad visual cuando antes la descartaba directamente.

En el resto de juegos el HDR al tenerlo desactivado desde Windows no da opción de ponerlo, excepto en el FFVII pero que se ve igual de mal que se veía con NVIDIA.
Los dos únicos juegos que me deja activarlo y mejora con respecto a la 3080 son los dos Resident Evil y no entiendo mucho el motivo.

Seguiré probando, de momento muy contento por la memoria grafica mas alta y por la potencia y decepcionado por el GOD OF WAR por si estos tirones pueden pasar en más juegos , que como comento no se si este juego habrá recibido alguna actualización al no tener la version oficial , probaré mas y ya os comentaré impresiones.
Lo del god of war es un problema reconocido en la página de drivers de AMD, se supone que lo arreglarán, aunque yo, al igual que tú, ya me lo pasé en PS4 y no es un juego que me apetezca rejugar ahora mismo.

Stuttering or lower than expected FPS values may be experienced by some users while playing God of War on some AMD Graphics Products such as Radeon® RX 6900 XT Graphics.


https://www.amd.com/en/support/kb/relea ... win-22-2-1

Que disfrutes la tarjeta, yo también noto el freesync un poco más fino y suave con tarjetas AMD que con tarjetas Nvidia como te dije, no creo que sea sugestión, dependerá del monitor en sí supongo [beer]
@Pacorrr
Entonces me tranquiliza mas sabiendo que es algo puntual de este juego.
Gracias por la info, de momento muy contento la verdad.
@vtec16 que cpu tienes? lo digo porque igual la suavidad que estas notando es en juegos dx12 o vulkan donde amd tiene menos sobrecarga de cpu que Nvidia (en dx11 pasa al reves).

Igual por eso notas mas suavidad.

De todas formas, yo no usaria FSR con una 6900xt, supongo que te dara fps de sobra para no tener que perder calidad. Tienes un cañon, no metas tecnicas de reescalado.

FSR esta bien si con el raytracing te va justito, pero sino yo no lo activaria. No me quejo de la tecnica, creo que da resultado bastante buenos y más parecidos al DLSS de lo que le gustaria a algunos, pero al igual que el DLSS, yo solo lo activaria si me es obligatorio por falta de fps.
@PepeC12

La cpu es un 11900F.
El FSR lo suelo meter en maxima calidad y la verdad que no noto o cuanto a penas perdida de calidad.

Ya le voy pillando el rollo a AMD.
Ayer estaba un poco raro, sensación de mas potencia pero de otras cosas que no me habían gustado como algunos pequeños tirones puntuales en algunos juegos que seguí probando.
El tema del GOD OF WAR está asumido por AMD pero lo veía exagerado, lagazos cada 3 segundos.
Hoy mirando el panel de control de AMD he visto que tenia el perfil en modo "juego" de esta manera AMD te mete ajustes de anti lag y otras opciones como le viene en gana en los juegos desde su panel.
Al quitar el modo juego y ponerlo en modo estandar deja todas estas ayudas desactivadas.
La diferencia ahora es super suavidad en todo incluso en el GOD OF WAR que aunque pega algun lagazo es muy puntual y ni me molesta ya que lo hace cada rato y muy levemente.
Aqui ya puedo confirmar de manera clara que freesync funciona mucho mejor con tarjeta AMD que Nvidia con Gsync compatible después de haberlo probado mas.

Luego también he visto que el perfil de ventilación no tiene nada que ver con NVIDIA, aquí el tope te lo mete en 95º alegremente sin bajar power limit ni frecuencias y los ventiladores en modo automatico no pasan del 50%, me parece un poco bruto aunque no se si las AMD están mas preparadas para trabajar a esas temperaturas a mi me asusta.

Al final lo he ajustado manualmente para que la frecuencia de los ventiladores lleguen al 75%, incluso he bajado el voltaje manteniendo casi las mismas frecuencias y ahora no pasa de 75º.
Si que es cierto que tengo en la misma torre una gtx 1070 que utilizo para otro arranque con 3d vision y no deja mucho espacio para refrigerarse ya que quedan las dos gráficas muy juntas, pero la torre si que tiene un buen flujo de aire con tres ventiladores delanteros y uno trasero.

Resumiendo ahora si después de un día de prueba encantado con la 6900xt y veo que el FSR ya está en los mismos titulos actuales que Nvidia implementa el DLSS y en mi opinión la perdida de calidad si le metes la máxima calidad de FSR es inapreciable siempre en mi opinion.
Tendría mucha perdida de rendimiento bajando la frecuencia máxima a 2025mhz en la 6900xt? Es que así tengo unas temperaturas de 70º y el ventilador casi ni se oye.
Todo lo que sea subir de ahí ya los ventiladores se les oye bastante soplar.
@vtec16

Prueba tú mismo en algún juego de estos normalmente exigentes. En caso de perder rendimiento, mira si vale la pena por la reducción de ruido.

Si un juego te va a 90fps y limitando un poco la frecuencia, baja a 80fps, pero no creo que notes nada en el rendimiento y ganas "silencio"
@Danimonto

realmente con las pruebas que he hecho prácticamente no noto nada, como dices si son 10/15 fps arriba o abajo no me supone gran perdida ya que en casi todos los juegos va por encima de 100 fps.
Otra cosa es que de 2025 a 2400mhz pueda perder 30fps entonces me lo plantearía para activar otro perfil en según que juegos .
Y es que las temperaturas he dicho 70º antes pero ahora he mirado y jugando 144fps estaban en 65º, la grafica una tumba y 144w de consumo.
vtec16 escribió:@Danimonto

realmente con las pruebas que he hecho prácticamente no noto nada, como dices si son 10/15 fps arriba o abajo no me supone gran perdida ya que en casi todos los juegos va por encima de 100 fps.
Otra cosa es que de 2025 a 2400mhz pueda perder 30fps entonces me lo plantearía para activar otro perfil en según que juegos .
Y es que las temperaturas he dicho 70º antes pero ahora he mirado y jugando 144fps estaban en 65º, la grafica una tumba y 144w de consumo.


Bajar eso seria sobre un 10% de perdida en rendimiento mas o menos, ¿a partir de cuantas rpm empiezas a oir los ventiladores?, es que segun dices tiene que ser muy bajos para tener 65 grados con 144w, yo en mi 6800 xt hace unas semanas haciendo pruebas lo minimo que la he puesto es a 2100 mhz, los ventiladores tardan un par de minutos en encenderse, sobre 700 rpm que no es nada y 60 grados, me pareceria increible que los oigas girando por debajo de 1000rpm, aunque bueno eso también depende de la disipacion
@FranciscoVG

Si, con la 3080 me pasaba lo mismo y tenia el power limit al 80% , el tema es que justo debajo tengo una gtx 1070 que la utilizo para 3D Vision por lo que no deja mucho espacio para refrigerarse bien por eso tengo que recurrir a perfiles de bajo consumo.
La torre es una MSI con buena ventilación pero un poco justa para dos graficas, lo suyo sería tener solo la 6900xt o una torre mas grande.
No obstante como digo y vigilando bien las temperaturas ahora mismo no me llega ni a 70º y los ventiladores apenas se oyen nada, por lo que si solo voy a perder un 10% lo dejo asi, de hecho la 3080 con el power limit al 80% se calentaba mas.

De todas formas te dejo la captura de como tengo el panel configurado y otra de las metricas jugando al Re3 todo al maximo con escala 130% que esta siempre en 144fps o rozandolos.

Imagen
Imagen
@vtec16


En principio el voltaje puedes bajarlo bastante más.


Prueba a poner la frecuencia en 2400mhz y el voltaje en 1025mv.

Así no pierdes rendimiento y bajas bastante el consumo.

Los ventiladores puedes ponerlos un poco más agresivos, yo por ejemplo los dejo fijos al 50%.
@DaNi_0389

Si la bajo de 1100mv me crashea puedo bajarla pero bajando frecuencias..
vtec16 escribió:@FranciscoVG

Si, con la 3080 me pasaba lo mismo y tenia el power limit al 80% , el tema es que justo debajo tengo una gtx 1070 que la utilizo para 3D Vision por lo que no deja mucho espacio para refrigerarse bien por eso tengo que recurrir a perfiles de bajo consumo.
La torre es una MSI con buena ventilación pero un poco justa para dos graficas, lo suyo sería tener solo la 6900xt o una torre mas grande.
No obstante como digo y vigilando bien las temperaturas ahora mismo no me llega ni a 70º y los ventiladores apenas se oyen nada, por lo que si solo voy a perder un 10% lo dejo asi, de hecho la 3080 con el power limit al 80% se calentaba mas.

De todas formas te dejo la captura de como tengo el panel configurado y otra de las metricas jugando al Re3 todo al maximo con escala 130% que esta siempre en 144fps o rozandolos.

Imagen
Imagen


Por eso decia que eran un poco altas para esa configuracion, la curva de ventilacion tienes una muy similar a la que yo tengo con unos 1500rpm de maxima que es cuando la gpu se empieza a oir por encima de los de de la caja, yo con esa configuracion a 2100 mhz ni siquiera me llega a 50 grados, pero claro yo no tengo ninguna gpu debajo xd
@FranciscoVG
Claro, el tema es que si quitara la GPU de debajo cambiaría mucho el tema , pero ahora mismo tampoco me quejo de temperaturas y rendimiento ya que mejora de lo que me hacía la 3080 limitando voltaje.
Eso si, todo lo que sea pasar de ahí y meterle mas voltaje y mayores frecuencias las temperaturas ya se disparan o tengo que meter un perfil de ventilación muy agresivo que no me gusta nada ya que se oye muchisimo.
Los drops no eran los jueves a las 9? Hoy que tenia tiempo he ido a intentarlo y no me ha salido, no se si es que no ha habido hoy ...
outlaws escribió:Los drops no eran los jueves a las 9? Hoy que tenia tiempo he ido a intentarlo y no me ha salido, no se si es que no ha habido hoy ...

Creo que suele ser por la tarde a partir de las 15-16h
Correcto, han abierto a las 16h, no se porque habia leido en algun sitio lo de las 9 de la mañana ... en fin aun asi me han tocado 26min de cola (vamos ... nada)
que tal vender la 3060ti por 900 y comprar la rx 6600 o la xt ?? es porque juego en 1080p 60fps no necesito mas y me quedo con unos 320-400e de ganancia.
DAVIDSM4K escribió:que tal vender la 3060ti por 900 y comprar la rx 6600 o la xt ?? es porque juego en 1080p 60fps no necesito mas y me quedo con unos 320-400e de ganancia.


Pues si, buena idea.
DAVIDSM4K escribió:que tal vender la 3060ti por 900 y comprar la rx 6600 o la xt ?? es porque juego en 1080p 60fps no necesito mas y me quedo con unos 320-400e de ganancia.


Coge el dinero y corre! jaja

La verdad es que no se como va el mercado de segunda mano. Pero nueva la 3060ti esta en el entorno de los 700 (por eso no se si alguien te daria 900, ya que con eso sacas una 3070ti nueva).

El resto, si te da igual el RT y perder unos 15 fps (si vas por la 6600xt) o 25 (si es la 6600) a 1080p pues podria ser opcion. Eso si, creo que a 1080p seguirias por encima de 60 fps. Eres quien deberia valorarlo.
outlaws escribió:
DAVIDSM4K escribió:que tal vender la 3060ti por 900 y comprar la rx 6600 o la xt ?? es porque juego en 1080p 60fps no necesito mas y me quedo con unos 320-400e de ganancia.


Coge el dinero y corre! jaja

La verdad es que no se como va el mercado de segunda mano. Pero nueva la 3060ti esta en el entorno de los 700 (por eso no se si alguien te daria 900, ya que con eso sacas una 3070ti nueva).

El resto, si te da igual el RT y perder unos 15 fps (si vas por la 6600xt) o 25 (si es la 6600) a 1080p pues podria ser opcion. Eso si, creo que a 1080p seguirias por encima de 60 fps. Eres quien deberia valorarlo.


es porque sirve para minar, uno me daba 800 y le dije que no, a ver si si concretan los 900

aunque es verdad que poniendo 4k o resoluciones hasta 1440p y activando DLSS, veo una definicion extrema aun jugando en monitor 1080p, es un flipe RDR 2 asi... [tadoramo]
Ya puedo decir que he dejado la 6900xt perfecta para mi uso, pero me ha costado averiguar dos cosas que me han dado por saco.

A diferencia de NVIDIA el Vsync hay que quitarlo en todos los juegos y limitar los FPS a 144 desde el Panel de AMD ya que con el Vsync me daban tirones puntuales y en algunos juegos bastante molestos.

Si quitaba el Vsync del juego sin limitar los FPS a 144 desde el panel de AMD, los juegos no tenían esos tirones pero se me ponían a escupir FPS como locos haciendo que subieran mas las temperaturas y consumos.
Finalmente así va todo suave como la seda sin tirones y con temperaturas y consumos de risa.
Algunos juegos si que tienen la posibilidad de limitar los FPS máximos desde los propios settings del juego pero otros no.

Con la 3080 y monitor GSYNC compatible esos tirones no existían con el vsync activado en el juego por lo que me ha costado pillarle el truco a esto.
Veo que mucha gente se queja de tirones cuando pasa de NVDIA a AMD y puede ser esta la causa.

En algunos juegos la gráfica esta a menos de 1000mv y con un consumo a veces que no llega a 100w a 144fps, vamos que va sacándose la chorra y le sobra potencia, a 65º y los ventiladores ni se oyen prácticamente (limitada a 2050mhz)
También probé a quitarle la GPU 1070 que tengo debajo para que se ventilara mejor y ver donde llegaba haciendo OC y llega a los 2600mhz sin problemas, pero la temperatura, consumo y ruido ya no me compensa para la ganancia que por lo que he visto está alrededor de un 10%-15%.
Con freesync usar vsync no tiene sentido, de siempre se ha usado un limitador de fps (como el que llevan los drivers radeon por ejemplo, el rivatuner también tiene), pero te recomiendo que lo bajes 2-3 fps del rango máximo de freesync de tu monitor, para evitar tearing, porque a veces se pasa uno o dos fps del límite, entonces dejándo uno de 144Hz en 141-142 te aseguras de que no haya tearing nunca.
@Pacorrr

Ok gracias lo haré como indicas, antes no lo hacía porque ya digo que con Nvidia utilizaba el Vsync para limitar los fps pero no tenía esos tirones en los juegos, entiendo que puede ser también debido a que no usaba el freesync que tiene el monitor y era el gsync compatible.
Si que es cierto que haciendo esto he ganado mucho ya que la suavidad del freesync es mejor que la del gsync compatible .
Lo dejaré en 142fps aunque en todas las pruebas que he hecho no he visto nada de Tearing pero por si acaso.

Un saludo.

Por cierto mi monitor tiene un rango de freesync de 48 a 144hz, esta bien? Me pareció ver que algunos bajaban hasta 30.
No creo que se me de el caso de bajar tantos fps de momento pero es por saber.
vtec16 escribió:@Pacorrr

Ok gracias lo haré como indicas, antes no lo hacía porque ya digo que con Nvidia utilizaba el Vsync para limitar los fps pero no tenía esos tirones en los juegos, entiendo que puede ser también debido a que no usaba el freesync que tiene el monitor y era el gsync compatible.
Si que es cierto que haciendo esto he ganado mucho ya que la suavidad del freesync es mejor que la del gsync compatible .
Lo dejaré en 142fps aunque en todas las pruebas que he hecho no he visto nada de Tearing pero por si acaso.

Un saludo.

Por cierto mi monitor tiene un rango de freesync de 48 a 144hz, esta bien? Me pareció ver que algunos bajaban hasta 30.
No creo que se me de el caso de bajar tantos fps de momento pero es por saber.


Eso depende de cada monitor, en el mío el rango mínimo es 40 pero luego de 39 a 24Hz entra el LFC (low framerate compensation) que es por software. Aún así por mucho freesync que haya, yo no quiero que mi tasa baje de 50fps, ya que se nota la pérdida de fluidez, aunque sí es cierto que va más suave con freesync incluso a 40-50 que sin tenerlo, eso no quita que para mí lo ideal sea estar por encima de 50 siempre.
Tengo una duda compañeros ....

Tengo una RX 6600 xt,(hice un downgrade chulo desde mi 6900xt jeje) y al intentar hacerle un poco de oc, no me deja subir a mas de 4% el power limit.

Con la 6900xt que tenia recuerdo que me dejaba subirlo mas y en la 6500xt del ordenador de la novia me deja subirlo hasta un 15%

Un saludo y gracias
loco_desk escribió:Tengo una duda compañeros ....

Tengo una RX 6600 xt,(hice un downgrade chulo desde mi 6900xt jeje) y al intentar hacerle un poco de oc, no me deja subir a mas de 4% el power limit.

Con la 6900xt que tenia recuerdo que me dejaba subirlo mas y en la 6500xt del ordenador de la novia me deja subirlo hasta un 15%

Un saludo y gracias

Esos limites van impuestos por la bios de la tarjeta, los puedes modificar con el more power tool pero ve con cuidado no le vayas a poner demasiado power y se te fría la tarjeta [tomaaa]

https://www.igorslab.de/en/red-bios-edi ... unlimited/
@Pacorrr

El LFC que comentas es esto que tengo activado en W11?

Imagen
Bueno por fin he podido pillar un monitor 4k 144hz con freesync, llevaba tiempo buscando pero paso de pagar la burradas de precio que piden, en cuanto he visto uno por debajo de 500 euros lo he comprado
vtec16 escribió:@Pacorrr

El LFC que comentas es esto que tengo activado en W11?

Imagen

No, ese es el ajuste de VRR estándar de Windows, el LFC es automático una vez activas el Freesync en los drivers Radeon y entra por debajo de la tasa mínima (48 en tu caso), si tu monitor es Freesync Premium (te lo pondrá en los ajustes de Freesync de los drivers), entonces tienes LFC, también puedes mirarlo en el listado de monitores Freesync de la web de AMD

https://www.amd.com/es/products/freesync-monitors
Pacorrr escribió:
vtec16 escribió:@Pacorrr

El LFC que comentas es esto que tengo activado en W11?

Imagen

No, ese es el ajuste de VRR estándar de Windows, el LFC es automático una vez activas el Freesync en los drivers Radeon y entra por debajo de la tasa mínima (48 en tu caso), si tu monitor es Freesync Premium (te lo pondrá en los ajustes de Freesync de los drivers), entonces tienes LFC, también puedes mirarlo en el listado de monitores Freesync de la web de AMD

https://www.amd.com/es/products/freesync-monitors



Entonces por lo que veo el mio no es Premium..

Imagen
vtec16 escribió:
Pacorrr escribió:
vtec16 escribió:@Pacorrr

El LFC que comentas es esto que tengo activado en W11?

Imagen

No, ese es el ajuste de VRR estándar de Windows, el LFC es automático una vez activas el Freesync en los drivers Radeon y entra por debajo de la tasa mínima (48 en tu caso), si tu monitor es Freesync Premium (te lo pondrá en los ajustes de Freesync de los drivers), entonces tienes LFC, también puedes mirarlo en el listado de monitores Freesync de la web de AMD

https://www.amd.com/es/products/freesync-monitors



Entonces por lo que veo el mio no es Premium..

Imagen

Así es, tu monitor no tiene LFC, pero vamos, que tampoco es la panacea, no te preocupes, lo ideal es que no bajes nunca de tu rango de Freesync de 48Hz.
Micropagos está baneado por "Saltarse el baneo con un clon"
Vienen sonando fuerte los nuevos refresh de las RX 6000, traerían mejores velocidad de memoría y no se sabe si serian 7nm o a 6nm.
8701 respuestas