Duron600 escribió:_Bender_ escribió:@Duron600 esto no es Nvidia.
Si tienes freesync deberías tener el vsync desactivado.
Limita los fps por debajo del limite de tu monitor y listo.
Enhanced sync, pretende activar el vsync cuando te pasas de fps, desactivarlo cuando está en el rango de los Hz del monitor y no recuerdo que hacía cuando estaba por debajo.
En principio debería ser la mejor solución pero no siempre funciona como debe.
Te digo exactamente lo que hace:
Si los FPS > Hz: El monitor recibe siempre el fotograma más fresco disponible en el momento exacto del refresco de pantalla, eliminando el desgarro visual sin añadir el retraso de "espera" del V-Sync.
Si los FPS < Hz: Enhanced Sync se desactiva automáticamente para evitar los tirones (stuttering) masivos que causa el V-Sync tradicional, permitiendo que ocurra un desgarro momentáneo para mantener la fluidez del movimiento.
Como ves lo ideal es activar el enhanced sync y el freesync. Aunque en competitivo yo limitaría los fps por debajo de los Hz del monitor.
Cada caso es un mundo, he probado todas las configuraciones posibles, la que tú comentas en mi caso me resulta peor que la que uso. Yo solo puedo hablar del hardware que uso actualmente: 7900XTX + LG Oled C2 VRR 40 -120.
Con VRR (freesync)
Si como dices desactivo Vsync y limito los FPS a 116, va exactamente igual que si activo Vsync solo en Adrenalin
sin limitar a 116, pues como explique, mientras GPU y TV esten en el rango VRR 40 - 120, solo esta actuando el VRR
Vsync actúa a partir de 120.
Como tú comentas, en mi caso pierdo 4 FPS y dependiendo del juego limitar fps quitar vsync y tirar de VRR no siempre va fino.
Saludos![]()
Dauragon85 escribió:Duron600 escribió:_Bender_ escribió:@Duron600 esto no es Nvidia.
Si tienes freesync deberías tener el vsync desactivado.
Limita los fps por debajo del limite de tu monitor y listo.
Enhanced sync, pretende activar el vsync cuando te pasas de fps, desactivarlo cuando está en el rango de los Hz del monitor y no recuerdo que hacía cuando estaba por debajo.
En principio debería ser la mejor solución pero no siempre funciona como debe.
Te digo exactamente lo que hace:
Si los FPS > Hz: El monitor recibe siempre el fotograma más fresco disponible en el momento exacto del refresco de pantalla, eliminando el desgarro visual sin añadir el retraso de "espera" del V-Sync.
Si los FPS < Hz: Enhanced Sync se desactiva automáticamente para evitar los tirones (stuttering) masivos que causa el V-Sync tradicional, permitiendo que ocurra un desgarro momentáneo para mantener la fluidez del movimiento.
Como ves lo ideal es activar el enhanced sync y el freesync. Aunque en competitivo yo limitaría los fps por debajo de los Hz del monitor.
Cada caso es un mundo, he probado todas las configuraciones posibles, la que tú comentas en mi caso me resulta peor que la que uso. Yo solo puedo hablar del hardware que uso actualmente: 7900XTX + LG Oled C2 VRR 40 -120.
Con VRR (freesync)
Si como dices desactivo Vsync y limito los FPS a 116, va exactamente igual que si activo Vsync solo en Adrenalin
sin limitar a 116, pues como explique, mientras GPU y TV esten en el rango VRR 40 - 120, solo esta actuando el VRR
Vsync actúa a partir de 120.
Como tú comentas, en mi caso pierdo 4 FPS y dependiendo del juego limitar fps quitar vsync y tirar de VRR no siempre va fino.
Saludos![]()
Pues también tengo la C2 ya me haces dudas de cómo dejarlo ¿Cómo es que no va fino en algunos juegos limitando a 116 sin vsync y con freesync? Así no debería pasar nunca el límite que puede dar problemas, en cambio ai no limitar fps en Adrenalin si hay algún juego que no venga la opción de limitarlos se estarían gastando rescursos en generar más fps que no se van a ver por no dar más la pantalla (a no ser que cuando se suba de 120 fps el vsync haga que no pasen de 120 nunca, que no tengo claro ai actúa así).

Duron600 escribió:Dauragon85 escribió:Duron600 escribió:
Cada caso es un mundo, he probado todas las configuraciones posibles, la que tú comentas en mi caso me resulta peor que la que uso. Yo solo puedo hablar del hardware que uso actualmente: 7900XTX + LG Oled C2 VRR 40 -120.
Con VRR (freesync)
Si como dices desactivo Vsync y limito los FPS a 116, va exactamente igual que si activo Vsync solo en Adrenalin
sin limitar a 116, pues como explique, mientras GPU y TV esten en el rango VRR 40 - 120, solo esta actuando el VRR
Vsync actúa a partir de 120.
Como tú comentas, en mi caso pierdo 4 FPS y dependiendo del juego limitar fps quitar vsync y tirar de VRR no siempre va fino.
Saludos![]()
Pues también tengo la C2 ya me haces dudas de cómo dejarlo ¿Cómo es que no va fino en algunos juegos limitando a 116 sin vsync y con freesync? Así no debería pasar nunca el límite que puede dar problemas, en cambio ai no limitar fps en Adrenalin si hay algún juego que no venga la opción de limitarlos se estarían gastando rescursos en generar más fps que no se van a ver por no dar más la pantalla (a no ser que cuando se suba de 120 fps el vsync haga que no pasen de 120 nunca, que no tengo claro ai actúa así).
Si tienes el mismo modelo que yo: LG OLED evo C2 Smart TV 4K de 55 pulgadas, puedes activar el monitor de juegos del televisor el cual tiene lectura de FPSFoto random sacada de internet
y comprobar tú mismo si el VRR del juego esta funcionando, correctamente, monitoriza los fps por adrenalin y por LG al mismo tiempo, si van coordinados, la TV saca los fps que la GPU le manda en el rango 40 - 120.
No todos los juego van finos en VRR
No todos los juegos aceptan la limitación de FPS de adrenalin
Activando Vsync en adrenalin, y VRR (Freesync) en Adrenalin y la television
No vas a pasar nunca de 120, y en el rango 40 120 actua solo VRR, vsync actua a partir de 120 para sincronizar TV y GPU a 120 fuera de rango de VRR.
Total prueba todas las configuraciones posibles y quédate con la que más te guste.
Saludos![]()
_Bender_ escribió:@Duron600 ten en cuenta que el vsync mete bastante latencia, precisamente el freesync está para evitar usar el vsync.
Aunque es posible que ni lo tengas activado porque si en el juego lo desactivas debería prevalecer lo que indiques en el juego.
En mi opinión la mejor configuración debería ser con enhanced sync, freesync y limitar los fps por debajo del limite de Hz del monitor.
Al menos en juegos competitivos yo siempre lo pondría así.
Duron600 escribió:Si tienes el mismo modelo que yo: LG OLED evo C2 Smart TV 4K de 55 pulgadas, puedes activar el monitor de juegos del televisor el cual tiene lectura de FPSFoto random sacada de internet
y comprobar tú mismo si el VRR del juego esta funcionando, correctamente, monitoriza los fps por adrenalin y por LG al mismo tiempo, si van coordinados, la TV saca los fps que la GPU le manda en el rango 40 - 120.
No todos los juego van finos en VRR
No todos los juegos aceptan la limitación de FPS de adrenalin
Activando Vsync en adrenalin, y VRR (Freesync) en Adrenalin y la television
No vas a pasar nunca de 120, y en el rango 40 120 actua solo VRR, vsync actua a partir de 120 para sincronizar TV y GPU a 120 fuera de rango de VRR.
Total prueba todas las configuraciones posibles y quédate con la que más te guste.
Saludos![]()
dunkam82 escribió:Duron600 escribió:Si tienes el mismo modelo que yo: LG OLED evo C2 Smart TV 4K de 55 pulgadas, puedes activar el monitor de juegos del televisor el cual tiene lectura de FPSFoto random sacada de internet
y comprobar tú mismo si el VRR del juego esta funcionando, correctamente, monitoriza los fps por adrenalin y por LG al mismo tiempo, si van coordinados, la TV saca los fps que la GPU le manda en el rango 40 - 120.
No todos los juego van finos en VRR
No todos los juegos aceptan la limitación de FPS de adrenalin
Activando Vsync en adrenalin, y VRR (Freesync) en Adrenalin y la television
No vas a pasar nunca de 120, y en el rango 40 120 actua solo VRR, vsync actua a partir de 120 para sincronizar TV y GPU a 120 fuera de rango de VRR.
Total prueba todas las configuraciones posibles y quédate con la que más te guste.
Saludos![]()
Te doy un truco del almendruco para la tele, si pulsas unas cuantas veces seguidas el botoncito verde (el de los colores del teletexto que hay uno rojo, uno verde, uno amarillo y uno azul) te aparecerá un cuadro en la esquina superior derecha donde te indica el tipo de señal que está recibiendo la tele y el contador de FPS menos intrusivo que molesta muchísimo menos que la barra de juego ahí en medio ocupando 1/3 de la imagen.
Y el truco del truco es que si le das a la fecha de atrás y vuelves a pulsar varias veces el botón verde te vuelve a salir el cuadrado con la info pero en la otra esquina y así sucesivamente lo puedes ir moviendo por las diferentes esquinas de la tele.
daniel78 escribió:Muy buenas compañeros. Qué modelo de la 9070xt me recomendáis? Tenía dicidido pillar la Saphire Nitro+ pero he leído que el conector da problemas.
daniel78 escribió:Muy buenas compañeros. Qué modelo de la 9070xt me recomendáis? Tenía dicidido pillar la Saphire Nitro+ pero he leído que el conector da problemas.
daniel78 escribió:Muchas gracias a los 2. Les echaré un vistazo.
davidre81bcn escribió:daniel78 escribió:Muy buenas compañeros. Qué modelo de la 9070xt me recomendáis? Tenía dicidido pillar la Saphire Nitro+ pero he leído que el conector da problemas.
Yo tengo la pulse y contento con ella eso sí es un tocho
jopasaps escribió:davidre81bcn escribió:daniel78 escribió:Muy buenas compañeros. Qué modelo de la 9070xt me recomendáis? Tenía dicidido pillar la Saphire Nitro+ pero he leído que el conector da problemas.
Yo tengo la pulse y contento con ella eso sí es un tocho
Esa tengo yo y estoy teniendo unos problemas bestiales para que ajuste en la caja Antec Perfomance 1FT.
He movido todo lo que he podido la placa base al borde izquierdo de la caja apretando en cruz y entra muy forzada. Tanto que el otro día casi me cargo la msi b850 tomahawk wifi por la zona derecha.
A alguien más le ha pasado en su caja?
Se que había casos reportados de algunas cajas Lian Li, y algunos reportes de una caja Antec, pero no de mi modelo.
No me había pasado nunca. Es que literalmente está desplazada unos milímetros a la derecha y es una odisea meterla en el slot pcie.
daniel78 escribió:Muy buenas compañeros. Qué modelo de la 9070xt me recomendáis? Tenía dicidido pillar la Saphire Nitro+ pero he leído que el conector da problemas.
Thirteen escribió:Ya van a volver a subir los precios...
https://www.geeknetic.es/Noticia/37498/AMD-planea-otra-subida-de-precios-para-sus-GPUs-el-fabricante-incrementara-el-precio-un-10-y-priorizara-los-modelos-de-8-GB.html
jopasaps escribió:Thirteen escribió:Ya van a volver a subir los precios...
https://www.geeknetic.es/Noticia/37498/AMD-planea-otra-subida-de-precios-para-sus-GPUs-el-fabricante-incrementara-el-precio-un-10-y-priorizara-los-modelos-de-8-GB.html
Estaban tardando. Luego subirán los modelos de 8 GB también a precio de unicornio.
rubee3n escribió:Buenos días creéis que un i5 12400 para una 9070xt en 1440p se queda pequeño y habrá cuello de botella? Lo digo por cambiar mi 6800xt por esa o pasar directamente. Gracias de antemano.
Jezebeth escribió:rubee3n escribió:Buenos días creéis que un i5 12400 para una 9070xt en 1440p se queda pequeño y habrá cuello de botella? Lo digo por cambiar mi 6800xt por esa o pasar directamente. Gracias de antemano.
Te sirve perfectamente ese 12400, si buscas tasas altisimas de fps en juegos poco demandantes pues si te será una limitación el procesador, pero por norma general no.
Algo que puedes comprobar tu mismo en Youtube xD, pero bueno te ahorro buscar y te pongo esto por ejemplo :
usuariopc escribió:jopasaps escribió:Thirteen escribió:Ya van a volver a subir los precios...
https://www.geeknetic.es/Noticia/37498/AMD-planea-otra-subida-de-precios-para-sus-GPUs-el-fabricante-incrementara-el-precio-un-10-y-priorizara-los-modelos-de-8-GB.html
Estaban tardando. Luego subirán los modelos de 8 GB también a precio de unicornio.
La gente decía de 8 GB de VRAM no eran suficientes y se van a convertir en el nuevo estándar. Lo bueno es que van a tener que optimizar los juegos para que esa memoria sea suficiente, incluso para jugar a 4K. Supongo que el FSR y DLSS ayudarán.
botijozgz escribió:Se rumorea que el siguiente FSR "DIAMOND" no sera compatble con RDNA 4 aka RX9000 y por supuesto con las anteriores radeons.
adriano_99 escribió:botijozgz escribió:Se rumorea que el siguiente FSR "DIAMOND" no sera compatble con RDNA 4 aka RX9000 y por supuesto con las anteriores radeons.
No solo tengo una 9070XT sino que 3 amigos míos se la han comprado una por mi recomendación.
Si nos dejan tirados con FSR5 o como lo llamen te aseguro que los 4 nos volvemos a nvidia.
De verdad, la parte de gráficas de AMD la llevan monos retrasados.
No ven que sus CPU están donde están por el increíble soporte que han dado a sus placas base?
Si dejas tirados a tus compradores en 2 años luego no te sorprendas cuando no vuelven.
botijozgz escribió:adriano_99 escribió:botijozgz escribió:Se rumorea que el siguiente FSR "DIAMOND" no sera compatble con RDNA 4 aka RX9000 y por supuesto con las anteriores radeons.
No solo tengo una 9070XT sino que 3 amigos míos se la han comprado una por mi recomendación.
Si nos dejan tirados con FSR5 o como lo llamen te aseguro que los 4 nos volvemos a nvidia.
De verdad, la parte de gráficas de AMD la llevan monos retrasados.
No ven que sus CPU están donde están por el increíble soporte que han dado a sus placas base?
Si dejas tirados a tus compradores en 2 años luego no te sorprendas cuando no vuelven.
No es novedad, preguntales a los de RDNA 2 y 3 que les parece que FSR4 no lo puedan usar oficialmente en sus GPUS compradas hace pocos años.
adriano_99 escribió:botijozgz escribió:Se rumorea que el siguiente FSR "DIAMOND" no sera compatble con RDNA 4 aka RX9000 y por supuesto con las anteriores radeons.
No solo tengo una 9070XT sino que 3 amigos míos se la han comprado una por mi recomendación.
Si nos dejan tirados con FSR5 o como lo llamen te aseguro que los 4 nos volvemos a nvidia.
De verdad, la parte de gráficas de AMD la llevan monos retrasados.
No ven que sus CPU están donde están por el increíble soporte que han dado a sus placas base?
Si dejas tirados a tus compradores en 2 años luego no te sorprendas cuando no vuelven.
ivan95 escribió:adriano_99 escribió:botijozgz escribió:Se rumorea que el siguiente FSR "DIAMOND" no sera compatble con RDNA 4 aka RX9000 y por supuesto con las anteriores radeons.
No solo tengo una 9070XT sino que 3 amigos míos se la han comprado una por mi recomendación.
Si nos dejan tirados con FSR5 o como lo llamen te aseguro que los 4 nos volvemos a nvidia.
De verdad, la parte de gráficas de AMD la llevan monos retrasados.
No ven que sus CPU están donde están por el increíble soporte que han dado a sus placas base?
Si dejas tirados a tus compradores en 2 años luego no te sorprendas cuando no vuelven.
Entonces ya mismo dejaras de usar el PC, Nvidia hace lo mismo e Intel tambien.
rubee3n escribió:Buenos días creéis que un i5 12400 para una 9070xt en 1440p se queda pequeño y habrá cuello de botella? Lo digo por cambiar mi 6800xt por esa o pasar directamente. Gracias de antemano.
adriano_99 escribió:botijozgz escribió:adriano_99 escribió:No solo tengo una 9070XT sino que 3 amigos míos se la han comprado una por mi recomendación.
Si nos dejan tirados con FSR5 o como lo llamen te aseguro que los 4 nos volvemos a nvidia.
De verdad, la parte de gráficas de AMD la llevan monos retrasados.
No ven que sus CPU están donde están por el increíble soporte que han dado a sus placas base?
Si dejas tirados a tus compradores en 2 años luego no te sorprendas cuando no vuelven.
No es novedad, preguntales a los de RDNA 2 y 3 que les parece que FSR4 no lo puedan usar oficialmente en sus GPUS compradas hace pocos años.
Se que no es novedad pero uno espera que aprendan de sus errores y más cuando van tan detrás de nvidia que si fuese una carrera les habrían doblado un par de veces.
Nunca entenderé el responder ante quejas validas a comportamientos abusivos con un "No es la primera vez que lo hacen."
Y al menos antes tenían la excusa de que las gráficas anteriores no tenían el hardware necesario como pasó de las GTX a las RTX pero que una nvidia de 2018 vaya a terminar teniendo un reescalado mejor ( DLSS 4.5) que una grafica AMD de 2025 sería una autentica vergüenza y por mi parte AMD quedaría tachada parta siempre como opción de compra.
Me da igual que nvidia me pida 5000 euros por la 6090 siempre y cuando sepa que la gráfica va a tener un soporte de verdad y no solo dos años y adiós.
adriano_99 escribió:botijozgz escribió:adriano_99 escribió:No solo tengo una 9070XT sino que 3 amigos míos se la han comprado una por mi recomendación.
Si nos dejan tirados con FSR5 o como lo llamen te aseguro que los 4 nos volvemos a nvidia.
De verdad, la parte de gráficas de AMD la llevan monos retrasados.
No ven que sus CPU están donde están por el increíble soporte que han dado a sus placas base?
Si dejas tirados a tus compradores en 2 años luego no te sorprendas cuando no vuelven.
No es novedad, preguntales a los de RDNA 2 y 3 que les parece que FSR4 no lo puedan usar oficialmente en sus GPUS compradas hace pocos años.
Se que no es novedad pero uno espera que aprendan de sus errores y más cuando van tan detrás de nvidia que si fuese una carrera les habrían doblado un par de veces.
Nunca entenderé el responder ante quejas validas a comportamientos abusivos con un "No es la primera vez que lo hacen."
Y al menos antes tenían la excusa de que las gráficas anteriores no tenían el hardware necesario como pasó de las GTX a las RTX pero que una nvidia de 2018 vaya a terminar teniendo un reescalado mejor ( DLSS 4.5) que una grafica AMD de 2025 sería una autentica vergüenza y por mi parte AMD quedaría tachada parta siempre como opción de compra.
Me da igual que nvidia me pida 5000 euros por la 6090 siempre y cuando sepa que la gráfica va a tener un soporte de verdad y no solo dos años y adiós.
_Bender_ escribió:A ver, en defensa de AMD, las series anteriores no ganan rendimiento con el fsr4, así que no tiene sentido que lo soporten.
Pero vamos que son empresas y si lo hacen mal lo mejor es votar con la cartera.
Estamos en un momento crítico porque Nvidia no está enfocada en los gamers y AMD... Digamos que no han estado bien desde que eran ATI.
radeonxt escribió:Yo he estado dudando hasta el último minuto entre 2 gpus ( que todavía no descarto porqye soy bastante indeciso y aún no me ha llegado) entre la 9070 y la RTX 5070. La RTX es menos potente en raster, ahi ahí en RT y está muy por encima si se activa Path tracing.
Tenemos un fuerza bruta y eficiente (9070)vs tecnologías algo más avanzadas (5070).
Lo peor de eso es que AMD ha conseguido una tarjera mejor, con más Vram con menor consumo (220w tdp vs 250w tdp), pero con peor PT y peor soporte de escalado (sin tocar nada de optiscaler y esas cosas). No muchos juegos tienen fsr4 (dlss tienen una barbaridad y fsr 3 es… 😵😓) y el soporte de fsr5 a rnda 4 està en entredicho.
Por tanto, los que íbamos a estas gamas nos han dejado un poco tirados debido a soporte y tecnologías 😅😔😫. Es decir, no me gasto 600€ o más en una gpu para que no extiendas a más juegos fsr4 cuando le da sopa con ondas a fsr3 mientras tu competencia mete dlss hasta en la sopa. Que los que hayan pillado 7800XT palante no tengan fsr4 en una de sus variantes existiendo soporte es un sinsentido con lo que pagó la gente por esa gpu…
Por curiosidad una corsair rm750x es suficiente para una 9070XT?
Thirteen escribió:La mia que es una asus prime recomiendan 750w pero la fuente tiene que tener 3 cables de 8 pines exclusivamente para la gpu que es lo que tienes que mirar y evitar poner adaptadores.
Soutel escribió:Thirteen escribió:La mia que es una asus prime recomiendan 750w pero la fuente tiene que tener 3 cables de 8 pines exclusivamente para la gpu que es lo que tienes que mirar y evitar poner adaptadores.
Yo sin embargo compré la Gigabyte Gaming 9070 XT y leyendo días después resulta que es de las peores en cuanto a temperaturas. Me pasa por no informarme antes, pero también era la más barata que encontré.
Vamos a ver cuando llegue el calor almeriense que es insoportable, que tal se comporta. Y en la habitación donde está el PC no tengo aire acondicionado.
Saludos.
ziu escribió:Yo creo q amd lo lo ha hecho mal con sus gpu, lleva años colaborando con Sony Microsoft y Steam para optimizar y mejorar todo, lo q pasa es q Nvidia es otro nivel, y llegar a hacerles sombra es muy difícil.
Veremos la próxima generación de amd con ps6 , seguro q lo hace genial
radeonxt escribió:Yo he estado dudando hasta el último minuto entre 2 gpus ( que todavía no descarto porqye soy bastante indeciso y aún no me ha llegado) entre la 9070 y la RTX 5070. La RTX es menos potente en raster, ahi ahí en RT y está muy por encima si se activa Path tracing.
Tenemos un fuerza bruta y eficiente (9070)vs tecnologías algo más avanzadas (5070).
Lo peor de eso es que AMD ha conseguido una tarjera mejor, con más Vram con menor consumo (220w tdp vs 250w tdp), pero con peor PT y peor soporte de escalado (sin tocar nada de optiscaler y esas cosas). No muchos juegos tienen fsr4 (dlss tienen una barbaridad y fsr 3 es… 😵😓) y el soporte de fsr5 a rnda 4 està en entredicho.
Por tanto, los que íbamos a estas gamas nos han dejado un poco tirados debido a soporte y tecnologías 😅😔😫. Es decir, no me gasto 600€ o más en una gpu para que no extiendas a más juegos fsr4 cuando le da sopa con ondas a fsr3 mientras tu competencia mete dlss hasta en la sopa. Que los que hayan pillado 7800XT palante no tengan fsr4 en una de sus variantes existiendo soporte es un sinsentido con lo que pagó la gente por esa gpu…
Por curiosidad una corsair rm750x es suficiente para una 9070XT?
Antuanerr escribió:radeonxt escribió:Yo he estado dudando hasta el último minuto entre 2 gpus ( que todavía no descarto porqye soy bastante indeciso y aún no me ha llegado) entre la 9070 y la RTX 5070. La RTX es menos potente en raster, ahi ahí en RT y está muy por encima si se activa Path tracing.
Tenemos un fuerza bruta y eficiente (9070)vs tecnologías algo más avanzadas (5070).
Lo peor de eso es que AMD ha conseguido una tarjera mejor, con más Vram con menor consumo (220w tdp vs 250w tdp), pero con peor PT y peor soporte de escalado (sin tocar nada de optiscaler y esas cosas). No muchos juegos tienen fsr4 (dlss tienen una barbaridad y fsr 3 es… 😵😓) y el soporte de fsr5 a rnda 4 està en entredicho.
Por tanto, los que íbamos a estas gamas nos han dejado un poco tirados debido a soporte y tecnologías 😅😔😫. Es decir, no me gasto 600€ o más en una gpu para que no extiendas a más juegos fsr4 cuando le da sopa con ondas a fsr3 mientras tu competencia mete dlss hasta en la sopa. Que los que hayan pillado 7800XT palante no tengan fsr4 en una de sus variantes existiendo soporte es un sinsentido con lo que pagó la gente por esa gpu…
Por curiosidad una corsair rm750x es suficiente para una 9070XT?
Yo cuando compré la rx9070xt también tenía en el punto de mira la rtx5070, estaba 50€ mas barata que esta, encima de un buen ensamblador con sus 3 ventis, pero la diferencia de rendimiento significativa de rasterizado me hizo decantarme por esta, si fuera el caso de la rx9070 normal a un precio similar si me hubiera decantado por la rtx5070.
No estoy arrepentido de haberla comprado pero viendo como avanzan las cosas ya tengo la duda de si hubiera sido mejor opción la nvidia, además tal como comentas, el dlss en general tiene mucho mas soporte en juegos, o por lo menos esa es la impresión que me ha dado a mí que solo he podido activar fsr4 en el cyberpunk (eso si con muy buen resultado).
La fuente que tienes te vale perfectamente, estoy yo con una de 650w de una calidad similar, aunque tocando un poco los voltajes para no forzarla mucho.

Caniyan escribió:AMD arregla el overclock de las RX 9000 tras 1 año de drivers
Ahora, con los drivers actualizados y tras pruebas, reportes y datos concretos por parte de los usuarios, ese control desde el driver para el overclock de las RX 9000 por fin responde. El “Max Frequency Offset” ya aplica correctamente y permite escalar la frecuencia de la GPU como se espera, alcanzando cifras cercanas a los 3.750 MHz en benchmarks y algunos juegos.
https://elchapuzasinformatico.com/2026/ ... 00-driver/