Radeon RX 9000

Duron600 escribió:
_Bender_ escribió:@Duron600 esto no es Nvidia.

Si tienes freesync deberías tener el vsync desactivado.

Limita los fps por debajo del limite de tu monitor y listo.

Enhanced sync, pretende activar el vsync cuando te pasas de fps, desactivarlo cuando está en el rango de los Hz del monitor y no recuerdo que hacía cuando estaba por debajo.

En principio debería ser la mejor solución pero no siempre funciona como debe.
Te digo exactamente lo que hace:

Si los FPS > Hz: El monitor recibe siempre el fotograma más fresco disponible en el momento exacto del refresco de pantalla, eliminando el desgarro visual sin añadir el retraso de "espera" del V-Sync.
Si los FPS < Hz: Enhanced Sync se desactiva automáticamente para evitar los tirones (stuttering) masivos que causa el V-Sync tradicional, permitiendo que ocurra un desgarro momentáneo para mantener la fluidez del movimiento.

Como ves lo ideal es activar el enhanced sync y el freesync. Aunque en competitivo yo limitaría los fps por debajo de los Hz del monitor.


Cada caso es un mundo, he probado todas las configuraciones posibles, la que tú comentas en mi caso me resulta peor que la que uso. Yo solo puedo hablar del hardware que uso actualmente: 7900XTX + LG Oled C2 VRR 40 -120.

Con VRR (freesync)
Si como dices desactivo Vsync y limito los FPS a 116, va exactamente igual que si activo Vsync solo en Adrenalin
sin limitar a 116, pues como explique, mientras GPU y TV esten en el rango VRR 40 - 120, solo esta actuando el VRR
Vsync actúa a partir de 120.

Como tú comentas, en mi caso pierdo 4 FPS y dependiendo del juego limitar fps quitar vsync y tirar de VRR no siempre va fino.

Saludos [oki] [oki]


Pues también tengo la C2 ya me haces dudas de cómo dejarlo ¿Cómo es que no va fino en algunos juegos limitando a 116 sin vsync y con freesync? Así no debería pasar nunca el límite que puede dar problemas, en cambio ai no limitar fps en Adrenalin si hay algún juego que no venga la opción de limitarlos se estarían gastando rescursos en generar más fps que no se van a ver por no dar más la pantalla (a no ser que cuando se suba de 120 fps el vsync haga que no pasen de 120 nunca, que no tengo claro ai actúa así).
Dauragon85 escribió:
Duron600 escribió:
_Bender_ escribió:@Duron600 esto no es Nvidia.

Si tienes freesync deberías tener el vsync desactivado.

Limita los fps por debajo del limite de tu monitor y listo.

Enhanced sync, pretende activar el vsync cuando te pasas de fps, desactivarlo cuando está en el rango de los Hz del monitor y no recuerdo que hacía cuando estaba por debajo.

En principio debería ser la mejor solución pero no siempre funciona como debe.
Te digo exactamente lo que hace:

Si los FPS > Hz: El monitor recibe siempre el fotograma más fresco disponible en el momento exacto del refresco de pantalla, eliminando el desgarro visual sin añadir el retraso de "espera" del V-Sync.
Si los FPS < Hz: Enhanced Sync se desactiva automáticamente para evitar los tirones (stuttering) masivos que causa el V-Sync tradicional, permitiendo que ocurra un desgarro momentáneo para mantener la fluidez del movimiento.

Como ves lo ideal es activar el enhanced sync y el freesync. Aunque en competitivo yo limitaría los fps por debajo de los Hz del monitor.


Cada caso es un mundo, he probado todas las configuraciones posibles, la que tú comentas en mi caso me resulta peor que la que uso. Yo solo puedo hablar del hardware que uso actualmente: 7900XTX + LG Oled C2 VRR 40 -120.

Con VRR (freesync)
Si como dices desactivo Vsync y limito los FPS a 116, va exactamente igual que si activo Vsync solo en Adrenalin
sin limitar a 116, pues como explique, mientras GPU y TV esten en el rango VRR 40 - 120, solo esta actuando el VRR
Vsync actúa a partir de 120.

Como tú comentas, en mi caso pierdo 4 FPS y dependiendo del juego limitar fps quitar vsync y tirar de VRR no siempre va fino.

Saludos [oki] [oki]


Pues también tengo la C2 ya me haces dudas de cómo dejarlo ¿Cómo es que no va fino en algunos juegos limitando a 116 sin vsync y con freesync? Así no debería pasar nunca el límite que puede dar problemas, en cambio ai no limitar fps en Adrenalin si hay algún juego que no venga la opción de limitarlos se estarían gastando rescursos en generar más fps que no se van a ver por no dar más la pantalla (a no ser que cuando se suba de 120 fps el vsync haga que no pasen de 120 nunca, que no tengo claro ai actúa así).


Si tienes el mismo modelo que yo: LG OLED evo C2 Smart TV 4K de 55 pulgadas, puedes activar el monitor de juegos del televisor el cual tiene lectura de FPS
Imagen
Foto random sacada de internet

y comprobar tú mismo si el VRR del juego esta funcionando, correctamente, monitoriza los fps por adrenalin y por LG al mismo tiempo, si van coordinados, la TV saca los fps que la GPU le manda en el rango 40 - 120.

No todos los juego van finos en VRR
No todos los juegos aceptan la limitación de FPS de adrenalin

Activando Vsync en adrenalin, y VRR (Freesync) en Adrenalin y la television

No vas a pasar nunca de 120, y en el rango 40 120 actua solo VRR, vsync actua a partir de 120 para sincronizar TV y GPU a 120 fuera de rango de VRR.

Total prueba todas las configuraciones posibles y quédate con la que más te guste.

Saludos [oki] [oki]
@Duron600 ten en cuenta que el vsync mete bastante latencia, precisamente el freesync está para evitar usar el vsync.

Aunque es posible que ni lo tengas activado porque si en el juego lo desactivas debería prevalecer lo que indiques en el juego.

En mi opinión la mejor configuración debería ser con enhanced sync, freesync y limitar los fps por debajo del limite de Hz del monitor.

Al menos en juegos competitivos yo siempre lo pondría así.
Duron600 escribió:
Dauragon85 escribió:
Duron600 escribió:
Cada caso es un mundo, he probado todas las configuraciones posibles, la que tú comentas en mi caso me resulta peor que la que uso. Yo solo puedo hablar del hardware que uso actualmente: 7900XTX + LG Oled C2 VRR 40 -120.

Con VRR (freesync)
Si como dices desactivo Vsync y limito los FPS a 116, va exactamente igual que si activo Vsync solo en Adrenalin
sin limitar a 116, pues como explique, mientras GPU y TV esten en el rango VRR 40 - 120, solo esta actuando el VRR
Vsync actúa a partir de 120.

Como tú comentas, en mi caso pierdo 4 FPS y dependiendo del juego limitar fps quitar vsync y tirar de VRR no siempre va fino.

Saludos [oki] [oki]


Pues también tengo la C2 ya me haces dudas de cómo dejarlo ¿Cómo es que no va fino en algunos juegos limitando a 116 sin vsync y con freesync? Así no debería pasar nunca el límite que puede dar problemas, en cambio ai no limitar fps en Adrenalin si hay algún juego que no venga la opción de limitarlos se estarían gastando rescursos en generar más fps que no se van a ver por no dar más la pantalla (a no ser que cuando se suba de 120 fps el vsync haga que no pasen de 120 nunca, que no tengo claro ai actúa así).


Si tienes el mismo modelo que yo: LG OLED evo C2 Smart TV 4K de 55 pulgadas, puedes activar el monitor de juegos del televisor el cual tiene lectura de FPS
Imagen
Foto random sacada de internet

y comprobar tú mismo si el VRR del juego esta funcionando, correctamente, monitoriza los fps por adrenalin y por LG al mismo tiempo, si van coordinados, la TV saca los fps que la GPU le manda en el rango 40 - 120.

No todos los juego van finos en VRR
No todos los juegos aceptan la limitación de FPS de adrenalin

Activando Vsync en adrenalin, y VRR (Freesync) en Adrenalin y la television

No vas a pasar nunca de 120, y en el rango 40 120 actua solo VRR, vsync actua a partir de 120 para sincronizar TV y GPU a 120 fuera de rango de VRR.

Total prueba todas las configuraciones posibles y quédate con la que más te guste.

Saludos [oki] [oki]


Probé varias formas y no veo diferencias. Quería dejar una configuración global buena y listo, sin mirar cada juego. No sabía que el limitador de Adrenalin no funcionaba con algunos juegos, pensaba que capaba todos directamente, eso puede ser un problema importante.

_Bender_ escribió:@Duron600 ten en cuenta que el vsync mete bastante latencia, precisamente el freesync está para evitar usar el vsync.

Aunque es posible que ni lo tengas activado porque si en el juego lo desactivas debería prevalecer lo que indiques en el juego.

En mi opinión la mejor configuración debería ser con enhanced sync, freesync y limitar los fps por debajo del limite de Hz del monitor.

Al menos en juegos competitivos yo siempre lo pondría así.


Hay 4 opciones, vsync activado/desactivado siempre y activado/desactivado a menos que la aplicación indique lo contrario. Así que si se pone siempre debería funcionar incluso aunque en los juegos se desactive.

El tema de limitar fps y Enhanced es que si con algunos juegos no funciona o da problemas ya no es interesante, debería ir bien con todos porque al menos en mi caso me parece un coñazo hacer pruebas con cada juego y crear perfiles individuales para cada uno. Prefiero una configuración global que vaya bien con todos y olvidarme.
Duron600 escribió:Si tienes el mismo modelo que yo: LG OLED evo C2 Smart TV 4K de 55 pulgadas, puedes activar el monitor de juegos del televisor el cual tiene lectura de FPS
Imagen
Foto random sacada de internet

y comprobar tú mismo si el VRR del juego esta funcionando, correctamente, monitoriza los fps por adrenalin y por LG al mismo tiempo, si van coordinados, la TV saca los fps que la GPU le manda en el rango 40 - 120.

No todos los juego van finos en VRR
No todos los juegos aceptan la limitación de FPS de adrenalin

Activando Vsync en adrenalin, y VRR (Freesync) en Adrenalin y la television

No vas a pasar nunca de 120, y en el rango 40 120 actua solo VRR, vsync actua a partir de 120 para sincronizar TV y GPU a 120 fuera de rango de VRR.

Total prueba todas las configuraciones posibles y quédate con la que más te guste.

Saludos [oki] [oki]

Te doy un truco del almendruco para la tele, si pulsas unas cuantas veces seguidas el botoncito verde (el de los colores del teletexto que hay uno rojo, uno verde, uno amarillo y uno azul) te aparecerá un cuadro en la esquina superior derecha donde te indica el tipo de señal que está recibiendo la tele y el contador de FPS menos intrusivo que molesta muchísimo menos que la barra de juego ahí en medio ocupando 1/3 de la imagen.

Y el truco del truco es que si le das a la fecha de atrás y vuelves a pulsar varias veces el botón verde te vuelve a salir el cuadrado con la info pero en la otra esquina y así sucesivamente lo puedes ir moviendo por las diferentes esquinas de la tele.
dunkam82 escribió:
Duron600 escribió:Si tienes el mismo modelo que yo: LG OLED evo C2 Smart TV 4K de 55 pulgadas, puedes activar el monitor de juegos del televisor el cual tiene lectura de FPS
Imagen
Foto random sacada de internet

y comprobar tú mismo si el VRR del juego esta funcionando, correctamente, monitoriza los fps por adrenalin y por LG al mismo tiempo, si van coordinados, la TV saca los fps que la GPU le manda en el rango 40 - 120.

No todos los juego van finos en VRR
No todos los juegos aceptan la limitación de FPS de adrenalin

Activando Vsync en adrenalin, y VRR (Freesync) en Adrenalin y la television

No vas a pasar nunca de 120, y en el rango 40 120 actua solo VRR, vsync actua a partir de 120 para sincronizar TV y GPU a 120 fuera de rango de VRR.

Total prueba todas las configuraciones posibles y quédate con la que más te guste.

Saludos [oki] [oki]

Te doy un truco del almendruco para la tele, si pulsas unas cuantas veces seguidas el botoncito verde (el de los colores del teletexto que hay uno rojo, uno verde, uno amarillo y uno azul) te aparecerá un cuadro en la esquina superior derecha donde te indica el tipo de señal que está recibiendo la tele y el contador de FPS menos intrusivo que molesta muchísimo menos que la barra de juego ahí en medio ocupando 1/3 de la imagen.

Y el truco del truco es que si le das a la fecha de atrás y vuelves a pulsar varias veces el botón verde te vuelve a salir el cuadrado con la info pero en la otra esquina y así sucesivamente lo puedes ir moviendo por las diferentes esquinas de la tele.


Buen truco, no me lo sabia, gracias
Saludos [oki] [oki]
Duron600 escribió:Buen truco, no me lo sabia, gracias
Saludos [oki] [oki]

De nada [beer]
Muy buenas compañeros. Qué modelo de la 9070xt me recomendáis? Tenía dicidido pillar la Saphire Nitro+ pero he leído que el conector da problemas.
daniel78 escribió:Muy buenas compañeros. Qué modelo de la 9070xt me recomendáis? Tenía dicidido pillar la Saphire Nitro+ pero he leído que el conector da problemas.

Yo tengo la pulse y contento con ella eso sí es un tocho
daniel78 escribió:Muy buenas compañeros. Qué modelo de la 9070xt me recomendáis? Tenía dicidido pillar la Saphire Nitro+ pero he leído que el conector da problemas.


Yo tengo la asus prime y va genial
Muchas gracias a los 2. Les echaré un vistazo.
daniel78 escribió:Muchas gracias a los 2. Les echaré un vistazo.


Que tal la PowerColor HellHound Reva AMD Radeon RX 9070 XT ? Veo que es un modelo de finales de año.
davidre81bcn escribió:
daniel78 escribió:Muy buenas compañeros. Qué modelo de la 9070xt me recomendáis? Tenía dicidido pillar la Saphire Nitro+ pero he leído que el conector da problemas.

Yo tengo la pulse y contento con ella eso sí es un tocho

Esa tengo yo y estoy teniendo unos problemas bestiales para que ajuste en la caja Antec Perfomance 1FT.
He movido todo lo que he podido la placa base al borde izquierdo de la caja apretando en cruz y entra muy forzada. Tanto que el otro día casi me cargo la msi b850 tomahawk wifi por la zona derecha.
A alguien más le ha pasado en su caja?
Se que había casos reportados de algunas cajas Lian Li, y algunos reportes de una caja Antec, pero no de mi modelo.
No me había pasado nunca. Es que literalmente está desplazada unos milímetros a la derecha y es una odisea meterla en el slot pcie.
jopasaps escribió:
davidre81bcn escribió:
daniel78 escribió:Muy buenas compañeros. Qué modelo de la 9070xt me recomendáis? Tenía dicidido pillar la Saphire Nitro+ pero he leído que el conector da problemas.

Yo tengo la pulse y contento con ella eso sí es un tocho

Esa tengo yo y estoy teniendo unos problemas bestiales para que ajuste en la caja Antec Perfomance 1FT.
He movido todo lo que he podido la placa base al borde izquierdo de la caja apretando en cruz y entra muy forzada. Tanto que el otro día casi me cargo la msi b850 tomahawk wifi por la zona derecha.
A alguien más le ha pasado en su caja?
Se que había casos reportados de algunas cajas Lian Li, y algunos reportes de una caja Antec, pero no de mi modelo.
No me había pasado nunca. Es que literalmente está desplazada unos milímetros a la derecha y es una odisea meterla en el slot pcie.


Yo tengo una nzxt de hace años y me entró bien
daniel78 escribió:Muy buenas compañeros. Qué modelo de la 9070xt me recomendáis? Tenía dicidido pillar la Saphire Nitro+ pero he leído que el conector da problemas.

Yo he tenido la gigabyte y la reaper. Me quede con la reaper y 0 quejas, y encima es la más barata (650€ en coolmod ahora mismo).
@daniel78
La tengo casi de salida y 0 problemas, y si te lo diese para eso tiene tres años de garantía :) :) :)

Estaban tardando. Luego subirán los modelos de 8 GB también a precio de unicornio.
@jopasaps

Juer, si esa caja es inmensa.
@daniel78 yo probe la pulse, buen pepino y la red devil que es tope se gama, me quedé con la red devil. Mejor que la nitro +
Buenos días creéis que un i5 12400 para una 9070xt en 1440p se queda pequeño y habrá cuello de botella? Lo digo por cambiar mi 6800xt por esa o pasar directamente. Gracias de antemano.
jopasaps escribió:

Estaban tardando. Luego subirán los modelos de 8 GB también a precio de unicornio.

La gente decía de 8 GB de VRAM no eran suficientes y se van a convertir en el nuevo estándar. Lo bueno es que van a tener que optimizar los juegos para que esa memoria sea suficiente, incluso para jugar a 4K. Supongo que el FSR y DLSS ayudarán.
rubee3n escribió:Buenos días creéis que un i5 12400 para una 9070xt en 1440p se queda pequeño y habrá cuello de botella? Lo digo por cambiar mi 6800xt por esa o pasar directamente. Gracias de antemano.


Te sirve perfectamente ese 12400, si buscas tasas altisimas de fps en juegos poco demandantes pues si te será una limitación el procesador, pero por norma general no.

Algo que puedes comprobar tu mismo en Youtube xD, pero bueno te ahorro buscar y te pongo esto por ejemplo :
Jezebeth escribió:
rubee3n escribió:Buenos días creéis que un i5 12400 para una 9070xt en 1440p se queda pequeño y habrá cuello de botella? Lo digo por cambiar mi 6800xt por esa o pasar directamente. Gracias de antemano.


Te sirve perfectamente ese 12400, si buscas tasas altisimas de fps en juegos poco demandantes pues si te será una limitación el procesador, pero por norma general no.

Algo que puedes comprobar tu mismo en Youtube xD, pero bueno te ahorro buscar y te pongo esto por ejemplo :

Muchas gracias. Videos he visto, pero también muchos comentarios en reedit sobre que sí existe bastante cuello de botella así que uno ya no sabe qué creer. Un saludo.
Que hay procesadores más potentes que el i5-12400, pues sí, pero de ahí a decir que te hace cuello de botella...

Saludos.
usuariopc escribió:
jopasaps escribió:

Estaban tardando. Luego subirán los modelos de 8 GB también a precio de unicornio.

La gente decía de 8 GB de VRAM no eran suficientes y se van a convertir en el nuevo estándar. Lo bueno es que van a tener que optimizar los juegos para que esa memoria sea suficiente, incluso para jugar a 4K. Supongo que el FSR y DLSS ayudarán.

No, no va a pasar.
Los desarrollos de videojuegos hoy en día tardan de 6 a 8 años, no van a optimizar más porque durante 1 año la ram estuvo muy cara.
De la misma manera que no se hizo cuando las criptos.
No se hizo durante la pandemia.
Y no se hizo en las inundaciones de fabricas de ram hace ni recuerdo cuantos años.
Esta situación tendría que durar por lo menos 4 años para que eso que dices pase.
Se rumorea que el siguiente FSR "DIAMOND" no sera compatble con RDNA 4 aka RX9000 y por supuesto con las anteriores radeons.
botijozgz escribió:Se rumorea que el siguiente FSR "DIAMOND" no sera compatble con RDNA 4 aka RX9000 y por supuesto con las anteriores radeons.

No solo tengo una 9070XT sino que 3 amigos míos se la han comprado una por mi recomendación.
Si nos dejan tirados con FSR5 o como lo llamen te aseguro que los 4 nos volvemos a nvidia.
De verdad, la parte de gráficas de AMD la llevan monos retrasados.
No ven que sus CPU están donde están por el increíble soporte que han dado a sus placas base?
Si dejas tirados a tus compradores en 2 años luego no te sorprendas cuando no vuelven.
adriano_99 escribió:
botijozgz escribió:Se rumorea que el siguiente FSR "DIAMOND" no sera compatble con RDNA 4 aka RX9000 y por supuesto con las anteriores radeons.

No solo tengo una 9070XT sino que 3 amigos míos se la han comprado una por mi recomendación.
Si nos dejan tirados con FSR5 o como lo llamen te aseguro que los 4 nos volvemos a nvidia.
De verdad, la parte de gráficas de AMD la llevan monos retrasados.
No ven que sus CPU están donde están por el increíble soporte que han dado a sus placas base?
Si dejas tirados a tus compradores en 2 años luego no te sorprendas cuando no vuelven.


No es novedad, preguntales a los de RDNA 2 y 3 que les parece que FSR4 no lo puedan usar oficialmente en sus GPUS compradas hace pocos años.
botijozgz escribió:
adriano_99 escribió:
botijozgz escribió:Se rumorea que el siguiente FSR "DIAMOND" no sera compatble con RDNA 4 aka RX9000 y por supuesto con las anteriores radeons.

No solo tengo una 9070XT sino que 3 amigos míos se la han comprado una por mi recomendación.
Si nos dejan tirados con FSR5 o como lo llamen te aseguro que los 4 nos volvemos a nvidia.
De verdad, la parte de gráficas de AMD la llevan monos retrasados.
No ven que sus CPU están donde están por el increíble soporte que han dado a sus placas base?
Si dejas tirados a tus compradores en 2 años luego no te sorprendas cuando no vuelven.


No es novedad, preguntales a los de RDNA 2 y 3 que les parece que FSR4 no lo puedan usar oficialmente en sus GPUS compradas hace pocos años.

Se que no es novedad pero uno espera que aprendan de sus errores y más cuando van tan detrás de nvidia que si fuese una carrera les habrían doblado un par de veces.
Nunca entenderé el responder ante quejas validas a comportamientos abusivos con un "No es la primera vez que lo hacen."
Y al menos antes tenían la excusa de que las gráficas anteriores no tenían el hardware necesario como pasó de las GTX a las RTX pero que una nvidia de 2018 vaya a terminar teniendo un reescalado mejor ( DLSS 4.5) que una grafica AMD de 2025 sería una autentica vergüenza y por mi parte AMD quedaría tachada parta siempre como opción de compra.
Me da igual que nvidia me pida 5000 euros por la 6090 siempre y cuando sepa que la gráfica va a tener un soporte de verdad y no solo dos años y adiós.
adriano_99 escribió:
botijozgz escribió:Se rumorea que el siguiente FSR "DIAMOND" no sera compatble con RDNA 4 aka RX9000 y por supuesto con las anteriores radeons.

No solo tengo una 9070XT sino que 3 amigos míos se la han comprado una por mi recomendación.
Si nos dejan tirados con FSR5 o como lo llamen te aseguro que los 4 nos volvemos a nvidia.
De verdad, la parte de gráficas de AMD la llevan monos retrasados.
No ven que sus CPU están donde están por el increíble soporte que han dado a sus placas base?
Si dejas tirados a tus compradores en 2 años luego no te sorprendas cuando no vuelven.


Entonces ya mismo dejaras de usar el PC, Nvidia hace lo mismo e Intel tambien.
ivan95 escribió:
adriano_99 escribió:
botijozgz escribió:Se rumorea que el siguiente FSR "DIAMOND" no sera compatble con RDNA 4 aka RX9000 y por supuesto con las anteriores radeons.

No solo tengo una 9070XT sino que 3 amigos míos se la han comprado una por mi recomendación.
Si nos dejan tirados con FSR5 o como lo llamen te aseguro que los 4 nos volvemos a nvidia.
De verdad, la parte de gráficas de AMD la llevan monos retrasados.
No ven que sus CPU están donde están por el increíble soporte que han dado a sus placas base?
Si dejas tirados a tus compradores en 2 años luego no te sorprendas cuando no vuelven.


Entonces ya mismo dejaras de usar el PC, Nvidia hace lo mismo e Intel tambien.


Un apunte que siempre hay confusión con ello, todas las tecnologías (excepto una) de Nvidia son compatibles con todas las generaciones de RTX, desde la serie 2000 a las actuales 5000, lo único exclusivo es la generacion de frames, el FGx2 de las 4000 y el MFGx3/4 de las 5000, pero el DLSS, Reflex y Ray reconstruction como digo es compatible con todas, por ejemplo una RTX 2060 de hace 7 años puede usar DLSS 4.5.
A ver, en defensa de AMD, las series anteriores no ganan rendimiento con el fsr4, así que no tiene sentido que lo soporten.


Pero vamos que son empresas y si lo hacen mal lo mejor es votar con la cartera.

Estamos en un momento crítico porque Nvidia no está enfocada en los gamers y AMD... Digamos que no han estado bien desde que eran ATI.
rubee3n escribió:Buenos días creéis que un i5 12400 para una 9070xt en 1440p se queda pequeño y habrá cuello de botella? Lo digo por cambiar mi 6800xt por esa o pasar directamente. Gracias de antemano.


Pues justo llevo un par de días de con ella puesta y tengo la misma cpu que tu. Y va bien la verdad, no la he probado a fondo, pero noto un cambio a mejor respecto a mi anterior RTX 4060 Ti de 8gb. El modelo que tengo es la Gigabyte Gaming.

Un saludo y ya nos contaras tus sensaciones si haces el cambio.
adriano_99 escribió:
botijozgz escribió:
adriano_99 escribió:No solo tengo una 9070XT sino que 3 amigos míos se la han comprado una por mi recomendación.
Si nos dejan tirados con FSR5 o como lo llamen te aseguro que los 4 nos volvemos a nvidia.
De verdad, la parte de gráficas de AMD la llevan monos retrasados.
No ven que sus CPU están donde están por el increíble soporte que han dado a sus placas base?
Si dejas tirados a tus compradores en 2 años luego no te sorprendas cuando no vuelven.


No es novedad, preguntales a los de RDNA 2 y 3 que les parece que FSR4 no lo puedan usar oficialmente en sus GPUS compradas hace pocos años.

Se que no es novedad pero uno espera que aprendan de sus errores y más cuando van tan detrás de nvidia que si fuese una carrera les habrían doblado un par de veces.
Nunca entenderé el responder ante quejas validas a comportamientos abusivos con un "No es la primera vez que lo hacen."
Y al menos antes tenían la excusa de que las gráficas anteriores no tenían el hardware necesario como pasó de las GTX a las RTX pero que una nvidia de 2018 vaya a terminar teniendo un reescalado mejor ( DLSS 4.5) que una grafica AMD de 2025 sería una autentica vergüenza y por mi parte AMD quedaría tachada parta siempre como opción de compra.
Me da igual que nvidia me pida 5000 euros por la 6090 siempre y cuando sepa que la gráfica va a tener un soporte de verdad y no solo dos años y adiós.

Teniendo en cuenta que el CEO de AMD y de Nvidia son familia, y que los principales inversores de ambos ,son los mismos, pues yo ya me voy explicando muchas cosas de los tiros en el pie de AMD en la sección de GPU.
Hola!
Q tal redstone a día de hoy en Fg y patchtracing con RR en juegos como cyberpunk o alan wake?

Saludos!
adriano_99 escribió:
botijozgz escribió:
adriano_99 escribió:No solo tengo una 9070XT sino que 3 amigos míos se la han comprado una por mi recomendación.
Si nos dejan tirados con FSR5 o como lo llamen te aseguro que los 4 nos volvemos a nvidia.
De verdad, la parte de gráficas de AMD la llevan monos retrasados.
No ven que sus CPU están donde están por el increíble soporte que han dado a sus placas base?
Si dejas tirados a tus compradores en 2 años luego no te sorprendas cuando no vuelven.


No es novedad, preguntales a los de RDNA 2 y 3 que les parece que FSR4 no lo puedan usar oficialmente en sus GPUS compradas hace pocos años.

Se que no es novedad pero uno espera que aprendan de sus errores y más cuando van tan detrás de nvidia que si fuese una carrera les habrían doblado un par de veces.
Nunca entenderé el responder ante quejas validas a comportamientos abusivos con un "No es la primera vez que lo hacen."
Y al menos antes tenían la excusa de que las gráficas anteriores no tenían el hardware necesario como pasó de las GTX a las RTX pero que una nvidia de 2018 vaya a terminar teniendo un reescalado mejor ( DLSS 4.5) que una grafica AMD de 2025 sería una autentica vergüenza y por mi parte AMD quedaría tachada parta siempre como opción de compra.
Me da igual que nvidia me pida 5000 euros por la 6090 siempre y cuando sepa que la gráfica va a tener un soporte de verdad y no solo dos años y adiós.

Pues por 5000 pavos se la pueden quedar.

Prefiero pagar 750 y tener 2 años, y a los 2 años me compro otra nueva... total, de aquí a 5000 euros de gasto, estoy 15 años comprando gráficas. [looco]
_Bender_ escribió:A ver, en defensa de AMD, las series anteriores no ganan rendimiento con el fsr4, así que no tiene sentido que lo soporten.


Pero vamos que son empresas y si lo hacen mal lo mejor es votar con la cartera.

Estamos en un momento crítico porque Nvidia no está enfocada en los gamers y AMD... Digamos que no han estado bien desde que eran ATI.


Eso... no es cierto

Tras los batacazos de Vega y la serie 5000, a mí la serie 6000 me pareció buenísima.
Yo he estado dudando hasta el último minuto entre 2 gpus ( que todavía no descarto porqye soy bastante indeciso y aún no me ha llegado) entre la 9070 y la RTX 5070. La RTX es menos potente en raster, ahi ahí en RT y está muy por encima si se activa Path tracing.

Tenemos un fuerza bruta y eficiente (9070)vs tecnologías algo más avanzadas (5070).

Lo peor de eso es que AMD ha conseguido una tarjera mejor, con más Vram con menor consumo (220w tdp vs 250w tdp), pero con peor PT y peor soporte de escalado (sin tocar nada de optiscaler y esas cosas). No muchos juegos tienen fsr4 (dlss tienen una barbaridad y fsr 3 es… 😵😓) y el soporte de fsr5 a rnda 4 està en entredicho.

Por tanto, los que íbamos a estas gamas nos han dejado un poco tirados debido a soporte y tecnologías 😅😔😫. Es decir, no me gasto 600€ o más en una gpu para que no extiendas a más juegos fsr4 cuando le da sopa con ondas a fsr3 mientras tu competencia mete dlss hasta en la sopa. Que los que hayan pillado 7800XT palante no tengan fsr4 en una de sus variantes existiendo soporte es un sinsentido con lo que pagó la gente por esa gpu…

Por curiosidad una corsair rm750x es suficiente para una 9070XT?
radeonxt escribió:Yo he estado dudando hasta el último minuto entre 2 gpus ( que todavía no descarto porqye soy bastante indeciso y aún no me ha llegado) entre la 9070 y la RTX 5070. La RTX es menos potente en raster, ahi ahí en RT y está muy por encima si se activa Path tracing.

Tenemos un fuerza bruta y eficiente (9070)vs tecnologías algo más avanzadas (5070).

Lo peor de eso es que AMD ha conseguido una tarjera mejor, con más Vram con menor consumo (220w tdp vs 250w tdp), pero con peor PT y peor soporte de escalado (sin tocar nada de optiscaler y esas cosas). No muchos juegos tienen fsr4 (dlss tienen una barbaridad y fsr 3 es… 😵😓) y el soporte de fsr5 a rnda 4 està en entredicho.

Por tanto, los que íbamos a estas gamas nos han dejado un poco tirados debido a soporte y tecnologías 😅😔😫. Es decir, no me gasto 600€ o más en una gpu para que no extiendas a más juegos fsr4 cuando le da sopa con ondas a fsr3 mientras tu competencia mete dlss hasta en la sopa. Que los que hayan pillado 7800XT palante no tengan fsr4 en una de sus variantes existiendo soporte es un sinsentido con lo que pagó la gente por esa gpu…

Por curiosidad una corsair rm750x es suficiente para una 9070XT?


Cualquiera de las dos que mencionas seria una gran compra.

En cuanto a la fuente de 750w para una 9070xt dependerá del resto de componentes, yo me compre la 9070xt y fui bruto al comprar una de 1000w pero todo depende del resto de componentes que en principio suelen recomendar según la versión de 9070xt porque algunas consumen mas, unos 750w/850w.

La mia que es una asus prime recomiendan 750w pero la fuente tiene que tener 3 cables de 8 pines exclusivamente para la gpu que es lo que tienes que mirar y evitar poner adaptadores.
Thirteen escribió:La mia que es una asus prime recomiendan 750w pero la fuente tiene que tener 3 cables de 8 pines exclusivamente para la gpu que es lo que tienes que mirar y evitar poner adaptadores.


Yo sin embargo compré la Gigabyte Gaming 9070 XT y leyendo días después resulta que es de las peores en cuanto a temperaturas. Me pasa por no informarme antes, pero también era la más barata que encontré.

Vamos a ver cuando llegue el calor almeriense que es insoportable, que tal se comporta. Y en la habitación donde está el PC no tengo aire acondicionado.

Saludos.
Yo creo q amd lo lo ha hecho mal con sus gpu, lleva años colaborando con Sony Microsoft y Steam para optimizar y mejorar todo, lo q pasa es q Nvidia es otro nivel, y llegar a hacerles sombra es muy difícil.
Veremos la próxima generación de amd con ps6 , seguro q lo hace genial [beer]
Soutel escribió:
Thirteen escribió:La mia que es una asus prime recomiendan 750w pero la fuente tiene que tener 3 cables de 8 pines exclusivamente para la gpu que es lo que tienes que mirar y evitar poner adaptadores.


Yo sin embargo compré la Gigabyte Gaming 9070 XT y leyendo días después resulta que es de las peores en cuanto a temperaturas. Me pasa por no informarme antes, pero también era la más barata que encontré.

Vamos a ver cuando llegue el calor almeriense que es insoportable, que tal se comporta. Y en la habitación donde está el PC no tengo aire acondicionado.

Saludos.



Te tocara si puedes poner en la caja mas ventiladores...aquí en Murcia pasa algo parecido pero la asus prime no se me ha calentado mucho, aunque es cierto que la tengo desde noviembre del año pasado, veremos en verano jajaja
ziu escribió:Yo creo q amd lo lo ha hecho mal con sus gpu, lleva años colaborando con Sony Microsoft y Steam para optimizar y mejorar todo, lo q pasa es q Nvidia es otro nivel, y llegar a hacerles sombra es muy difícil.
Veremos la próxima generación de amd con ps6 , seguro q lo hace genial [beer]


La mejor generacion de amd fue la 6000 que fue justo cuando salio la ultima generacion de consolas, las siguientes se nota un huevo que no estan tan trabajadas como aquella, de hecho fue la primera vez que pudo competir contra nvidia en eficiencia energetica y potencia en todas sus gamas, desde aquella se han dormido bastante centrandose en poner precios medio atractivos y ya, pero asi a la larga no vas a ningun lado

Esperemos que hagan lo mismo esta vez
Dentro de la nefasta relación "aumento de rendimiento/precio", tanto en Nvidia, como en AMD en sus últimas GPUs, estoy moderadamente satisfecho con mi 9070xt comprada en marzo de 2025.

La volvería a comprar antes que la 5070Ti, más aún a los precios que ambas manejan hoy en día. Ahora mismo lo de la 5070Ti, comparada con la 9070xt, es un atraco.
radeonxt escribió:Yo he estado dudando hasta el último minuto entre 2 gpus ( que todavía no descarto porqye soy bastante indeciso y aún no me ha llegado) entre la 9070 y la RTX 5070. La RTX es menos potente en raster, ahi ahí en RT y está muy por encima si se activa Path tracing.

Tenemos un fuerza bruta y eficiente (9070)vs tecnologías algo más avanzadas (5070).

Lo peor de eso es que AMD ha conseguido una tarjera mejor, con más Vram con menor consumo (220w tdp vs 250w tdp), pero con peor PT y peor soporte de escalado (sin tocar nada de optiscaler y esas cosas). No muchos juegos tienen fsr4 (dlss tienen una barbaridad y fsr 3 es… 😵😓) y el soporte de fsr5 a rnda 4 està en entredicho.

Por tanto, los que íbamos a estas gamas nos han dejado un poco tirados debido a soporte y tecnologías 😅😔😫. Es decir, no me gasto 600€ o más en una gpu para que no extiendas a más juegos fsr4 cuando le da sopa con ondas a fsr3 mientras tu competencia mete dlss hasta en la sopa. Que los que hayan pillado 7800XT palante no tengan fsr4 en una de sus variantes existiendo soporte es un sinsentido con lo que pagó la gente por esa gpu…

Por curiosidad una corsair rm750x es suficiente para una 9070XT?


Yo cuando compré la rx9070xt también tenía en el punto de mira la rtx5070, estaba 50€ mas barata que esta, encima de un buen ensamblador con sus 3 ventis, pero la diferencia de rendimiento significativa de rasterizado me hizo decantarme por esta, si fuera el caso de la rx9070 normal a un precio similar si me hubiera decantado por la rtx5070.
No estoy arrepentido de haberla comprado pero viendo como avanzan las cosas ya tengo la duda de si hubiera sido mejor opción la nvidia, además tal como comentas, el dlss en general tiene mucho mas soporte en juegos, o por lo menos esa es la impresión que me ha dado a mí que solo he podido activar fsr4 en el cyberpunk (eso si con muy buen resultado).

La fuente que tienes te vale perfectamente, estoy yo con una de 650w de una calidad similar, aunque tocando un poco los voltajes para no forzarla mucho.
Antuanerr escribió:
radeonxt escribió:Yo he estado dudando hasta el último minuto entre 2 gpus ( que todavía no descarto porqye soy bastante indeciso y aún no me ha llegado) entre la 9070 y la RTX 5070. La RTX es menos potente en raster, ahi ahí en RT y está muy por encima si se activa Path tracing.

Tenemos un fuerza bruta y eficiente (9070)vs tecnologías algo más avanzadas (5070).

Lo peor de eso es que AMD ha conseguido una tarjera mejor, con más Vram con menor consumo (220w tdp vs 250w tdp), pero con peor PT y peor soporte de escalado (sin tocar nada de optiscaler y esas cosas). No muchos juegos tienen fsr4 (dlss tienen una barbaridad y fsr 3 es… 😵😓) y el soporte de fsr5 a rnda 4 està en entredicho.

Por tanto, los que íbamos a estas gamas nos han dejado un poco tirados debido a soporte y tecnologías 😅😔😫. Es decir, no me gasto 600€ o más en una gpu para que no extiendas a más juegos fsr4 cuando le da sopa con ondas a fsr3 mientras tu competencia mete dlss hasta en la sopa. Que los que hayan pillado 7800XT palante no tengan fsr4 en una de sus variantes existiendo soporte es un sinsentido con lo que pagó la gente por esa gpu…

Por curiosidad una corsair rm750x es suficiente para una 9070XT?


Yo cuando compré la rx9070xt también tenía en el punto de mira la rtx5070, estaba 50€ mas barata que esta, encima de un buen ensamblador con sus 3 ventis, pero la diferencia de rendimiento significativa de rasterizado me hizo decantarme por esta, si fuera el caso de la rx9070 normal a un precio similar si me hubiera decantado por la rtx5070.
No estoy arrepentido de haberla comprado pero viendo como avanzan las cosas ya tengo la duda de si hubiera sido mejor opción la nvidia, además tal como comentas, el dlss en general tiene mucho mas soporte en juegos, o por lo menos esa es la impresión que me ha dado a mí que solo he podido activar fsr4 en el cyberpunk (eso si con muy buen resultado).

La fuente que tienes te vale perfectamente, estoy yo con una de 650w de una calidad similar, aunque tocando un poco los voltajes para no forzarla mucho.


Yo he estado 2 semanas dudando entre las 9070 / xt sapphire pulse a 629 y a 670 respectivamente vs la asus dual 5070 a 649, al final ha caído esta (ni por potencia bruta ni eficiencia no precio, sino por tecnologías 😅) la 9070 es más eficiente con su tdp más bajo y rinde algo más y la 9070XT es una bestia parda pero más grande y que consume más. La 9070XT descartada por el tdp(ya 250 de la 5070 me parecen una barbaridad) (esperemos que la 10070xt tenga un tdp más bajo y mejoren PT y escalado) y la 9070 por lo que pongo arriba.

Echo de menos los modelos pro, esos que rendían casi como una XT pero mucho más eficientes y económicos y superaban con creces a la “normal”.
La 9070xt compensa su gran raster , la 5070 al no tenerlo usa tecnologias , cada vez el raster será menos significativo, el 4k es el tope y ya no se necesita sacar tantos FPS por potencia bruta...
AMD arregla el overclock de las RX 9000 tras 1 año de drivers

Imagen

Ahora, con los drivers actualizados y tras pruebas, reportes y datos concretos por parte de los usuarios, ese control desde el driver para el overclock de las RX 9000 por fin responde. El “Max Frequency Offset” ya aplica correctamente y permite escalar la frecuencia de la GPU como se espera, alcanzando cifras cercanas a los 3.750 MHz en benchmarks y algunos juegos.

https://elchapuzasinformatico.com/2026/ ... 00-driver/
Caniyan escribió:AMD arregla el overclock de las RX 9000 tras 1 año de drivers

Imagen

Ahora, con los drivers actualizados y tras pruebas, reportes y datos concretos por parte de los usuarios, ese control desde el driver para el overclock de las RX 9000 por fin responde. El “Max Frequency Offset” ya aplica correctamente y permite escalar la frecuencia de la GPU como se espera, alcanzando cifras cercanas a los 3.750 MHz en benchmarks y algunos juegos.

https://elchapuzasinformatico.com/2026/ ... 00-driver/

Me alegro pero yo quiero control directo, no off sets.
Me flipaba mi overclock de la 3070 porque al 100% de carga estaba fija a 2100Mhz, ni bajaba ni subía.
9399 respuestas
1184, 185, 186, 187, 188