Hablando de los errores a la hora de ver el rendimiento real de los juegos, la verdad es que intento pasar un poco de los test sintéticos y de comerme la cabeza, con el poco tiempo que tengo prefiero echar una partidita y no complicarme la vida.
En mi caso, Ryzen 3600, Powercolor 9060 XT 16Gb (recien comprada hace unos dias), 32 Gb Ram DDR4 3600Mhz, monitor 1440p 165Hz.
Para mi el rendimiento se mide jugando, hablando siempre que mi intención es jugar a una calidad grafica aceptable sin necesitar los 165 fps que da el monitor, soy consciente del equipo que tengo.
No he tenido tiempo de probar mucho pero después de varios dias mi experiencia es la siguiente
- The Last of Us I, con FSR4 modo calidad, teniendo en cuenta la mala optimización del juego o que es más cpu dependiente que otros, he jugado en el rango de los 100-165 fps dependiendo del momento. Es hasta ahora el único que he tenido cuello de botella, 85%-90% la cpu, 80-85% la gpu, sin embargo unas temperaturas fabulosas y bastante fluidez a pesar de todo.
- Age of Empires IV, nada de cuello de botella, cpu 40-45%, gpu 100%, calidad ultra sin nuevas tecnologías 80-90 Fps, alguna caida a 70 con mucha batalla y muchas unidades en pantalla. Temperaturas mas altas de la gpu que con el anterior, sobre los +10º aprox.
- Reay or Not, FSR3 modo calidad, nada de cuello de botella, 90-100 fps, temperaturas igual que Age of Empires.
- Silent Hill 2 Remake, FSR4 forzado en el driver de amd con generación de frames, calidad alta. FPS variables desde los 70 a los 115 dependiendo de la zona. Nada de cuello de botella, aquí si he comprobado que las temperaturas se van mas altas, núcleo sobre los 58º, memorias sobre los 67º y hotspot sobre los 75º, curva de ventilación sobre los 1.500 rpm con un nivel sonoro bajisimo.
Si me ha sorprendido la diferencia de temperaturas que tiene la grafica de trabajar al 85% (The last of us), a trabajar al 100% (en Silent Hill 2), sobre los 15º.