Alfgar79 escribió:Goverlay viene por defecto en Nobara,
Ni me acordaba, no probaba Nobara desde que dieron el salto de la 38 a la 39. Gracias por el dato.
lo que no sabia es que integraba optiscaler, luego me lo miraré bien, a mis ojos de usuario de Windows Goberlay es como Aftburner pero más complicado de usar..

Como incorporación es «relativamente» reciente; tampoco sé cuando introdujo lo de vkBasalt para retocar cosillas en los juegos, algo con lo que aún no experimenté pero pinta muy interesante para juegos antiguos o el típico indi 3D isométrico con texturas muy planas, ví por ahí un vídeo en portugués donde retocaba cosas en el Witcher 3 pero no creo que compense (me puedo equivocar, por supuesto).
@[Alex] Como ya te dijeron, sí es posible y no sólo por el menor consumo de recursos (que también) sino por la gestión de estos.
A priori Linux gestiona mejor los recursos en general, si bien con algunos juegos en concreto llegué a ver alguna queja sobre la gestión de vRam en comparación directa con W11 ... pero claro, hay que ver el motor del juego y sus problemas, la versión del juego y las versiones de todo lo que se usa para ejecutar ese juego hecho para Windows y establecer si dicho consumo proviene de algún fallo en alguno de esos elementos, aunque - como es normal - cuanto más reciente es el juego mayores probabibilades (por falta de pruebas).
Lo comenté otra vez, no me acuerdo si en este hilo o en otro... pero todo este asunto de los programillas que te miden los FPS es algo de lo que cada día me fío menos.
El asunto saltó cuando salió la Arc A770 hablando con un usuario que trabajó programando firmware de gráficas y conocía el mundillo por dentro y comentaba el infernal panorama que se observa desde dentro (placas base con el firmware a medio hacer que luego "ya se mejorará" vía parches y que en consecuencia no vienen con todas las funcionalidades, etc...), algo que incluía el mundo de las gráficas y el trampeo que hacen (AMD y NVIDIA) para que aparenten alcanzar más FPS en las pruebas.
El contraste venía con la A770 (que este usuario tenía, a precio Intel, como empleado, aunque no trabajaba directamente para ellos sino en colaboración), que en mediciones daba menos pero la animación en pantalla era perfectamente fluída en muchos juegos (en los que no tenía problemas, claro) en comparación con modelos equivalentes de NVIDIA/AMD, y sin embargo a menor tasa de FPS (amén de que muchas funcionalidades de la A770, tras lo que pasó, ya no las vamos a ver activadas jamás, y la razón del alto consumo de estas, pues estaban pensadas para muchas más tareas que juegos, de ahí lo que destacaban en edición de vídeo en el momento que introdujeron alguna «««actualización»»»).
En resumen, al final intervienen más factores y, casualmente, unos cuantos meses después de aquella conversación... los de GamerNexus sacaron una pequeña serie de vídeos que lo detallan mejor junto a un ingeniero de Intel: