[HO] NVIDIA GeForce RTX 5000

[Alex] escribió:Buenas.

Después de una década en AMD, me ha llegado una 5070. Juego en un G81SF (OLED 27" 4K 240hz)

Estoy bastante perdido con las tecnologías modernas.

Alguien sería tan amable de explicarme cómo poder sacarle partido como si fuera un novato?

O derivarme a algún vídeo o tutorial?

Gracias.

Yo,sin animo de molestar,creo que te has quedado un pelín corto de gpu para esa bestia de monitor.
Como te dice el compañero son muchas cosas si partes de 0.Pero vete pensando en que lo basico es que pongas en un principio el present recomendado por nvida de dlss para que te lo ajuste a si lo pones en rendimiento,equilibrado,etc...
Luego ya iras probando el que mas te interesa en cada juego,pero para empezar no te va a ir mal.
En cada juego tendras que ajustar calidad,balanceado,rendimiento o ultrarendimiento según a los fps que te vaya.
Y para activar el FG ya sea por 2 o 3 o dinamico o lo que quieras te recomiendo al menos 50 o 60 fps de base.En unos juegos va mejor que en otros y ademas la percepción de cada persona es distinta.
Basicamente es como tu te sientas agusto.
Luego si tienes alguna duda puntual preguntas sin problema.Nadie lo sabe todo.
KoGollin escribió:Pues he estado un dia entero jugando al Crimons dessert con el Frame Generation x3.

Y lo tenía cruzado hasta que lo probé y dije que el x2 va de fabula. Me ha dado por probar el por x3 para poder autoconvencerme que la táctica de NVIDIA de no hacer potencia bruta por la IA, nos la ha colado.
Pero joder... es que lo he puesto un dia entero de juego y es de verdad jodido encontrar tantos artefactos o cosas raras para aceptar que su uso es una mierda.

He capado el juego a 180 fgx3 y cuesta de verdad jugando tranquilamente encontrar tantas cosas que te molesten.
Volvere a mi 120fps fgx2 porque pienso que en este juego mas de 120fps no aporta nada mas fluidez.

Pero sigo pensando en la puta magia negra que se ha sacado NVIDIA de la chistera.

Para juegos de un jugador el FG es pura magia.

Yo estoy rejugando ahora el Cronos con el x5 a unos 200 fps y se ve de locos.

Se que no es necesario jugar a 200 fps en un juego singleplayer, pero si me gaste una pasta en mi monitor OLED 240hz, es para usar esos 240hz.
@dicker31 gracias!

Si lo más absurdo del tema es que tengo una RX9070

Pero me apetece probar los perks de NVIDIA

Al precio que me salió (520€ con REquiem) no me importaba probar

Ya veré qué hago
[Alex] escribió:@dicker31 gracias!

Si lo más absurdo del tema es que tengo una RX9070

Pero me apetece probar los perks de NVIDIA

Al precio que me salió (520€ con REquiem) no me importaba probar

Ya veré qué hago

Yo me pillé la misma y también ando bastante nuevo con las ultimas tecnologías. Habrá que echarle un ratejo e ir probando cosas.

Dejé el Callisto Protocol por lo tirones en mi 3060 TI (aun teniendo buena media de fps) y me ha dao por instalarlo de nuevo y probarlo con la 5070. Es increíble que me vaya bien a muchos fps de media y de repente te baja de 120 a 109 y en pantalla lo ves como un tirón que te jode toda la experiencia de juego (así cada pocos segundos). Digo pues na, lo bajo a 60 y me pasa lo mismo. me baja a 58 o 59 al ir avanzando y lo noto en pantalla como un tirón horrible. La peor compra que hice en mi vida.
@Nostrapacus Ese Callisto lo tengo en Steam y en Epic (que creo que decían que iba mejor, o al menos que estaba doblado al castellano) y al final he desistido. Tras probarlo varias veces desde su salida (lo tengo desde el día uno) con una 5070 Ti ya paso de jugarlo más. Esos tirones te sacan por completo de la inmersión. No hay manera de que vaya bien.

Como comentas, la (segunda) peor compra de mi vida. O peores, porque lo compré por duplicado.

Edit: Perdón por el off-topic. Voy leyendo posts de diferentes hilos y pensaba que estaba en "lo que estamos jugando".
Valhan escribió:@Nostrapacus Ese Callisto lo tengo en Steam y en Epic (que creo que decían que iba mejor, o al menos que estaba doblado al castellano) y al final he desistido. Tras probarlo varias veces desde su salida (lo tengo desde el día uno) con una 5070 Ti ya paso de jugarlo más. Esos tirones te sacan por completo de la inmersión. No hay manera de que vaya bien.

Como comentas, la (segunda) peor compra de mi vida. O peores, porque lo compré por duplicado.

Edit: Perdón por el off-topic. Voy leyendo posts de diferentes hilos y pensaba que estaba en "lo que estamos jugando".

Los tirones son lod emenos.El juego es malo a rabiar.
Eso es el famoso sttutter del unreal engine.
Nostrapacus escribió:
[Alex] escribió:@dicker31 gracias!

Si lo más absurdo del tema es que tengo una RX9070

Pero me apetece probar los perks de NVIDIA

Al precio que me salió (520€ con REquiem) no me importaba probar

Ya veré qué hago

Yo me pillé la misma y también ando bastante nuevo con las ultimas tecnologías. Habrá que echarle un ratejo e ir probando cosas.

Dejé el Callisto Protocol por lo tirones en mi 3060 TI (aun teniendo buena media de fps) y me ha dao por instalarlo de nuevo y probarlo con la 5070. Es increíble que me vaya bien a muchos fps de media y de repente te baja de 120 a 109 y en pantalla lo ves como un tirón que te jode toda la experiencia de juego (así cada pocos segundos). Digo pues na, lo bajo a 60 y me pasa lo mismo. me baja a 58 o 59 al ir avanzando y lo noto en pantalla como un tirón horrible. La peor compra que hice en mi vida.


Los tirones del Callisto es un problema conocido tengas la tarjeta que tengas, por aquí hablan de como "solucionarlo"
https://www.reddit.com/r/pcgaming/comments/zb0a5s/a_way_to_fix_callisto_protocol_stuttering/
Me cago en nvidia. Más IA que nos quiere colar

Imagen
Cuales son los ultimos drivers buenos? Yo tengo los 591.74y en el benchmark de ac valhalla las texturas del suelo (caminos por ejemplo) fallan 😅😂

Les pasa como el Gow original de 360 y UE 3.0 que el streaming de texturas tardaba y no cargaban…
Están en ultra, pero la vram no llega a 9gb en la 5070 de 12gb…
polnuman escribió:nuevos drivers para Pragmata.

https://x.com/NVIDIAGeForceES/status/20 ... 7079528840

No me interesa ese juego, así que no actualizo ni loco. :cool:
@usuariopc a mi tampoco pero a parte añaden nuevas cosas y mejoras de rendimiento digo yo, n osera solo para el juego. A ver si alguien los prueba y puede informar, los ultimos que tengo son los 595.79.
Yo no actualizo ni de coña los ultimos que actualize fueron para el resident evil requiem y salieron de culo, ahora prefiero esperar 2 semanas minimo a ver como salen
Ya lo puse en el hilo de Battlefield 6, después de instalar la última versión de drivers al jugar en conquista al rato se me congela. Los otros juegos me van bien.
Estoy valorando cambiar mi rtx 3080 por una 5080, pero me surgen un par de dudas.
- Me sirve mi fuente Corsair rm750x o haría falta algo más potente?
- Otra cuestión es si realmente tira para 4k. Normalmente juego a 1440p y la idea es tener tarjeta para años pero de vez en cuando me gustaría jugar en la TV a 4k.

El resto de mi equipo está en la firma, se que quizá haga cuello de botella pero ya cambiaré el resto cuando la RAM baje de precio.

Saludos!
Vivas89 escribió:Estoy valorando cambiar mi rtx 3080 por una 5080, pero me surgen un par de dudas.
- Me sirve mi fuente Corsair rm750x o haría falta algo más potente?
- Otra cuestión es si realmente tira para 4k. Normalmente juego a 1440p y la idea es tener tarjeta para años pero de vez en cuando me gustaría jugar en la TV a 4k.

El resto de mi equipo está en la firma, se que quizá haga cuello de botella pero ya cambiaré el resto cuando la RAM baje de precio.

Saludos!


Segun nvidia necesitas una de 850, pla grafica en su maximo TDP son 360W pero yo siempre me rio de esas estimaciones, es raro muy raro que todo el pc te gaste 750W que es lo que tu tienes, y teniendo un 5600 de procesa ni del palo, ademas muy recomendable que te veas algun tuto pa realizar UV la ganancia de consumo y menor temperatura sin perder rendimiento es abismal, pero si, en ppio yo miraria cambiar el procesa te hara cuello de botella
pozi_isra escribió:
Vivas89 escribió:Estoy valorando cambiar mi rtx 3080 por una 5080, pero me surgen un par de dudas.
- Me sirve mi fuente Corsair rm750x o haría falta algo más potente?
- Otra cuestión es si realmente tira para 4k. Normalmente juego a 1440p y la idea es tener tarjeta para años pero de vez en cuando me gustaría jugar en la TV a 4k.

El resto de mi equipo está en la firma, se que quizá haga cuello de botella pero ya cambiaré el resto cuando la RAM baje de precio.

Saludos!


Segun nvidia necesitas una de 850, pla grafica en su maximo TDP son 360W pero yo siempre me rio de esas estimaciones, es raro muy raro que todo el pc te gaste 750W que es lo que tu tienes, y teniendo un 5600 de procesa ni del palo, ademas muy recomendable que te veas algun tuto pa realizar UV la ganancia de consumo y menor temperatura sin perder rendimiento es abismal, pero si, en ppio yo miraria cambiar el procesa te hara cuello de botella


Yo tuve una 3080Ti (350w) con una fuente de 750w y la tuve que cambiar por pantallazos azules. Así que esos 850w de requisito no son un capricho de nvidia.
pozi_isra escribió:
Vivas89 escribió:Estoy valorando cambiar mi rtx 3080 por una 5080, pero me surgen un par de dudas.
- Me sirve mi fuente Corsair rm750x o haría falta algo más potente?
- Otra cuestión es si realmente tira para 4k. Normalmente juego a 1440p y la idea es tener tarjeta para años pero de vez en cuando me gustaría jugar en la TV a 4k.

El resto de mi equipo está en la firma, se que quizá haga cuello de botella pero ya cambiaré el resto cuando la RAM baje de precio.

Saludos!


Segun nvidia necesitas una de 850, pla grafica en su maximo TDP son 360W pero yo siempre me rio de esas estimaciones, es raro muy raro que todo el pc te gaste 750W que es lo que tu tienes, y teniendo un 5600 de procesa ni del palo, ademas muy recomendable que te veas algun tuto pa realizar UV la ganancia de consumo y menor temperatura sin perder rendimiento es abismal, pero si, en ppio yo miraria cambiar el procesa te hara cuello de botella

pero la idea no es que la fuente vaya al 100% ni al 90% la idea es que trabaje en su rango optimo, y dure años, yo no pondria una de 750w a una 5080, funcionar va a funcionar, cuanto , pues de pende del resto del equipo, no es lo mismo tener un i9 14900. que un i3 o un 5800x
Strait escribió:
pozi_isra escribió:
Vivas89 escribió:Estoy valorando cambiar mi rtx 3080 por una 5080, pero me surgen un par de dudas.
- Me sirve mi fuente Corsair rm750x o haría falta algo más potente?
- Otra cuestión es si realmente tira para 4k. Normalmente juego a 1440p y la idea es tener tarjeta para años pero de vez en cuando me gustaría jugar en la TV a 4k.

El resto de mi equipo está en la firma, se que quizá haga cuello de botella pero ya cambiaré el resto cuando la RAM baje de precio.

Saludos!


Segun nvidia necesitas una de 850, pla grafica en su maximo TDP son 360W pero yo siempre me rio de esas estimaciones, es raro muy raro que todo el pc te gaste 750W que es lo que tu tienes, y teniendo un 5600 de procesa ni del palo, ademas muy recomendable que te veas algun tuto pa realizar UV la ganancia de consumo y menor temperatura sin perder rendimiento es abismal, pero si, en ppio yo miraria cambiar el procesa te hara cuello de botella


Yo tuve una 3080Ti (350w) con una fuente de 750w y la tuve que cambiar por pantallazos azules. Así que esos 850w de requisito no son un capricho de nvidia.

Joe pues y es raro porque entre la 3080 y la ti habrá unos 50w de diferencia a lo sumo.De todas formas me informaré bien está claro.

@xxvalencianoxx ahora ando con un ryzen 5600x. Ya me gustaría hacer el upgradre completo pero con la ddr5 como está lo descarto.
Vivas89 escribió:
Strait escribió:
pozi_isra escribió:
Segun nvidia necesitas una de 850, pla grafica en su maximo TDP son 360W pero yo siempre me rio de esas estimaciones, es raro muy raro que todo el pc te gaste 750W que es lo que tu tienes, y teniendo un 5600 de procesa ni del palo, ademas muy recomendable que te veas algun tuto pa realizar UV la ganancia de consumo y menor temperatura sin perder rendimiento es abismal, pero si, en ppio yo miraria cambiar el procesa te hara cuello de botella


Yo tuve una 3080Ti (350w) con una fuente de 750w y la tuve que cambiar por pantallazos azules. Así que esos 850w de requisito no son un capricho de nvidia.

Joe pues y es raro porque entre la 3080 y la ti habrá unos 50w de diferencia a lo sumo.De todas formas me informaré bien está claro.

@xxvalencianoxx ahora ando con un ryzen 5600x. Ya me gustaría hacer el upgradre completo pero con la ddr5 como está lo descarto.


También depende mucho de la fuente. Mi fuente tampoco es que fuera muy buena. De todas formas si va tiene que ser de forma justísima. Si recomiendan 850 es para que vaya bien sin sustos.
Buenas, qué modelo de Frame Gen usáis? Yo tengo el B en la configuración global, es el nuevo modelo?
Gracias 😉.
Vivas89 escribió:Estoy valorando cambiar mi rtx 3080 por una 5080, pero me surgen un par de dudas.
- Me sirve mi fuente Corsair rm750x o haría falta algo más potente?
- Otra cuestión es si realmente tira para 4k. Normalmente juego a 1440p y la idea es tener tarjeta para años pero de vez en cuando me gustaría jugar en la TV a 4k.

El resto de mi equipo está en la firma, se que quizá haga cuello de botella pero ya cambiaré el resto cuando la RAM baje de precio.

Saludos!

En 4k tira todo lo que le pongas y hasta con path tracing 🤷🏻‍♂️
Blackhand15 escribió:
Vivas89 escribió:Estoy valorando cambiar mi rtx 3080 por una 5080, pero me surgen un par de dudas.
- Me sirve mi fuente Corsair rm750x o haría falta algo más potente?
- Otra cuestión es si realmente tira para 4k. Normalmente juego a 1440p y la idea es tener tarjeta para años pero de vez en cuando me gustaría jugar en la TV a 4k.

El resto de mi equipo está en la firma, se que quizá haga cuello de botella pero ya cambiaré el resto cuando la RAM baje de precio.

Saludos!

En 4k tira todo lo que le pongas y hasta con path tracing 🤷🏻‍♂️

Ya, bueno. Pero el último de Indiana Jones le cuesta un poquito con raytracing. Es uno de los juegos que le he visto sufrir un poco más.
Strait escribió:
pozi_isra escribió:
Vivas89 escribió:Estoy valorando cambiar mi rtx 3080 por una 5080, pero me surgen un par de dudas.
- Me sirve mi fuente Corsair rm750x o haría falta algo más potente?
- Otra cuestión es si realmente tira para 4k. Normalmente juego a 1440p y la idea es tener tarjeta para años pero de vez en cuando me gustaría jugar en la TV a 4k.

El resto de mi equipo está en la firma, se que quizá haga cuello de botella pero ya cambiaré el resto cuando la RAM baje de precio.

Saludos!


Segun nvidia necesitas una de 850, pla grafica en su maximo TDP son 360W pero yo siempre me rio de esas estimaciones, es raro muy raro que todo el pc te gaste 750W que es lo que tu tienes, y teniendo un 5600 de procesa ni del palo, ademas muy recomendable que te veas algun tuto pa realizar UV la ganancia de consumo y menor temperatura sin perder rendimiento es abismal, pero si, en ppio yo miraria cambiar el procesa te hara cuello de botella


Yo tuve una 3080Ti (350w) con una fuente de 750w y la tuve que cambiar por pantallazos azules. Así que esos 850w de requisito no son un capricho de nvidia.

@Vivas89
@pozi_isr
Una Corsair RM750X es suficiente para el equipo que tiene y una 5080.
Yo no la cambiaba .

Si voy yo con un 9800x3D y una 5080, y el consumo total del equipo ,muchas veces , no llega a más de 500w con un poquito de UV.
Hasta ,ya no 750W, pongamos 650W, queda un trecho.

@owenkz
Los modelos son de DLSS .El B es de los más antiguos.
¿Por qué eliges B?
Los últimos son el L y el M.
hh1 escribió:¿Por qué eliges B?
Los últimos son el L y el M.


El A y el B son del Frame Generation, y el L y el M son del upscaler DLSS. No tienen nada que ver uno con otro.
usuariopc escribió:
Blackhand15 escribió:
Vivas89 escribió:Estoy valorando cambiar mi rtx 3080 por una 5080, pero me surgen un par de dudas.
- Me sirve mi fuente Corsair rm750x o haría falta algo más potente?
- Otra cuestión es si realmente tira para 4k. Normalmente juego a 1440p y la idea es tener tarjeta para años pero de vez en cuando me gustaría jugar en la TV a 4k.

El resto de mi equipo está en la firma, se que quizá haga cuello de botella pero ya cambiaré el resto cuando la RAM baje de precio.

Saludos!

En 4k tira todo lo que le pongas y hasta con path tracing 🤷🏻‍♂️

Ya, bueno. Pero el último de Indiana Jones le cuesta un poquito con raytracing. Es uno de los juegos que le he visto sufrir un poco más.

Bueno yo lo acabo de probar esta tarde y con dlss en rendimiento me iba entre 60y70 y para mi me parece mas bruto el path del cuberpunk que el indiana y la 5080 en equilibrado lo tirada muy decentemente entre 50/60
Buenas noches
Hablado de de cuello de botella
Con un intel 12600k 32gb de ram ddr5 y una placa base ASUS TUF GAMING Z790 plus wifi, tendrá cuello de botella con una 5080?

Un saludo
Strait escribió:
hh1 escribió:¿Por qué eliges B?
Los últimos son el L y el M.


El A y el B son del Frame Generation, y el L y el M son del upscaler DLSS. No tienen nada que ver uno con otro.

Pues una cosa nueva que se aprende. [beer]
¿Qué diferencias hay entre uno y otro?
bruce_wayne escribió:Buenas noches
Hablado de de cuello de botella
Con un intel 12600k 32gb de ram ddr5 y una placa base ASUS TUF GAMING Z790 plus wifi, tendrá cuello de botella con una 5080?

Un saludo


Vas a jugar con gráficos en bajo sin RT a 1080p ? si es así... pues si, si en cambio vas a jugar con gráficos a tope y 1440p/4k pues no :P

Como norma general eh, habrá alguna excepción en algún juego muy demandante de CPU que quizás influya muy ligeramente, pero vamos, no me preocuparia de momento, podrás jugar muy bien.
hh1 escribió:
Strait escribió:
hh1 escribió:¿Por qué eliges B?
Los últimos son el L y el M.


El A y el B son del Frame Generation, y el L y el M son del upscaler DLSS. No tienen nada que ver uno con otro.

Pues una cosa nueva que se aprende. [beer]
¿Qué diferencias hay entre uno y otro?


En el modelo B han mejorado el optical flow de la HUD para mejorar la interpolación de la HUD. En el resto de cosas no debería de haber cambios.
Strait escribió:
hh1 escribió:
Strait escribió:
El A y el B son del Frame Generation, y el L y el M son del upscaler DLSS. No tienen nada que ver uno con otro.

Pues una cosa nueva que se aprende. [beer]
¿Qué diferencias hay entre uno y otro?


En el modelo B han mejorado el optical flow de la HUD para mejorar la interpolación de la HUD. En el resto de cosas no debería de haber cambios.

Gracias [beer]
Jezebeth escribió:
bruce_wayne escribió:Buenas noches
Hablado de de cuello de botella
Con un intel 12600k 32gb de ram ddr5 y una placa base ASUS TUF GAMING Z790 plus wifi, tendrá cuello de botella con una 5080?

Un saludo


Vas a jugar con gráficos en bajo sin RT a 1080p ? si es así... pues si, si en cambio vas a jugar con gráficos a tope y 1440p/4k pues no :P

Como norma general eh, habrá alguna excepción en algún juego muy demandante de CPU que quizás influya muy ligeramente, pero vamos, no me preocuparia de momento, podrás jugar muy bien.


La idea es jugar a 1440p/4k
Muchas gracias por la respuesta¡
bruce_wayne escribió:
Jezebeth escribió:
bruce_wayne escribió:Buenas noches
Hablado de de cuello de botella
Con un intel 12600k 32gb de ram ddr5 y una placa base ASUS TUF GAMING Z790 plus wifi, tendrá cuello de botella con una 5080?

Un saludo


Vas a jugar con gráficos en bajo sin RT a 1080p ? si es así... pues si, si en cambio vas a jugar con gráficos a tope y 1440p/4k pues no :P

Como norma general eh, habrá alguna excepción en algún juego muy demandante de CPU que quizás influya muy ligeramente, pero vamos, no me preocuparia de momento, podrás jugar muy bien.


La idea es jugar a 1440p/4k
Muchas gracias por la respuesta¡

Cuello de botella de esa cpu vas a tener sí o sí con una 5080.
Ahora, habría que ver cuánto tiene.
Eso va a depender de la resolución.En 4K supongo que no se notará tanto.
En 1440p ya te digo que sí puede hacerte un buen cuello.

Te lo digo porque yo jugaba con una 4090 y un 12600 no K en 1440p,y fue pasarme al 9800X3D y fue como destapar la botella de champán.
Empezó eso a soltar FPS que daba gusto.Más de lo que me esperaba.
En algunos juegos pues bueno, sobre un 20-30% si no recuerdo mal en 1440p,Pero es que en algún cpu demandante eso era una diferencia muy muy grande,sobre un 60% o más, creo recordar.
Recuerdo en The Finals en 1440p, de estar en torno a 140-160fps a pasar a 240fps.Así , del tirón.
También es verdad que la 5080 es algo menos potente que la 4090, pero vamos, que si la afinas un poco ,tampoco se queda tan lejos de la 4090.

Jugar vas a jugar bien.Por eso ,no te ralles.Mientras te sea suficiente,ya está.
Pero va a depender mucho del juego que te haga más o menos cuello de botella.
En 4K ,por lo general, no creo que sea mucho.
@hh1 Todo depende de como configures el juego, por eso dije "al máx".

Está claro que hay juegos y juegos, y desde luego un 9800X3D mas fps puede sacar, pero un 12600k es procesador muy capaz de aprovechar una 5080 y en la mayoría de los casos si lo que juegas son juegos triple A potentes lo que mas trabaja es la GPU, ese 12600k te va a cubrir más que de sobra los fps necesarios.

Pda: Pones el ejemplo de The Finals, pues bien ese juego en 1440p nativo en "epic" con una 5080 ronda los 150 fps con un 12600k y con un 9800x3D, si tu sacabas +200 sería por usar DLSS y eso.
@bruce_wayne para jugar a 4k te va a ir bien. Para 1440 ya dependerá del juego pero creo que los juegos AAA de hoy en día con todo al máximo el límite te lo va a dar la gráfica más que el micro (con el ray tracing a las gráficas les cuesta mucho).
Y si tienes un monitor de 144hz o similar te da igual sacar 200 fps.
Yo en mi monitor 2k 165hz no he visto mi 4080 al 100% nunca con un 5800x. Por suerte con los fake frames se soluciona el problema para alcanzar los 158fps a los que corta el reflex.
Jezebeth escribió:@hh1 Todo depende de como configures el juego, por eso dije "al máx".

Está claro que hay juegos y juegos, y desde luego un 9800X3D mas fps puede sacar, pero un 12600k es procesador muy capaz de aprovechar una 5080 y en la mayoría de los casos si lo que juegas son juegos triple A potentes lo que mas trabaja es la GPU, ese 12600k te va a cubrir más que de sobra los fps necesarios.

Pda: Pones el ejemplo de The Finals, pues bien ese juego en 1440p nativo en "epic" con una 5080 ronda los 150 fps con un 12600k y con un 9800x3D, si tu sacabas +200 sería por usar DLSS y eso.

Claro, yo te hablo en mis condiciones.
DLSS en Finals .Peor también usaba DLSS con el 12600..

La diferencia fue sideral.
Y en otros juegos ,nada desdeñable.

Yo no digo que un 12600K no vaya bien y no sea usable con una 5080.
Yo iba con una 12600 y una 4090, y tan contento.
Pero cuando destapas el corcho de la botella ,te das cuenta de que iba bastante caoada la cosa.Es a lo que me refiero.
Jugar puede y bien ,con el 12600K, pero que va a tener cuello de botella considerable ,ya te lo digo yo
No algo grave ,pero ahí está
Y no bajes a 1080p ,que hice la prueba en The Finals y madre mía...cerca del 100% de diferencia.Vamos ,que lo doblaba en fps en 1080p con DLSS.

Luego, pues hay juegos y juegos.
hh1 escribió:
Jezebeth escribió:@hh1 Todo depende de como configures el juego, por eso dije "al máx".

Está claro que hay juegos y juegos, y desde luego un 9800X3D mas fps puede sacar, pero un 12600k es procesador muy capaz de aprovechar una 5080 y en la mayoría de los casos si lo que juegas son juegos triple A potentes lo que mas trabaja es la GPU, ese 12600k te va a cubrir más que de sobra los fps necesarios.

Pda: Pones el ejemplo de The Finals, pues bien ese juego en 1440p nativo en "epic" con una 5080 ronda los 150 fps con un 12600k y con un 9800x3D, si tu sacabas +200 sería por usar DLSS y eso.

Claro, yo te hablo en mis condiciones.
DLSS en Finals .Peor también usaba DLSS con el 12600..

La diferencia fue sideral.
Y en otros juegos ,nada desdeñable.

Yo no digo que un 12600K no vaya bien y no sea usable con una 5080.
Yo iba con una 12600 y una 4090, y tan contento.
Pero cuando destapas el corcho de la botella ,te das cuenta de que iba bastante caoada la cosa.Es a lo que me refiero.
Jugar puede y bien ,con el 12600K, pero que va a tener cuello de botella considerable ,ya te lo digo yo
No algo grave ,pero ahí está
Y no bajes a 1080p ,que hice la prueba en The Finals y madre mía...cerca del 100% de diferencia.Vamos ,que lo doblaba en fps en 1080p con DLSS.

Luego, pues hay juegos y juegos.

Es que en este caso,y en el tuyo,al menos a 4K,no va a tener cuello de botella.Lo que dices de que has notado una mejoría enorme es cierto,claro.Pero no es lo mismo tener cuello de botella a que el procesador sea mas potente y rinda mas.Aunque al final el resultado es el mismo(mas fps) no es por la misma razón.
Edito.A 4K no tendrá cuello de botella en la mayoría de los juegos me refiero.
Decir que al jugar a 4k el cpu no importa tanto, es relativo.

Si juegas a 4k nativo no tendrá mucha importancia el cpu, pero si usas DLSS si vuelve a tener importancia.

Y diría que la gran mayoría de la gente usa DLSS al jugar a 4k.

Si juegas a 4k usando DLSS rendimiento, estas jugando a 1080p aprox.

4k con DLSS, el cpu vuelve a ser importante.

Pero luego esta la contrapartida, si usas FG el cpu vuelve a ser menos importante.
the_aeon escribió:Decir que al jugar a 4k el cpu no importa tanto, es relativo.

Si juegas a 4k nativo no tendrá mucha importancia el cpu, pero si usas DLSS si vuelve a tener importancia.

Y diría que la gran mayoría de la gente usa DLSS al jugar a 4k.

Si juegas a 4k usando DLSS rendimiento, estas jugando a 1080p aprox.

4k con DLSS, el cpu vuelve a ser importante.

Pero luego esta la contrapartida, si usas FG el cpu vuelve a ser menos importante.


tambien influye mucho a los fps que quieras jugar, cuando le pides aparte de resolucion mas fps tira tambien de cpu,
xxvalencianoxx escribió:
the_aeon escribió:Decir que al jugar a 4k el cpu no importa tanto, es relativo.

Si juegas a 4k nativo no tendrá mucha importancia el cpu, pero si usas DLSS si vuelve a tener importancia.

Y diría que la gran mayoría de la gente usa DLSS al jugar a 4k.

Si juegas a 4k usando DLSS rendimiento, estas jugando a 1080p aprox.

4k con DLSS, el cpu vuelve a ser importante.

Pero luego esta la contrapartida, si usas FG el cpu vuelve a ser menos importante.


tambien influye mucho a los fps que quieras jugar, cuando le pides aparte de resolucion mas fps tira tambien de cpu,

Si,claro.Si juegas a 50 fps la gpu necesita que la cpu le envié instrucciones para pintar 50 cuadros por segundo...pero si quieres jugar a 250 lo necesita 250 veces.Entonces la cpu tiene menos tiempo.Por eso los x3D son tan buenos para jugar a altos fps.Porque tienen una cache enorme y la cpu no tiene que salir tanto a buscar a la ram,lo cual es mucho mas lento.
dicker31 escribió:
hh1 escribió:
Jezebeth escribió:@hh1 Todo depende de como configures el juego, por eso dije "al máx".

Está claro que hay juegos y juegos, y desde luego un 9800X3D mas fps puede sacar, pero un 12600k es procesador muy capaz de aprovechar una 5080 y en la mayoría de los casos si lo que juegas son juegos triple A potentes lo que mas trabaja es la GPU, ese 12600k te va a cubrir más que de sobra los fps necesarios.

Pda: Pones el ejemplo de The Finals, pues bien ese juego en 1440p nativo en "epic" con una 5080 ronda los 150 fps con un 12600k y con un 9800x3D, si tu sacabas +200 sería por usar DLSS y eso.

Claro, yo te hablo en mis condiciones.
DLSS en Finals .Peor también usaba DLSS con el 12600..

La diferencia fue sideral.
Y en otros juegos ,nada desdeñable.

Yo no digo que un 12600K no vaya bien y no sea usable con una 5080.
Yo iba con una 12600 y una 4090, y tan contento.
Pero cuando destapas el corcho de la botella ,te das cuenta de que iba bastante caoada la cosa.Es a lo que me refiero.
Jugar puede y bien ,con el 12600K, pero que va a tener cuello de botella considerable ,ya te lo digo yo
No algo grave ,pero ahí está
Y no bajes a 1080p ,que hice la prueba en The Finals y madre mía...cerca del 100% de diferencia.Vamos ,que lo doblaba en fps en 1080p con DLSS.

Luego, pues hay juegos y juegos.

Es que en este caso,y en el tuyo,al menos a 4K,no va a tener cuello de botella.Lo que dices de que has notado una mejoría enorme es cierto,claro.Pero no es lo mismo tener cuello de botella a que el procesador sea mas potente y rinda mas.Aunque al final el resultado es el mismo(mas fps) no es por la misma razón.
Edito.A 4K no tendrá cuello de botella en la mayoría de los juegos me refiero.

A4K tendrá también.
Obviamente será menor en cuestión, como dices ,de dos.
Al final ,todo se basa esn que sea mucho poco, y que sea suficiente para el usuario.
20692 respuestas
1410, 411, 412, 413, 414