[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

Rvilla87 escribió:@d2akl @yosu888 y dale con lo de la CPU que es tan importante... quizás a veces se exagera diciendo que no importa, y como ya decía ditifet, ni un extremo ni otro. Pero vamos, puesto a elegir un extremo, me quedo con el extremo de que no importa (para simplificar digo, aunque sea incorrecto). Y por cierto esas capturas del Forbiden me parecen muy exageradas, a saber cómo habrá hecho el test. Aquí por ejemplo, y con una 4090 (que aún puede ahogar mas a la CPU) en 4k, como esa captura, es tan solo de 154fps (12600k) vs 158 fps (13600k):



Pero vamos, dejando de lado todo esta pequeña diferencia de la CPU, es que si os paráis a ver los datos de hh1 no tiene ni pies ni cabeza, no es SOLO un tema de CPU. Solo por la CPU se van unos pocos/muchos fps arriba o abajo depende del juego, pero es que decir cosas como que un juego le rendirá con una 4080 y un 13600k funciona igual que con una 3080 Ti y un 13600k ya es pasarse... joder, a ver si ahora va a resultar que para los videojuegos es mejor la CPU que la GPU [qmparto]

hh1 tiene otro problema, el de la CPU deberá ser algo menor, primero que solucione lo que tenga (ya sea GPU defectuosa, windows/drivers jodido, fuente/ram mal, etc, lo que sea) cuando pruebe todo bien y ya si eso luego se podrá mirar el tema de la CPU.



Yo no dije eso. Es más, le dije en el 1 mensaje, que esa tarjeta huele a que esta mal de aquí a lima, pasando por Londres, y pagando un café en Escocia.



Y despues, simplemente le demostré que con una 4080 la diferencia entre esos 2 procesadores , bueno no, con el K el del compañero, no es el K , +20 fps en muchos casos.
En 1440p que es la resolución del compañero, no en 4k.
Que seguí mirando mas videos, no sólo pasa en un par de títulos.

https://youtu.be/bJM4C55olWA
https://youtu.be/a207LHFnEfA
A mi, las diferencias, me parecen bastante más que substanciales, y hablamos del K, el del compañero, no es el k, y la cosa cambia ya más.


Y no se tío, que se supone que es más verídico ese video que mis capturas?
Que ni pone el contador de frames en el video ni na? Bueno, a saber, ya sabes como va este mundillo
d2akl escribió:
Rvilla87 escribió:@d2akl @yosu888 y dale con lo de la CPU que es tan importante... quizás a veces se exagera diciendo que no importa, y como ya decía ditifet, ni un extremo ni otro. Pero vamos, puesto a elegir un extremo, me quedo con el extremo de que no importa (para simplificar digo, aunque sea incorrecto). Y por cierto esas capturas del Forbiden me parecen muy exageradas, a saber cómo habrá hecho el test. Aquí por ejemplo, y con una 4090 (que aún puede ahogar mas a la CPU) en 4k, como esa captura, es tan solo de 154fps (12600k) vs 158 fps (13600k):



Pero vamos, dejando de lado todo esta pequeña diferencia de la CPU, es que si os paráis a ver los datos de hh1 no tiene ni pies ni cabeza, no es SOLO un tema de CPU. Solo por la CPU se van unos pocos/muchos fps arriba o abajo depende del juego, pero es que decir cosas como que un juego le rendirá con una 4080 y un 13600k funciona igual que con una 3080 Ti y un 13600k ya es pasarse... joder, a ver si ahora va a resultar que para los videojuegos es mejor la CPU que la GPU [qmparto]

hh1 tiene otro problema, el de la CPU deberá ser algo menor, primero que solucione lo que tenga (ya sea GPU defectuosa, windows/drivers jodido, fuente/ram mal, etc, lo que sea) cuando pruebe todo bien y ya si eso luego se podrá mirar el tema de la CPU.



Yo no dije eso. Es más, le dije en el 1 mensaje, que esa tarjeta huele a que esta mal de aquí a lima, pasando por Londres, y pagando un café en Escocia.



Y despues, simplemente le demostré que con una 4080 la diferencia entre esos 2 procesadores , bueno no, con el K el del compañero, no es el K , +20 fps en muchos casos.
En 1440p que es la resolución del compañero, no en 4k.
Que seguí mirando mas videos, no sólo pasa en un par de títulos

https://youtu.be/bJM4C55olWA
A mi, las diferencias, me parecen bastante más que substanciales, y hablamos del K, el del compañero, no es el k, y la cosa cambia ya más.


Y no se tío, que se supone que es más verídico ese video que mis capturas?
Que ni pone el contador de frames en el video ni na? Bueno, a saber, ya sabes como va este mundillo

Voy a tramitar la devolución.
Es que huele mal mal mal .
Joder ,he estado viendo el Hunt con mi gráfica a 257fps de media, y yo tengo tramos de 120-145fps con picos de 170 -180.
Vamos ,que mi media estará por los 140fps.
Es casi la mitad de lo que debería rendir.
Que sí, quitemos que los 257fps sean con un 13900k y DDR5.Pero qué menos que estar por los 220-230 de media ...a malas 200fps.No 140 fps.

Por cierto del 12600k al ni K ,va nada y menos.Que según lo dices ,parece que la diferencia es abismal.
De hecho, en la gran mayoría de juegos ,el 13600k ni le saca tanta diferencia al 12600k.
Sí hay algunos en los que rinda el 15-20% ,pero la mayoría ,no .
La mayoría van de un 6-7% a prácticamente igual.


No cuadra por ningún sitio lo de dtaa gráfica.. [beer]

A ver qué excusa o rollo me ponen, porque claro, la factura está a nombre del que me la vendió nueva por Wallapop.
No creo que haya problema.
Tiene solo 12 días desde el día de la compra.

Por lo que veo ,ellos te hacen tramitar a través de las devoluciones de la cuenta.Pero al no comprarla yo, no puedo.
He abierto un ticket para que me digan cómo proceder.

A ver por dónde salen.

PD: es curioso .Viendo vídeos del A Plague Tale Requiem en el inicio,con los mismos presets ,era lo que recordaba con la 3080Ti.Unos mínimos de 75fps y máximls sobre 90-100fps.
Y ahí está 4080 me va de 120 a 150 fps.
Aquí sí rinde bien.
Qué cosa más rara
@hh1 y no será tema de drivers con algunos juegos? Porque si en otros rinde bien, igual no es que la GPU esté mal.

Y otra opción sería hablar con Gigabyte, a ver si ellos te hacen un reemplazo de la GPU (si realmente está defectuosa), por si en Coolmod te ponen pegas.


Salu2
@hh1 Las gráficas funcionan o no funcionan, no funcionan a medias en cuanto a rendimiento

Si no te hace throttling y las temps son correctas la gráfica no está defectuosa

La vas a devolver, pillar otra y seguirás con el mismo "problema" y paranoias
ditifet escribió:@hh1 Las gráficas funcionan o no funcionan, no funcionan a medias en cuanto a rendimiento

Si no te hace throttling y las temps son correctas la gráfica no está defectuosa

La vas a devolver, pillar otra y seguirás con el mismo "problema" y paranoias


Yo creo que si los benchs los da correctos, el problema es tema de configuracion de los juegos (que tengas alguna opcion grafica cambiada y haga bajar la cantidad de fps como por ejemplo el hairworks de the witcher) o algun problema con windows/drivers.
colado escribió:
ditifet escribió:@hh1 Las gráficas funcionan o no funcionan, no funcionan a medias en cuanto a rendimiento

Si no te hace throttling y las temps son correctas la gráfica no está defectuosa

La vas a devolver, pillar otra y seguirás con el mismo "problema" y paranoias


Yo creo que si los benchs los da correctos, el problema es tema de configuracion de los juegos (que tengas alguna opcion grafica cambiada y haga bajar la cantidad de fps como por ejemplo el hairworks de the witcher) o algun problema con windows/drivers.


El problema que tiene es de software está claro
@d2akl no me has entendido, quizás me faltó mencionar a yosu888 exclusivamente en el 2º párrafo, pero pensé que como lo hice ya quedaba claro. En ningún momento dije que tu dijeras eso, de hecho si clicas en el link que pongo lo dijo yosu888, precisamente puse el link para que quede claro quien lo dijo. A ti te cité por esas capturas que no me parece que demuestren nada. Y efectivamente, como dices, me parece lógico pensar que mi fuente tiene la misma fiabilidad que tus capturas: no lo sabemos. Lo que vi claramente es que en el video que puse dan mucha mas información que me parecía relevante (por ejemplo los 1440p que es de lo que hablamos).

No tenía tiempo para aportar mas info pero ahora aporto mas info de un medio importante y no de un youtuber cualquiera sino de Techspot comparando 12600k vs 13600k en 1080, 1440 y 4k e incluso se ven diferencias entre DDR4 y DDR5 donde en algunos casos mejora bastante:

1080:
Imagen

1440p
Imagen

4k
Imagen


Aunque no compare el Horizon ni el Metro de forma individual, en esos datos de 12 juegos se puede ver como en 1080p es donde mas diferencia hay, a 1440p también se nota bastante la diferencia y ya en 4k la diferencia es bastante pequeña.

Nada de esto sigue sin demostrar exactamente qué le pasa a hh1, porque una cosa es que, según esos datos, pasemos de 219fps (13600k con DDR5) a 178fps (12600k con DDR4) perdiendo un 20% aproximadamente (y de hecho mas o menos se puede simplificar diciendo que por la CPU se pierde un 10% y por la RAM otro 10%) cuando hh1 está contando una burrada tal como que pierde casi un 30% (180fps vs 130 fps) con una gráfica mejor.

En las comparativas que vemos se compara a igualdad de gráfica con mejor/peor procesador, pero el caso de hh1 es que con una gráfica bastante mejor saca MENOS fps cuando tiene una CPU un poco peor (no mucho peor). Con todo esto, en serio que estamos debatiendo si es un tema o no de la CPU? :-?


@hh1 creo que sería recomendable que hagas mas pruebas con tu gráfica y dejes claro tu equipo al completo (al menos lo mas importantes) y des datos muy concretos de rendimiento, olvidándote de la 3080Ti y el equipo de tu amigo. Porque si algo no cuadra en tu equipo se podrá revisar en reviews y análisis de rendimiento que se ve por internet. En cambio si vas diciendo que si tienes 40fps menos que tu amigo (y no dices en ese mismo mensaje los fps de tu amigo que dijiste 5 posts atrás) me parece un lío y es mucho más difícil que te puedan ayudar. Por ejemplo, algo como lo que te digo este vídeo te dice algo? Una 12600k con una 3080 va ¿igual? que a ti con una gráfica bastante inferior? Tú dirás:



Y otra cosa que con tantos mensajes ya me he perdido, has dicho en algún momento todos los juegos que has probado y la media de fps que te dan? Has comparado con los reviews de la gráfica y/o videos en youtube para ver cuáles te van mas o menos bien y cuales no? No sé si estamos hablando que de 10 juegos solo 1 o 2 te van mal o de 10 juegos solo 1 o 2 te van bien, es importante esa diferencia.
@hh1

Eres terco como cabra hombre :)

Esa diferencia de fps que ves es por la combinacion de cuello de botella que le hace la 4080 a ese 6+4C, es poco cpu para esa tarjeta, sumado a los 3000mhz de tu ram ddr4.

Cual es la parte mas importante de una PC?

-La CPU&PSU SIEMPRE

- La diferencia la hacen los FPS minimos

Mi regla de oro siempre que armo un equipo>

La cadena es tan fuerte como el mas debil de sus eslabones

Puedes probar hacer un formateo completo desde 0, mi metodo favorito cuando hay cambio de hardware, pero no creo que solucione ese cuello de botella, espero que no juegues a 1440p, perderias entre 20-30fps

Lo que yo haria>

1 Cambiar RAM (velocidades)

2 Cambiar a un 12700k ( para no gastar en placa nueva)

3 Jugar con ese combo a 4k
Rvilla87 escribió:@d2akl no me has entendido, quizás me faltó mencionar a yosu888 exclusivamente en el 2º párrafo, pero pensé que como lo hice ya quedaba claro. En ningún momento dije que tu dijeras eso, de hecho si clicas en el link que pongo lo dijo yosu888, precisamente puse el link para que quede claro quien lo dijo. A ti te cité por esas capturas que no me parece que demuestren nada. Y efectivamente, como dices, me parece lógico pensar que mi fuente tiene la misma fiabilidad que tus capturas: no lo sabemos. Lo que vi claramente es que en el video que puse dan mucha mas información que me parecía relevante (por ejemplo los 1440p que es de lo que hablamos).

No tenía tiempo para aportar mas info pero ahora aporto mas info de un medio importante y no de un youtuber cualquiera sino de Techspot comparando 12600k vs 13600k en 1080, 1440 y 4k e incluso se ven diferencias entre DDR4 y DDR5 donde en algunos casos mejora bastante:

1080:
Imagen

1440p
Imagen

4k
Imagen


Aunque no compare el Horizon ni el Metro de forma individual, en esos datos de 12 juegos se puede ver como en 1080p es donde mas diferencia hay, a 1440p también se nota bastante la diferencia y ya en 4k la diferencia es bastante pequeña.

Nada de esto sigue sin demostrar exactamente qué le pasa a hh1, porque una cosa es que, según esos datos, pasemos de 219fps (13600k con DDR5) a 178fps (12600k con DDR4) perdiendo un 20% aproximadamente (y de hecho mas o menos se puede simplificar diciendo que por la CPU se pierde un 10% y por la RAM otro 10%) cuando hh1 está contando una burrada tal como que pierde casi un 30% (180fps vs 130 fps) con una gráfica mejor.

En las comparativas que vemos se compara a igualdad de gráfica con mejor/peor procesador, pero el caso de hh1 es que con una gráfica bastante mejor saca MENOS fps cuando tiene una CPU un poco peor (no mucho peor). Con todo esto, en serio que estamos debatiendo si es un tema o no de la CPU? :-?


@hh1 creo que sería recomendable que hagas mas pruebas con tu gráfica y dejes claro tu equipo al completo (al menos lo mas importantes) y des datos muy concretos de rendimiento, olvidándote de la 3080Ti y el equipo de tu amigo. Porque si algo no cuadra en tu equipo se podrá revisar en reviews y análisis de rendimiento que se ve por internet. En cambio si vas diciendo que si tienes 40fps menos que tu amigo (y no dices en ese mismo mensaje los fps de tu amigo que dijiste 5 posts atrás) me parece un lío y es mucho más difícil que te puedan ayudar. Por ejemplo, algo como lo que te digo este vídeo te dice algo? Una 12600k con una 3080 va ¿igual? que a ti con una gráfica bastante inferior? Tú dirás:



Y otra cosa que con tantos mensajes ya me he perdido, has dicho en algún momento todos los juegos que has probado y la media de fps que te dan? Has comparado con los reviews de la gráfica y/o videos en youtube para ver cuáles te van mas o menos bien y cuales no? No sé si estamos hablando que de 10 juegos solo 1 o 2 te van mal o de 10 juegos solo 1 o 2 te van bien, es importante esa diferencia.

El equipo es:.
Placa : MSI Mortar Mag B660 DDR4
I5 12600
RTX 4080 Gigabyte Eagle
Corsair Vengeance 8x2 16gg 3000mhz cl14
Fuente Corsair RM1000X.

En ese vídeo del Hunt con la 3080 le va muy parecido a mí con la 4080.

He probado 1440p::
-The Evil West:
este no me vale porque fluctúa hasta pocos por encima de 300fos.Eso sí, no llega a los picos de fps de la 3080Ti.
-Metro Exodus: unos 130-140fps de media en el inicio con RT y DLSS calidad.
cuando sales a exteriores. con DLSS calidad
-Hunt: 130 fps de media
A plague Tale Requiem: en el inicio unos 130 fps con DLSS calidad.

Ahora voy a probar Horizon 5.
-1440P DLSS calidad presets todos en los más alto(Élite/Ultra) : 125 fps de media.RT Alto.
-1440p DLSS calidad bajando los presets Élite a Ultra: 135 fps..RT Alto.
Lo curioso es que haces esos dos settings sin RT y me va IGUAl.
Un poco por debajo de lo que veo por ahí pero esto sí puede ser cpu y ddr4.
La GPu en el este juego va al 65-70% y la cpu no llega ni al 50%.
La 3080Ti sí se ponía al 100% aquí, por eso el juego me va básicamente igual.

En todos los juegos está más que comprado tema temperaturas y temar power.Todo normal.

PD: Reinstalé Hunt.Empecé y me iba a 252 fps...como tiene que ir.
Pero de golpe, vuelve a a caer a 170...luego 135 ...luego 120 fps.
Me fijo y estaba al 98% de uso la gpu, y luego por debajo del 70% cuando cae a esos 120 fps.
La cpu ni un 50%

Ya lo he visto eso en varios juegos.¿qué puede ser?

@calloudiano
Te compraría el argumento si no resulta que exactamente con el mismo equipo pero con una 3080Ti, el The Evil West iba algo mejor.
Por no hablar de que el Hunt me va casi igual que cuando tenía la 3070.

Lo instalé todo de 0.

Seguiré probando hoy y mañana una batería de juegos antes de hacer nada.

@Er_Garry
Sí, lo pensé.Pero es que he probado actualizando y sin actualizar drivers, y va igual en los juegos que tengo.
@hh1 has probado a poner la GPU en modo Máximo Rendimiento desde el panel de control de Nvidia? Si no en todos los juegos, al menos en los que te da problemas, a ver si el comportamiento se mantiene.

Aunque si la GPU baja de uso, tiene pinta cuello de botella en algún lado, igual está saturando la RAM (transferencia de datos no GB usados), disco duro o CPU (los hilos que use).

¿Y tienes habilitado el Resizeable Bar?


Salu2
Er_Garry escribió:@hh1 has probado a poner la GPU en modo Máximo Rendimiento desde el panel de control de Nvidia? Si no en todos los juegos, al menos en los que te da problemas, a ver si el comportamiento se mantiene.

Aunque si la GPU baja de uso, tiene pinta cuello de botella en algún lado, igual está saturando la RAM (transferencia de datos no GB usados), disco duro o CPU (los hilos que use).

¿Y tienes habilitado el Resizeable Bar?


Salu2

Sí, ya lo tenía puesto.
Hace cosas muy raras.

Pruebo Bright Memory Infinite con DLSS calidad 1440p.Y joder, con la 3080Ti me iba mejor.
Cuando la GPu se pone con el 99% de uso, muy bien.220-240fps.
Pero en casi todo el juego baja el uso y baja un huevo los fps en tramos a niveles, por lo que veo ,de una 3080.

De hecho, otra cosa curiosa, es que este juego puede usar RT y DLSS3, y a mí no me deja seleccionarlos.

No sé qué narices es.
Es como que a ratos va como debe y en otros, cae.Y cuando cae, ya no recupera esos fps.
No puede pegar esos bailes tan grandes de fps.No pasa en todos los juegos, pero sí en varios.

Sí,REsizable bar habiltado

.
hh1 escribió:Sí, ya lo tenía puesto.
Hace cosas muy raras.

Pruebo Bright Memory Infinite con DLSS calidad 1440p.Y joder, con la 3080Ti me iba mejor.
Cuando la GPu se pone con el 99% de uso, muy bien.220-240fps.
Pero en casi todo el juego baja el uso y baja un huevo los fps en tramos a niveles, por lo que veo ,de una 3080.

De hecho, otra cosa curiosa, es que este juego puede usar RT y DLSS3, y a mí no me deja seleccionarlos.

No sé qué narices es.
Es como que a ratos va como debe y en otros, cae.Y cuando cae, ya no recupera esos fps.
No puede pegar esos bailes tan grandes de fps.No pasa en todos los juegos, pero sí en varios.

Sí,REsizable bar habiltado

.

Mmm, comprueba que tienes habilitado el GPU Scheduler por Hardware en el windows (Configuración->Sistema->Pantalla->Gráficos->Configuración de gráficos predeterminada), porque si no te habilita el DLSS 3 puede ser por eso.

Y en caso de que esté deshabilitado, eso puede explicar el uso errático que estás teniendo de la GPU ;)


Salu2
@hh1 Mírate bien lo del HAGS porque el scheduler te va a tirar de CPU si por algún motivo no se habilita en la gráfica.

Por otra parte, en la tan manida ya prueba de 100% uso - 100% TDP del Kombustor (la "ITV" de las gráficas como lo llamo yo), he visto una cosa curiosa entre diferentes CPUs usando los mismos drivers y la misma build de Windows 11 con una 4080....

Hace un rato mi 4080 "recién levantada", todo stock incluyendo al 5800X3D, 149 fps Kombustor 1440p - 5800X3D - RTX 4080 un fps más de lo normal seguramente porque estaba fría.

En la lista veo otra 4080 pero con un 13900K, la mejor CPU del momento, 146 fps Kombustor 1440p - 13900K - RTX 4080 todo dentro de lo normal.

Pero en la lista encuentro también una 4080 con un 9700KF, 8-core 8-hilos que en su día se pegaba con el 3700X, 128 fps, 20 fps menos, Kombustor 1440p - 9700KF - RTX 4080 ...el Kombustor se pone al 100% en 1440p incluso con un Ryzen 2600 así que es un resultado muy pero que muy curioso, qué opinas? Parece que los drivers de Nvidia tienen un CPU overhead, no?
Er_Garry escribió:
hh1 escribió:Sí, ya lo tenía puesto.
Hace cosas muy raras.

Pruebo Bright Memory Infinite con DLSS calidad 1440p.Y joder, con la 3080Ti me iba mejor.
Cuando la GPu se pone con el 99% de uso, muy bien.220-240fps.
Pero en casi todo el juego baja el uso y baja un huevo los fps en tramos a niveles, por lo que veo ,de una 3080.

De hecho, otra cosa curiosa, es que este juego puede usar RT y DLSS3, y a mí no me deja seleccionarlos.

No sé qué narices es.
Es como que a ratos va como debe y en otros, cae.Y cuando cae, ya no recupera esos fps.
No puede pegar esos bailes tan grandes de fps.No pasa en todos los juegos, pero sí en varios.

Sí,REsizable bar habiltado

.

Mmm, comprueba que tienes habilitado el GPU Scheduler por Hardware en el windows (Configuración->Sistema->Pantalla->Gráficos->Configuración de gráficos predeterminada), porque si no te habilita el DLSS 3 puede ser por eso.

Y en caso de que esté deshabilitado, eso puede explicar el uso errático que estás teniendo de la GPU ;)


Salu2

Cuando vuelva a casa lo miro .Has ta mañana ya nada.
Lo raro es q mue en a plague tal requiem si va DLSS 3

Con hw monitor me salta aviso de power limit jugando a Hunt y como un fallo
Muy raro porque la dejé de stock y luego probé UV .

Hace cosas muy muy extrañas.
Pruebo RE 8 y muy bien
Pruebo Bright memory infinte...y mal.

Encima tiene coil whine.
No me había percatado porque me ponías cascos
Hoy he hecho pruebas sin cascos y hostia qué pedazo de ruido tiene.

Va a ir de vuelta sí o sí.
Nunca me han pasado todos estas cosas y mira que he pasado por gráficas.

@Lince_SPAIN
Pues la verdad es que ya no sé qué decirte.
La realidad es que la mayoría de juegos me van bien ,pero hay 3 de los que tengo, que ni de coña van como deben y tienen unas fluctuaciones de fps escandalosas.

Y sí, por si alguien lo dice ,ya tengo en cuenta que es "solo" un 12600 con ddr4.
Pero hay cosas que no son normales.
Esos bajones de usos de gpu...
Y encima le he oido un coil whine bastante notorio...

No voy nada convencido con esta gráfica en absoluto.

Me quedo más a gusto descartando la gráfica cambiando a otra.

Que al final tengo medio mes para tomar una decisión ,y si no, luego toca comérsela.

No puedo dar estos resultados por buenos ni de coña y quedarnela tan pancho.
Desde que barí la caja esta gráfica me ha dado un tufo a devolución que echa para atrás.

Ya hablé con Coolmod vía web y de momento se han portado.Ni un problema.
Me han pasado un sitio donde poner nombre y la durección del envío del reemplazo ,y de momento ,ni un problema.

Y ya ,dependiendo de si me dan la opción al dinero y poner algo más ,viendo la 4090 KFA2 a 1799€,hasta se me está pasando por la cabeza...

S
Básicamente habría saltado de una 3080Ti a una 4090 por 690€.
Aunque ya veremos qué opciones me dan, porque con una 4080 tengo de sobra .La KFA2 de 1399€ ya me vale.
Seguiré mañana probando juegos.
@hh1 Pregunta tonta ¿Tienes activado el resizable bar? Con el jaleo de que te haya petado la fuente y los constantes reinicios puede ser que la bios se te haya reseteado a valores de fábrica. Revisa también la velocidad de la ram y se si tienes el perfil xmp cargado correctamente.

Yo pasé de la 3080Ti a la 4080 y hay cosas que a 2k van igual por el tema de la limitación por CPU, pero cuando juego a 4k saca un 30-50% más de potencia según el juego.
Strait escribió:@hh1 Pregunta tonta ¿Tienes activado el resizable bar? Con el jaleo de que te haya petado la fuente y los constantes reinicios puede ser que la bios se te haya reseteado a valores de fábrica. Revisa también la velocidad de la ram y se si tienes el perfil xmp cargado correctamente.

Yo pasé de la 3080Ti a la 4080 y hay cosas que a 2k van igual por el tema de la limitación por CPU, pero cuando juego a 4k saca un 30-50% más de potencia según el juego.

Sí sí.
Me sale como activado.
Ya te digo que me he repasado mil veces todas las cosas de Windows ,panel de control Nvidia ,bios ,drivers ,controladores.
Muy complicado que sea algo de eso. [beer]

Yo no creo que mi cpu límite tanto y a parte ,es que es ver videos hasta con 8700k,9700k...y van mejor.

Lo curioso es lo que digo Todos los benchmarks bien.
Y muchos juegos como Horizon 5 ,RE8 Village ,Metro Exodus...van como deben ir.
Miro comparativas con gente con 13900k y ddr5 y es que van casi iguales.
Tanto no me puede estar limitando.

Que haya algún juego puntual...bueno,puede ser.
Pero tanto no.

Y es poner Hunt y es que "se muere" .
Encima ,monitorizando el juego en el hwmonitor da una especia de error en power.
Tengo que ver en otros juegos que van bien qué sale.

Luego el Bright Memory por debajo de lo que debe ir con unos bajones casi a 110 fps que alucino.
Y el The Evil West ,como ya dije ,rinde por debajo de lo que debe tambi3n.Aunque se nota poco porque va sobradísimo.

Es muy raro todo.Y lo unido al tufillo a devolución y al coil whine ,y es que ,la verdad ,no me apetece quedarme esta gráfica.

A ver qué cambio me dejan hacer y si tengo la opción de por 300€ Irma a la 4090, a tomar por culo.
Auqnue sé que aquí sí que ya es un overkill de manual para 1440p.Pero el cambio es que está a huevo.
Y si no, pues otra 4080 distinta y a ver si va mejor.

Ya solo por el coil whine la devolvería.

Mira que en época "moderna " he tenido gráficas: Rx489,GTX 1070,1080,1080Ti, RTX 3070 ,3080ti...
Y jamás he escuchado nada en ninguna ni me han hecho estas cosas tan raras.
Y si alguna tenía coil whine ,nunca me di ni cuenta.
Pero este es que se percibe bastante

Que pillo otra y sigue pasando?
Pues a homérmela y a averiguar qué leches pasa.
Pero al menos así,descarto la gráfica mientras que pueda hacerlo
@hh1 ah si te da un error en el GPU-Z o el HWiNFO en la entrega de potencia entonces desde luego algo pasa ahí, en cuanto al coil whine yo prefiero que me salga el peor silicio de todos (que luego se puede maquillar con un undervolt en el Afterburner) a una gráfica cantarina, directamente no puedo con el coil whine... afortunadamente no me ha tocado coil whine y el silicio es decente, pero en la lotería de Navidad no me tocó más que un par de reintegros.

por cierto, en qué frecuencia está tu coil whine, aquí te dejo una muestra a ver si puedes identificar los Hz, si el problema es por framerate debería ser aparente a partir de los 10.000 Hz, si es directamente una castaña de PCB lo tendrás a una frecuencia menor. (Este test también sirve para medir la audición en general, un niño escuchará por norma general el vídeo entero mientras que con mi edad no solemos escuchar los últimos 8 segundos...)

Chaquetero está baneado por "troll"
calloudiano escribió:@hh1

Eres terco como cabra hombre :)

Esa diferencia de fps que ves es por la combinacion de cuello de botella que le hace la 4080 a ese 6+4C, es poco cpu para esa tarjeta, sumado a los 3000mhz de tu ram ddr4.

Cual es la parte mas importante de una PC?

-La CPU&PSU SIEMPRE

- La diferencia la hacen los FPS minimos

Mi regla de oro siempre que armo un equipo>

La cadena es tan fuerte como el mas debil de sus eslabones

Puedes probar hacer un formateo completo desde 0, mi metodo favorito cuando hay cambio de hardware, pero no creo que solucione ese cuello de botella, espero que no juegues a 1440p, perderias entre 20-30fps

Lo que yo haria>

1 Cambiar RAM (velocidades)

2 Cambiar a un 12700k ( para no gastar en placa nueva)

3 Jugar con ese combo a 4k


[facepalm] [facepalm] lo que hay que leer.

@hh1 Has mirado que tu gráfica vaya a x16 y no a x8? Lo puedes mirar en el gpu-z. Puede que en determinados juegos ese ancho de banda se sature y te limiten los FPS.
Chaquetero escribió:
calloudiano escribió:@hh1

Eres terco como cabra hombre :)

Esa diferencia de fps que ves es por la combinacion de cuello de botella que le hace la 4080 a ese 6+4C, es poco cpu para esa tarjeta, sumado a los 3000mhz de tu ram ddr4.

Cual es la parte mas importante de una PC?

-La CPU&PSU SIEMPRE

- La diferencia la hacen los FPS minimos

Mi regla de oro siempre que armo un equipo>

La cadena es tan fuerte como el mas debil de sus eslabones

Puedes probar hacer un formateo completo desde 0, mi metodo favorito cuando hay cambio de hardware, pero no creo que solucione ese cuello de botella, espero que no juegues a 1440p, perderias entre 20-30fps

Lo que yo haria>

1 Cambiar RAM (velocidades)

2 Cambiar a un 12700k ( para no gastar en placa nueva)

3 Jugar con ese combo a 4k


[facepalm] [facepalm] lo que hay que leer.

@hh1 Has mirado que tu gráfica vaya a x16 y no a x8? Lo puedes mirar en el gpu-z. Puede que en determinados juegos ese ancho de banda se sature y te limiten los FPS.

Pues la verdad es que no se me había ocurrido eso.

Gracias ! Mañana lo miro a ver si llevas razón. [beer]

@Lince_SPAIN
Es que algo raro hay sí o sí.
A ver si tengo tiempo para ir mirando todo lo que me decís,aunque ya estoy decidido a devolverla . [beer]


No se supone que ya estaba introducido el dlss3? Pues yo pensaba que si
No he hecho una búsqueda intensiva, pero de las gamas altas de la serie 30 (las 80, 80ti, 90 y 90 ti) ya no quedan en tiendas españolas online prácticamente ninguna tarjeta. He mirado por curiosidad en PCComponentes, Coolmod, Life y Neobyte. Y creo que he visto un par en stock que sean Nuevas. (No cuento los vendedores externos de PcComponentes, ni reacondicionadas)
Así que parece que al menos en estas series no era tan terrible el problema del stock. Habrá que ver si es algo puntual o ya se han terminado, y si las series medias (las 60 y 70) están más repletas, que esas evidentemente siguen a la venta.
vaya cómo fluye de maravilla ahora el Cyberpunk con el controvertido "frame generator", estoy flipando, con G-Sync se capa a 138 fps en mi monitor de 144Hz y yo no noto ni latencia ni nada, lo que sí veo es que ya no pega ni un pequeña bajada de frames, fluido como el buscaminas. Por lo visto Nvidia ya va con la revisión 1.5 del frame generator (múltiples mejoras en pocos meses), parece que se lo están tomando como algo personal.
Me hace gracia en la nota de CD Project:

NOTE: it is recommended to enable upscaling (DLSS) on graphics cards with 16GB or less of VRAM and 1440p or higher resolution.

Que ricos los 12Gb de la 4070ti, siempre racaneando de lo mismo
Alguien está utilizando DLSS3 con VSync? Cual es el mejor método para tener poca latencia con DLSS3 pero evitar tearing?
@Baktor Yo los juego todos los que lo soportan con dlss3 y gsync, cero problemas.
ionesteraX escribió:@Baktor Yo los juego todos los que lo soportan con dlss3 y gsync, cero problemas.

Cierto, solo había probado el Spider-Man y no sabía muy bien como configurarlo.
Por lo que he leído y acabo de confirmar si activas el Nvidia Reflex con DLSS3 activado, el propia Nvidia Reflex te limita los fps a 138 en mi caso que juego a 144Hz [oki]
[_-+-_] escribió:48 GB....

No se yo, ojala.

Imagen

NVIDIA Titan RTX “Ada” Graphics Card Spotted In Shipping Manifest, 48 GB GDDR6X Memory & PG137 Board

Tambien se ha rumoreado una version de 24GB que seria la 4090Ti
Merece la pena el UV a estas gpus?
He probado la 4070ti a dejarla en 2790Mhz a 0,975
Buenas, recibida ayer las RTX 4090 PNY REVEL y no puedo estar mas satisfecho.

No habia planificado esta compra, la vi a 1800 pavos, me cuadró el precio (pagar mas de 2k era como una barrera psicologica) y me lancé a por ella que ya tenia ganas de volver al PC gaming despues la decepcion que supone, a nivel tecnico, la PS5 (con la que he estado tirando). Con deciros que doy el salto desde una GTX 1080ti (una de las mejores graficas de la historia IMO).


Al ser una compra no planificada, decidi emperejarla con mis componentes antiguos, sobre todo despues de ver multitud de reviews que mostraban que al jugar a 4K RT ULTRA (mi objetivo es 4k rt 60 fps), las diferencias son pequeñas entre un procesador u otro. Asi que la he emparejado con una placa MSI B450 (PCI GEN 3.0) , AMD Ryzen 3600, 16 gb de ram 3200 Mhz y fuente EVGA 850 W bronce. Vamos, con todo aquello que pueda hacer cuello de botella. De momento, solo me dio tiempo ayer a hacer una instalacion limpia de windows 11 y correr benchmark con CP2077 y los resultados acordes a las review: 4k ultra rt psyco dlss off: 38 fps de media, 4k ultra rt psyco dlss quality 67 fps de media. Lo grafica se pone al 99%, el boost alcanza un clock de 2745 mhz y 66 grados de temp con los ventiladores al 39%. Lo dicho, me doy por satisfecho con esta PNY REVEL. Silenciosa, potente y fresca. Me voy a quedar con estos componentes hasta la proxima generacion de micros en la que ya daré el salto.
@parh me alegro muchisimo de que estes contento, pero con ese hardware no se para que te gastas 1800 euros en una grafica con la que tienes mas cuello de botella que con un botijo. Sin ofender. Para tu equipo veo mejor una 4070ti que una 4090, pero bueno si tienes previsto ir renovando hard pues bien esta.
HaGeK escribió:@parh me alegro muchisimo de que estes contento, pero con ese hardware no se para que te gastas 1800 euros en una grafica con la que tienes mas cuello de botella que con un botijo. Sin ofender. Para tu equipo veo mejor una 4070ti que una 4090, pero bueno si tienes previsto ir renovando hard pues bien esta.


pero sí lo he dicho, que a mi mientras este equipo me entregue los 4k 60fps es suficiente para mi. Me da igual si con el 3600 me llega a 66 fps y en cambio con placa y micro de ultima generacion me llega a 80fps. Esos fps extras "no los uso". No juego competitivo. Para jugar online al cod, lo hago en la ps5.

Cuando realmente me hagan falta, renovare el resto de componentes.
@KindapearHD por supuesto que vale la pena, si es 100% estable tu gráfica con ese voltaje desde luego has triunfado, así a ojo le has quitado unos 70mV
Lince_SPAIN escribió:@KindapearHD por supuesto que vale la pena, si es 100% estable tu gráfica con ese voltaje desde luego has triunfado, así a ojo le has quitado unos 70mV


De momento he probado con Horizon Zero dawn, Warzone 2.0 y Resident Evil 3. Los 3 en 1440p. Ha funcionado perfectamente.
KindapearHD escribió:
Lince_SPAIN escribió:@KindapearHD por supuesto que vale la pena, si es 100% estable tu gráfica con ese voltaje desde luego has triunfado, así a ojo le has quitado unos 70mV


De momento he probado con Horizon Zero dawn, Warzone 2.0 y Resident Evil 3. Los 3 en 1440p. Ha funcionado perfectamente.


qué clok tiene tu gráfica asociado en la curva stock (después de darle al reset en Afterburner) en el punto de 1100mV? Pásale el MSI Kombustor destruye-undervolts a ver si te lo pasa también, el test 1 que sale por defecto, tarda 30 segundos cada uno y a poco que no sea estable la gráfica te tira al escritorio, usa los presets/benchmark 1080p y 1440p: https://geeks3d.com/dl/show/703

como referencia aquí tienes mis resultados, si estás en un 25% al alcance de los mismos con una 70 Ti te repito que has triunfado. 1080p - 178fps y por otro lado 1440p - 149 fps
He probado el CP 2077 con el frame generator y al entrar en el modo escaneo (botón LB del mando de Xbox) se ven montón de errores gráficos. Al entrar en el menú de pausa o en el del personaje, al volver al juego tarda un rato en estabilizar los fps. No he probado mucho más que cargar la partida que tenía a medias pero al entrar en modo escaneo canta enseguida.

Lince_SPAIN escribió:
KindapearHD escribió:
Lince_SPAIN escribió:@KindapearHD por supuesto que vale la pena, si es 100% estable tu gráfica con ese voltaje desde luego has triunfado, así a ojo le has quitado unos 70mV


De momento he probado con Horizon Zero dawn, Warzone 2.0 y Resident Evil 3. Los 3 en 1440p. Ha funcionado perfectamente.


qué clok tiene tu gráfica asociado en la curva stock (después de darle al reset en Afterburner) en el punto de 1100mV? Pásale el MSI Kombustor destruye-undervolts a ver si te lo pasa también, el test 1 que sale por defecto, tarda 30 segundos cada uno y a poco que no sea estable la gráfica te tira al escritorio, usa los presets/benchmark 1080p y 1440p: https://geeks3d.com/dl/show/703

como referencia aquí tienes mis resultados, si estás en un 25% al alcance de los mismos con una 70 Ti te repito que has triunfado. 1080p - 178fps y por otro lado 1440p - 149 fps



En la curva de stock, a 1100mV, tiene 2820Mhz.

Aquí los resultados:
1080P - 134 FPS
1440p - 111 FPS

Pasados ambos sin problemas.

La curva del voltaje
Imagen



Edit:
He probado a subir a 2820mhz con los 0,975mV (pasando el test sube a 2865Mhz)

1080p - 136 FPS
1440p - 111 FPS

2910mhz con 0,975mV

1080P - 136 FPS
1440p - 113 FPS

Temperatura máxima 49ºC y sobre los 240W pasando los test.

2820Mhz con 0,95mV, peta

Ale, es todo lo que he probado a estas horas jaja
@KindapearHD Fenomenal, 34% de diferencia pero a pesar del lógico salto entre 4070 Ti y 4080 yo hice los test en stock es decir 1075mV (2895-2880MHz) y el TDP 320w, estoy convencido que en tu caso no llegarías quizá a pasar ni de 200w, es decir 60% menos de consumo lo que es sencillamente brutal. Obviamente yo también tengo algún que otro perfil con undervolt por ejemplo 2895 a 1v o 2760 a 940mv pero en tu caso en concreto lo dicho, triunfo, consumiendo como un mechero.
parh escribió:
HaGeK escribió:@parh me alegro muchisimo de que estes contento, pero con ese hardware no se para que te gastas 1800 euros en una grafica con la que tienes mas cuello de botella que con un botijo. Sin ofender. Para tu equipo veo mejor una 4070ti que una 4090, pero bueno si tienes previsto ir renovando hard pues bien esta.


pero sí lo he dicho, que a mi mientras este equipo me entregue los 4k 60fps es suficiente para mi. Me da igual si con el 3600 me llega a 66 fps y en cambio con placa y micro de ultima generacion me llega a 80fps. Esos fps extras "no los uso". No juego competitivo. Para jugar online al cod, lo hago en la ps5.

Cuando realmente me hagan falta, renovare el resto de componentes.

Estoy de acuerdo en que si estás contento con 60fps no te hacen falta más pero no tiene nada que ver con jugar o no competitivo. Yo por ejemplo noto mucho el cambio de fluidez hasta en el mismo menú del juego.
Baktor escribió:Alguien está utilizando DLSS3 con VSync? Cual es el mejor método para tener poca latencia con DLSS3 pero evitar tearing?

Activa la limitación de fps en el panel de control de nvdia.

Si tu monitor es 144hz, pues le pones 141 para que no haya tearing
Baktor escribió:Alguien está utilizando DLSS3 con VSync? Cual es el mejor método para tener poca latencia con DLSS3 pero evitar tearing?


Yo fuerzo el vsync desde el panel de control de nvidia y no noto nada grave en el input lag.
the_aeon escribió:Si tu monitor es 144hz, pues le pones 141 para que no haya tearing

No hay que poner 144 fps?
BladeRunner escribió:
the_aeon escribió:Si tu monitor es 144hz, pues le pones 141 para que no haya tearing

No hay que poner 144 fps?

La limitación no es perfecta, si pones 144 en algunos juegos tendrás tearing.

O la opción que dice el compañero de arriba, activas el V Sync en el panel de Nvidia y te olvidas, yo lo tengo así.

El V Sync solo entra en acción si los fps superan los Hz de tu monitor
@the_aeon el vsync lo probé en un juego antiguo e iba fatal, la mejor opción fue limitar a 60fps (monitor 60hz). No he probado otros juegos por falta de tiempo.
Y para 60hz habría q poner 59fps?
the_aeon escribió:
Baktor escribió:Alguien está utilizando DLSS3 con VSync? Cual es el mejor método para tener poca latencia con DLSS3 pero evitar tearing?

Activa la limitación de fps en el panel de control de nvdia.

Si tu monitor es 144hz, pues le pones 141 para que no haya tearing


Pregunta por que 141 y no 142 o 143? o 144? o incluso 140? lo pregunto en serio, gracias.
BladeRunner escribió:
the_aeon escribió:Si tu monitor es 144hz, pues le pones 141 para que no haya tearing

No hay que poner 144 fps?

No, como indican aquí:
If an in-game or config file FPS limiter is available, and framerate exceeds refresh rate:
Set (a minimum of) 3 FPS limit below display’s maximum refresh rate (57 FPS @60Hz, 97 FPS @100Hz, 117 FPS @120Hz, 141 FPS @144Hz, etc).

Para mas detalle, recomiendo leer esta guía (@AlbertX te menciono que lo preguntaste):
https://blurbusters.com/gsync/gsync101- ... -settings/

Aunque la verdad no sé hasta qué punto tiene cosas desactualizadas que quizás ya no aplican, como por ejemplo si Nvidia Reflex automáticamente te capa a 138fps con una pantalla de 144hz parece que automáticamente ya te lo deja de forma óptima sin que tengas que saber/hacer todo esto (no es solo lo que indiqué sino que hay mas cosas a hacer).

Es una guía con bastante contenido, y aunque me parece interesante a mi me da mucha pereza leerla entera (lo he intentado varias veces y lo he dejado a medias XD ). Mi mayor pereza viene de que no tengo/noto problemas de tearing ni similares jugando a los juegos, si lo tuviera me molestaría en leer y aprender todo bien al detalle.
la acogida a DLSS 3.0 entre la comunidad es practicamente unanime: dlss 3.0 es como un regalo del cielo para todos aquellos que disfrutamos de juegos single player y campañas.
Respecto al tema del vsync, gsync, etc, creo que el consenso es:

Si tienes G-SYNC:
-Activar G-SYNC en el panel de Nvidia
-Activar V-SYNC en el panel de Nvidia, ya sea de manera global o para cada juego especificamente.
-Limitar los FPS a 3 menos que los Hz aprox. Por ejemplo 144Hz - 141 FPS, y creo que el orden de preferencia es caparlo ingame (si el juego lo permite) y si no pues tirar de RivaTuner o desde el propio panel de Nvidia.

En juegos con DLSS3:
-Activar G-SYNC en el panel de Nvidia
-Activar V-SYNC en el panel de Nvidia, ya sea de manera global o para cada juego especificamente.
-Activar el Nvidia Reflex ingame y NO limitar los fps. El propio Nvidia Reflex ya los capa un poco por debajo de los Hz de tu monitor. En el caso de 144Hz los capa a 138fps.
parh escribió:la acogida a DLSS 3.0 entre la comunidad es practicamente unanime: dlss 3.0 es como un regalo del cielo para todos aquellos que disfrutamos de juegos single player y campañas.

Pues no deben tener muy bien la vista para ignorar los errores gráficos que produce.
Pacorrr escribió:
parh escribió:la acogida a DLSS 3.0 entre la comunidad es practicamente unanime: dlss 3.0 es como un regalo del cielo para todos aquellos que disfrutamos de juegos single player y campañas.

Pues no deben tener muy bien la vista para ignorar los errores gráficos que produce.


algun error grafico en alguna situacion puntual habra, seguro. pero, vamos, en este caso son despreciables al lado del beneficio que produce: ni mas ni menos duplicar el rendimiento. Y seguro que lo van puliendo.
parh escribió:
Pacorrr escribió:
parh escribió:la acogida a DLSS 3.0 entre la comunidad es practicamente unanime: dlss 3.0 es como un regalo del cielo para todos aquellos que disfrutamos de juegos single player y campañas.

Pues no deben tener muy bien la vista para ignorar los errores gráficos que produce.


algun error grafico en alguna situacion puntual habra, seguro. pero, vamos, en este caso son despreciables al lado del beneficio que produce: ni mas ni menos duplicar el rendimiento. Y seguro que lo van puliendo.

En cyberpunk nada más entrar en modo análisis/escaneo, que es esencial en el juego, ya se ven un montón de errores gráficos, puse un vídeo más atrás (es mío). Yo no lo veo como algo menor, pero bueno, eso lo debe valorar cada uno también. Y sí, supongo y espero que lo vayan puliendo, porque ahora mismo, para mí al menos no es una opción, me distrae demasiado ver esos errores gráficos, y gastarme 1870€ para esto...
13383 respuestas