[HILO OFICIAL] NVIDIA Ada Lovelace RTX4000

@hh1 Pues yo me alegro que Coolmod se haya portado y se haya resuelto de forma aceptada para tu interés, me he perdido con tantas páginas,¿Corsair ya te dijo algo de la fuente? A disfrutar la 4090 ya la quisiera yo para mí y a ese precio.
Hola buenas,

Llevo varios años con una GTX 1070 que me ha dado muy buen servicio estos años pero ya va tocando jubilarla. Doy por hecho que los precios actualmente están inflados y así se van a quedar durante un tiempo, con lo cual toca rascarse el bolsillo.

¿Cómo veis esta nueva serie 4XXX? ¿Merece la pena irse a por una 4070ti? Me preocupa, ahora con el lanzamiento del Hogwarts Legacy, que 12GB de VRAM sean insuficientes para los juegos venideros. Mi idea es tener una tarjeta que me dure unos 5-6 años para jugar en 2k a 60-120fps, según el juego.

También estaría abierto a gráficas AMD, que por lo que parece son más generosos con la VRAM.
Xcala666 escribió:@hh1 Pues yo me alegro que Coolmod se haya portado y se haya resuelto de forma aceptada para tu interés, me he perdido con tantas páginas,¿Corsair ya te dijo algo de la fuente? A disfrutar la 4090 ya la quisiera yo para mí y a ese precio.

Me la cambió Amazon.
Corsair iba respondiendo pero leeeenta leeeenta leeeenta.

Gracias!

No veo el momento ya de isfrutarlo. [beer]

A ver si con suerte me llega hoy.

@BJ Gallagher
Yo no me preocuparía tanto.
Desconozco si el Howarts requiere esos 12gb o más,pero eso no hace inutilizable o que vaya mal la gráfica.
A parte de que no creo que sea lo usual.

Sí esto te preocupa mucho, vete a una 7900XTX
BJ Gallagher escribió:Hola buenas,

Llevo varios años con una GTX 1070 que me ha dado muy buen servicio estos años pero ya va tocando jubilarla. Doy por hecho que los precios actualmente están inflados y así se van a quedar durante un tiempo, con lo cual toca rascarse el bolsillo.

¿Cómo veis esta nueva serie 4XXX? ¿Merece la pena irse a por una 4070ti? Me preocupa, ahora con el lanzamiento del Hogwarts Legacy, que 12GB de VRAM sean insuficientes para los juegos venideros. Mi idea es tener una tarjeta que me dure unos 5-6 años para jugar en 2k a 60-120fps, según el juego.

También estaría abierto a gráficas AMD, que por lo que parece son más generosos con la VRAM.

Mi recomendación es que si puedes ir a una de 16GB lo hagas
Desde que tengo la 4090 me estoy acostumbrando a jugar en ultra sin DLSS, y ahora si activo DLSS noto el cambio.

En Dead Space se nota mucho.

Ahora entiendo a la gente que se quejaba de la borrosidad del DLSS, cosa que antes no notaba al usarlo siempre.

Aunque tengo claro que cuando me haga falta DLSS, volveré a tirar de el.
@BJ Gallagher no he probado el juego pero "creo" matizo 2creo" que los consumos de vram de ese juego son debido a factores de fallo de software más que de requisitos, además siempre puedes desactivar los efectos de trazado de rayos y comerá menos vram, reconozco que lo que mas me echaba para atras de comprar la 4070Ti era ese motivo (y el precio claro) pero de momento no tenga queja de la tarjeta para jugar en 2k@165 y en concreto dejando aparte esos dos motivos es un modelo fresco y silencioso.
_anVic_ está baneado por "clon de usuario baneado"
the_aeon escribió:Desde que tengo la 4090 me estoy acostumbrando a jugar en ultra sin DLSS, y ahora si activo DLSS noto el cambio.

En Dead Space se nota mucho.

Ahora entiendo a la gente que se quejaba de la borrosidad del DLSS, cosa que antes no notaba al usarlo siempre.

Aunque tengo claro que cuando me haga falta DLSS, volveré a tirar de el.


Cuando usas dlss, yo recomiendo siempre en calidad, has de subir nitidez y no se te verá para nada emborronado, es más el AA que te brinda el dlss es cojonudo, te deja una imagen mejor que en 4k nativo sin AA . Para ver 4k perfecto sin dientes de sierra tendrías que meter msaa x2 o algún otro antialiasing superior para que te lo deje a nivel del dlss pero claro a costa de bajar mucho los fps.
hh1 escribió:Bueno ..pues ha salido por 1420€...

Pero a.ll que yo me refiero, es que lo que yo pago ahora son 710€.

Yo no estoy haciendo creer nada Estoy diciendo lo que hay.

@Xx_TiO_PePe_xX
Yo pillaría la más barata,salvo que la Aorus tenga 30-40€ de diferencia con las otras.Rntonces pillaría la Aorus.


Al final es como si hicieras un renting por mucho que por el camino hayas ahorrado algo de pasta (tampoco demasiada). En dos años has pagado (mucho o poco) por 4 gráficas. Lo que realmente me parece mas importante de este método es el tiempo que pasas sin gráfica entre cambios, y eso también es "dinero". Pero si a ti te vale asi, pues genial, el gato es tuyo y te lo f***** cuando quieres!
Yo, con un i5 hubiera ido a por la 4080, porque tarde o temprano vas a acabar cambiandolo por el cuello de botella (que mas o menos tenga en cada juego). Por ejemplo en Warzone 2, es muy grande incluso con un 5800X3d con la 4090 y a 1440p XD
KindapearHD escribió:Yo, con un i5 hubiera ido a por la 4080, porque tarde o temprano vas a acabar cambiandolo por el cuello de botella (que mas o menos tenga en cada juego). Por ejemplo en Warzone 2, es muy grande incluso con un 5800X3d con la 4090 y a 1440p XD



El 5800x3d con la 4090 en ultra a 1440 si, tiene "cuello de botella", pero con medias de 170fps... Vamos, que si no es que tienes un monitor de 240hz, ese "cuello de botella" te la trae al pairo y no procedería cambiar de cpu.
Pregunta tonta...
Ya me ha llegado la PNY 4090.

Viene con un pulpo de 4 conectores...no vale el conector que ya compré para la 4080 de 3x8 pines?

Este en concreto:
PCIe 5.0 GPU Cable de alimentación 70cm | Conector 12VHPWR de 16 pines (12+4) para RTX 3090 Ti 4080 4090 | 3x8pin (4+4) CPU macho enchufes sólo para Corsair/Great Wall/Thermaltake (Negro) https://amzn.eu/d/116ltna

Estéticamente se ve MUCHO mejor que la Eagle Gigabyte que era fea a rabiar.

Es que hasta la caja ocupa menos y está mejor .
Está sí viene con precinto en la propia caja.

@KindapearHD
Aún con cuello de botella , seguirá rindiendo más que una 4080 con la mejor cpu del mercado .
Cuando haya mayores diferencias y mejor DDR5 ,ya haré el cambio.
A mí con esto me sobra.
hh1 escribió:Pregunta tonta...
Ya me ha llegado la PNY 4090.

Viene con un pulpo de 4 conectores...no vale el conector que ya compré para la 4080 de 3x8 pines?

Este en concreto:
PCIe 5.0 GPU Cable de alimentación 70cm | Conector 12VHPWR de 16 pines (12+4) para RTX 3090 Ti 4080 4090 | 3x8pin (4+4) CPU macho enchufes sólo para Corsair/Great Wall/Thermaltake (Negro) https://amzn.eu/d/116ltna

Estéticamente se ve MUCHO mejor que la Eagle Gigabyte que era fea a rabiar.

Es que hasta la caja ocupa menos y está mejor .
Está sí viene con precinto en la propia caja.

@KindapearHD
Aún con cuello de botella , seguirá rindiendo más que una 4080 con la mejor cpu del mercado .
Cuando haya mayores diferencias y mejor DDR5 ,ya haré el cambio.
A mí con esto me sobra.

Según las especificaciones del fabricante requiere 4 conectores de 8 pines: https://www.pny.com/pny-geforce-rtx-409 ... le-fan-led

Saludos.
javier español escribió:
hh1 escribió:Pregunta tonta...
Ya me ha llegado la PNY 4090.

Viene con un pulpo de 4 conectores...no vale el conector que ya compré para la 4080 de 3x8 pines?

Este en concreto:
PCIe 5.0 GPU Cable de alimentación 70cm | Conector 12VHPWR de 16 pines (12+4) para RTX 3090 Ti 4080 4090 | 3x8pin (4+4) CPU macho enchufes sólo para Corsair/Great Wall/Thermaltake (Negro) https://amzn.eu/d/116ltna

Estéticamente se ve MUCHO mejor que la Eagle Gigabyte que era fea a rabiar.

Es que hasta la caja ocupa menos y está mejor .
Está sí viene con precinto en la propia caja.

@KindapearHD
Aún con cuello de botella , seguirá rindiendo más que una 4080 con la mejor cpu del mercado .
Cuando haya mayores diferencias y mejor DDR5 ,ya haré el cambio.
A mí con esto me sobra.

Según las especificaciones del fabricante requiere 4 conectores de 8 pines: https://www.pny.com/pny-geforce-rtx-409 ... le-fan-led

Saludos.

Pues nada...a buscar uno de X4 que valga.
Alguien sabe de alguno que llegue relativamente rápido?

PD: imagino que este vale
PCI-e 5.0 Cable de extensión, 16Pin (12 + 4) macho a PCI-E 5.0 4x8 (6 + 2) Pin cable de extensión de manga hembra, 40cm 12VHPWR Cable compatible para GPU GeForce RTX 3090Ti 4080 4090 (Negro) https://amzn.eu/d/fIWbFsu
ditifet está baneado del subforo hasta el 5/4/2024 15:03 por "acumulación de infracciones"
Wookiee escribió:
hh1 escribió:Bueno ..pues ha salido por 1420€...

Pero a.ll que yo me refiero, es que lo que yo pago ahora son 710€.

Yo no estoy haciendo creer nada Estoy diciendo lo que hay.

@Xx_TiO_PePe_xX
Yo pillaría la más barata,salvo que la Aorus tenga 30-40€ de diferencia con las otras.Rntonces pillaría la Aorus.


Al final es como si hicieras un renting por mucho que por el camino hayas ahorrado algo de pasta (tampoco demasiada). En dos años has pagado (mucho o poco) por 4 gráficas. Lo que realmente me parece mas importante de este método es el tiempo que pasas sin gráfica entre cambios, y eso también es "dinero". Pero si a ti te vale asi, pues genial, el gato es tuyo y te lo f***** cuando quieres!


Y eso contando que tienes 4 veces más de probabilidades de problemas que puedan surgir debido a ser gráficas usadas y sus "garantías" ...oh wait XD

Esta vez ha tenido"suerte" y todo ha quedado en un susto, pero dudo que haya escarmentado a jugar a ser Warren Buffet
ditifet escribió:
Wookiee escribió:
hh1 escribió:Bueno ..pues ha salido por 1420€...

Pero a.ll que yo me refiero, es que lo que yo pago ahora son 710€.

Yo no estoy haciendo creer nada Estoy diciendo lo que hay.

@Xx_TiO_PePe_xX
Yo pillaría la más barata,salvo que la Aorus tenga 30-40€ de diferencia con las otras.Rntonces pillaría la Aorus.


Al final es como si hicieras un renting por mucho que por el camino hayas ahorrado algo de pasta (tampoco demasiada). En dos años has pagado (mucho o poco) por 4 gráficas. Lo que realmente me parece mas importante de este método es el tiempo que pasas sin gráfica entre cambios, y eso también es "dinero". Pero si a ti te vale asi, pues genial, el gato es tuyo y te lo f***** cuando quieres!


Y eso contando que tienes 4 veces más de probabilidades de problemas que puedan surgir debido a ser gráficas usadas y sus "garantías" ...oh wait XD

Esta vez ha tenido"suerte" y todo ha quedado en un susto, pero dudo que haya escarmentado a jugar a ser Warren Buffet

Pues me he acojonado ,sí.
Para qué nos vamos a engañar.

Pero es raro y no debería haber habido ningún problema siendo nueva a estrenar

El cable de 3x8 no vale para la 4090?
Al menos para encender y probar?

Yo entiendo que lo más que puede pasar es que no me dé toda la potencia ,no?
Pero si vale para FE ,debería valer para esta ,no?

No quiero cagarla con los putos cables ,que ya bastante he tenido.

https://amzn.eu/d/116ltna

@Wookiee
Es la primera vez que estoy sin gráfica en todos los cambios/compras que he hecho.
Para llevar haciéndolo 6 años ,no está nada mal.
Y ha sido porque no lo esperaba de algo nuevo.
Sí no es nuevo ,la mía no sale de casa hasta no prouebe la que compro.
ditifet está baneado del subforo hasta el 5/4/2024 15:03 por "acumulación de infracciones"
hh1 escribió:
ditifet escribió:
Wookiee escribió:
Al final es como si hicieras un renting por mucho que por el camino hayas ahorrado algo de pasta (tampoco demasiada). En dos años has pagado (mucho o poco) por 4 gráficas. Lo que realmente me parece mas importante de este método es el tiempo que pasas sin gráfica entre cambios, y eso también es "dinero". Pero si a ti te vale asi, pues genial, el gato es tuyo y te lo f***** cuando quieres!


Y eso contando que tienes 4 veces más de probabilidades de problemas que puedan surgir debido a ser gráficas usadas y sus "garantías" ...oh wait XD

Esta vez ha tenido"suerte" y todo ha quedado en un susto, pero dudo que haya escarmentado a jugar a ser Warren Buffet

Pues me he acojonado ,sí.
Para qué nos vamos a engañar.

Pero es raro y no debería haber habido ningún problema siendo nueva a estrenar

El cable de 3x8 no vale para la 4090?
Al menos para encender y probar?

Yo entiendo que lo más que puede pasar es que no me dé toda la potencia ,no?
Pero si vale para FE ,debería valer para esta ,no?

No quiero cagarla con los putos cables ,que ya bastante he tenido.

https://amzn.eu/d/116ltna

@Wookiee
Es la primera vez que estoy sin gráfica en todos los cambios/compras que he hecho.
Para llevar haciéndolo 6 años ,no está nada mal.
Y ha sido porque no lo esperaba de algo nuevo.
Sí no es nuevo ,la mía no sale de casa hasta no prouebe la que compro.


Puedes usar el cable de 3x8, el límite teórico de cada toma (cabezal) son 156w , y por línea 288, usa 3 líneas para La fuente y arreando, ahora bien vendrán los testigos de la fuentes de 1600w necesarias para las 4090 a echar espuma por la boca y decirte que ni loco que uses el de 4x8 o mejor si compras uno de 5x8
@ditifet lo recomendable es que cada cabezal vaya a una fuente distinta y cada fuente al cuadro electrico de distintas viviendas. Luego allá cada uno lo que conecte.
ditifet escribió:
hh1 escribió:
ditifet escribió:
Y eso contando que tienes 4 veces más de probabilidades de problemas que puedan surgir debido a ser gráficas usadas y sus "garantías" ...oh wait XD

Esta vez ha tenido"suerte" y todo ha quedado en un susto, pero dudo que haya escarmentado a jugar a ser Warren Buffet

Pues me he acojonado ,sí.
Para qué nos vamos a engañar.

Pero es raro y no debería haber habido ningún problema siendo nueva a estrenar

El cable de 3x8 no vale para la 4090?
Al menos para encender y probar?

Yo entiendo que lo más que puede pasar es que no me dé toda la potencia ,no?
Pero si vale para FE ,debería valer para esta ,no?

No quiero cagarla con los putos cables ,que ya bastante he tenido.

https://amzn.eu/d/116ltna

@Wookiee
Es la primera vez que estoy sin gráfica en todos los cambios/compras que he hecho.
Para llevar haciéndolo 6 años ,no está nada mal.
Y ha sido porque no lo esperaba de algo nuevo.
Sí no es nuevo ,la mía no sale de casa hasta no prouebe la que compro.


Puedes usar el cable de 3x8, el límite teórico de cada toma (cabezal) son 156w , y por línea 288, usa 3 líneas para La fuente y arreando, ahora bien vendrán los testigos de la fuentes de 1600w necesarias para las 4090 a echar espuma por la boca y decirte que ni loco que uses el de 4x8 o mejor si compras uno de 5x8

Y la pregunta clave...el de 4x8 es necesario?
Imagino que solo en caso de hacerle OC ,no? O de meterle más W en bios?

Entiendo que con los 3 saco 468w.Suficiente para lo que voy a hacer.
Lo que no quiero es que se joda nada por poner el de 3,que no tiene lógica que se joda nada ...peo ya ,lo que me faltaba.
Mi idea es solo hacerle un ligero UV,nada más.

@Fleishmann
Y cada vivienda a una central eléctrica distinta [qmparto]

@Kurosawa42
Cambiando solo cpu a penas vas a notar mejoría.
Lo suyo es ,si quieres más,cambiar garfica.

Ahora ,la Suprim X es cojonuda ,pero yendo todas bien ,me iría a una KFA2 que te ahorras un buen dinero ,y hasta ese dinero ,casi casi te da para una.placa nueva y algo de otra cpu.

Pero con solo el cambio de gráfica vas a notar bastante.Con solo la cpu ,no.
Kurosawa42 escribió:Buenos dias esta claro que el mundo del pc es muy variado y cientos configuraciones ...etc,etc queria preguntar/opiniones, los entendidos en la materia.

Tengo un i7 9700k con 32GB de ram, con una MSI RTX 3080 Suprim X 10gb y con un monitor 32:9 G9 Odyssey 5120x1440, viendo juegos como Hogwarts, Dead Space remake, Returnal...Este ultimo esta mucho mejor optimizado pero aun asi si quiero jugar con RTX se nota los bajones importantes ¿Comprar una Suprim x 4080 o esperar la proxima serie?

Tambien habia pensado solo cambiar el procesador con la placa base, un 13700k pero creo poco ganaria.¿Es asi o no?

En tu caso el cambio que te afectaría más sería el de la gráfica, y de hecho ya lo estás viendo al activar el RTX. Supongo que eres consciente, pero tu resolución es mas 4k que 1440p por ese monitor ultrapanorámico que usas. Lo digo para que en los análisis de rendimiento de juego te fijes en el 4k y no en el 1440p (no sé si lo hacías).

Una 4080 mejoraría, aparte de mayor potencia, tiene mas VRAM. Aquí tienes un vídeo del rendimiento de muchas gráficas con Howards Legacy que pusieron días atrás y que deja mas o menos claro la necesidad de cambiar tu gráfica si quieres mas potencia:

Hogwarts Legacy, GPU Benchmark: Obsoleting The RTX 3080 10GB


También te diría, por qué no la 4090 ya que estás? Esa respuesta, junto con la facilidad que tengas para moverte por el mercado y conseguir la 4080 a buen precio y posteriormente consigas venderla a buen precio puede ayudarte a resolver tus dudas.

Pero hay cosas que nadie sabe con seguridad, como por ejemplo el precio de las gráficas de siguiente generación, o si van a bajar/subir de precio las actuales en cuestión de semanas/meses, etc., con lo cual es difícil responderte con seguridad y vas a tener que jugártela tomando una decisión que en el futuro verás si fue la correcta o no. Pero vamos, es lo normal cuando compras algo, y mas en tecnología con las subidas y bajadas de precio que llevamos en los últimos años (mas subidas que bajadas por eso).

Sobre el procesador, a falta de revisar comparativas (en internet/youtube seguro que ves ejemplos de esos juegos con tu CPU y mejores CPUs y seguramente apenas haya diferencia ya que el límite seguramente lo marque la gráfica), diría que mejor ignores ese tema, la relación precio/rendimiento que ganarías sería mucho menor al de un cambio de la gráfica.
Que cosa curiosa mencionan en el chapuzas hoy.

https://elchapuzasinformatico.com/2023/02/rtx-4090-vs-rtx-6000-ada-creacion-contenido/

Leyendo noticias como esta mi sesgo de confirmación va poco a poco moldeándose. Yo tengo el convencimiento de que las nuevas 1080ti son estas 4090 de ahora y que dentro de varios años muchos añoraremos lo que estamos viviendo ahora mismo. Leyendo la noticia de arriba es que yo no puedo ser crítico, le he cogido querencia a mi tarjeta gráfica actual y me gustaría que esté muchos años a mi lado.

El día que salga la 5090 obviamente será más potente que estas nuestras de ahora, pero los astros no se juntan dos veces seguidas, algo pasará que hará que la percepción que haya de esa gráfica sea peor que la que tenemos ahora los afortunados que podemos disfrutarlas.

Tened buena tarde.
@pakolo1977 yo porque no tengo ni idea del tema de uso de la gráfica para uso "profesional" (como mucho codificación de video alguna vez y poca cosa mas), pero en la misma noticia dicen que eso no debería sorprender a nadie porque con las 3090 ya pasó algo parecido.

Lo que no sé cuántos de los que siguen en este hilo usan la gráfica a modo profesional y NO sabían lo de esta noticia, porque me parece algo básico a plantearse/analizar y supongo que todos los profesionales lo sabían.
Que benchmarks se usan para ver que la gráfica rinde como debe sin fallos? Orientados a la gráfica en sí más que al equipo completo.
Laolama escribió:Que benchmarks se usan para ver que la gráfica rinde como debe sin fallos? Orientados a la gráfica en sí más que al equipo completo.

Superposition ,Kombustor MSI, 3D Mark 'Time Spy" y "Port Royal", Heaven ...
Y luego algunos de juegos tipo Metro Exodus.

Yo suelo usar Kombustor ,Superposition y Time Spy.
Pasándome los 3, ya voy a juegos,que son el mejor benchmark que puedes hacer.
the_aeon escribió:Desde que tengo la 4090 me estoy acostumbrando a jugar en ultra sin DLSS, y ahora si activo DLSS noto el cambio.

En Dead Space se nota mucho.

Ahora entiendo a la gente que se quejaba de la borrosidad del DLSS, cosa que antes no notaba al usarlo siempre.

Aunque tengo claro que cuando me haga falta DLSS, volveré a tirar de el.


Bueno es que en el Dead Space el mimpap bias está mal implementado y hace que TODAS las texturas se vean borrosísimas, no importa el nivel de DLSS que elijas. Estamos a la espera de que EA se pronuncie y lo arregle mediante parche.
anavas44 escribió:
the_aeon escribió:Desde que tengo la 4090 me estoy acostumbrando a jugar en ultra sin DLSS, y ahora si activo DLSS noto el cambio.

En Dead Space se nota mucho.

Ahora entiendo a la gente que se quejaba de la borrosidad del DLSS, cosa que antes no notaba al usarlo siempre.

Aunque tengo claro que cuando me haga falta DLSS, volveré a tirar de el.


Bueno es que en el Dead Space el mimpap bias está mal implementado y hace que TODAS las texturas se vean borrosísimas, no importa el nivel de DLSS que elijas. Estamos a la espera de que EA se pronuncie y lo arregle mediante parche.


El mipmap bias del Dead Space remake se arregla por ahora entrando en el perfil del juego (a través del Nvidia Inspector) y modificando las siguientes opciones:

Imagen
Lince_SPAIN escribió:
anavas44 escribió:
the_aeon escribió:Desde que tengo la 4090 me estoy acostumbrando a jugar en ultra sin DLSS, y ahora si activo DLSS noto el cambio.

En Dead Space se nota mucho.

Ahora entiendo a la gente que se quejaba de la borrosidad del DLSS, cosa que antes no notaba al usarlo siempre.

Aunque tengo claro que cuando me haga falta DLSS, volveré a tirar de el.


Bueno es que en el Dead Space el mimpap bias está mal implementado y hace que TODAS las texturas se vean borrosísimas, no importa el nivel de DLSS que elijas. Estamos a la espera de que EA se pronuncie y lo arregle mediante parche.


El mipmap bias del Dead Space remake se arregla por ahora entrando en el perfil del juego (a través del Nvidia Inspector) y modificando las siguientes opciones:

Imagen


Aunque esa solución funciona, según el video de Digital Foundry también afecta a los menús. Videos, etc provocando artefactos raros. Esperemos que lo arreglen pronto oficialmente.
Buenas.
Algún poseedor de una 4090 me puede decir sus resultados en bench como Time Spy ,Kombustor o superposition?

Y qué UV tiene hechos?
Estoy probando de momento un 1000mV @ 2850mhz y parece que bien.
No creo que sea un UV bien afinado.
hh1 escribió:Buenas.
Algún poseedor de una 4090 me puede decir sus resultados en bench como Time Spy ,Kombustor o superposition?

Y qué UV tiene hechos?
Estoy probando de momento un 1000mV @ 2850mhz y parece que bien.
No creo que sea un UV bien afinado.


si quieres uno que no te falle nunca simplemente coloca la velocidad que te marque el punto 1100mV de la curva stock en el punto 1025mV
Lince_SPAIN escribió:
hh1 escribió:Buenas.
Algún poseedor de una 4090 me puede decir sus resultados en bench como Time Spy ,Kombustor o superposition?

Y qué UV tiene hechos?
Estoy probando de momento un 1000mV @ 2850mhz y parece que bien.
No creo que sea un UV bien afinado.


si quieres uno que no te falle nunca simplemente coloca la velocidad que te marque el punto 1100mV de la curva stock en el punto 1025mV

Gracias...lo miraré [beer]
De momento he puesto 1000mV @ 2865mhz y parece que va con todo hasta ahora.
En Kombustor 1080p saca 191 fps.A. 1440p 161 fps.
En Tyme Spy 32450 puntos.
Y en Superposition 4K optimized 31397.

Me slucina la diferencia con la 4080 Eagle.Pero es que en todo.

Empezando por la caja.Que es una chorrada ,sí.Pero más compacta ,cartón más duro ,mejor presentada...
La otra era enorme y y el cartón que la cubre se rompía casi con tocarlo.

Luego estéticamente.Sin ser una belleza ninguna de las dos ,joder,ya solo el frontal que ves desde fuera del pc por el cristal, está más tapado, vienen las letras PNY iluminadas...
La Eagle se veía solo hierraco del radiador.Fea de cojones.

También en tamaño me ha parecido ,sin mirar medidas ,que está me costaba mucho menos pincharla y colocarla.Creo que queda menos alta.

La sensación que da el backplate es de mayor calidad.

Y para acabar ,lo más importante ,sin coil whine y con mejores temperaturas que la Eagle de aquí a Lima.
En Superposition con 49°C
Kombustor con 54°C.
Jugando a The Evil West con 37°C (no es muy exigente).

No sé.Es como otro nivel a la Eagle.Y eso que esto es una PNY básica.
Es una maravilla.
@hh1 32k en time spy es bajito , la mia de stock pasa de 38k pero bueno es lo que tiene hacer undervolt hasta a las cafeteras.
La hostia EL DLSS 3, me ha pasado el Cyberpunk 2077, de 89-90 fps a 150-160. Estoy flipando, En demencial el RT y todo al maximo en 4K
ram escribió:@hh1 32k en time spy es bajito , la mia de stock pasa de 38k pero bueno es lo que tiene hacer undervolt hasta a las cafeteras.

Como si el motivo fuera por hacer undervolt... https://www.overclock.net/threads/rtx-4 ... 0.1801937/

En los test tiene un rendimiento casi idéntico (en TimeSpy concretamente un poco peor pero en general en los test es un poco mejor), y en los juegos en todos los casos comparados analizados se mejora respecto a stock.
Cómo véis una 4070 ti para un 12400f para jugar a resolución 1440p ?.
Demasiada tarjeta para ese micro, o me espero a la 4070 normal?
morrisong escribió:Cómo véis una 4070 ti para un 12400f para jugar a resolución 1440p ?.
Demasiada tarjeta para ese micro, o me espero a la 4070 normal?

Yo no loaveo demasiada tarjeta.

@ram
De stock .me hacía parecido.
Con UV puedes lograr el mismo o más rendimiento que de stock.

Indagaré porqué me da baja puntuación.

Pd: ahora me hace ya 34200 puntos.Sigue siendo bajo.
Lo curioso es que antes de ejecutar el Time Spy me pone: "su configuración puede afectar al resultado" con un sigo de advertencia
morrisong escribió:Cómo véis una 4070 ti para un 12400f para jugar a resolución 1440p ?.
Demasiada tarjeta para ese micro, o me espero a la 4070 normal?

Es buena combinacion, no vas a tener cuello de botella, pero claro, siempre es mejor que zozobre a que zozofarte
morrisong escribió:Cómo véis una 4070 ti para un 12400f para jugar a resolución 1440p ?.
Demasiada tarjeta para ese micro, o me espero a la 4070 normal?

Compra la 4070 ti, de aquí un par de años te alegrarás de tener la 4070 ti, los juegos cada vez son más exigentes.

Siempre y cuando juegues a juegos triple A y seas de los que no cambia de GPU cada 2 años.
hh1 escribió:
morrisong escribió:Cómo véis una 4070 ti para un 12400f para jugar a resolución 1440p ?.
Demasiada tarjeta para ese micro, o me espero a la 4070 normal?

Yo no loaveo demasiada tarjeta.

@ram
De stock .me hacía parecido.
Con UV puedes lograr el mismo o más rendimiento que de stock.

Indagaré porqué me da baja puntuación.

Pd: ahora me hace ya 34200 puntos.Sigue siendo bajo.
Lo curioso es que antes de ejecutar el Time Spy me pone: "su configuración puede afectar al resultado" con un sigo de advertencia

Desactiva el el gsync
the_aeon escribió:
morrisong escribió:Cómo véis una 4070 ti para un 12400f para jugar a resolución 1440p ?.
Demasiada tarjeta para ese micro, o me espero a la 4070 normal?

Compra la 4070 ti, de aquí un par de años te alegrarás de tener la 4070 ti, los juegos cada vez son más exigentes.

Siempre y cuando juegues a juegos triple A y seas de los que no cambia de GPU cada 2 años.

No soy de cambiar gráfica cada poco. La 2070 super la tengo desde noviembre del 2019.
Mi idea es que me aguante la nueva unos 5 años.

De ensambladoras cómo está la cosa para las 4070 ti?. He visto Inno3d, Palit y PNY que están un poco más baratas que las típicas Asus, MSI..., pero son marcas que desconozco.
Alguna marca a evitar o que esté dando problemas de ruidos o disipación?
yosu888 escribió:
hh1 escribió:
morrisong escribió:Cómo véis una 4070 ti para un 12400f para jugar a resolución 1440p ?.
Demasiada tarjeta para ese micro, o me espero a la 4070 normal?

Yo no loaveo demasiada tarjeta.

@ram
De stock .me hacía parecido.
Con UV puedes lograr el mismo o más rendimiento que de stock.

Indagaré porqué me da baja puntuación.

Pd: ahora me hace ya 34200 puntos.Sigue siendo bajo.
Lo curioso es que antes de ejecutar el Time Spy me pone: "su configuración puede afectar al resultado" con un sigo de advertencia

Desactiva el el gsync

El gsync en el panel de Nvidia?

En otros bench sí puntúa bien, pero en ese ...reguleras..

@morrisong
En cuanto a fallos ,el otro día vi que de las que más fallaban eran las Gigabyte.
PNY estaba de las que menos.
Pero en tiempo de SAT, PNY era de la peores en tiempo ,y supongo que Palit e Inno3D andarán por el estilo.

Yo te digo que tengo la PNY más barata ,y la sensación de acabados y backplate es bastante mejor que la de la Eagle que es la Gigabyte básica.

Vamos ,que no creo que en eso tengas problema con esas marcas en cuanto a fiabilidad.

Eso sí, algunas marcas dan más garantía que otras.

Yo siempre digo de ir a las más baratas excepto que algún modelo sea muy malo o que haya otro mejor por un poco más.
@hh1 me podrías decir qué velocidad en la curva stock te marca tu nueva 4090 en el punto 1100mV? estoy empezando a pensar que la CPU es un factor importante en la últimas versiones del Kombustor, independientemente del "castigo" al que sigue sometiendo a la gráfica.

Por otro lado me alegro de que te hayan ofrecido una solución tan satisfactoria y espero que le saques buen partido a tu nueva gráfica, por mi parte como nunca me he saltado una gráfica de lanzamiento seguiré con la 4080 hasta dentro de año y medio que me decida por una 5090 o una 5080 para mi próxima build 4K OLED

En cuanto al undervolt lo que te dije de 1025mV es para que sea 200% seguro, desde luego a la hora de la verdad la mayoría de tarjetas deberían dar 2880 en el punto 1v y con un poco de suerte en el silicio y con voltaje stock unos 3100MHz en 1050-1075mV.
Lince_SPAIN escribió:@hh1 me podrías decir qué velocidad en la curva stock te marca tu nueva 4090 en el punto 1100mV? estoy empezando a pensar que la CPU es un factor importante en la últimas versiones del Kombustor, independientemente del "castigo" al que sigue sometiendo a la gráfica.

Por otro lado me alegro de que te hayan ofrecido una solución tan satisfactoria y espero que le saques buen partido a tu nueva gráfica, por mi parte como nunca me he saltado una gráfica de lanzamiento seguiré con la 4080 hasta dentro de año y medio que me decida por una 5090 o una 5080 para mi próxima build 4K OLED

En cuanto al undervolt lo que te dije de 1025mV es para que sea 200% seguro, desde luego a la hora de la verdad la mayoría de tarjetas deberían dar 2880 en el punto 1v y con un poco de suerte en el silicio y con voltaje stock unos 3100MHz en 1050-1075mV.

Sí claro.Marca 2775mhz.
Probé lo que me dijiste pero va mejor 1000mv@2865mhz

Gracias [beer]
Hablo desde el total desconocimiento, pero leyendo sobre el tema, parece que el método más efectivo con las 4090 es reducir en power limit, hasta un 30-40%,dejandolo en 60-70% y la pérdida de rendimiento es inapreciable. Leo que es más efectivo esto que intentar afinar el undervolt. Y de esta manera bastaría con bajar dichos porcentajes en MSI Afterburner. No?
Laolama escribió:Hablo desde el total desconocimiento, pero leyendo sobre el tema, parece que el método más efectivo con las 4090 es reducir en power limit, hasta un 30-40%,dejandolo en 60-70% y la pérdida de rendimiento es inapreciable. Leo que es más efectivo esto que intentar afinar el undervolt. Y de esta manera bastaría con bajar dichos porcentajes en MSI Afterburner. No?


Sí, lo que comentas es poner la tarjeta limitada al 70% y obtienes prácticamente el mismo rendimiento que stock con un consumo muy reducido. Sin embargo el undervolt lo hacemos buscando un overclock con alguna bajada de consumo, por tanto nos vamos a puntos de voltaje por debajo del stock y les asignamos una frecuencia de reloj que la gráfica no alcanza normalmente en stock...

Por ejemplo a mí en stock la 4080 Suprim X en gaming BIOS me da 2865-2895 MHz según temperatura a 1075mV (stock), lo que hago por ejemplo es irme al punto 1025mV y asignarle 3000 MHz, el silicio de mi gráfica lo permite y además del 4-6% de rendimiento extra junto a la subida del reloj de las memorias también estoy mitigando el consumo al limitar en 50mV la entrada de voltaje.

Desde luego para los usuarios de serie 4000 que no se quiera complicar la vida en este aspecto lo mejor es poner el power limit al 70-75% y de paso pulsar la tecla para que desaparezca el contador de fps de la pantalla.

@HH1

Pues no está nada mal ese 2865 a 1v, por encima de lo que se podría esperar de ese punto 1100mV (a veces es engañoso si el fabricante utiliza una BIOS muy conservadora), yo solía utilizar 2880 o 2895 a 1v y luego me pasé a 3000+ a 1025mV cuando en las pruebas vi que entre 1v y 1025mV el consumo es muy parecido o casi idéntico en la mayoría de situaciones y para nada es el salto que se produce entre 940 y 975 o entre 1075 y 1100-1110.
@Lince_SPAIN pues voy a hacerlo. Lo único es que para que la gráfica funcione siempre, mientras uno quiera vamos, al limite del 70% por ejemplo, hay que guardarlo en un perfil del Afterburner y hacer que este inicie siempre con Windows, no?

Joder, es que perder unos frames, limitando tanto el consumo y el calor, parece una ganancia hasta injusta...
@Laolama

Claro, asegúrate de tener la última beta de Afterburner y ajustas el power limit al 70% de paso subes las memorias en +800 MHz o así (algo muy conservador y que compensaría cualquier posible pérdida de rendimiento) pulsas en aplicar y le das al icono de la ventanita de Windows en la interfaz del Afterburner que te dice que esos ajustes se aplicarán automáticamente tras cada reinicio de Windows.
Lince_SPAIN escribió:@Laolama

Claro, asegúrate de tener la última beta de Afterburner y ajustas el power limit al 70% de paso subes las memorias en +800 MHz o así (algo muy conservador y que compensaría cualquier posible pérdida de rendimiento) pulsas en aplicar y le das al icono de la ventanita de Windows en la interfaz del Afterburner que te dice que esos ajustes se aplicarán automáticamente tras cada reinicio de Windows.


Lo de la beta es por algo en concreto? Suelo fiarme más de las versiones estables...
@Laolama

Por ahora las betas son las únicas que ofrecen soporte completo a la serie 4000, con el autor de esta herramienta sin cobrar desde que se inició el conflicto en Ucrania la verdad es que bastante suerte hemos tenido de contar con estas versiones antes de que decidiera abandonar el proyecto.

https://www.guru3d.com/files-details/msi-afterburner-beta-download.html
Lince_SPAIN escribió:@Laolama

Por ahora las betas son las únicas que ofrecen soporte completo a la serie 4000, con el autor de esta herramienta sin cobrar desde que se inició el conflicto en Ucrania la verdad es que bastante suerte hemos tenido de contar con estas versiones antes de que decidiera abandonar el proyecto.

https://www.guru3d.com/files-details/msi-afterburner-beta-download.html


Genial caballero. Muchas gracias, es una gran noticia. Mira que estoy contentísimo con las temperaturas y el ruido de la gráfica. Pero coño, si puedo bajar consumo, y aun más las temperaturas y ruido, mejor que mejor. Aunque pierda unos pocos frames.
Lince_SPAIN escribió:
Laolama escribió:Hablo desde el total desconocimiento, pero leyendo sobre el tema, parece que el método más efectivo con las 4090 es reducir en power limit, hasta un 30-40%,dejandolo en 60-70% y la pérdida de rendimiento es inapreciable. Leo que es más efectivo esto que intentar afinar el undervolt. Y de esta manera bastaría con bajar dichos porcentajes en MSI Afterburner. No?


Sí, lo que comentas es poner la tarjeta limitada al 70% y obtienes prácticamente el mismo rendimiento que stock con un consumo muy reducido. Sin embargo el undervolt lo hacemos buscando un overclock con alguna bajada de consumo, por tanto nos vamos a puntos de voltaje por debajo del stock y les asignamos una frecuencia de reloj que la gráfica no alcanza normalmente en stock...

Por ejemplo a mí en stock la 4080 Suprim X en gaming BIOS me da 2865-2895 MHz según temperatura a 1075mV (stock), lo que hago por ejemplo es irme al punto 1025mV y asignarle 3000 MHz, el silicio de mi gráfica lo permite y además del 4-6% de rendimiento extra junto a la subida del reloj de las memorias también estoy mitigando el consumo al limitar en 50mV la entrada de voltaje.

Desde luego para los usuarios de serie 4000 que no se quiera complicar la vida en este aspecto lo mejor es poner el power limit al 70-75% y de paso pulsar la tecla para que desaparezca el contador de fps de la pantalla.

@HH1

Pues no está nada mal ese 2865 a 1v, por encima de lo que se podría esperar de ese punto 1100mV (a veces es engañoso si el fabricante utiliza una BIOS muy conservadora), yo solía utilizar 2880 o 2895 a 1v y luego me pasé a 3000+ a 1025mV cuando en las pruebas vi que entre 1v y 1025mV el consumo es muy parecido o casi idéntico en la mayoría de situaciones y para nada es el salto que se produce entre 940 y 975 o entre 1075 y 1100-1110.

Tengo otro UV de 1000mv@2880mhz y aparentemente va bien también.
Tengo que probar juegos con ese.
Ya saco en Time Spy 34500, pero sigue siendo algo bajo.
En los otros test sin problemas.
A ver si mañana pruebo lo de quitar el Gsync.

@Laolama
Con un 70% de power limit, palmas un 3% de rendimiento aprox.
No es nada.
Pero yo ,como bien dice @Lince_SPAIN ,prefiero consumir un poco más ,pero siempre va a ser menos que de serie ,y rascarle otro 3-4 % de rendimiento, que sumado al 3% que has palmado antes ,es un 6-7% más consumiendo menos que de serie y siendo más fresca.

Que tampoco va a ser una diferencia abismal,pero coño, que son tarjetas de +1000€.Qué menos que cuando quiera ,me dé el máximo que le pueda sacar ,que para eso lo pago.

Yo hago dos perfiles así.Uno más "apretado" ,y otro similar pero menos apretado, por si el primero crashea en algún juego.

Y luego, hago un tercero, ya como tú dices , bajando power limit Y VOLTAJE ,para juegos que van sobraos y no requieren más.
@hh1 Soy novato en temas de undervolt. No descarto aprender y toquetear en el futuro, pero si ahora de primeras le puedo rebajar tanto el consumo a la gráfica sin perdida de rendimiento, en tan solo 10 segundos, pues prefiero dejarlo así de momento. Las Suprim X vienen con algo de OC si no recuerdo mal, así que aún con la perdida, se quedaría como una FE. Nada mal.
13346 respuestas