Nvidia Ada Lovelace RTX4000

VanSouls escribió:
silenius escribió:
VanSouls escribió:Solo un detalle, Titan nunca ha sido una gama Gaming entusiasta, hasta la serie 3000 que las renombraron a X90

ya pero la gente igualmente la compraba como si fuese gama gaming

Para pollagordear, porque hasta la propia NVIDIA la diseñó para otros menesteres
Pero no vayamos a abrir ese melón :p :p :p que cada uno se gaste el dinero como quiera [oki] [oki]


De dos en dos además, así salían unos 3dMark reshulos. Supongo que viendo esto pensaron "que cojones, si pueden pagar 2000€ que los paguen por cada una" [qmparto]
De eso nada, Titán las vendía Nvidia como tarjetas para jugar, la excepción fue la Titán RTX, pero el resto las anunciaba como jugonas.


https://www.nvidia.es/gtx-700-graphics-cards/gtx-titan-black/

https://www.nvidia.es/gtx-700-graphics-cards/gtx-titan-z/
Decían algunos que eran para el sector profesional, pero no tenían soporte....
the_aeon escribió:Este mas que claro que el problema es el conector, en vez de poner 6 cables han puesto 4 pero mas gordos, por estos puede pasar mas corriente y hace que se queme el conector de plástico, en resumidas cuentas mas o menos.

En la 3090 TI pusieron 6 cables y no hubo ningún problema, cagada de Nvidia total.

Yo le tengo hecho undervolt y activo en todos los juegos DLSS, activar DLSS hace que consuma bastante menos.

El dia 14 me llega el adaptador de cablemod, sigo cruzando los dedos hasta que me llegue.

Los que tenéis la 4090 en foro habéis tenido algún problema con esto??

Yo para nada, es mas, creo que es incluso mejor todo mas compacto, pero en mi caso voy sobrado de calidad en el conector y de fuente.
Yo todos los que le haceis undervolt… le bajais el power limit y todo eso.. esta muy bien.

Jugar asi que seguro no se quema, ahora bien, dentro de año y pico o dos años o tres… necesitareis potencia , seguireis con el power limit acojonado?

Yo creo que esta grafica esta diseñada para trabajar asi, al 100%, si tiene que quemarse mejor ya que en un año y nos pongan pegas, o peor aun, fuera de garantia
La cosa es hacer undervolt sin bajar power limit.
Que coño pasa con el portal RTX?
Dijeron noviembre pero ya es dia 26.
elcapoprods escribió:La cosa es hacer undervolt sin bajar power limit.


Para nada, estas 4090 rinden menos a menor voltaje. Yo sí le tengo bajado a 1.000v, pero más allá hay una merma grande de rendimiento a igualdad de consumo y frecuencias, y el power limit lo tengo al 65% rindiendome un 5% menos que de stock consumiendo casi 200w menos.

Nvidia ha hecho algo muy raro con el boost esta generación.
Hablando de watios, en una RTX 4080 el nuevo Spider-Man con todo a tope en 1440p 21:9 sin DLSS y 60 fps capados anda entre 65 y 82w de consumo, un mechero, si le quitas el cap se va a 130w máximo capado por el V-Sync y G-Sync a 144fps que sigue siendo un consumo irrisorio teniendo en cuenta el ray tracing a esta tasa de refresco. Ya para rematar con el DLSS3 frame generation se pasa sobrado de los 300fps sin rebasar esos 120-130w, la verdad es que Nvidia sí que se lo han currado con el power efficiency esta generación. Igual el "sobreprecio" te lo ahorras en la factura de la luz.

Imagen
Pues al final he caído, me pillado la ventus 4080 en pccom a 1500.
Me picaba demasiado.

He contado el espacio de cpu cooler y en mi torre son 16.5 y la tarjeta son 13.6, entonces me quedaría un espacio de 2.9 para el cable, veo q nvidia dice que sea de 3.5, por medio cm no creo que pase nada no?

Estoy mirando el adaptador de cablemod pero no encuentro enlace para la compra y veo muchos modelos y no sé de que depende escoger uno o otro.

Creéis que con 2.9 hay espacio suficiente? A la larga pondre el adaptador.
Me podéis decir cuál debo pillar para la ventus 4080.

Gracias
@Lince_SPAIN Experiencias como la tuya son las que me hacen entrar a postear de vez en cuando porque veo que también hay quien le gusta explorar las posibilidades de su tarjeta en lugar de ir a tope de maquinaria gastando mucha luz. Quería preguntarte si el spiderman miles morales le mete tanta carga a la cpu como el remastered. Supongo que sí aunque me gustaría que alguien lo confirmara, nada más que por saberlo porque al final cpu tengo suficiente para esos juegos aunque lastren un poco a la gráfica. Esta vez para mi los cuellos de botella no me están importando nada porque tocando un par de cosas la experiencia de juego queda magnífica igualmente. Un poco más abajo lo explico con un ejemplo.

No estoy yo explorando esos límites tan bajos en mi tarjeta aunque cualquier día de estos probaré a ver que pasa con ella, puede que venga yo por aquí para ese entonces contando también alguna experiencia si es que ésta merece realmente la pena. Me imagino juegos triple A recientes a 100 cuadros por segundo gastando mi gráfica 100 Watios con los ventiladores parados al no calentarse y aunque estoy bastante seguro de que algo así no va a pasar (quizás doom eternal?) mientras no lo pruebe no lo sabré a ciencia cierta.

Noy hay que olvidar que una 4080 o una 4090 yendo a 2300 mhz. siguen teniendo intactos los miles de cuda, rt y tensor cores aunque vayan a medio gas. Obviamente se va a notar la pérdida de rendimiento pero también se va a notar el poco calor que generan así y si uno puede jugar en ultra a chorrocientos cuadros por segundo y pagar menos factura de la luz... bienvenido sea.

Hablando de esto de la electricidad y lo rápido que todos argumentamos (yo incluido lo he dicho) que quien tiene miles de euros para gastar en una gráfica debe tener pasta también para pagar la factura de la electricidad, tengo que decir que eso es un poco juntar churras con merinas.

La electricidad es un bien básico, es una de esas cosas que entran en la base de la pirámide de Maslow para cualquiera que viva en un país mínimamente civilizado, mientras que el gaming no porque se considere o no un lujo, entra en la parte mediana-alta de esa misma pirámide. Una persona puede pasar perfectamente grandes periodos de tiempo sin jugar sin que su salud o su vida peligren pero sin electricidad en invierno por ejemplo es probable que tenga que buscar medios alternativos para calentarse cuando el frío arrecia.

Cuando se habla de que el chino Juan nos está estafando, en esta historia estamos entrando voluntariamente la mayoría de nosotros pero cuando la factura de la luz viene inflada por los tejemanejes de las compañías eléctricas en España con esas puertas giratorias y esos sueldazos que cobran esos políticos que han creado un sistema eléctrico con el que esas empresas privadas no pueden perder nunca jamás, aprovechándose del hecho que he puesto justo antes, que es un bien básico tener luz en casa. Siendo las dos "estafas" legales, al final la primera no tiene absolutamente nada que ver con la segunda en lo que se refiere a la importancia o la gravedad del asunto.

Con esto no quiero defender al chino Juan, que conste. Yo me he gastado 2300 Eurazos en gráfica + fuente de alimentación y no lo voy a amortizar con la factura de la luz, lo amortizaré de otras maneras con el tiempo, o eso espero.

Una reflexión antes de terminar con mi experiencia de anteayer: Creo que aquí nadie está dispuesto a renunciar a parte o todas las comodidades de la vida moderna en pos de hacer el planeta más sostenible para todos. Nos hemos criado con unos mínimos que creemos que son un derecho inalienable de la persona y quizás alguna que otra cosa hasta esté puesta en al carta de los derechos humanos, pero a mi al menos me gusta de vez en cuando imaginarme que es lo mínimo imprescindible para vivir bien donde yo vivo, y gasto mucho más que eso. Me siento afortunado porque con mi trabajo puedo tirar adelante sin problemas y pudiendo ahorrar algo casi todos los meses y por eso me he estirado tan a lo bestia esta vez. En fin.

Paso de lo filosófico a lo mundano, que me encanta enrollarme. Anteayer con el horizon zero dawn (juego que pensaba que me gustaría mucho más de lo que ha hecho, tengo que darle otra oportunidad) en el benchmark integrado que lleva vi que la cpu le hacía un pequeñísimo cuello de botella a la gráfica en la resolución 2880x1620 dsr (que ya es definitivamente mi resolución favorita a estas alturas, si hubiera monitores a esa resolución a por uno de esos que me iba sin pensármelo). La cosa iba a 141 cuadros clavadísimos con la línea del frametime plana, pero veía algún que otro microstutter, tan leve que de normal podría haber pasado de eso en realidad. Como no me convencía de todas formas en el mismo juego bajé el limitador de cuadros a 120 y así ya fue perfectamente fluido, gastando la gráfica menos watios y sorprendentemente teniendo la gpu una temperatura de menos de 45 grados.

¿Quién de por aquí puede decir que nota mucho la diferencia entre 120 y 140 cuadros por segundo?
Pero tan malo es bajar power limit sin hacer UV? Es que veo que comentais que luego las gpu se vuelven vagas el día que les quieres dar chicha? Según entiendo lo que hace el power limit es bajar el clock/voltaje, no?
chrispro escribió:Yo todos los que le haceis undervolt… le bajais el power limit y todo eso.. esta muy bien.

Jugar asi que seguro no se quema, ahora bien, dentro de año y pico o dos años o tres… necesitareis potencia , seguireis con el power limit acojonado?

Yo creo que esta grafica esta diseñada para trabajar asi, al 100%, si tiene que quemarse mejor ya que en un año y nos pongan pegas, o peor aun, fuera de garantia

Ese mismo comentario aplica a cualquier gráfica, no?

Lo de mezclar UV y power limit no lo acabo de entender. Aunque lo que dice @Chaquetero me ha dejado con la duda para este caso concreto de la 4090... si buscamos en google vemos en 1º página gente recomendando claramente hacer UV e igual de claro otros recomienda no hacer UV. Vamos, una mierda a nivel informativo (alguien claramente no tiene idea de lo que dice). Ahora no tengo tiempo para mirar los que dice cada uno pero a simple vista en este video veo undervolting con lo cual a simple vista veo que gana el hacer undervolt (vamos, como siempre). No sé si alguno en contra dirá que el rendimiento que se gana cn la 4090 haciendo UV no es tanto como con tarjetas pasadas... bueno, eso es una cosa, y otra decir que NO se haga UV con la 4090 ¬_¬

En cuanto a power limit, según estas pruebas se puede bajar incluso al 70% sin tener muchas pérdidas (dudo que te venga de ese 5% de rendimiento ahí en un futuro, antes te cambias de gráfica). Es decir, power limit del 70% para perder un 4% de rendimiento y ganar en consumo eléctrico (300W en lugar de 402W al 100%) y temperatura (¿unos 57ºC en lugar de unos 67ºC?). A nivel de temperaturas esta gráfica va sobrada, pero a nivel consumo sus buenos W son el bajar 100W (o más) por perder algo de rendimiento, eso es algo que ya cada uno debe ver qué prefiere.

Por otra parte, lo de necesitar mas potencia en un futuro es algo subjetivo, por necesitar ahora mismo también es necesario mas potencia ya que ni siquiera la 4090 que es una bestia puede con todo (Cyberpunk 4k nativo a tope a +120fps). A modo ejemplo, me he tirado mas de 6 años con una 970 jugando a 1080p sin mayores problemas. Al principio obviamente iba muy sobrado pero en los juegos de los últimos años ya me costaba mas aguantar el "ultra 60fps" y tenía que bajar a calidad alta medio/alta (el cambio muchas veces no es tan evidente mientras juegas) o dejar gráficos altos y conformarme con una bajada de 40-50fps.

jiujinkai escribió:Pero tan malo es bajar power limit sin hacer UV? Es que veo que comentais que luego las gpu se vuelven vagas el día que les quieres dar chicha? Según entiendo lo que hace el power limit es bajar el clock/voltaje, no?

1º noticia lo de que se vuelven vagas al bajar el power limit sin hacer UV, me parece una magufada de manual pero la verdad que no tengo info al respecto, me costaría de creer. Pero suponiendo que es verdad, quien dice eso, dice que ocurre cuando haces power limit sin UV? O solo por hacer power limit ya se queda vaga?

Lo que muchas veces he leído, y sí le veo sentido, es que es malo hacer power limit sin UV pero no por lo de vaga, sino porque no estás aprovechando el rendimiento de la gráfica. De forma simple podemos decir que con power limit estás bajando literalmente el rendimiento de la gráfica, su consumo eléctrico y la temperatura, mientras que con UV puedes bajar el consumo eléctrico y temperatura SIN bajar el rendimiento (incluso lo puedes mejorar al mejorar las temperaturas).

A ese nivel es "malo", a nivel de que desaprovechas gráfica o, si lo quieres ver así, es un poco tonto hacer power limit sin haberte molestado antes en hacer UV.
@uri166 Yo no me preocuparía tanto de si el cable está más o menos doblado (sin pasarse) y sí me preocuparía más de que el conector esté firmemente insertado en la gráfica. Ahora Nvidia recomienda incluso insertar primero el adaptador que se envía junto a la gráfica antes de meter la misma en la caja, para así asegurarse uno de que el conector está metidísimo hasta el fondo y que no se vea la más mínima separación entre el conector macho y el conector hembra de la gráfica.

La gran mayoría de problemas que se han comprobado hasta ahora vienen de conectores mal enchufados y en ángulo, que hacen que dentro de éstos empiecen a chisporrotear al no haber buen contacto.

Imagino que si el cable está demasiado doblado podría hacer que los conectores no estén todo lo firmes que debieran o puede que también afecte eso de alguna forma a las soldaduras de los cables con los pines del conector macho. Aunque no creo que con el espacio que describes que va a haber debiera ser muy problemático.

Ejemplos puedes ver varios en reddit por ejemplo, de gente que pregunta si el adaptador está bien enchufado.

También me preocuparía de buscar una fuente de alimentación que sepas que es suficiente, si es que no la tienes ya, aunque también estamos viendo que estas gráficas al final no van a necesitar fuentes absolutamente sobredimensionadas. El debate empezó varias semanas un poco con las fuentes de más de 850 watios y ahora esto ha girado hacia undervolts y maneras de maximizar la eficiencia.

@jiujinkai Realmente no sé muy bien que hará la gráfica internamente cuando llega al límite que se le haya puesto, obviamente el resultado es que ésta no va a consumir más watios que los que se configuren en el power limit. Sea como sea, si alguien hace cualquier tipo de undervolt a la gráfica y no le da lo que necesita, entonces que pruebe quitando el undervolt y la ponga de fábrica para empezar. No creo que nadie esté teniendo problemas de temperaturas con las 4090 y 4080 al llevar estos disipadores tan sobredimensionados, otro cantar será el consumo.
@pakolo1977 lo que observo es que Miles Morales usa algo menos de CPU comparado con el Remastered pero sigue siendo el factor limitante a no ser que enciendas el DLSS3, sin embargo el Remastered ha recibido un parche que yo creo lo ha optimizado de la misma manera. De todos modos el mínimo exigible para una GPU de las 4000 es un 5800X3D y recomendado por supuesto un equipo DDR5, a ser posible con un 13XXX de Intel.

En cuanto a la curva de voltaje no sé yo si atreverme con una GPU nueva y que consume tan poco y que no llega a los 60ºC con BIOS en modo silent (ventiladores apagados hasta que no rebase los 65ºC, algo que yo no he visto todavía en la 4080 jugando a 1440p 144fps), cada vez que reducimos el espacio entre transistores aumenta la sensibilidad al voltaje tanto por exceso como por defecto. Es cierto que un ligero ajuste te sube el rendimiento, pero yo no pasaría de ahí, al igual que el 5800X3D (que tienen un excelente bin) a -30 en todos los núcleos anda completamente estable y muy fresquito rindiendo un 15-20% más en juegos donde la CPU es el cuello de botella.

@uri166 has mirado en el fabricante de tu PSU? yo compré directamente a Corsair su cable para la serie 4000 y es una pasada, ese cable no se corta ni con un machete y es mil veces menos engorroso que el "tentáculo" del adaptador, el cable tiene una única conexión directa a la PSU. En cuanto a la fuente, ya te digo que los transients/picos son peccata minuta en estos modelos, con unos 850w yo diría que vas sobrado a no ser que tengas un overclock al 12/13900K.
@pakolo1977 gracias por la respuesta tan elaborada.
Lo de conectar el cable antes de poner la gráfica en la placa lo pensaba hacer.

Supongo que al meter el adaptador y presionar se oirá un clic o algo que indique que esta correcto, yo voy a apretar lo máximo que pueda sin pasarme.

El tema dela psu tengo una coolermaster de 1000 platino modular, con eso voy bien no? y como tengo un i9 11900 sin k chupa menos. El cable de crosair no lo puedo poner no?

Gracias por la ayuda
@uri166 Yo creo que sí que tienes fuente de sobra para lo que comentas, quizás yo la cambiaría si ésta tuviera mucho tiempo de uso normal (que seguro que no) o no me fiara de ella al vivir en algún sitio donde el suministro eléctrico sea bastante malo y hubiera apagones y picos de tensión.

Para el segundo caso si me pasara a mi hace tiempo le habría puesto remedio no solamente con una buena fuente, sino también con un sai, que no sé si tendrás. Sea como sea sí que tienes buena fuente tú para eso, al menos sobre el papel, yo no la cambiaría.

@Lince_SPAIN El spiderman remastered ya me lo terminé en su día, lo he vuelto a instalar para ver que tal iba el DLSS3 pero poco rato le he dedicado con la nueva gráfica. No sabía que con alguno de estos últimos parches el problema de la CPU ya no lo es tanto, gracias. El Miles Morales estoy ahí que no sé si pillármelo ahora o dejarlo para dentro de un tiempo, porque con la cosa de esperar a los parches del portal, the witcher 3 y cyberpunk 2077 al final me he puesto a jugar a cosas que tenía que no me las había terminado en su momento. El plague tale requiem ese no me llama como para comprarlo tampoco.

Imagina, ahora mismo me estoy pasando el final fantasy XV, ese juego con la 2080 founders lo usaba hace 4 años de benchmark para ver si la cpu que tenía hacía cuello de botella (una historia algo larga y rocambolesca que no voy a contar para no enrollarme demasiado), lo pillé en su día también porque fue uno de los primeros en implementar DLSS y por aquel entonces yo compraba cualquier cosa que se moviera con eso. Ahora me sobra pc por todas partes para ese juego y también tengo la gráfica a medio gas fresquita, sin dlss porque no hace falta y chorrocientos cuadros por segundo a más de 1440p. Sobre el juego en si, la primera oportunidad que le di no me convenció y lo dejé para benchmarks, ahora lo estoy disfrutando algo más aunque lo estoy viendo demasiado fácil, repetitivo y todo el rato va de ir al punto A al B. Al menos espero que no se vaya a alargar demasiado porque ya pienso terminarlo, aunque sea solamente la historia principal y alguna que otra misión secundaria.

Si te preocupa la curva de voltaje o tocar el power limit, entonces déjalo todo como lo tienes y con limitar los cuadros que quieras en cada uno de los juegos que tengas la misma gráfica se regulará ella sola. Yo llevo varios días con la curva normal de fábrica que trae la bios de mi gráfica, hasta que llega a los 2700 mhz y 1 Voltio (cosa curiosa que coincidan en ese punto los mhz y el voltaje), a partir de ahí la tengo plana. Así veo yo muy complicado que el chip vaya a tener problemas, ya que estoy usando lo que ya trae de fábrica hasta un punto que ya no dejo ni que suba de mhz ni de voltaje, nada más. Esto le tengo puesto + power limit al 80% + limitador de cuadros, con las tres cosas a los 450 watios de tope que tiene la mía no va a llegar en la vida. De hecho yo a esto ni lo llamaría undervolt siquiera porque el chip no está yendo a la misma velocidad con voltaje más bajo en ningún momento.
@pakolo1977 muchas gracias por las aclaraciones, la fuente la compré en junio y no le dado mucha caña, tiraré con ella y en casa de momento no hemos tenido problemas eléctricos.

El lunes me llega la gpu ya pasare a decir que tal me a ido.

Gracias por la ayuda👍👍👍
chrispro escribió:Yo todos los que le haceis undervolt… le bajais el power limit y todo eso.. esta muy bien.

Jugar asi que seguro no se quema, ahora bien, dentro de año y pico o dos años o tres… necesitareis potencia , seguireis con el power limit acojonado?

Yo creo que esta grafica esta diseñada para trabajar asi, al 100%, si tiene que quemarse mejor ya que en un año y nos pongan pegas, o peor aun, fuera de garantia


El undervolt bien hecho no se toca el power limit


Chaquetero escribió:
elcapoprods escribió:La cosa es hacer undervolt sin bajar power limit.


Para nada, estas 4090 rinden menos a menor voltaje. Yo sí le tengo bajado a 1.000v, pero más allá hay una merma grande de rendimiento a igualdad de consumo y frecuencias, y el power limit lo tengo al 65% rindiendome un 5% menos que de stock consumiendo casi 200w menos.

Nvidia ha hecho algo muy raro con el boost esta generación.



No haces el UV correctamente


A ver el UV funciona así, le bajas el voltaje para una curva de frecuencias determinada para que no se caliente tanto y mantenga el boost mas tiempo (frecuencias altas)

Aunque no llegue al thermal las gpus cuando pasan de X grados bajan el boost (no la frecuencia de stock) , si consigues retrasar esas temps mas tiempo pues mas tiempo llevarás con frecuencias altas ganando rendimiento

En las 4000 como llevan el disipador que inicialmente era para 600w de tdp pues son muy muy frescas, eso hace que con uv o sin él no pasen de 60º, o sea que mantienen IGUAL las frecuencias boost mas tiempo PEEEEERO si que el consumo se ve afectado, consumiendo menos lógicamente cuanto menor sea el voltaje, por eso en las 4000 haciendo UV no consigues tanto rendimiento extra como con las 3000 que llegaban a unas temps infernales PERO si consumes una reducción de consumo importante

Si bajas el PL bajas todo el voltaje de toda la tarjeta, reduces un poco todo a saco
uri166 escribió:@hh1 gracias,cada vez tengo más claro que voy a quedarme como estoy.


Pues yo que tú no agradecería tanto la desinformación cuando puedes perder el 25/30% de la tarjeta gráfica según lo que juegues por usar el procesador inadecuado a 4K con una 4090. Y eso en 5800X vs 12900K, que con un Gen 13 todavía se agrava más la cosa.

4K
Imagen


1440p mal llamado 2K
Imagen


1080p
Imagen


Está muy bien pensar que con tu micro puedes llegar a donde quieras, más a 4K, pero ya va siendo hora de aceptar que lo que manda en un PC Gaming es la CPU, no la GPU. Que a todos nos gustaría gastar lo menos posible, eh? pero cuando te compras una GPU de 2000 pavazos o más mucho me temo que te queda otro pastizal en CPU, PLACA y RAM si quieres aprovecharla.
@ditifet pero tú tienes una? El uv si se hace siempre se hace correctamente, es tan sencillo como meterte en el afterburner, control+f y setear la curva con el voltaje y frecuencia máximos deseados.

Lo que puede que no me haya expresado bien es al referirme al boost de Nvidia como el problema. El problema no se dónde está, para mí que Nvidia hace cosas raras y las frecuencias y voltajes que marca la gráfica no son reales, o que la gráfica está capada de alguna manera internamente. Aquí lo explican;



@uri166 como bien dice el cuñao de arriba, para aprovechar bien tu gráfica tienes que viajar al futuro y pillarte un 17900k, sino estás desaprovechando tu gráfica.

Para zanjar un poco este tema para todo aquel que no sepa de esto y no quiera leer gilipolleces de comerciales encubiertos, todo depende de los FPS a los que vayas a jugar. Que quieres jugar al nuevo cod y al Buttlefield 2042 a 200/300fps? Pues necesitas una muy buena CPU, la mejor posible para escupir todos los frames posibles y que no se ahogue a esas altas tasas de frames. Que quieres jugar a singleplayers a 60fps como el metro exodus o el Elden ring? Pues te sobra con un procesador pasable a lo 2600x/8600k porque lo que vas a necesitar va a ser potencia en la gpu.

El cuello de botella de CPU tan acusado por los pseudocomerciales asustaviejas solo se da cuando hablamos de altas tasas de refresco, no es un problema real para la gran mayoría de gente.
Lince_SPAIN escribió:Hablando de watios, en una RTX 4080 el nuevo Spider-Man con todo a tope en 1440p 21:9 sin DLSS y 60 fps capados anda entre 65 y 82w de consumo, un mechero, si le quitas el cap se va a 130w máximo capado por el V-Sync y G-Sync a 144fps que sigue siendo un consumo irrisorio teniendo en cuenta el ray tracing a esta tasa de refresco. Ya para rematar con el DLSS3 frame generation se pasa sobrado de los 300fps sin rebasar esos 120-130w, la verdad es que Nvidia sí que se lo han currado con el power efficiency esta generación. Igual el "sobreprecio" te lo ahorras en la factura de la luz.

Imagen

Por no hablar de lo silenciosa que es, ya que por defecto los ventiladores se activan a 60º y con el PEDAZO de disipador que tiene se mantiene mucho tiempo por debajo de esa temperatura sin encender los ventiladores.
He llegado a estar jugando a warzone y que se tire ratos largos con los ventiladores apagados, es fresquisima, la grafica mas fria que he tenido con diferencia.

Que si, que nos han metido un sablazo pero desde luego que es un producto de calidad.
Chaquetero escribió:@ditifet pero tú tienes una? El uv si se hace siempre se hace correctamente, es tan sencillo como meterte en el afterburner, control+f y setear la curva con el voltaje y frecuencia máximos deseados.
.


Casi, te falta crear después una curva de subvoltaje, si no estás seteando SIEMPRE ese voltaje para la frecuencia elegida y no es lo que queremos ya que en el escritorio estaríamos mandando el voltaje seteando todo el tiempo y no hace falta. Queremos que oscile el voltaje según la frecuencia pero con un máximo en ambos casos

Y si también puedes hacer un uv incorrecto si mandas mas voltaje del necesario o seteas una frecuencia demasiado baja

Y si tengo una y varias ya que tengo un SAT de reparación de gráficas.
Como se portaria la 4080 a 4k? Insuficiente?
KailKatarn escribió:
uri166 escribió:@hh1 gracias,cada vez tengo más claro que voy a quedarme como estoy.


Pues yo que tú no agradecería tanto la desinformación cuando puedes perder el 25/30% de la tarjeta gráfica según lo que juegues por usar el procesador inadecuado a 4K con una 4090. Y eso en 5800X vs 12900K, que con un Gen 13 todavía se agrava más la cosa.

4K
Imagen


1440p mal llamado 2K
Imagen


1080p
Imagen


Está muy bien pensar que con tu micro puedes llegar a donde quieras, más a 4K, pero ya va siendo hora de aceptar que lo que manda en un PC Gaming es la CPU, no la GPU. Que a todos nos gustaría gastar lo menos posible, eh? pero cuando te compras una GPU de 2000 pavazos o más mucho me temo que te queda otro pastizal en CPU, PLACA y RAM si quieres aprovecharla.


Tienes razón en lo que dices, no se si me has usado de ejemplo o para contestar al otro usuario.

Aver, yo acepto lo del rendimiento, la 4090 la descarté por pasta como decía en otro comentario,no me sobra el dinero.

Tengo un trabajo humilde y gano 1500 al mes más o menos, si pudiera ponerme un 13900 de 700 pavos lo haría.

Para mi comprarme la 4080 es hacer un esfuerzo y es por vicio y pq me picaba desde hace días, tengo un i9 11900 que salió en 2021, yo me lo puse el año pasado pq se me dió esa oportunidad, por un amigo.

Se que quizas no es la mejor cpu posible(habrá gente con cpu peor y 4090), pero joer es lo que tengo y me puedo permitir ahora, que habrá juegos en los que pierda rendimiento pues si, en la mayoría actualmente no.

Me da igual no sacar 165 fps y sacar 140 120 o 100 en 4k o 1440. Yo si me pillo la 4080 no es para hacer pruebas y llevarla al limite, es para jugar tranquilo a 1440 o 4k rescalado(mi monitor es 1440) y con buenos fps y que se vea todo wapo xd durante unos años y eso creo que podre hacerlo.

En ese mensaje agradecía a un usuario el contestarme y resolver mis dudas.

Yo respeto que aquí todo el mundo gasta en lo que quiere, me parece perfecto, pero si no le puedo meter un 13900 o un 12900 pero tengo el 11900, y me gasto 1500 en la 4080 porque quiero no teniendo un 12 o 13, me va a ir peor que la 3080? No voy a disfrutar jugando a buenos fps(básicamente al witcher 3 el 13 de diciembre y el hogwarts legacy cuando salga o un doom Eternal después de un dia de mierda en el curro, un cyberpunk....)

Basicamente no todos tenemos pasta para todo, el 11900(gracias a mi amigo) lo cambié pensando en mejorar tenía un 10700 la fuente la cambié también hace unos 4 meses para esto.

Cuando pueda con el tiempo cambiaré la cpu pero ahora , espero poder disfrutar de la 4080 a partir del lunes y durante un tiempo.
uri166 escribió:Tienes razón en lo que dices, no se si me has usado de ejemplo o para contestar al otro usuario.

Aver, yo acepto lo del rendimiento, la 4090 la descarté por pasta como decía en otro comentario,no me sobra el dinero.


No pretendía juzgar tu criterio, sino dejar claro que la CPU es muy importante para gaming y más con una 4090 independientemente de la resolución (inclusive 4K). Por descontado soy consciente de la pasta que está costando el hardware gaming de alta gama hoy por hoy, lo único que pretendía resaltar es que cuando te vas a una gráfica de 2000 pavazos o más, más te vale de acompañarla de una CPU a la altura de las circunstancias. Era eso simplemente.

Un saludo y que disfrutes esa 4080. De hecho con una 4080 no te hará falta tanto micro. [oki]
Lince_SPAIN escribió:Hablando de watios, en una RTX 4080 el nuevo Spider-Man con todo a tope en 1440p 21:9 sin DLSS y 60 fps capados anda entre 65 y 82w de consumo, un mechero, si le quitas el cap se va a 130w máximo capado por el V-Sync y G-Sync a 144fps que sigue siendo un consumo irrisorio teniendo en cuenta el ray tracing a esta tasa de refresco. Ya para rematar con el DLSS3 frame generation se pasa sobrado de los 300fps sin rebasar esos 120-130w, la verdad es que Nvidia sí que se lo han currado con el power efficiency esta generación. Igual el "sobreprecio" te lo ahorras en la factura de la luz.

Imagen


Pon la imagen sin capar fps, tiene pinta que vas con cuello de CPU y la GPU no te llega al 99% por eso tienes un consumo bajo.
KailKatarn escribió:
uri166 escribió:Tienes razón en lo que dices, no se si me has usado de ejemplo o para contestar al otro usuario.

Aver, yo acepto lo del rendimiento, la 4090 la descarté por pasta como decía en otro comentario,no me sobra el dinero.


No pretendía juzgar tu criterio, sino dejar claro que la CPU es muy importante para gaming y más con una 4090 independientemente de la resolución (inclusive 4K). Por descontado soy consciente de la pasta que está costando el hardware gaming de alta gama hoy por hoy, lo único que pretendía resaltar es que cuando te vas a una gráfica de 2000 pavazos o más, más te vale de acompañarla de una CPU a la altura de las circunstancias. Era eso simplemente.

Un saludo y que disfrutes esa 4080. De hecho con una 4080 no te hará falta tanto micro. [oki]

Sin problema espero disfrutarla y que me salga buena👍👍
suemrri escribió:Como se portaria la 4080 a 4k? Insuficiente?

Teniendo en cuenta que la 3090 rendía bien con los 4k, la 4080 también debería hacerlo.
Chaquetero escribió:estas 4090 rinden menos a menor voltaje.

Y entonces cómo explicas lo que dice este vídeo? Ya al principio se ve ejemplos de forma clara, no empeora el rendimiento y mejora un poco la temperatura.

KailKatarn escribió:
uri166 escribió:@hh1 gracias,cada vez tengo más claro que voy a quedarme como estoy.


Pues yo que tú no agradecería tanto la desinformación cuando puedes perder el 25/30% de la tarjeta gráfica según lo que juegues por usar el procesador inadecuado a 4K con una 4090. Y eso en 5800X vs 12900K, que con un Gen 13 todavía se agrava más la cosa.

4K
Imagen


1440p mal llamado 2K
Imagen


1080p
Imagen


Está muy bien pensar que con tu micro puedes llegar a donde quieras, más a 4K, pero ya va siendo hora de aceptar que lo que manda en un PC Gaming es la CPU, no la GPU. Que a todos nos gustaría gastar lo menos posible, eh? pero cuando te compras una GPU de 2000 pavazos o más mucho me temo que te queda otro pastizal en CPU, PLACA y RAM si quieres aprovecharla.

Esos datos para justificar tener un pepino de CPU en 4k (1º gráfico) no le veo mucho sentido en el momento en el que se compara Intel con AMD sabiendo que algunos juegos son funcionan mejor en una marca que en otra.

Lo suyo sería ver la diferencia entre diferentes modelos de una misma marca (Intel por una parte y AMD por otra), y entonces esa diferencia sí que sería por un mejor procesador. Lo pregunté el otro día, alguien sabe un buen análisis completo donde comparen varias CPUs en varios juegos a 4k con la 4090? Porque como decía a 1080 hay muchísimos (es donde más se nota), a 1440 ya se nota menos pero aún así hay, pero ya en 4k ya muchos los ignoran y los que lo mencionan meten juegos multiplayer o incluso le bajan la calidad a los juegos para que vayan a muchos fps, consiguen que para el caso aplique lo mismo que para 1440 :-?

O simplificando mucho la pregunta, con la 4090 a 4k en un juego exigente que le hagas ir a menos de 120fps el cambio de un procesador potente como un 13900k va hacer que vaya un 5% mas rápido que con uno medio como el 13600k? Puedo intentar responder esa pregunta con información de diferentes fuentes, pero posiblemente no sean datos comparables y no les daría credibilidad.

Creo que en parte hay tanto debate en muchos de los temas porque falta información contrastada.
No me decido por cuál 4090 tirar... La Founders la tengo descartada, básicamente porque no hay, y el resto no sé si estirar a una Asus, las Msi, una Zotac... Me da que todas son bastante parecidas, normalmente habría tirado Gigabyte o Asus pero tienen infladisimo el precio.
Yo pasando el Heaven 4.0 a 1440p extrem con power limit a 100 saco 252 fps y con power limit a 70% saco 245 fps, si esto funciona como lo veo yo (que no sé) perder 7 fps a esa cantidad de frames es una minucia.....y la temperatura y el voltaje bajan bastante la verdad....
Yo lo tengo siempre al 70 [beer]
D0NV1T0 escribió:
Lince_SPAIN escribió:Hablando de watios, en una RTX 4080 el nuevo Spider-Man con todo a tope en 1440p 21:9 sin DLSS y 60 fps capados anda entre 65 y 82w de consumo, un mechero, si le quitas el cap se va a 130w máximo capado por el V-Sync y G-Sync a 144fps que sigue siendo un consumo irrisorio teniendo en cuenta el ray tracing a esta tasa de refresco. Ya para rematar con el DLSS3 frame generation se pasa sobrado de los 300fps sin rebasar esos 120-130w, la verdad es que Nvidia sí que se lo han currado con el power efficiency esta generación. Igual el "sobreprecio" te lo ahorras en la factura de la luz.

Imagen

Por no hablar de lo silenciosa que es, ya que por defecto los ventiladores se activan a 60º y con el PEDAZO de disipador que tiene se mantiene mucho tiempo por debajo de esa temperatura sin encender los ventiladores.
He llegado a estar jugando a warzone y que se tire ratos largos con los ventiladores apagados, es fresquisima, la grafica mas fria que he tenido con diferencia.

Que si, que nos han metido un sablazo pero desde luego que es un producto de calidad.


Efectivamente, tiene 0 ruido de ventilador y 0 coil whine incluso a +300 fps, impecable construcción y PCB sobrado (por eso me decidí por este modelo), con lo molesto que es el coil whine por pequeño que sea... en esta 4080 Suprim X no hay absolutamente nada, cero ruido, cero quejas de los transistores, es una auténtica maravilla. Vamos te digo que prefiero una 4080 con 0 absoluto de coil whine que una 4090 con él, vale estoy exagerando pero ya me entendéis

Ahora bien, es cierto que si yo jugara a 4K en lugar de 1440p entonces me hubiera comprado la 4090 sí o sí, pero para mi amado monitor 1440p 144Hz LG27GL850, en su momento mítico y ahora ya más del montón pero a mí me encanta, y mi vista de señor de mediana edad pensé que con una 4080 me llegaba... y no es que me llegue, es que me sobra tarjeta por todos sitios, es cara sí... pero para mí vale lo que cuesta.

No sé quién ha dicho algo de cuello de botella del Spider-Man por ahí pero la respuesta es que sí, ya hemos dicho varias veces que el juego se mueve básicamente con la CPU y el ancho de banda de memoria, la GPU pasa a un papel entre comillas secundario, si le quito el cap y le activo el DLSS3 el juego se va del tirón al límite del driver y no se mueve de ahí en V-Sync con G-Sync, en este caso el límite para 144Hz son 138fps con DLSS3 y G-Sync activados para evitar cualquier tearing, eso con un 5800X3D, si tienes un 13XXX obvio te irá mejor con mayores tasas de refresco, pero personalmente a partir de 100 fps me cuesta ver la diferencia, hombre claro que la veo, pero no la aprecio tanto como el cambio entre 60 y 100, especialmente si no tengo el contador de frames en pantalla.

el imgur se carga la imagen por completo pero bueno al menos se ve que el consumo es el dicho a los frames citados

Imagen
Lince_SPAIN escribió:
D0NV1T0 escribió:
Lince_SPAIN escribió:Hablando de watios, en una RTX 4080 el nuevo Spider-Man con todo a tope en 1440p 21:9 sin DLSS y 60 fps capados anda entre 65 y 82w de consumo, un mechero, si le quitas el cap se va a 130w máximo capado por el V-Sync y G-Sync a 144fps que sigue siendo un consumo irrisorio teniendo en cuenta el ray tracing a esta tasa de refresco. Ya para rematar con el DLSS3 frame generation se pasa sobrado de los 300fps sin rebasar esos 120-130w, la verdad es que Nvidia sí que se lo han currado con el power efficiency esta generación. Igual el "sobreprecio" te lo ahorras en la factura de la luz.

Imagen

Por no hablar de lo silenciosa que es, ya que por defecto los ventiladores se activan a 60º y con el PEDAZO de disipador que tiene se mantiene mucho tiempo por debajo de esa temperatura sin encender los ventiladores.
He llegado a estar jugando a warzone y que se tire ratos largos con los ventiladores apagados, es fresquisima, la grafica mas fria que he tenido con diferencia.

Que si, que nos han metido un sablazo pero desde luego que es un producto de calidad.


Efectivamente, tiene 0 ruido de ventilador y 0 coil whine incluso a +300 fps, impecable construcción y PCB sobrado (por eso me decidí por este modelo), con lo molesto que es el coil whine por pequeño que sea... en esta 4080 Suprim X no hay absolutamente nada, cero ruido, cero quejas de los transistores, es una auténtica maravilla. Vamos te digo que prefiero una 4080 con 0 absoluto de coil whine que una 4090 con él, vale estoy exagerando pero ya me entendéis

Ahora bien, es cierto que si yo jugara a 4K en lugar de 1440p entonces me hubiera comprado la 4090 sí o sí, pero para mi amado monitor 1440p 144Hz LG27GL850, en su momento mítico y ahora ya más del montón pero a mí me encanta, y mi vista de señor de mediana edad pensé que con una 4080 me llegaba... y no es que me llegue, es que me sobra tarjeta por todos sitios, es cara sí... pero para mí vale lo que cuesta.

No sé quién ha dicho algo de cuello de botella del Spider-Man por ahí pero la respuesta es que sí, ya hemos dicho varias veces que el juego se mueve básicamente con la CPU y el ancho de banda de memoria, la GPU pasa a un papel entre comillas secundario, si le quito el cap y le activo el DLSS3 el juego se va del tirón al límite del driver y no se mueve de ahí en V-Sync con G-Sync, en este caso el límite para 144Hz son 138fps con DLSS3 y G-Sync activados para evitar cualquier tearing, eso con un 5800X3D, si tienes un 13XXX obvio te irá mejor con mayores tasas de refresco, pero yo a partir de 100 fps me cuesta ver la diferencia, la veo, pero no la aprecio tanto como el cambio entre 60 y 100.

Tienes toda la razón yo prefiero también mi Focus ST a un Ferrari , el ferrari hace mucho ruido y me molesta 😅
leonigsxr1000 escribió:Tienes toda la razón yo prefiero también mi Focus ST a un Ferrari , el ferrari hace mucho ruido y me molesta 😅


Ay estos críos de hoy en día, tu ironía se ve que no anda fina pues me acabas de dar la razón como bien dices, el Ferrari si no vives en el circuito de Monza no lo vas a utilizar exprimiendo su potencial sino simplemente luciendo la imagen de marca y el status, sin embargo otro vehículo de gama alta (sin irte a Ferrari) te va a dar bastante mejor consumo y menos quebraderos de cabeza circulando por la autovía, por no hablar de trayectos urbanos. Un Ferrari 488 GTS te consume de media 11,4 litros por cada 100km, sin embargo si te compras un Toyota Supra gastarás 7,7 litros cada 100km de media y seguirás teniendo un coche espectacular al que te va a seguir costando pisarle a tope más de 2 segundos. Ahora si circulas habitualmente por una pista de supercars entonces sí, vete directamente a por el que más corra.
KKnot escribió:No me decido por cuál 4090 tirar... La Founders la tengo descartada, básicamente porque no hay, y el resto no sé si estirar a una Asus, las Msi, una Zotac... Me da que todas son bastante parecidas, normalmente habría tirado Gigabyte o Asus pero tienen infladisimo el precio.


Yo me cogería una Msi con RL integrada
@Lince_SPAIN
Gracias por lo de crío, lo tomaré como un.cumplido pero estoy más cerca de los 50 que de los 40.
Era un poco de cachondeo hombre , me ha resultado curioso cuanto menos tu argumento .
Disfruta de tu 4080
leonigsxr1000 escribió:@Lince_SPAIN
Gracias por lo de crío, lo tomaré como un.cumplido pero estoy más cerca de los 50 que de los 40.
Era un poco de cachondeo hombre , me ha resultado curioso cuanto menos tu argumento .
Disfruta de tu 4080


Amigo lo de crío era sarcasmo al ver el número de mensajes que arrastras, yo también tengo 47 tacos. Me he comprado una 4080 para mi monitor 1440p y un sistema 5800X3D, estoy detrás de un monitor 4K OLED y montar un 7800X3D cuando esté disponible supongo que un par de meses antes del próximo verano, para eso sí le pondré 4090 o 4090Ti si la hubiera, yo creo que hay que compensar el equipo al completo, contando con resolución y target de frames.

La 4080 la disfruto, mucho más de lo que en principio imaginaba, pones el power limit al 46% y ya sabes que todo te va a ir 1440p 144fps como máximo a unos 150w aunque lo pongas todo en super ultra y con down-sampling, el boost de Nvidia para las 4000 está muy subidito y no vale la pena 5-10% de rendimiento si te ahorras de 120 a 170w de consumo dependiendo del caso. Es un chip increíblemente frugal.
Al final sere el mas joven de aqui jajaja 36 tacos🤣🤣
No sabia que habia tanto ecologista por aqui pendiente del consumo xD

Yo intentando llegar a los 600w como sea.. 570 es mi record..

🤣
chrispro escribió:No sabia que habia tanto ecologista por aqui pendiente del consumo xD

Yo intentando llegar a los 600w como sea.. 570 es mi record..

🤣


Con la "ventana al futuro" que le hiciste a la caja para sacar los cables del conector 12vhpwr,puedes darle caña que tiene refrigeracion extra [beer]
Rvilla87 escribió:Esos datos para justificar tener un pepino de CPU en 4k (1º gráfico) no le veo mucho sentido en el momento en el que se compara Intel con AMD sabiendo que algunos juegos son funcionan mejor en una marca que en otra.

Lo suyo sería ver la diferencia entre diferentes modelos de una misma marca (Intel por una parte y AMD por otra), y entonces esa diferencia sí que sería por un mejor procesador. Lo pregunté el otro día, alguien sabe un buen análisis completo donde comparen varias CPUs en varios juegos a 4k con la 4090? Porque como decía a 1080 hay muchísimos (es donde más se nota), a 1440 ya se nota menos pero aún así hay, pero ya en 4k ya muchos los ignoran y los que lo mencionan meten juegos multiplayer o incluso le bajan la calidad a los juegos para que vayan a muchos fps, consiguen que para el caso aplique lo mismo que para 1440 :-?

O simplificando mucho la pregunta, con la 4090 a 4k en un juego exigente que le hagas ir a menos de 120fps el cambio de un procesador potente como un 13900k va hacer que vaya un 5% mas rápido que con uno medio como el 13600k? Puedo intentar responder esa pregunta con información de diferentes fuentes, pero posiblemente no sean datos comparables y no les daría credibilidad.

Creo que en parte hay tanto debate en muchos de los temas porque falta información contrastada.


Eso de que hay juegos que funcionan a nivel de CPU mejor que en Intel y AMD es como buscar una aguja en un pajar, porque esto no es como las GPUs, aquí todo va de IPC monocore y multicore. Con el 5800X3D te puedes topar más de esos casos (véase Borderlands 3) pero vamos, son excepciones que justifican las reglas, no la tónica general. Luego, esa comparativa que has visto de Intel vs AMD a nivel de CPU ha sido con exactamente los mismos preset en los juegos, donde ponerlos en bajo hasta dificultaría más el uso de CPU porque las llamadas a dibujo recaen en las mismas, por lo que a mayor framerate más CPU necesitas. Los preset gráficos o la resolución afectan única y exclusivamente a la GPU.

Y el problema realmente con las CPUs es que mientras que una GPU es ideal que vaya a su techo (véase 98-99-100% de carga) y eso no te genera ningún problema, como tenerlas al 80% tampoco, el tener un sólo hilo de la CPU al límite (véase 85% de carga o más) significa que ya no entran más lotes de ejecución, porque en las CPUs las cargas van por lotes, eso significa que a lo mejor estás al 85% de carga y para tener más framerate necesita entrar un lote del 20% de carga que ya no puede entrar a ejecución pues te pondrías al 105% en alguno de los hilos, algo imposible.

Por último, mientras que tener la gráfica al 99% es ideal, el tener hilos de ejecución de CPU a muy altas cargas o al límite implica que el frametime pueda irse a la mierda, y hasta según que títulos te puede llegar hasta generar stuttering o pérdida de suavidad. Es por eso que independientemente de la resolución que juegues es mejor tener la mejor CPU que te puedas permitir, e intentar núnca llevarla al límite. Por ejemplo si juegas a 1080p y estás en un juego a 300fps, medias de 250fps, y mínimos de 200fps, es mucho mejor limitar el juego a por ejemplo 165fps para que ningún hilo toque techo nunca y para que las variaciones de framerate no existan, pues tus mínimos están por encima de esos 165fps, y te dejan un frametime completamente plano.

Esto no es cuestión de pensar que noseque CPU te va a dar un 5% - 10% o un 25% extra, sino que la CPU más potente que te puedas permitir siempre te va a ofrecer los mejores mínimos posibles, independientemente de la resolución, disfrutando el mejor frametime posible y por lo tanto la mejor suavidad que puedas tener en un videojuego. Por eso en consolas aunque un juego pudiese ir a 50fps con bajones, la inmensa mayoría de esos títulos se los capan a 30fps, para que el frametime sea plano y de ahí lo de "los 30fps en consola son mejores que los 30fps en PC" que muchos repiten como loros.
@chrispro como llegas a 600W, la mía esta capas a 450W, subiendo el power limit?
xejo22 escribió:@chrispro como llegas a 600W, la mía esta capas a 450W, subiendo el power limit?

Sube el PL y el “Core voltage” a tope, yo nunca he visto esos 600w, con algún bench he visto picos de 500w. Pero en general, el consumo energético no suele superar los 450w
Yo con el 10700K y la 4090 estoy supercontento, tengo el techo en los 120hz del Vsync en la TV oled.
La gran mayoría de los juegos me llegan a ese techo bien sea nativamente o con DLSS.....
Pero en uno que noto un cuello grande es en el Farcry6 que no consigo que la gráfica pase del 80%.....y no llego casi ni a 100 fps

Ahora mismo como digo juego bien , pero en un futuro cercano seguro que tengo más juegos con más problemas.

En verano u otoño 2023 habrá que ver que ponemos:)
josep345 escribió:
chrispro escribió:No sabia que habia tanto ecologista por aqui pendiente del consumo xD

Yo intentando llegar a los 600w como sea.. 570 es mi record..

🤣


Con la "ventana al futuro" que le hiciste a la caja para sacar los cables del conector 12vhpwr,puedes darle caña que tiene refrigeración extra [beer]

Jajaja buena! Tengo un ventilador de 4x4cm preparado para adaptar al conector, a ver si esta tarde le meto mano y paso fotillos xD

@xejo22 Power limit y un oc intermedio de los tres que tengo. Jugando con framerate desbloqueado
@KailKatarn tienes razón, dije AMD vs Intel pero como dices eso no será determinante (creo que se me fue la olla pensando en la comparativa AMD vs Nvidia [tomaaa] ). Bueno, dejemos esa parte porque al final tampoco es la parte mas importante de mi duda. En general no te discuto nada de lo que dijiste porque me cuadra todo lo que dices pero creo que sigues sin responder a mi duda. En este párrafo que te contesto a ver si me explico bien:

KailKatarn escribió:Esto no es cuestión de pensar que noseque CPU te va a dar un 5% - 10% o un 25% extra, sino que la CPU más potente que te puedas permitir siempre te va a ofrecer los mejores mínimos posibles, independientemente de la resolución, disfrutando el mejor frametime posible y por lo tanto la mejor suavidad que puedas tener en un videojuego. Por eso en consolas aunque un juego pudiese ir a 50fps con bajones, la inmensa mayoría de esos títulos se los capan a 30fps, para que el frametime sea plano y de ahí lo de "los 30fps en consola son mejores que los 30fps en PC" que muchos repiten como loros.

Está claro que nunca te puedes equivocar, a nivel calidad, si te vas a la CPU mas potente, pero ese no era el motivo de mi duda. Creo que nadie duda en si un 13900k (720€) es mejor que un 7600/13600 (320€). La duda es si vale la pena gastarte mas del doble de dinero en lo mas top si quizás con algo mucho mas barato a nivel de rendimiento de juegos solo pierdes unos pocos fps. Sí, comentas lo del frametime que es muy importante, pero aún así me gustaría ver el frametime con CPUs menos potente a ver cómo se comportan.

Y esa duda, como llevo diciendo varios mensajes, no veo ninguna buena comparativa que me la resuelva. Lo que veo es que las comparativas de CPUs las han probado con la 3090 (ya desfasada con la 4090) y las comparativas de 4090 solo prueban con procesadores top (13900k por ejemplo) o con otros procesadores menos potentes pero ignorando la 4k o poniendo juegos en 4k pero que van a muchos fps (bajando gráficos, siendo juegos multiplayer competitivos, etc).

Es que sin información contrastada que revisar ya es un tema de creerse lo que diga alguien de un foro sin saber si lo que dice tiene mas o menos sentido y apostar tu dinero en su afirmación (sin demostrarlo). Por ejemplo en tu caso así por encima casi que solo recuerdo decirle a un forero que lo había hecho bien en la elección de la CPU con una 4090 cuando eligió una 13900k. Claro, yendo a lo mas pepino es difícil equivocarse. Mi duda va más allá, y es saber qué hace una CPU con menor potencia (por ejemplo 7600X o 13600k) tan poco capaz como para ser (o no) para para una 4090 con juegos a 4k: un mínimo de cores potentes, los de consumo, tener un mínimo de threads o cores, unos mhz mínimos, etc.

Sin entrar a ese detalle, creo que esta duda me la resolverán los análisis de futuras CPUs que corran con una 4090... por el momento como digo no he sido capaz de encontrar info fiable.


chrispro escribió:No sabia que habia tanto ecologista por aqui pendiente del consumo xD

Yo intentando llegar a los 600w como sea.. 570 es mi record..

🤣

Sí, claro, el hilo está lleno de Greta Thunberg de turno, no te jode XD

A ti como te gusta mucho pollagordear y el salseo quizás no entiendes cuando se habla de que por un porcentaje nimio de fps perdidos, si puedes ahorrarte un consumo notable y de paso reducir temperaturas puede valer la pena. Pero vamos, que tampoco es una cuestión de que si no hagas lo que unos dicen estás equivocado, aquí que cada cual haga lo que considere más sensato/óptimo/correcto/lesalgaloshuevos.
Rvilla87 escribió:@KailKatarn tienes razón, dije AMD vs Intel pero como dices eso no será determinante (creo que se me fue la olla pensando en la comparativa AMD vs Nvidia [tomaaa] ). Bueno, dejemos esa parte porque al final tampoco es la parte mas importante de mi duda. En general no te discuto nada de lo que dijiste porque me cuadra todo lo que dices pero creo que sigues sin responder a mi duda. En este párrafo que te contesto a ver si me explico bien:

KailKatarn escribió:Esto no es cuestión de pensar que noseque CPU te va a dar un 5% - 10% o un 25% extra, sino que la CPU más potente que te puedas permitir siempre te va a ofrecer los mejores mínimos posibles, independientemente de la resolución, disfrutando el mejor frametime posible y por lo tanto la mejor suavidad que puedas tener en un videojuego. Por eso en consolas aunque un juego pudiese ir a 50fps con bajones, la inmensa mayoría de esos títulos se los capan a 30fps, para que el frametime sea plano y de ahí lo de "los 30fps en consola son mejores que los 30fps en PC" que muchos repiten como loros.

Está claro que nunca te puedes equivocar, a nivel calidad, si te vas a la CPU mas potente, pero ese no era el motivo de mi duda. Creo que nadie duda en si un 13900k (720€) es mejor que un 7600/13600 (320€). La duda es si vale la pena gastarte mas del doble de dinero en lo mas top si quizás con algo mucho mas barato a nivel de rendimiento de juegos solo pierdes unos pocos fps. Sí, comentas lo del frametime que es muy importante, pero aún así me gustaría ver el frametime con CPUs menos potente a ver cómo se comportan.

Y esa duda, como llevo diciendo varios mensajes, no veo ninguna buena comparativa que me la resuelva. Lo que veo es que las comparativas de CPUs las han probado con la 3090 (ya desfasada con la 4090) y las comparativas de 4090 solo prueban con procesadores top (13900k por ejemplo) o con otros procesadores menos potentes pero ignorando la 4k o poniendo juegos en 4k pero que van a muchos fps (bajando gráficos, siendo juegos multiplayer competitivos, etc).

Es que sin información contrastada que revisar ya es un tema de creerse lo que diga alguien de un foro sin saber si lo que dice tiene mas o menos sentido y apostar tu dinero en su afirmación (sin demostrarlo). Por ejemplo en tu caso así por encima casi que solo recuerdo decirle a un forero que lo había hecho bien en la elección de la CPU con una 4090 cuando eligió una 13900k. Claro, yendo a lo mas pepino es difícil equivocarse. Mi duda va más allá, y es saber qué hace una CPU con menor potencia (por ejemplo 7600X o 13600k) tan poco capaz como para ser (o no) para para una 4090 con juegos a 4k: un mínimo de cores potentes, los de consumo, tener un mínimo de threads o cores, unos mhz mínimos, etc.

Sin entrar a ese detalle, creo que esta duda me la resolverán los análisis de futuras CPUs que corran con una 4090... por el momento como digo no he sido capaz de encontrar info fiable.


chrispro escribió:No sabia que habia tanto ecologista por aqui pendiente del consumo xD

Yo intentando llegar a los 600w como sea.. 570 es mi record..

🤣

Sí, claro, el hilo está lleno de Greta Thunberg de turno, no te jode XD

A ti como te gusta mucho pollagordear y el salseo quizás no entiendes cuando se habla de que por un porcentaje nimio de fps perdidos, si puedes ahorrarte un consumo notable y de paso reducir temperaturas puede valer la pena. Pero vamos, que tampoco es una cuestión de que si no hagas lo que unos dicen estás equivocado, aquí que cada cual haga lo que considere más sensato/óptimo/correcto/lesalgaloshuevos.



Las pollasgordas te gustara a ti maquina xD en ningun momento critico quien quiere jugar con la grafica echandole diesel, ni quien quiere perder frames por unos graditos ni tampoco quien quiere bajar unos watios el consumo …
Por mi que hagan lo que quieran, todo eso no le quita credibilidad a mi frase:

No sabia que habia tanto ecologista por aqui pendiente del consumo

Te la pongo de nuevo que se que te ha gustado.

Yo? Cuanto mas mejor para todos y cuanto mas para todos mejor, mejor para mí el suyo beneficio grafico.
Rvilla87 escribió:Está claro que nunca te puedes equivocar, a nivel calidad, si te vas a la CPU mas potente, pero ese no era el motivo de mi duda. Creo que nadie duda en si un 13900k (720€) es mejor que un 7600/13600 (320€). La duda es si vale la pena gastarte mas del doble de dinero en lo mas top si quizás con algo mucho mas barato a nivel de rendimiento de juegos solo pierdes unos pocos fps. Sí, comentas lo del frametime que es muy importante, pero aún así me gustaría ver el frametime con CPUs menos potente a ver cómo se comportan.

Y esa duda, como llevo diciendo varios mensajes, no veo ninguna buena comparativa que me la resuelva. Lo que veo es que las comparativas de CPUs las han probado con la 3090 (ya desfasada con la 4090) y las comparativas de 4090 solo prueban con procesadores top (13900k por ejemplo) o con otros procesadores menos potentes pero ignorando la 4k o poniendo juegos en 4k pero que van a muchos fps (bajando gráficos, siendo juegos multiplayer competitivos, etc).

Es que sin información contrastada que revisar ya es un tema de creerse lo que diga alguien de un foro sin saber si lo que dice tiene mas o menos sentido y apostar tu dinero en su afirmación (sin demostrarlo). Por ejemplo en tu caso así por encima casi que solo recuerdo decirle a un forero que lo había hecho bien en la elección de la CPU con una 4090 cuando eligió una 13900k. Claro, yendo a lo mas pepino es difícil equivocarse. Mi duda va más allá, y es saber qué hace una CPU con menor potencia (por ejemplo 7600X o 13600k) tan poco capaz como para ser (o no) para para una 4090 con juegos a 4k: un mínimo de cores potentes, los de consumo, tener un mínimo de threads o cores, unos mhz mínimos, etc.

Sin entrar a ese detalle, creo que esta duda me la resolverán los análisis de futuras CPUs que corran con una 4090... por el momento como digo no he sido capaz de encontrar info fiable.



Eso que preguntas del 7600X o 13600K son preguntas fáciles, más que nada porque te van a dar un rendimiento muy similar a un 13900K en el 95% de los títulos, con frametimes muy similares. Ahora bien, si veo a un usuario ponerse un 13900K con una 4090 pues claro que le voy a decir que sabe lo que se hace, porque en cualquier situación va a poder tener los mejores fps mínimos y frametime en cualquier juego, inclusive en esos que son capaces de usar 8 cores / 16 hilos o más. Que son muy pocos hoy por hoy? sin duda, pero para ese tipo de usuario ya da igual que llueva o truene que está preparado.

Si al final todo se reduce al IPC. Un 13600K lo va a tener muy similar al 13900K salvo en esos títulos que conforman el 5%. Luego ya es cuestión de cada uno si prefiere dejarse más o menos, pero vamos, si te has dejado 2000 pavazos en una gráfica es porque eres un usuario exigente y quieres tener el mejor resultado pase lo que pase. Yo personalmente no me dejaría esos 2000 pavazos para que el día de mañana el título que te guste, o uno que quieras disfrutar justo te de por culo. Por eso una jugada inteligente es el 13700K, que te ofrece el mismo número de núcleos Performance y no te van a pillar tampoco por ahí.

Lo que sí tiene gracia es que comentes cosas como "es que hay que fiarse de uno que dice cosas por un foro" y luego bien que te fías y le das thanks a la gente que menciona que con cualquier micro se puede jugar a 4K o llevar a buen puerto una 4090. No se puede estar en misa y replicando a la vez, porque eso identifica que lo que te gusta es que se hable de "tu película" o la que preferirías ver.
KailKatarn escribió:
Rvilla87 escribió:Está claro que nunca te puedes equivocar, a nivel calidad, si te vas a la CPU mas potente, pero ese no era el motivo de mi duda. Creo que nadie duda en si un 13900k (720€) es mejor que un 7600/13600 (320€). La duda es si vale la pena gastarte mas del doble de dinero en lo mas top si quizás con algo mucho mas barato a nivel de rendimiento de juegos solo pierdes unos pocos fps. Sí, comentas lo del frametime que es muy importante, pero aún así me gustaría ver el frametime con CPUs menos potente a ver cómo se comportan.

Y esa duda, como llevo diciendo varios mensajes, no veo ninguna buena comparativa que me la resuelva. Lo que veo es que las comparativas de CPUs las han probado con la 3090 (ya desfasada con la 4090) y las comparativas de 4090 solo prueban con procesadores top (13900k por ejemplo) o con otros procesadores menos potentes pero ignorando la 4k o poniendo juegos en 4k pero que van a muchos fps (bajando gráficos, siendo juegos multiplayer competitivos, etc).

Es que sin información contrastada que revisar ya es un tema de creerse lo que diga alguien de un foro sin saber si lo que dice tiene mas o menos sentido y apostar tu dinero en su afirmación (sin demostrarlo). Por ejemplo en tu caso así por encima casi que solo recuerdo decirle a un forero que lo había hecho bien en la elección de la CPU con una 4090 cuando eligió una 13900k. Claro, yendo a lo mas pepino es difícil equivocarse. Mi duda va más allá, y es saber qué hace una CPU con menor potencia (por ejemplo 7600X o 13600k) tan poco capaz como para ser (o no) para para una 4090 con juegos a 4k: un mínimo de cores potentes, los de consumo, tener un mínimo de threads o cores, unos mhz mínimos, etc.

Sin entrar a ese detalle, creo que esta duda me la resolverán los análisis de futuras CPUs que corran con una 4090... por el momento como digo no he sido capaz de encontrar info fiable.



Eso que preguntas del 7600X o 13600K son preguntas fáciles, más que nada porque te van a dar un rendimiento muy similar a un 13900K en el 95% de los títulos, con frametimes muy similares. Ahora bien, si veo a un usuario ponerse un 13900K con una 4090 pues claro que le voy a decir que sabe lo que se hace, porque en cualquier situación va a poder tener los mejores fps mínimos y frametime en cualquier juego, inclusive en esos que son capaces de usar 8 cores / 16 hilos o más. Que son muy pocos hoy por hoy? sin duda, pero para ese tipo de usuario ya da igual que llueva o truene que está preparado.

Si al final todo se reduce al IPC. Un 13600K lo va a tener muy similar al 13900K salvo en esos títulos que conforman el 5%. Luego ya es cuestión de cada uno si prefiere dejarse más o menos, pero vamos, si te has dejado 2000 pavazos en una gráfica es porque eres un usuario exigente y quieres tener el mejor resultado pase lo que pase. Yo personalmente no me dejaría esos 2000 pavazos para que el día de mañana el título que te guste, o uno que quieras disfrutar justo te de por culo. Por eso una jugada inteligente es el 13700K, que te ofrece el mismo número de núcleos Performance y no te van a pillar tampoco por ahí.

Lo que sí tiene gracia es que comentes cosas como "es que hay que fiarse de uno que dice cosas por un foro" y luego bien que te fías y le das thanks a la gente que menciona que con cualquier micro se puede jugar a 4K o llevar a buen puerto una 4090. No se puede estar en misa y replicando a la vez.


el 13900k solo es mejor si usas todos los cores... pero si coges y lo limitas a 6 cores 12 hilos 13600k vs 13900k, están igualados.... porque la base es el mismo procesador

para muestra, un botón, mi 13600k con los ecores desactivados para no pasar así de 80 grados usando todos los Pcores e hilos:

Imagen

Imagen

Y se puede apretar más, lo he llegado a tener a 5750mhz con el BLCK A 101 pero la ram me hacia cosas raras... y también lo he tenido con a mayores solo 2 ecores activos, pero los he acabado quitando porque windows (o el procesador) con adobe after effects manda la tarea de codificar un video a los ecores en vez de a los pcores, y estamos hablando de una diferencia de tiempo en un video de 25 minutos, de 49 minutos de codificación con 2 pcores VS 1:30min con 2 ecores...

Por comparar, mi ex 5800x hacia en monocore, 640 puntos...
8406 respuestas