Rtx 3090 zotac trinity 24g opinion

Buenas me recomendais comprar la rtx 3090 zotac trinity 24g en 570 euros de 2 mano solo se a utilizado para juegos o que targeta grafica por ese precio comprarias ?
Estoy un poco dudoso.
Por ese precio está muy bien, otro asunto es en qué estado se encuentre y si te fias del vendedor, que todo el mundo dice que solo se ha usado para jugar y no para minar, etc... eso ya es decisión tuya si te fias o no.

Saludos.
@javier español pues es de tienda me dan 15 días de devolución ay alguna manera de saber si esa targeta se a utilizado para minar. Gracias
Por el precio si tienes opción a probarla bien me parece buena compra, tanto si ha minado como si no.

No hay forma de saber a ciencia cierta si se ha usado para minar. Puede haber pequeños signos de calor o de desgaste, pero habría que desmontar el backplate y no sería para nada concluyente.

Si que te recomiendo hacer lo que se comenta en este hilo: hilo_pruebas-a-grafica-de-segunda-mano_2500189 para comprobar que esté bien sin “sorpresas”

Y asegúrate de tener una buena fuente. Una 3090 consume mucho. Yo he visto una fuente buena de 850W apagarse con un 3900X de stock y una 3090 con el power limit al máximo

Saludos
@Pollonidas gracias pues es posible que la pille uff de fuente estoy justo tengo 3900x y 850 wtts de fuente
ratmei escribió:@Pollonidas gracias pues es posible que la pille uff de fuente estoy justo tengo 3900x y 850 wtts de fuente

Si es una fuente buena (Corsair gamas medias/altas, Seasonic, MSI, etc.) no deberías tener problema mientras mantengas el power limit de stock.

Si es NOX, Tacens, o similar, yo personalmente no iría tan al límite, porque no me fío de la calidad general ni de las protecciones.

Saludos
Yo personalmente pasaría de la RTX 3090, vendiendo el 3900x que tienes, fácil le sacas 100-110€, aprovechas la placa base que tienes, pones unos 60-70€ para un 5700X-5800X, mas los 550-570 que sale "por ejemplo" la Sapphire NITRO+ AMD Radeon RX 7900 GRE, rendimiento parejo o algo superior a la RTX 3090, AMD FG del FSR3 que es un plus, ademas mejoras el micro para rendimiento en juegos.

y te llevas 3 años de garantia con todo por un poco mas.
@Kin pues no lo habia pensado así gracias por la idea y la vram 16 más que sobrado aunque siempre me tira más las nvidia también e visto una 3080 ti 12 ram con 3 años de garantia
ratmei escribió:@Kin pues no lo habia pensado así gracias por la idea y la vram 16 más que sobrado aunque siempre me tira más las nvidia también e visto una 3080 ti 12 ram con 3 años de garantia


Pero hablamos de productos nuevos vs segunda mano en este caso, si quieres jugártela tu decides, pero también ten en cuenta que no todo es garantía, te llevas procesador (si decidieras cambiarlo) y grafica con consumos mas bajos, aparte de que sus tegnologias son mas recientes y si sufrías por la fuente en este caso tienes también algo mas margen.

Te digo también si la serie 3000 no hubiera sufrido temas minado (fiate tu) y la putada de NVIDIA con el FG del DLSS3 siendo exclusivo para la serie 4000, entonces no pondría ninguna objeción con la RTX 3090 porque sigue siendo una grafica IMPRESIONANTE.

No me caso con nadie, me la SUDA AMD o NVIDIA, a mi nunca me han regalado nada, solo busco lo mejor en ese momento y al mejor precio.

Por lo que "por ejemplo" un 5700X y la RX 7900 es un paso adelante, la RTX 3090 a secas tampoco esta tan mal como elección, pero tienes sus pros y contras.

También decir que NVIDIA es mejor para juegos y milongas, son fanatismos, AMD y NVIDIA hoy en dia son muy similares con sus graficas.
Por el mismo precio tienes una rtx4070 o incluso mas barata la rx7900gre.

A mi personalmente no me convence, un consumo muy alto, sumado a los años que tendrá de uso, y aunque el rendimiento algo superior a la rtx4070 no hay precisamente una diferencia aplastante ni mucho menos.

Para mi las ventajas de por ejemplo una rtx4070 nueva son bastantes convincentes, la estrenas tu y consume bastante menos, además tiene tecnologías mas actuales.

Quizás, si fuera para jugar a 4k, esa vram vendría muy bien, sería el único caso donde la valoraría.
Yo he tenido dos Zotac (3080 y 3080Ti) y personalmente son ensambles que no recomiendo. Muy ruidosas y calentorras. Y respecto a la 3090, yo he tenido 2 Msi suprimX y cada una me salió por 600€. Con menos tiempo y más garantía. Hoy en día no pagaba 570€ ni aunque fuera completamente nueva. Son gpus que ya han quedado en el limbo, porque nadie paga lo que piden.
Ojo, hablamos para gaming.

o 7900GRE o 4070Ti por 600 y pico que estaba de oferta.
MrKafka escribió:Yo he tenido dos Zotac (3080 y 3080Ti) y personalmente son ensambles que no recomiendo. Muy ruidosas y calentorras. Y respecto a la 3090, yo he tenido 2 Msi suprimX y cada una me salió por 600€. Con menos tiempo y más garantía. Hoy en día no pagaba 570€ ni aunque fuera completamente nueva. Son gpus que ya han quedado en el limbo, porque nadie paga lo que piden.
Ojo, hablamos para gaming.

o 7900GRE o 4070Ti por 600 y pico que estaba de oferta.




A ver yo tengo una zotac 3090, estuve tanteando y la venta y la puse a 600€, en 15 minutos tenia 2 compradores sin regatear. La gente las compra sobretodo los que trabajan en IA por su vram.

Ahora al lio, compré en Amazón una 7900 GRE para ver cual me quedaba de las 2 sobretodo por el cacharreo de los nuevos drivers que liberan las frecuencias de la ram y después de 1000 pruebas, apreté la roja todo lo que pude y haciendo 3 dias de benchs para ver si devolvía la 7900 o si vendía la 3090 me quedé con la 3090 de mucho.

En raster le saca de media un 10%, en RT no hace falta ni hablar, y ahora con el FSR 3.1 que liberarán el FG para las no 4000 pues ni punto de comparación.

Eso si para igualar las condiciones tengo la 3090 también con OC apretada bastante.

Lo siguiente para el compañero @pollonidas sobre la fuente. Con un 5600x con todos sus nucleos a 4650mhz y consumiendo él solo 118W + la 3090 apretada hasta consumir ella sola 391w pues con una CMW de 650w ni un solo problema.

El op vale que tiene un 3900x que traga mas pero 850w hay 200w mas de margen, iría muy sobrada si la fuente es medianamente pasable. Y teniendo en cuenta lo repetido hasta la saciedad, en escenarios reales NINGÚN equipo pone la CPU y GPU al límite a la vez.

Aún si me apuras el plan B sería una 4070S, que rinde casi como la 4070ti y esta última rinde un 5% mas que la 3090, pero la 4070S consume mucho menos, o sea que la 4070S que ya están a 599€ la veo mucho mejor que la 7900GRE.

@Kin estas gráficas que estamos hablando son para 1440 e incluso a 4k por lo que un 3900x o un 5700x le va a dar practicamente los mismos fps, otra cosa sería para 1080 pero no creo que piense en estas gráficas para esta resolución.

@ratmei pues eso, bajo mi punto de vista en una buena opción la 3090 aunque ten en cuenta también la 4070S que ahora ya está a 599€ Nueva
@ditifet gracias por tu aporte la verdad que si no cambio de idea el sabado pillo la 3090 hay otra que también la tengo vista 3080 ti que la iguala a la 3090 excepto por la ram voy a mirar las 4070 s a ver k precio están
ratmei escribió:@ditifet gracias por tu aporte la verdad que si no cambio de idea el sabado pillo la 3090 hay otra que también la tengo vista 3080 ti que la iguala a la 3090 excepto por la ram voy a mirar las 4070 s a ver k precio están


La 3080ti es casi casi casi pero le falta un pelín, diría que un 5% para llegar a la 3090.

He tenido 3080, 3080 12gb, 3080ti y ahora la 3090

Hay un 5% entre cada gpu mas o menos de media, en raster me refiero.
@ditifet Entiendo tu postura y veo muy bien la 4070 super si es factible por esos 600€, lo de la 3090 no lo comparto y menos aun que digas que estas graficas en general a 4K se defienden, cuando eso no es cierto, tengo hasta dificultades con una 4080 en mantener los 60fps en ultra según que juego y la verdad que ni me gusta el FG (porque me obliga mantener activado el HAGS en windows y da muchísimos problemas de shuttering) y menos aun el DLSS, pague un pastizal por una grafica que si tengo que tirar de reescalados me deprimo y no me hace ni puta gracia.

Por lo que graficas como las mencionadas (4070s/Ti y 3090) vas a necesitar de ayudas en reescalados para 4K sin duda y pensaba que era para una configuración de 1080/1440 como mucho, por eso aconseje tambien el 5700X, tampoco @ratmei dijo nada de que resolución pretendía usar para jugar.

Los consumos lo has explicado muy bien y oscilan esos parámetros, nada mas que añadir.
Kin escribió:@ditifet Entiendo tu postura y veo muy bien la 4070 super si es factible por esos 600€, lo de la 3090 no lo comparto y menos aun que digas que estas graficas en general a 4K se defienden, cuando eso no es cierto, tengo hasta dificultades con una 4080 en mantener los 60fps en ultra según que juego y la verdad que ni me gusta el FG (porque me obliga mantener activado el HAGS en windows y da muchísimos problemas de shuttering) y menos aun el DLSS, pague un pastizal por una grafica que si tengo que tirar de reescalados me deprimo y no me hace ni puta gracia.

Por lo que graficas como las mencionadas (4070s/Ti y 3090) vas a necesitar de ayudas en reescalados para 4K sin duda y pensaba que era para una configuración de 1080/1440 como mucho, por eso aconseje tambien el 5700X, tampoco @ratmei dijo nada de que resolución pretendía usar para jugar.

Los consumos lo has explicado muy bien y oscilan esos parámetros, nada mas que añadir.


Que se defiendan en 4k no es que puedan jugar a 120 fps, ultra, sin reescalados y sin FG, eso sería ir sobrada.

Que en tu caso no te guste el FG no significa que al resto de usuarios le pase lo mismo, es mas hay mas gente que los usa que al revés.

Ahora mismo con la 3090 estoy jugando al forbiden west en la una tv de 120hz a 4k con DLSS dinamico a 120fps, en la mayoria del tiempo está entre 90 y 120fps

En muchos juegos no tengo problemas en llegar a los 90 , calidad altra o ultra y DLSS Balanceado o Calidad, en 4K me refiero.

Es mas a 60 fps sin reescalados y en alto llego a cualquier juego, eso es defenderse bajo mi punto de vista.

Uno de los motivos por los cuales pillé la 7900GRE que devolví fué el FSR 3 y su FG pero al ver que en raster era peor que mi 3090 y que con FSR 3.1 iban a liberar el FG del FSR pues me quedé con la 3090.

El tema del 3900x veo innecesario el cambio a un 5700x por lo poco que ganas en fps en 1440p, hay menos de un 10% en el mejor de los casos. En 1080 quien se compra una gráfica de estas para jugar a 1080? :-? , para ello te sobra una 4060ti o 6750xt.
ditifet escribió:Lo siguiente para el compañero @pollonidas sobre la fuente. Con un 5600x con todos sus nucleos a 4650mhz y consumiendo él solo 118W + la 3090 apretada hasta consumir ella sola 391w pues con una CMW de 650w ni un solo problema.

El op vale que tiene un 3900x que traga mas pero 850w hay 200w mas de margen, iría muy sobrada si la fuente es medianamente pasable. Y teniendo en cuenta lo repetido hasta la saciedad, en escenarios reales NINGÚN equipo pone la CPU y GPU al límite a la vez.

Yo te puedo decir porque lo he visto en primera persona, que con un 3900X que es lo que tiene el compañero (que he dicho que estaba de stock, pero para ser totalmente sincero creo que tenía activado PBO) y una 3090 FE con el power limit al máximo, una fuente Antec HCP-850 (80+ platinum, un modelo viejo pero muy bueno) se apagaba tras unos minutos de FS2020. Uso real, nada de tests que cargan CPU+GPU de forma artificial. Te garantizo que no solo no va sobrada sino que NO hay margen. Para tenerla con el power limit de stock, seguramente aguante. Pero a mí lo que me daba miedo es si la fuente del compañero era NOX o similar, que son 850w pero pequeñitos.

Saludos
Pollonidas escribió:
ditifet escribió:Lo siguiente para el compañero @pollonidas sobre la fuente. Con un 5600x con todos sus nucleos a 4650mhz y consumiendo él solo 118W + la 3090 apretada hasta consumir ella sola 391w pues con una CMW de 650w ni un solo problema.

El op vale que tiene un 3900x que traga mas pero 850w hay 200w mas de margen, iría muy sobrada si la fuente es medianamente pasable. Y teniendo en cuenta lo repetido hasta la saciedad, en escenarios reales NINGÚN equipo pone la CPU y GPU al límite a la vez.

Yo te puedo decir porque lo he visto en primera persona, que con un 3900X que es lo que tiene el compañero (que he dicho que estaba de stock, pero para ser totalmente sincero creo que tenía activado PBO) y una 3090 FE con el power limit al máximo, una fuente Antec HCP-850 (80+ platinum, un modelo viejo pero muy bueno) se apagaba tras unos minutos de FS2020. Uso real, nada de tests que cargan CPU+GPU de forma artificial. Te garantizo que no solo no va sobrada sino que NO hay margen. Para tenerla con el power limit de stock, seguramente aguante. Pero a mí lo que me daba miedo es si la fuente del compañero era NOX o similar, que son 850w pero pequeñitos.

Saludos


Ya te digo que mi 5600 con OC (118W) + 3090 con OC (391W) ni en test sintéticos (furmark, heaven, superposition, passmark ni kombustor se apaga) , jugando mucho menos, y es una CMW de 650+

100% seguro porque antes cambié de un 10400F al 5600 y para ver la diferencia que habia "ganado" le di caña. Además una 3090 tiene el mismo TDP y consumo que una 3080ti que es la que tenia antes y tampoco tuve problemas.

Vale que este 5600 consume 120 y el 3900x pasa los 300 pero es que de mi fuente a una 850 de calidad hay los 200w de diferencia, y eso con carga a tope que jugando no pasa. Es muy raro lo de tu colega, seguro que no tenia cascada la fuente? o bueno con el PBO también roe algo mas... pero vamos si el @kin no tiene una basura de fuente le tiene que funcionar con una de 850w, jugando no pasa de 150w la cpu y la gpu 350w, todo sin UV, si hace los deberes y le hace UV a las dos cosas ya es mas seguro todavía.
@Kin tengo 2 un monitor a 2k y una tv samsung qled a 4k esas son las que voy a utilizar por eso el buscar 3090 por la vram al tener 24 ram el 4k ira algo mas fluido todo en ultra
ratmei escribió:@Kin tengo 2 un monitor a 2k y una tv samsung qled a 4k esas son las que voy a utilizar por eso el buscar 3090 por la vram al tener 24 ram el 4k ira algo mas fluido todo en ultra


Que fuente de 850 tienes?
ditifet escribió:
Pollonidas escribió:Ya te digo que mi 5600 con OC (118W) + 3090 con OC (391W) ni en test sintéticos (furmark, heaven, superposition, passmark ni kombustor se apaga) , jugando mucho menos, y es una CMW de 650+

100% seguro porque antes cambié de un 10400F al 5600 y para ver la diferencia que habia "ganado" le di caña. Además una 3090 tiene el mismo TDP y consumo que una 3080ti que es la que tenia antes y tampoco tuve problemas.

Vale que este 5600 consume 120 y el 3900x pasa los 300 pero es que de mi fuente a una 850 de calidad hay los 200w de diferencia, y eso con carga a tope que jugando no pasa. Es muy raro lo de tu colega, seguro que no tenia cascada la fuente? o bueno con el PBO también roe algo mas... pero vamos si el @kin no tiene una basura de fuente le tiene que funcionar con una de 850w, jugando no pasa de 150w la cpu y la gpu 350w, todo sin UV, si hace los deberes y le hace UV a las dos cosas ya es mas seguro todavía.

Yo te digo lo que he visto, para que luego no haya sorpresas. Creo que no tiene sentido discutir porque justamente el caso que describo es el procesador del compañero y la gráfica del compañero, soy consciente de lo que consumen los componentes, pero leñe, es que exactamente esto lo he probado yo. No va sobrado, va justo. El consumo de un 3900X no tiene nada que ver con el de un 5600 (incluso con OC), y tampoco te puedes fiar de las lecturas de consumo por software porque muchas cosas relativamente relevantes (como las pérdidas en las fases) no se tienen en cuenta, aparte de que tienen un margen de error muy grande (a veces de +-20% del valor real medido con esto).

Sobre si la fuente podía estar estropeada, pues desde luego es posible, pero pienso que poco probable, porque con la anterior GPU en el mismo PC (que era una 2070) y overclock a todo no dio ningún problema, aunque ciertamente el hecho de que una fuente de 850W funcione bien con 650W de consumo real no nos garantiza que esté bien. Esa fuente la tuve yo antes en varios PCs de consumo moderado/alto y sin problema, pero en casa de este amigo no tenía un medidor de consumo para poder verificar nada.

Este chico quería overclock sí o sí porque no le iba bien del todo el FS2020, yo le recomendé cambiar el procesador a un 5900X en su lugar, porque también hace edición de vídeo y el 5800X3D era un downgrade en varios aspectos y a un Zen2 le puedes exprimir lo que quieras que en FS en particular nunca se va a llegar al mismo rendimiento. Al final cambió la fuente por una peor pero de 1000W (gigabyte, de las que explotan, pero parece que ha tenido suerte) porque el gasto del 5900X le venía bastante mal después de gastarse 1600 cocos en la 3090 (aunque fuera a su MSRP) en plena pandemia/boom de las crypto. No sé qué ha sido de la Antec a partir de entonces, creo que la vendió.

...que incluso con OC sin subir el power limit y con el procesador estrictamente de stock (es decir: sin PBO) probablemente sea suficiente con 850W de una fuente buena, sin duda. Pero como dices, no sé qué fuente tiene el OP, y en esos casos suelo pensar mal hasta que se demuestre lo contrario.

Saludos
Pollonidas escribió:
ditifet escribió:
Pollonidas escribió:Ya te digo que mi 5600 con OC (118W) + 3090 con OC (391W) ni en test sintéticos (furmark, heaven, superposition, passmark ni kombustor se apaga) , jugando mucho menos, y es una CMW de 650+

100% seguro porque antes cambié de un 10400F al 5600 y para ver la diferencia que habia "ganado" le di caña. Además una 3090 tiene el mismo TDP y consumo que una 3080ti que es la que tenia antes y tampoco tuve problemas.

Vale que este 5600 consume 120 y el 3900x pasa los 300 pero es que de mi fuente a una 850 de calidad hay los 200w de diferencia, y eso con carga a tope que jugando no pasa. Es muy raro lo de tu colega, seguro que no tenia cascada la fuente? o bueno con el PBO también roe algo mas... pero vamos si el @kin no tiene una basura de fuente le tiene que funcionar con una de 850w, jugando no pasa de 150w la cpu y la gpu 350w, todo sin UV, si hace los deberes y le hace UV a las dos cosas ya es mas seguro todavía.

Yo te digo lo que he visto, para que luego no haya sorpresas. Creo que no tiene sentido discutir porque justamente el caso que describo es el procesador del compañero y la gráfica del compañero, soy consciente de lo que consumen los componentes, pero leñe, es que exactamente esto lo he probado yo. No va sobrado, va justo. El consumo de un 3900X no tiene nada que ver con el de un 5600 (incluso con OC), y tampoco te puedes fiar de las lecturas de consumo por software porque muchas cosas relativamente relevantes (como las pérdidas en las fases) no se tienen en cuenta, aparte de que tienen un margen de error muy grande (a veces de +-20% del valor real medido con esto).

Sobre si la fuente podía estar estropeada, pues desde luego es posible, pero pienso que poco probable, porque con la anterior GPU en el mismo PC (que era una 2070) y overclock a todo no dio ningún problema, aunque ciertamente el hecho de que una fuente de 850W funcione bien con 650W de consumo real no nos garantiza que esté bien. Esa fuente la tuve yo antes en varios PCs de consumo moderado/alto y sin problema, pero en casa de este amigo no tenía un medidor de consumo para poder verificar nada.

Este chico quería overclock sí o sí porque no le iba bien del todo el FS2020, yo le recomendé cambiar el procesador a un 5900X en su lugar, porque también hace edición de vídeo y el 5800X3D era un downgrade en varios aspectos y a un Zen2 le puedes exprimir lo que quieras que en FS en particular nunca se va a llegar al mismo rendimiento. Al final cambió la fuente por una peor pero de 1000W (gigabyte, de las que explotan, pero parece que ha tenido suerte) porque el gasto del 5900X le venía bastante mal después de gastarse 1600 cocos en la 3090 (aunque fuera a su MSRP) en plena pandemia/boom de las crypto. No sé qué ha sido de la Antec a partir de entonces, creo que la vendió.

...que incluso con OC sin subir el power limit y con el procesador estrictamente de stock (es decir: sin PBO) probablemente sea suficiente con 850W de una fuente buena, sin duda. Pero como dices, no sé qué fuente tiene el OP, y en esos casos suelo pensar mal hasta que se demuestre lo contrario.

Saludos




No discutimos compañero, ..., contigo solo debato ;)

A ver está claro que mi 5600x no tiene nada que ver con el 3900x pero es que mi fuente es de 650 y la del op o la que me estoy refiriendo es de 850, hay 200w de diferencia.

Mirando mas detenidamente incluso me lo pones peor, el 3900x pensaba que consumiría mas de 300w pero por lo que he visto se queda en menos. Incluso gente con un 10900k que consume mas y una 3090 le funciona sin problemas con 850w

https://www.reddit.com/r/buildapc/comme ... _i910900k/

otros con el 3900x

https://www.reddit.com/r/nvidia/comment ... 3900x_psu/

y aquí un vidrio mismo



El tio este los tiene con una simple thermaltake bronze de 750W, aunque le hagas OC a las dos componentes a poco que uses una gold de 850w te da de sobra.

SI tomamos las webs que te recomiendan las fuentes pues incluso te dan para una de 700w (de stock , por lo que suma el OC de ambos que ya repito jugando NUNCA ESTÁN AL 100% A LA VEZ)

https://es.whatpsu.com/psu/cpu/AMD-Ryze ... e-RTX-3090

Pero bueno también como dices, depende de la fuente, pero la Antec 850 platinum de tu colega es practicamente imposible que no estuviera mal porque le daba perfectamente igual que con una RM de corsair mismo o una Whisper todas de 850w, no digo que no te crea pero algo raro o mal habia ahí.


@ratmei cabronazo suelta por esa boquita que fuente usas que nos tienes en ascuas aquí debatiendo si te va a explotar toda la casa o no XD XD XD
Editado por metalgear. Razón: falta de respeto
ditifet escribió:No discutimos compañero, yo solo discuto con la rata chivata que todos ya sabemos quien es, contigo solo debato ;)

A ver está claro que mi 5600x no tiene nada que ver con el 3900x pero es que mi fuente es de 650 y la del op o la que me estoy refiriendo es de 850, hay 200w de diferencia.

Mirando mas detenidamente incluso me lo pones peor, el 3900x pensaba que consumiría mas de 300w pero por lo que he visto se queda en menos. Incluso gente con un 10900k que consume mas y una 3090 le funciona sin problemas con 850w

https://www.reddit.com/r/buildapc/comme ... _i910900k/

otros con el 3900x

https://www.reddit.com/r/nvidia/comment ... 3900x_psu/

y aquí un vidrio mismo



El tio este los tiene con una simple thermaltake bronze de 750W, aunque le hagas OC a las dos componentes a poco que uses una gold de 850w te da de sobra.

SI tomamos las webs que te recomiendan las fuentes pues incluso te dan para una de 700w (de stock , por lo que suma el OC de ambos que ya repito jugando NUNCA ESTÁN AL 100% A LA VEZ)

https://es.whatpsu.com/psu/cpu/AMD-Ryze ... e-RTX-3090

Pero bueno también como dices, depende de la fuente, pero la Antec 850 platinum de tu colega es practicamente imposible que no estuviera mal porque le daba perfectamente igual que con una RM de corsair mismo o una Whisper todas de 850w, no digo que no te crea pero algo raro o mal habia ahí.


@ratmei cabronazo suelta por esa boquita que fuente usas que nos tienes en ascuas aquí debatiendo si te va a explotar toda la casa o no XD XD XD

Quizás la palabra discutir no estaba muy bien elegida por mi parte, lo que quería decir es que considero que no hay mucho que "rascar" al respecto [beer]

Yo creo que parte del problema es que con PBO el 3700X se vuelve una estufa y probablemente pase con margen a un 10900K, acercándose a los valores que anticipabas antes. No tengo forma de corroborarlo porque no hice ninguna medida en su día.

Dado que el PC se le apagaba jugando al FS2020 (con VR y ajustes muy exigentes, es decir, consumo de procesador muy elevado y gráfica al 100% del TDP de forma mantenida) creo que eso es prueba más que de sobra que incluso si como dices nunca están al 100% de uso los dos componentes a la vez, hay cargas realistas en las que el consumo es similar a este caso (tanto el voltaje como el boost son mucho más agresivos con "pocos" núcleos en uso, así que no creas que el TDP del procesador varía mucho jugando con un título exigente o calculando números primos con instrucciones AVX-512, solo que en el primer caso el uso de CPU ronda el 60% pero a cambio el boost es 600mhz mayor y el voltaje bastante más alto)

Que la fuente sea gold o bronze, si da lo que tiene que dar, es irrelevante, porque la potencia de la fuente se mide en la salida, no en la entrada. Las pérdidas en la conversión implicarán más ruido de ventilador y quizás más desgaste, pero si una fuente la venden como de 850W tiene que dar 850W mantenidos tanto si del enchufe salen 977W (valor máximo para una fuente 80+ gold) como si salen 1037W (valor máximo para una 80+ bronze). Y añado que normalmente dan toda la potencia en la línea de 12V si es necesario, ya que la única salida del transformador es esa, y el resto de líneas se sacan con reguladores DC-DC, más barato y más eficiente para los amperajes que tienen que soportar a día de hoy.

Yo de verdad que no creo que la fuente estuviese rota. Pienso que incluso sin OC, con PBO y quitando límites de consumo, eso es un horno. Pero ya te digo, las decisiones que tomó mi amigo no son las que yo hubiera tomado en su lugar. Para empezar porque para FS2020 (que era lo que más utilizaba y la razón de poner esa GPU) Zen2 es terrible, con overclock o sin él: https://www.guru3d.com/review/ms-flight-simulator-(2020)-the-2021-pc-graphics-performance-benchmark-review/page-4/#cpu-core-scaling-amd-ryzen-9-vs-intel-core-i9 (un 3800XT limita a la gráfica incluso a "solo" 45FPS, con una 2080Ti, mientras que un 10900K o un 5950X no lo hacen, y asumo que sería el mismo caso con un 5700X, por ejemplo)

También te puedo decir que, precisamente por lo de editar vídeo, tenía un par de HDD mecánicos en el PC, pero eso son, como muchísimo, 15W en reposo y 50 tirando por lo alto en uso pesado (que no era el caso jugando). Personalmente a priori tampoco hubiera dicho que su PC tal como lo tenía debería apagarse. Pero se apagaba XD

Saludos
@ditifet si una de 850 https://www.pccomponentes.com/nfortec-s ... ll-modular esta es mi fuente yo tengo la 2080 super puesta pero como voy a armar otro pc yo me meto la 3090 y al otro pc le pongo la 2080 super y perdona no e podido contestar antes.
Mi placa es una msi 570 pro garming WiFi y procesador amd 3900x y 32 Gram
ratmei escribió:@ditifet si una de 850 https://www.pccomponentes.com/nfortec-s ... ll-modular esta es mi fuente yo tengo la 2080 super puesta pero como voy a armar otro pc yo me meto la 3090 y al otro pc le pongo la 2080 super y perdona no e podido contestar antes.
Mi placa es una msi 570 pro garming WiFi y procesador amd 3900x y 32 Gram


mmm nfortec ... con esta no pongo la mano en el fuego, son flojillas.

Tuve una 3080 (que son 320w de tdp) y al que se la vendí tenia una nfortec de 650w lo que no se el modelo, pues se le reiniciaba con un triste ryzen 3600, tuvo que cambiarla a una Corsair RM de los mismos watios.

Puedes probar y si no se apaga o reinicia pues dale, pero si dices que vas a montar otro pc pues mejor pilla fuente nueva y pasas la nfortec y la 2080s al otro.
@ditifet pues si la verdad y pillo otra fuente también estado viendo las 4070 ti que parecen que igualan a la 3090 excepto por la vram que son de 12 gvram
ratmei escribió:pues si la verdad y pillo otra fuente también estado viendo las 4070 ti que parecen que igualan a la 3090 excepto por la vram que son de 12 gvram

Que tenga 24GB, no aporta nada. No te va a dar ni un fps más.

Pero lo que si tiene mejor cualquier RTX 40, es el DLSS3 con el FG, el generador de frames te da más fps, no se ve mal y añade velocidad. Es muy a tener en cuenta.

Y la unica alternativa con la 3090 viene de AMD, por el FSR3 que funciona con esa grafica. Eso se puede valorar.

Yo no compraria una RX. El RT se arrastra en ellas.
Es un buen precio, examínala bien y asegúrate que es de fiar, precisamente por ese precio deberían empezar las sospechas.
Kin escribió:
ratmei escribió:@Kin pues no lo habia pensado así gracias por la idea y la vram 16 más que sobrado aunque siempre me tira más las nvidia también e visto una 3080 ti 12 ram con 3 años de garantia


Pero hablamos de productos nuevos vs segunda mano en este caso, si quieres jugártela tu decides, pero también ten en cuenta que no todo es garantía, te llevas procesador (si decidieras cambiarlo) y grafica con consumos mas bajos, aparte de que sus tegnologias son mas recientes y si sufrías por la fuente en este caso tienes también algo mas margen.

Te digo también si la serie 3000 no hubiera sufrido temas minado (fiate tu) y la putada de NVIDIA con el FG del DLSS3 siendo exclusivo para la serie 4000, entonces no pondría ninguna objeción con la RTX 3090 porque sigue siendo una grafica IMPRESIONANTE.

No me caso con nadie, me la SUDA AMD o NVIDIA, a mi nunca me han regalado nada, solo busco lo mejor en ese momento y al mejor precio.

Por lo que "por ejemplo" un 5700X y la RX 7900 es un paso adelante, la RTX 3090 a secas tampoco esta tan mal como elección, pero tienes sus pros y contras.

También decir que NVIDIA es mejor para juegos y milongas, son fanatismos, AMD y NVIDIA hoy en dia son muy similares con sus graficas.


Hasta que te pones a jugar a realidad virtual y ves que los que tú llamas "milongas" es la realidad.
nagatoup escribió:
Kin escribió:
ratmei escribió:@Kin pues no lo habia pensado así gracias por la idea y la vram 16 más que sobrado aunque siempre me tira más las nvidia también e visto una 3080 ti 12 ram con 3 años de garantia


Pero hablamos de productos nuevos vs segunda mano en este caso, si quieres jugártela tu decides, pero también ten en cuenta que no todo es garantía, te llevas procesador (si decidieras cambiarlo) y grafica con consumos mas bajos, aparte de que sus tegnologias son mas recientes y si sufrías por la fuente en este caso tienes también algo mas margen.

Te digo también si la serie 3000 no hubiera sufrido temas minado (fiate tu) y la putada de NVIDIA con el FG del DLSS3 siendo exclusivo para la serie 4000, entonces no pondría ninguna objeción con la RTX 3090 porque sigue siendo una grafica IMPRESIONANTE.

No me caso con nadie, me la SUDA AMD o NVIDIA, a mi nunca me han regalado nada, solo busco lo mejor en ese momento y al mejor precio.

Por lo que "por ejemplo" un 5700X y la RX 7900 es un paso adelante, la RTX 3090 a secas tampoco esta tan mal como elección, pero tienes sus pros y contras.

También decir que NVIDIA es mejor para juegos y milongas, son fanatismos, AMD y NVIDIA hoy en dia son muy similares con sus graficas.


Hasta que te pones a jugar a realidad virtual y ves que los que tú llamas "milongas" es la realidad.


Pero ratmei va a jugar a VR?
30 respuestas