Duda consumo energetico de la fuente de 620w vs fuente de 900w

Buenas tardes.
Por motivos de cambio de placa he tenido que cambiarle a mi cuñado mi fuente de 620w por una que tenia el de 900w Tacens plus silver , iba hacer un crossfire que al final nunca hizo.
Lo que pasa que me han comentado que a mayor fuente mayor consumo. Se que me sobra fuente por todos los lados porque con una de 620 nox urano (con 4 años) iba perfectamente pero ¿el consumo de energia es tan grande como comprarme otra fuente?

Gracias por los comentarios. Un saludo
We? La fuente da el consumo que el pc le pide... No está consumiendo los 900w siempre... Ese es el límite teórico... X lo que no tienes que preocuparte por eso... Lo que si que tienes que tener en cuenta es la eficiencia energética que tenga la fuente para ver cuánto de ese consumo se pierde ( fuentes bronze, silver, gold, etc.... ) He leído que ahora tienes una silver, así que bien por tí xD ...
Ese es el (falso) mito de los chorrocientos vatios.
Estaría bien tener lo de 700W o 600W como si fuese parte del nombre del modelo de la fuente, ya que la potencia real es mejor mirarlo en el lateral, o en su defecto en la página del fabricante.

Efectivamente, la fuente consume lo que se le pide, o al menos por lo bajo, es así.
El problema está en el consumo "por lo alto" que puede no llegar a lo que se oferta ni de lejos. Es lo que se denomina "eficiencia".
Por ejemplo, una fuente de baja calidad puede tener la pegatina de 700 W, y ofrecer sólo 430 W en el ramal de mayor demanda (el de +12V), y/o no ofrecer un voltaje suficientemente estable.

Para no soltar un ladrillo, propongo una comparativa: Una Tacens Mars Gaming de 500 W, ofrece una potencia en ése ramal de sólo 360 W (y no voy a poner en duda los datos del fabricante... que podría), mientras que una Hexa + de 500W ofrece en el mismo ramal 432 W. A eso, súmale la calidad de los componentes.

Por favor, repito lo de arriba. Empecemos a ignorar los chorrocientos vatios, y a fijarse en el cuadro de tensiones.
Nuestro equipo, nuestra salud, y nuestro bolsillo, lo agradecerán.
me imaginaba que a mayor gráfica, procesador etc el consumo sería mayor pero pensaba que en igualdad de condiciones la fuente menor consumía menos que una fuente "literalmente" mayor.
Se que las calidades de las marcas difieren mucho de realidad pero tengo que reutilizar lo que tengo a mano :)
Si es si me quedo más tranquilo, recuerdo que no me compre una mayor por si un día hacia un crossfire porque el de la tienda me explico que el consumo se incrementaria en igual de condiciones.
chimpero escribió:me imaginaba que a mayor gráfica, procesador etc el consumo sería mayor pero pensaba que en igualdad de condiciones la fuente menor consumía menos que una fuente "literalmente" mayor.
Se que las calidades de las marcas difieren mucho de realidad pero tengo que reutilizar lo que tengo a mano :)
Si es si me quedo más tranquilo, recuerdo que no me compre una mayor por si un día hacia un crossfire porque el de la tienda me explico que el consumo se incrementaria en igual de condiciones.

Al contrario, cuanto más sobrada vaya la fuente mejor ya que podrá trabajar de forma más relajada al estar preparada para suministrar muchos más watios de los que se le exijan. No es bueno que la fuente vaya muy justa respecto al consumo del pc ya que eso provoca mayor "estrés" en sus componentes . Además las fuentes tienen rangos de eficiencia según el consumo siendo más eficientes cuando solo se les exige entre el 20% y 60% de su carga máxima. Al 80-100% la eficiencia decae lo que supone mayores consumos.

Imagen

Imagen
Streamer te lo ha mostrado, pero no lo ha explicado correctamente (sin ánimo de ofender).

La eficiencia es el ratio entre lo que consume el equipo (o suministra la fuente) frente a lo que "chupa" realmente del enchufe.La diferencia se va en los reguladores, etc.

Si ves las gráficas de eficiencia, de 0 a 200w la eficiencia es ridículamente baja, a partir de ahí es máxima. En el caso de la Corsair sí es máxima a partir del 20%, pero en la Cooler Master lo es a partir del 35%.

Pero en lugar de los porcentajes fíjate en los consumos absolutos. Fijate que a 50w, ambas tienen aprox. un 80% de eficiencia, lo que quiere decir que para ese consumo en los componentes del PC, la fuente "chupa" 62,5w de tu instalación eléctrica, desaprovechando 12,5w que también los pagarás en la factura. Teniendo en cuenta que en reposo mi PC consume unos 30-40w, estoy pagando un 20% de electricidad desaprovechada la mayor parte del tiempo. Cuando juego, el consumo sube y la eficiencia también, por lo que pago más por consumo eléctrico, pero la parte desaprovechada es inferior (en porcentaje).

Hay fuentes menos eficientes que otras, sobre todo en marcas malas. Por lo que el desaprovechamiento en consumos bajos es mucho mayor, puede que superior al 50%, sería necesario comprobarlo con la gráfica correspondiente.

Al contrario de lo que la gente opina, comprar una fuente con vatios de sobra no alarga la vida de los componentes, ni comprar la fuente ajustada la acorta. Al contrario, es beneficioso en términos de eficiencia. Poner una fuente de 1000w para un PC que consume 50w el 90% del tiempo y 250w el 10% sólo te va a provocar pagar una factura de la luz más elevada. ¿Cuánto? Pues depende de la curva de eficiencia de la fuente, pero por regla general, si estás en la franja inferior de la curva (aproximadamente por debajo del 20%), tiraste el dinero al comprar una fuente cara, y seguirás tirando el dinero con el consumo eléctrico.

A eso se refieren cuando te dicen que compres una fuente adecuada al consumo de tu PC.
muchas gracias por las aclaraciones, me quedo bastante claro, pero creo que aguntare la fuente porque no sé si llegara a merecer la pena el coste de comprar otra fuente con la diferencia que me ahorro de luz.


dCrypt escribió:Streamer te lo ha mostrado, pero no lo ha explicado correctamente (sin ánimo de ofender).

La eficiencia es el ratio entre lo que consume el equipo (o suministra la fuente) frente a lo que "chupa" realmente del enchufe.La diferencia se va en los reguladores, etc.

Si ves las gráficas de eficiencia, de 0 a 200w la eficiencia es ridículamente baja, a partir de ahí es máxima. En el caso de la Corsair sí es máxima a partir del 20%, pero en la Cooler Master lo es a partir del 35%.

Pero en lugar de los porcentajes fíjate en los consumos absolutos. Fijate que a 50w, ambas tienen aprox. un 80% de eficiencia, lo que quiere decir que para ese consumo en los componentes del PC, la fuente "chupa" 62,5w de tu instalación eléctrica, desaprovechando 12,5w que también los pagarás en la factura. Teniendo en cuenta que en reposo mi PC consume unos 30-40w, estoy pagando un 20% de electricidad desaprovechada la mayor parte del tiempo. Cuando juego, el consumo sube y la eficiencia también, por lo que pago más por consumo eléctrico, pero la parte desaprovechada es inferior (en porcentaje).

Hay fuentes menos eficientes que otras, sobre todo en marcas malas. Por lo que el desaprovechamiento en consumos bajos es mucho mayor, puede que superior al 50%, sería necesario comprobarlo con la gráfica correspondiente.

Al contrario de lo que la gente opina, comprar una fuente con vatios de sobra no alarga la vida de los componentes, ni comprar la fuente ajustada la acorta. Al contrario, es beneficioso en términos de eficiencia. Poner una fuente de 1000w para un PC que consume 50w el 90% del tiempo y 250w el 10% sólo te va a provocar pagar una factura de la luz más elevada. ¿Cuánto? Pues depende de la curva de eficiencia de la fuente, pero por regla general, si estás en la franja inferior de la curva (aproximadamente por debajo del 20%), tiraste el dinero al comprar una fuente cara, y seguirás tirando el dinero con el consumo eléctrico.

A eso se refieren cuando te dicen que compres una fuente adecuada al consumo de tu PC.
6 respuestas