Duda consumo-fuente alimentación

Krakken

Me gustaría saber si el consumo (y por lo tanto la factura eléctrica) aumenta cuando se cambia la fuente de alimentación de un equipo.

Veréis, tengo 8 PCs con una fuente de alimentación de 250W. Para la tarjeta gráfica que tienen (Geforce 7300 GS) es suficiente, pero como me planteo para el año que viene ponerles algo más potente en gráfica, también necesitaré seguro una fuente de alimentación de mayor potencia, digamos unos 400-450W.

La duda ahora es si notaré que sube el consumo de luz mucho. Por lo poco que sé de electricidad, sí. Se supone que el consumo se mide en kW hora, por lo tanto un aparato funcionando con una fuente de alimentación casi el doble de potente que la de antes, consumirá casi el doble o me estoy equivocando?

Gracias por adelantado :)

cortes

sube, pero minimamente.

PD: WTF?! 8 pc's...

Krakken

#2

Tengo un mini-cibercafé

Pero minimamente cuanto quiere decir? 10%? 20%?

Yo siempre he entendido que a mayor potencia en W del aparato, mayor consumo eléctrico.

A menos que no emplee esos 400W constantemente, sino cuando por ejemplo se esté jugando a algo que haga funcionar a tope la tarjeta... no sé, van por ahí los tiros?

Genesi

Hombre la verdad que no lo he tenido claro, pero yo pienso que cuando metes una fuente de 400 w max, asi de entrada en un equipo normal no va a consumirlos al 100%, a medida de que vallas añadiendole componentes o le pidas mas consumo es cuando podra llegar al consumo maximo de la fuente de alimentacion.

Pongo el ejemplo de un amplificador de coche, si lo tienes con el volumen bajado, apenas esta consumiendo, pero si subes el volumen aumenta el consumo...

Saludos

Krakken

#4

Ya, pero es que para poner una tarjeta gráfica buena, en los requisitos técnicos todas las que he mirado piden fuente de alimentación de 400W y algunas más :\

Me parece que probaré a comprar una para navidades/año nuevo para mi equipo y siu rula con los 250W asíu se queda, si peta la cambio y a ver si noto algo el consumo xD

cortes

yo voy a por que:

Las fuentes tienen una curva de eficiencia, y segun cual sea el consumo del pc, se situara en un punto o otro (60% 70%) tendra una eficiencia de consumo mayor o menor, ya se que me explico como el culo pero es lo que hay. A ver si con estas imagenes lo entendeis mejor.


Conclusion rapida: Si el PC consume en Full 200w, consumira mas con una fuente que pueda llegar a dar 700w que con una de 300w.

PD: a ver si se pasa por aqui Mr.Desaparecido (aka prava) que una vez lo explico y me lo dejo a mi bien claro.

Krakken

#6

Gracias por el intento, pero me he quedado como estaba xDD

No hombre, no. Lo que veo es que el consumo aumenta pero no mucho, por esa curva. Pero no me queda claro del todo... A ver esos físicos donde están!

BEDI

A ver, por puntos a ver si queda claro.

  • En primer lugar el PC necesita de una determinada potencia para poder funcionar. Esta potencia que necesita es independiente de la FA. En tu caso, vas a cambiar las gráficas y por ello requerirá mas potencia cuando les estés dando uso.

  • Como se aprecia en las imagenes que han puesto aqui mismo se aprecia como estas fuentes tienen una eficiencia diferente en función de la carga. Esto quiere decir, pongamos por ejemplo, que una fuente de 400w que debe suministrar 320w al ordenador, realmente esta consumiendo 360 de tu enchufe (una diferencia de 40w). En cambio si esa misma fuente esta suministrando 150w, estara chupando 205 del enchufe (una diferencia de 55w). A groso modo esto es lo que implica la eficiencia de una fuente.

Esto por supuesto tiene sus porques, pero no procede que me ponga a explicarlo.

Shikoku

Krakken O-o tienes un cibercafe? O-o alla en mexico? xD

De lo q se entera uno hoygah xD

Como dice cortes, a ver si prava resucita (esto ya parece como con luz, q desaparecio y no volvio xDDDD) y te lo explica bien.

Prava

#6 y #9 Sí, algo desaparecido sí que estoy...imagino que si vivieráis en Ibiza ahora en verano os pasaría exactamente lo mismo, sólo ando por casa para dormir, ducharme y muy poquito más. Casualmente me ha dado por abrir mv un ratito para relajarme ahora que he llegado del curro... y luego otra vez a salir ^^

#1 A ver, esto es como los coches. Es decir, un coche de 300cv no da siempre 300cv, sino que esa es la potencia máxima. En las FA pasa exactamente lo mismo (con unas diferencias que ahora explicaré), por lo que una fuente de 1000W da, como máximo, 1000W. Pero si tu pc chupa sólo 200W, idealmente gastaría lo mismo en una de 400W que en una de 1000W, puesto que lo que gastas es eso, 200W.
Digo idealmente porque las FA tienen una curva de trabajo, según la cual el rendimiento cambia dependiendo de cuánto le pidas. En general, las fuentes rinden a su 100% cuando trabajan entre un 30-70% de carga, aunque puede variar. Por esto mismo, para un equipo de 200W idle (que es un valor bastante bastante alto) una fuente de 1000W es peor que una de 500W puesto que al estar por debajo de ese 30% de carga (que en 1000W serían 300W, un valor altísimo) la de 1000W consumirá más energía que la de 500W, puesto que en esta última el intervalo donde mejor rinde la fuente es entre los 150-350W, así que sería ideal.

En tu caso concreto, teniendo en cuenta que son equipos de gama baja pero que están todo el día encendidos, yo me pensaría el poner fuentes de calidad pero de baja potencia. El motivo es muy sencillo. Pongamos un equipo de ofimática con un consumo en idle de unos 120W (navegar y tal es prácticamente no hacer nada con el pc. Tampoco tendrás super tarjetas gráficas así que es un valor más o menos adecuado).
a) Fuente de MARCA: rendimiento +80%. En España (0.09€ kwh, más o menos), teniéndolo encendido 12h al día, supone 0.161€ al día.
b) Fuente sin marca: rendimiento 70% (o menos). En España, con las mismas 12h, saldría por 0.185€ al día.
Es decir, en trabajando 300 días al año, ahorras 7.2€ de tener una buena fuente a no tenerla. Vamos, que en 2-3 años has pagado la diferencia. Eso teniendo los pcs 12h al día, si los tienes más horas encendidos pagas la diferencia en bastante menos tiempo. Además tienes que sumarle que una fuente buena da mejores voltajes, más estabilidad, etc...

lafundo

Si la dieferencia en el consumo electrico de euros es poco, las fuentes de mayor eficiencia energetica y mayor potencia tienen uan ventaja, si se peude decir asi, al estar trabajando con cargas pequeñas o asequibles.

una fuente de 800 watios y con un buen coeficiente energetico ni se despeina para tirar de una carga de 200-300 watios.

Pero una fuente de 400/450 watios para tirar de esa misa carga de 300 watios sufrira mas, su desgaste y calor la pueden hacer reventar/quemarse, mientras que la de 800 o 600 ni se despeina.

Prava

#11 Las fuentes de calidad están preparadas para trabajar a alta carga. Una fuente de 450W a la que le pides 300W no está sudando nada: sufre cuando le haces sacar 400-420W sostenidos puesto que siempre hay picos, ahí es cuando realmente trabaja con muy poco margen.
Si tienes en cuenta la diferencia de precio que hay entre una fuente de 800W buena y una de 600W, y que la de 800W en general gastará más que la de 600W, pues ahí tienes el porqué no vale la pena montar una fuente de tanta potencia: no la aprovechas, pagas de más y pagas más luz.

Krakken

Bueno, pues tras leeros creo que cuando actulice equipos compraré nuevas FA de 400 a 500 W, dependiendo de los requisitos de las nuevas tarjetas.

Ya veo que no se doblará el consumo, si acaso subirá como mucho mucho mucho un 10-15%, y eso si les meten caña a los PCs jugando todo el día.

Algunas marcas de calidad que me recomendéis?

Gracias! :D

J

Que grafica vas a ponerles, si son de gama media-baja, tipo 3450 o 3650 de ATI, a lo mejor puedes tirar con las fuentes de alimentacion que tienes...

Yo tengo un barebone con 250W y me ha funcionado sin problemas una 3850, aunque la FA que tengo es de calidad

Compra una grafica, y haz la prueba a ver si te van en los pcs, luego pasale algun programtica para estresar la GPU y mira a ver si es estable y si necesitas comprar una nueva FA

Usuarios habituales