Just nu i M3-nätverket
Gå till innehåll
Flyfisherman

Effektförbrukning på datorn uppmätt i olika lägen

Rekommendera Poster

Hej,
Jag köpte på skoj en energimätare på Kjell & Company kampanjpris 75:- (Ord. 149:-)
http://www.kjell.com/sortiment/el/el-produkter/starkstrom/energimatare/energimatare-p67058
Enligt Kjell så skall denna ta hänsyn till effektfaktorn och återge korrekta värden, men visst jag har ju inte möjlighet att testa toleranser och kalibrera.

Inget seriöst testande, bara för att få en hum om vad den drar.
Jag började med att kolla med endast en 7W lågenergilampa sedan kopplade jag in en till på 9W.
Så långt så stämde effekten precis enl. vad lamporna skulle vara på och dessa var uppvärmda.

Dator:
Chassi: Antec P193 V3 Chassi fläktar: 1 st. 200mm sidofläkt, 2 st. 140mm, 3st. 120mm
Nätaggregat: Corsair HX 750W Modulärt
Moderkort: ASUS P8Z68 Deluxe
CPU: Intel Core i7 2600K moderat överklockad till 4,2GHz
CPU kylare: Noctua NH C14 med 2st. 140mm fläktar
Minne: Corsair Vengeance® Low Profile 8GB DDR3 Memory Kit (CML8GX3M2A1600C9)
Diskar: SSD + 3 st hårddiskar
Grafikkort: ASUS HD7870-DC2TG-2GD5-V2
Bildskärm (2st.): BenQ G2420HDB 24" samt BenQ G2222HDL 22"
O/S: Windows 7 -64 Ultimate

Skrivare/skanner avstängda och inga övriga externa enheter inkopplade, förutom högtalare, mus och tangentbord.

Mätningarna och effekten varierade upp och ned, fast väldigt lite:

Datorn i soft power off och bildskärmarna i standby mode: 8W
Datorn i strömsparläge och bildskärmarna i standby mode: 13W
Datorn i idle mode bildskärmarna avstängda: 138W
Datorn i idle mode med endast 22" bildskärm: 169W
Datorn i idle mode med endast 24" bildskärm: 174W
Datorn i idle mode med båda bildskärma på, det blir samma om jag surfar med Firefox på Eforum: 197W

Datorn i idle mode och sedan när Energialternativ > bildskärmarna slås av efter X-minuter och där kommer mitt grafikkort med AMDs HD7870 GPU att sänkas ned till ett minimum: 101W

Titta på film:
Youtube HD1080P i fullskärmsläge: 200W
HD1080 (mkv) på datorn med Splash Pro som också använder GPU: 264W
HD1080 (mkv) på datorn samma film som ovan med VLC som inte utnyttjar GPU: 197W

Benchmark program:
3Dmark11 Basic edition (körs endast i 1280x720): som mest 354W
Intel Linpack stresstest för CPU och minnen: 304W

Spel och här varierade det en del, men som mest:
BF3 med maxade inställningar: 354W

Far Cry 3 med höga till extrema inställningar: 360W (372W 365W max glömde att räkna bort 7W lågenergilampa som skrivbordsbelysning).

Crysis 3 (se denna tråd)
MSAA 4x (max 4x)
Anisotroping Filtrering 16x (highest)
Texture: All settings very High
Antialiasing 2x (Max 4x)
Texture Resolution Very High (Max Very High)
All other settings High ( Max Very High)
Överklockad CPU kör på närmare 40%
421W


Hade tänkt att också dra igång en videoredigering och rendering i HD, får se.
Ja så ser det alltså ut för mig, så visst kostar det om man slår ut det över ett år.
Mvh

Lägger till:
Skrivare/skanner Canon Pixma MG5250 i standby: 5W
Äldre 22" LCD bildskärm BenQ T221WA (1680x1050): Påslagen 41W Standby: 1W

Teve:
Sony 32" LCD KDL32P3550 (widescreen 16:9): Påslagen: 85W Standby: < 1W
Äldre 32" Phlips tjockteve (widescreen 16:9): Påslagen: 71W Standby: 4W

 

Edit: Nytt bygge med nya mätvärden i inlägg #28

Redigerad av Flyfisherman

Dela detta inlägg


Länk till inlägg
Dela på andra webbplatser
Ja så ser det alltså ut för mig, så visst kostar det om man slår ut det över ett år.

Visst - men det blir ju värme av detta och det kan ju vara bra!

På vintern då ;)

 

Ps.

Kolla platt-tv,n!

Dela detta inlägg


Länk till inlägg
Dela på andra webbplatser

Nu ska vi se.

 

I vila, kring 8 W.

mmh, borde stänga av den helt under natten.

Normalt användande cirka 150-160 W

Belastad?

CPUn på max 221 W

GPU, får återkomma....

 

...270 W tycks vara max min dator kan dra.

 

Jag må säga, det skulle vara lite billigare att sitta vid en bärbar :)

vad är det jag kör? En Athlon X2 6000+ (@3Ghz) med ATI 4500 HD och en 22" skärm.

Redigerad av Monshi

Dela detta inlägg


Länk till inlägg
Dela på andra webbplatser

Visst - men det blir ju värme av detta och det kan ju vara bra!

På vintern då ;)

 

Ps.

Kolla platt-tv,n!

Har lagt till detta i första inlägget.

Tjockteven drar mindre än LCD teven, båda 32" 16:9 dock skiljer det rejält åt andra hållet i standby.

Dela detta inlägg


Länk till inlägg
Dela på andra webbplatser

Uppdaterat med Far Cry 3 i första inlägget..

Visade sig att detta kunde ge extrem skillnad om man ändrade på grafikinställningarna.

Redigerad av Flyfisherman

Dela detta inlägg


Länk till inlägg
Dela på andra webbplatser

Att titta på På Spåret på SVT 1 HD, digitalbox, TV (PV60) en enkel hemmabio drog då 196 Wh.

Skavlan drog 170 (mörkare kulisser)

Nyhetstimman på SVT...nä den är falsk, då låg en surfplatta på laddning och drar upp värdet.

 

TVn står för majoriteten. Digitalboxen drar väl 20 W ungefär och hemmabion lite mindre...

Kan mäta upp dem senare om ni vill.

 

Värmepumpen, den drar vid dessa temperaturer fina 28-29 kWh per dygn.

 

Intressant enhet förresten. x Wh per timma...

Redigerad av Monshi

Dela detta inlägg


Länk till inlägg
Dela på andra webbplatser

Ja är sade du ett sant ord; men hur många watt var den falsk på?....hehe :lol:

 

232 Wh

 

I snitt under kvällen drog TV-gruppen 196 W.

 

I vila då drar gruppen knappt 20 W.

98% av detta är digitalboxen från Canal Digital som i princip drar lika mycket "avstängd" som på.

 

Not: Skidor är dyrt att titta på.

245 W i denna stund.

Redigerad av Monshi

Dela detta inlägg


Länk till inlägg
Dela på andra webbplatser

Tack för poängen.:rolleyes:

 

421 W... okej, det är ganska mycket för en dator...

Hehe, ja du, jag vet inte vad jag skall säga annat än att du har helt rätt!

 

Först så trodde jag själv inte på vad mätaren visade; så jag tog helt enkelt och gjorde om en del av tidigare mätningar; bara för att förvissa mig om att ingenting förändrats sedan sist.

Och då jag gjorde detta så klockade jag ned grafikkortet till original - allt för att samma grundförutsättningar skulle vara så lika som möjligt.

 

Jag gjorde sedan om mätningarna tre gånger i olika lägen när jag spelade Crysis 3 och dessa varierade från 397-428W

Men en sak som direkt slog mig; jag har 2 bildskärmar varav min sekundära (den högra) har jag gadgets som bl.a. visar CPU-användningen - och där reagerade jag.

 

En CPU Intel i7 2600K överklockad som går med nästan konstant 4,2GHz och c:a 40% utnyttjandegrad!!

Som exempel nu när jag skriver detta inlägg så kör CPUn på 1600MHz dvs. multipel x16

 

Turbo Boost är en funktion i processorn Intel Core i7 2600K (bland många) som gör att den drar på mer kräm från standard max 3,4GHz till max 3,8GHz utan överklockning och om man har aktiverat XMP profilen för minnena i BIOS.

 

Klockfrekvensen ökar när behovet finns, för att genast gå ned när det är mindre belastning på CPU, så heter detta på Intels processorer Speed step.

http://en.wikipedia.org/wiki/SpeedStep

 

I mitt fall efter att ha satt CPU ratio=42 så hoppar den upp till 4,2GHz när belastning sker och att jag valt just 42 är för att vid den moderata överklockningen behöver jag inte manuellt ändra på några övriga värden som tex. Vcore etc. det sköter den om själv.

 

Men i Crysis 3 så går den i princip konstant på högvarv och CPUn då drar rejält med effekt.

Det tillsammans med överklockat grafikkort som också konstant går på 100% belastning - tror jag på goda grunder är orsaken att Crysis 3 är så mycket mer energikrävande.

 

MVh :P

 

Ps. När jag kör dessa grafikintensiva spel väljer jag alltid att köra på Windows Basic tema dvs. Ej Windows Aero.

Redigerad av Flyfisherman

Dela detta inlägg


Länk till inlägg
Dela på andra webbplatser

Jag är ju definitivt INTE förvånad. Snarare chockad. Ska en dator dra nästan lika mycket som en hel fastighets uppvärmning ligger på? Vill minnas att min värmepump ligger på en max förbrukning på 800 Watt. Vid ex en utetemp på 10 plusgrader ger den på full effekt fem gånger förbrukningen dvs den ger 4kW i värmeeffekt vid en strömförbrukning på 0,8kW. Naturligtvis sjunker verkningsgraden ju kallare det är ute.

 

Får nog vara lycklig över att jag fortfarande kör med gamla 3,0 GHz P4 som inte drar många watt.  :)

Redigerad av elektronikfreak

Dela detta inlägg


Länk till inlägg
Dela på andra webbplatser

Jag är ju definitivt INTE förvånad. Snarare chockad. Ska en dator dra nästan lika mycket som en hel fastighets uppvärmning ligger på? Vill minnas att min värmepump ligger på en max förbrukning på 800 Watt. Vid ex en utetemp på 10 plusgrader ger den på full effekt fem gånger förbrukningen dvs den ger 4kW i värmeeffekt vid en strömförbrukning på 0,8kW. Naturligtvis sjunker verkningsgraden ju kallare det är ute.

 

Får nog vara lycklig över att jag fortfarande kör med gamla 3,0 GHz P4 som inte drar många watt.  :)

 

Nja detta är ju milsvida siffror från en fastighets uppvärmning.. jag har svårt att se varför liknelsen ens kommer upp? ;)

Dela detta inlägg


Länk till inlägg
Dela på andra webbplatser

Nja detta är ju milsvida siffror från en fastighets uppvärmning.. jag har svårt att se varför liknelsen ens kommer upp? ;)

Jag förstår inte riktigt vad du syftar på i ditt inlägg. Varför skulle man inte kunna jämföra strömförbrukningen för en värmepump för en enfamiljsfastighet med en dator?

Elförbrukningen för uppvärmningen av våra bostäder för oss som bor i enfamiljsfastigheter är ju klart den största utgiften. Om sedan datorn drar lika mycket som värmepumpen så är det ju klart oroande. Det borde väl du känna till som bor i Östersund dvs i norra Sverige. 

 

Ligger utetemperaturen över nollan så lär väl pumpen gå på halvfart dvs strömförbrukningen i mitt fall ligger på 400 Watt men till skillnad mot datorn så ger dessa 400 Watt en värmeffekt på det femdubbla dvs 2.000 Watt dvs 2kW. Datorn ger ju förvisso också ett visst värmetillskott men jag har svårt att tänka mig att en dator med strömförbrukning på 400 Watt skulle ge 400 Watt i värmeenergi.

Redigerad av elektronikfreak

Dela detta inlägg


Länk till inlägg
Dela på andra webbplatser

Ok.

Jämförelser är alltid intressanta, oavsett, så visst. :)

 

Datorn ger ju förvisso också ett visst värmetillskott men jag har svårt att tänka mig att en dator med strömförbrukning på 400 Watt skulle ge 400 Watt i värmeenergi.

 

400W av vad? Mer precist så är detta en effektfaktor, vilken inte alls är uppmätt med kalibrerade instrument och även om så vore, så ger enligt termodynamikens andra huvudsats; att värme av sig själv alltid flödar från ett varmare område till det kallare dvs. effekten kommer oundvikligen att generera värme => energi vidare till omgivningen och därmed öka entropin - alla 400W.

 

Den som påstår sig kunna utvinna mer energi än tillförd energi har uppfunnit "perpetuum mobile" (evighetsmaskinen) mot termodynamikens första huvudsats.

Dela detta inlägg


Länk till inlägg
Dela på andra webbplatser

Ok.

Jämförelser är alltid intressanta, oavsett, så visst. :)

 

400W av vad? Mer precist så är detta en effektfaktor, vilken inte alls är uppmätt med kalibrerade instrument och även om så vore, så ger enligt termodynamikens andra huvudsats; att all värme flödar från ett varmare område till det kallare dvs. effekten kommer oundvikligen att generera värme => energi vidare till omgivningen och därmed öka entropin - alla 400W.

 

Den som påstår sig kunna utvinna mer energi än tillförd enrgi har uppfunnit "perpetuum mobile" (evighetsmaskinen) mot termodynamikens första huvudsats.

Du har ju införskaffat en energimätare. Vem tror du får mest värme i sitt hus? Förutsatt att husen är identiska o utetemperaturen är identisk o vi bor grannar med varandra. Du med din dator som drar 400 Watt eller jag med min luftvärmepump som även den drar 400 Watt.

Eller - vem tror du får ut mest värme per kilowatttimma?

 

Vet du hur en värmepump fungerar? Den drar nytta av värmen som finns i luften!

Dela detta inlägg


Länk till inlägg
Dela på andra webbplatser

Vet du hur en värmepump fungerar? Den drar nytta av värmen som finns i luften!

Jag vet åtminstone om grunderna i energiprinciperna enligt termodynamikens lagar...

Vart vill du egentligen komma?

 

Jag bryr mig faktiskt inte om husvärmen i detta fallet, jag startade tråden enbart för att jag (och andra för den delen) skall kunna se och ge sin info om datorns eller hemmets olika elektronik-effektförbrukare.

Mvh

Dela detta inlägg


Länk till inlägg
Dela på andra webbplatser

Datorn ger ju förvisso också ett visst värmetillskott men jag har svårt att tänka mig att en dator med strömförbrukning på 400 Watt skulle ge 400 Watt i värmeenergi.

Bara nyfiken:

Om det inte i slutändan omvandlas till värme, vart tar då energin vägen??

 

Det sägs att för en 100 W glödlampa så är 75 W värme och resten ljus.

Okej, men vad händer med det ljuset då? Den del som letar sig ut genom fönstret, och inte reflekteras in igen, är nog förlorat men det som "stannar" inomhus, blir det inte varmt av det?

 

Jag tror det var Albert som påstod att energi inte kan förstöras.

 

Edit: justerat ang. fönstret

Redigerad av Mikael63

Dela detta inlägg


Länk till inlägg
Dela på andra webbplatser

Korrekt Mikael63. Det lilla ljus som fastnar i dig, på väggen, golvet osv blir värme så småningom. Eller väldigt fort med tanke på hur snabbt ljus rör sig.

Dela detta inlägg


Länk till inlägg
Dela på andra webbplatser

Kanske kan nämna att jag också har en värmepump. En sk. luft-luft.

Vill jag värma upp huset så kör jag den i första hand och inte min dator.

Om jag av annat skäl nu startar min dator, som avger en massa värme så kommer luftvärmepumpen att behöva jobba lite mindre.

Totalt sett blir det lika varmt i huset (om det är påkallat värme dvs. för kallt annars) men det blir dyrare med dator+luftvärmepump än enbart luftvärmepump.

 

Sommartid hjälper värmen från datorn att torka upp(?) den fuktighet som annars uppstår i källarplanet.

Dela detta inlägg


Länk till inlägg
Dela på andra webbplatser

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Skapa ett nytt konto på vårt forum. Det är lätt!

Registrera ett nytt konto

Logga in

Redan medlem? Logga in här.

Logga in nu



×
×
  • Skapa nytt...