Just nu i M3-nätverket
Gå till innehåll

Går grafikkortet alltid på max vid spel?


danh35

Rekommendera Poster

Hej!

 

Jag undrar om någon vet ifall grafikkortet alltid ger allt vad det orkar oavsett vilket spel man matar det med, dvs. resulterar ett mindre prestandakrävande spel bara i att fps blir högre men att grafikkortet ändå anstränger sig till max och går lika varmt som om man matade det med ett mer krävande spel?

 

Om så är fallet, finns det något sätt att begränsa belastningen så att det inte spottar ur sig högre fps än nödvändigt, och därmed blir svalare och drar mindre ström?

Länk till kommentar
Dela på andra webbplatser

Grafikkort jobbar bara så mycket som krävs för att lösa uppgiften de har framför sig. Det grafikkortet gör är rena matematiska uppgifter, ger man det massor med komplexa uppgifter får det jobba mer. Enkelt sagt.

 

Enda sätten att begränsa hur mycket det arbetar/hur mycket ström det drar är att antingen dra ned frekvensen på GPU och dessa minne eller köra spelen i lägre upplösning och/eller sämre kvalitetsinställningar.

men som du säger, har du ett spel som kan dra nytta av hög uppdateringshastighet försöker kortet möta dessa önskemål så gott de kan.

 

Bäst är givetvis om grafikkortet får vad det önskar samt att det finns en marginal. Aldrig bra att belasta ett nätagg nära dess max under längre tid.

Länk till kommentar
Dela på andra webbplatser

Okay, du menar alltså att det inte jämt är så att kortet ökar uppdateringshastigheten i takt med att övriga uppgifter blir enklare. Det var det jag trodde, och att kortet därmed i princip alltid skulle gå på max oavsett spelets komplexitet.

Länk till kommentar
Dela på andra webbplatser

Beror på spel...

spelar du Sims på ett nytt grafikkort finns chansen att det inte behöver arbeta för fullt men drar du igång ett FPS-spel så eftersträvas nog en så hör uppdateringshastighet som möjligt.

Men att uppdatera skärmen oftare än vad skärmen i sig uppdateras finns det ingen större poäng i, kanske att grafikkorten med andra ord nöjer sig med 60 Hz på en skärm som klarar just 60 Hz. 60 Hz är vanligen vad skärmar klarar av.

 

Du får testa :)

Länk till kommentar
Dela på andra webbplatser

Om man aktiverar Vsync så strävar grafikkortet efter att ge samma fps som skärmens uppdateringsfrekvens – vid 60Hz försöker kortet då ge 60 fps. Detta ger en stabilare och behagligare bild, men tar en del prestanda. Men alltså, i ett gammalt spel, så istället för att kortet matar 357 fps ligger det då på 60...

 

Efter ca 60-70 fps börjar ögat sluta hinna uppfatta uppdateringarna (och de som t ex påstår att de behöver 120Hz (och fps) i online-shooters snackar bara goja).

Länk till kommentar
Dela på andra webbplatser

Kul att du är tillbaka RN :). Har du sett min tråd angående HD5870 förresten där jag undrar vilket fabrikat som är att föredra av det kortet:

//eforum.idg.se/topic/221708-vilket-hd5870-kort-ar-bast/

 

Jag har nu i alla fall beställt ett Sapphire Vapor-X och tiden lär väl utvisa om det blev ett bra eller dåligt val. Det verkar ju vara lite delade meningar kring Sapphire som grafikkortstillverkare, men genom att använda sökfunktionen här på Eforum så lyckades jag luska ut att du inte har någon större invändning mot det fabrikatet.

Länk till kommentar
Dela på andra webbplatser

Kul att du är tillbaka RN :). Har du sett min tråd angående HD5870 förresten där jag undrar vilket fabrikat som är att föredra av det kortet:

http://eforum.idg.se...0-kort-ar-bast/

 

Jag har nu i alla fall beställt ett Sapphire Vapor-X och tiden lär väl utvisa om det blev ett bra eller dåligt val. Det verkar ju vara lite delade meningar kring Sapphire som grafikkortstillverkare, men genom att använda sökfunktionen här på Eforum så lyckades jag luska ut att du inte har någon större invändning mot det fabrikatet.

 

Tjenare! Det var faktiskt mest en tillfällighet som gjorde att jag kollade forumet och då råkade den här tråden finnas länkad på förstasidan... ;) Kanske återkommer lusten till forumet nån gång – var så less där ett tag, och är det kanske fortfarande, så jag kunde spy (på gamla struldatorer)... Men hursomhelst så, tackar för förtroendet! ^_^

 

Men, nä, varför skulle Sapphire vara kasst..? Yngsta brorsan använder ett Sapphire X1950Pro AGP, svägerskan HD3850 AGP, svågern HD5850 Vapor-X och jag själv då ett HD5870... samtliga är från Sapphire.

 

I ärlighetens namn så skickade jag för några år sen tillbaka X1950Pro:t och fick det utbytt, men det var p g a att jag hade varit en klant och klockat sönder minnet på det. :P

 

Dessa kort är det jag som har köpt och som sedan har fått gå i arv, med undantag från svågerns – vilket han för några månader sedan köpte efter mitt förslag. Han uppgraderade från ett GF 8800GTS och är enligt vad jag har förstått helnöjd...

 

Idag finns ju också GTX 4xx från Nvidia – men det är en annan historia...

Länk till kommentar
Dela på andra webbplatser

Detta ger en stabilare och behagligare bild, men tar en del prestanda. Men alltså, i ett gammalt spel, så istället för att kortet matar 357 fps ligger det då på 60...

´

Hur kan det komma sig att det tar prestanda att låsa uppdateringsfrekvensen till ett lägre värde (om vi antar att det är ett lättdrivet spel som annars skulle ge betydligt högre fps) genom att aktivera Vsync?

Länk till kommentar
Dela på andra webbplatser

Kanske återkommer lusten till forumet nån gång – var så less där ett tag, och är det kanske fortfarande, så jag kunde spy (på gamla struldatorer)... Men hursomhelst så, tackar för förtroendet! ^_^

Visst, jag har full förståelse för att du ville ta en paus efter allt arbete du lagt ned på att hjälpa folk på det här forumet. Det kan nog kräva mer än man tror att försöka komma tillrätta med folks gamla struldatorer. Och det är ju dessutom inte alltid det lyckas heller oavsett hur mycket kraft och vilja att hjälpa man har. Men hursomhelst, det kul att höra att du lever i alla fall och att du trots allt inte kunde motstå frestelsen att kika in här. Eller kände du på dig att jag hade skrivit något kanske? ;)

Länk till kommentar
Dela på andra webbplatser

´

Hur kan det komma sig att det tar prestanda att låsa uppdateringsfrekvensen till ett lägre värde (om vi antar att det är ett lättdrivet spel som annars skulle ge betydligt högre fps) genom att aktivera Vsync?

Utan vsync så sänder grafikkortet bilden till skärmen innan den är helt hel, den sänds under uppbyggnad, vilket leder till att gammal bildinformation ligger kvar och orsakar "tearing". Detta är sedan gammalt ett försök att matcha CRT-skärmens svepande uppritning och det faktum att skärmen aldrig visar hela bilden i realtid – den börjar rita från övre vänstra hörnet och slutar i nedre högra, eller hur... Men paradoxalt nog är problem med tearing värre på LCD-skärmar fastän dessa inte ritar svepande (en röd punkt lyser röd tills den visas i annan färg, till skillnad från CRT:ns blinkande).

 

Med vsync så sänder grafikkortet hela bilder istället. Och det säger sig självt att det är jobbigare att vänta på och sända hela bilden till skärmen istället för bara stegvisa bitar av den. För att sen få en mjukare övergång av bilder med vsync så bör man även aktivera triple buffering – av vilket bilden då ligger i tre minnesbuffertar i grafikminnet istället för som normalt bara två. Och om grafikkortet då har låg minnesmängd blir det förstås jobbigare...

 

Personligen kan jag inte spela utan att först aktivera vsync – tål inte att bilden bara fladdrar och trasas sönder hela tiden...

Länk till kommentar
Dela på andra webbplatser

Visst, jag har full förståelse för att du ville ta en paus efter allt arbete du lagt ned på att hjälpa folk på det här forumet. Det kan nog kräva mer än man tror att försöka komma tillrätta med folks gamla struldatorer. Och det är ju dessutom inte alltid det lyckas heller oavsett hur mycket kraft och vilja att hjälpa man har. Men hursomhelst, det kul att höra att du lever i alla fall och att du trots allt inte kunde motstå frestelsen att kika in här. Eller kände du på dig att jag hade skrivit något kanske? ;)

Det var ju ett lustigt litet sammanträffande att man kikade in precis i samma veva som du själv visade ett livstecken. :D

 

mm, datorer fungerar aldrig, det är alltid nånting som är fel med dem. Och även om man har fixat så att de är uppe och rullar så är det bara en tidsfråga innan de kraschar och blir obrukbara igen, och cykeln med fixande börjar på nytt igen. Sådär går det runt runt...

 

Angående forumet så avsade jag mig först rollen som moderator, tänkte att det kanske skulle kännas mindre som ett tvång då... och visst, jag började trivas lite bättre som ickemoderator... men så från ena sekunden till den andra blev det ändå så att jag tänkte "nä, nu skiter jag i det här!"... :mellow:

Länk till kommentar
Dela på andra webbplatser

Okay, tack då förstår jag. Vad har du för minnesmängd i ditt HD5870 och räcker det till? Jag ser att börjar dyka upp allt fler kort med 2MB, men jag orkade inte vänta på att de skulle få tag i den versionen av Sapphire Vapor-X så jag har beställt 1MB-varianten. Vet inte hur långt 1MB räcker med Vsync och triple buffering (upplösningen 1680*1050), men det vet du förstås ifall du har 1MB-varianten? Har du Vapor-X också förresten?

 

När du ändå råkar vara här precis som jag själv vaknat till liv igen så skulle det vara kanon om du kunde reda ut lite det här med ljudkort och ljudstandarder, se följande tråd:

//eforum.idg.se/topic/221933-ljudkort-och-ljudstandarder/

 

Datorn jag ska köpa har de där klassiska Realtek-kretsarna som jag har för mig att du hatar :). Har de möjligen blivit bättre med tiden, eller är det samma dynga nu?

 

Vad är det förresten som är dåligt med dessa kretsar (om de nu fortfarande är dåliga)? Är det att de är inkompatibla med många spel (dvs. så att man får bekymmer med ljudet) eller är det att de inte stöder de standarder som många spel använder så att man får en sämre ljudupplevelse? Eller kanske en kombination av båda.

Länk till kommentar
Dela på andra webbplatser

mm, datorer fungerar aldrig, det är alltid nånting som är fel med dem. Och även om man har fixat så att de är uppe och rullar så är det bara en tidsfråga innan de kraschar och blir obrukbara igen, och cykeln med fixande börjar på nytt igen. Sådär går det runt runt...

 

Hahaha, ja det är inte konstigt att man ibland längtar efter semester på en öde ö där det inte finns några datorer. Tänk vad stressnivån i huvudet skulle sjunka om man slapp gruva sig för när nästa problem ska komma.

Länk till kommentar
Dela på andra webbplatser

Man kommer mycket långt med versionen på 1 gigabyte (GB, som jag förstår att du egentligen menade och inte MB). Men det hade garanterat ändå avhjälpt med 2 GB istället och detta i 1920x1200 och med alla de tunga grafikmoddar som jag jämt söker efter – de mest extrema för Fallout 3 exempelvis... Eller Stalker Complete som ett annat exempel. Men i 1680x1050 är 2GB knappast troligt en livsnödvändighet...

 

Mitt HD5870 är från den första serien och före det att några "custom models" ännu fanns. Således är det inte Vapor-X. Egentligen hade jag tänkt vänta på någon "custom" men ett av mina HD4850 (från HiS) i Crossfire-riggen gick sönder så...

 

Mitt har således referenskylaren men det skulle visa sig att det gjorde ingenting för den hörs inte nämnvärt ändå..! Och nog har man hunnit avnjuta DX11-spel! :) Stalker: Call of Pripyat exempelvis... Fast numera gör detta HD5870 inte mycket nytta då lillebrorsan har lett mig i fördärvet som fick mig att fastna med WoW. :P Fast enligt wiki ska kommande expansionen Cataclysm ha "experimental DX 11-support" så kanske kommer kortet snart att göra mera nytta igen..? :D

Länk till kommentar
Dela på andra webbplatser

Tack RN, för en mycket bra förklaring av varför Vsync drar mer prestanda!

Länk till kommentar
Dela på andra webbplatser

Man kommer mycket långt med versionen på 1 gigabyte (GB, som jag förstår att du egentligen menade och inte MB).

Ja med 1 MB så borde det ha blivit ganska kraftigt begränsande :)

 

Jag upptäckte nu däremot en möjligen ganska allvarlig begränsning hos det moderkort som ingår i datorn jag har beställt. Det är nämligen så att när man aktiverar SATA3 och USB 3.0 så kommer PCIe-porten bara att gå i x8 istället för x16. Det är förstås ett X58-baserat moderkort som gäller om man ska bygga ett kompromisslöst system, men den här flaskhalsen kändes ju ändå lite väl snopet. Men det är inte för sent att ändra sig än, då grafikkortet inte har anlänt ännu och datorbygget därför inte är påbörjat i den lokala butiken. Moderkortet är förresten ett Gigabyte GA-P55-UD4.

Länk till kommentar
Dela på andra webbplatser

Jag upptäckte nu däremot en möjligen ganska allvarlig begränsning hos det moderkort som ingår i datorn jag har beställt. Det är nämligen så att när man aktiverar SATA3 och USB 3.0 så kommer PCIe-porten bara att gå i x8 istället för x16.

I så fall så, den begränsningen är nog inte att betrakta som särskilt allvarlig utan är nog nånting som du i realiteten inte kommer märka av så värst... Det är inte i PCIe-porten som prestandaförluster i spel märks i första hand utan långt därifrån.

Länk till kommentar
Dela på andra webbplatser

I så fall så, den begränsningen är nog inte att betrakta som särskilt allvarlig utan är nog nånting som du i realiteten inte kommer märka av så värst... Det är inte i PCIe-porten som prestandaförluster i spel märks i första hand utan långt därifrån.

 

Okay, då kan jag kanske vara lugn på den punkten. Kortet var förresten ett Gigabyte GA-P55A-UD4 (dvs. ett "A" hade fallit bort). I övrigt känns det som att detta är ett bra och genomtänkt moderkort. Jag hade först valt GA-P55A-UD3 men bytte upp mig ett snäpp.

Länk till kommentar
Dela på andra webbplatser

Okay, då kan jag kanske vara lugn på den punkten. Kortet var förresten ett Gigabyte GA-P55A-UD4 (dvs. ett "A" hade fallit bort). I övrigt känns det som att detta är ett bra och genomtänkt moderkort. Jag hade först valt GA-P55A-UD3 men bytte upp mig ett snäpp.

Jag använder också ett Gigabyte... :thumbsup: Ett EP45-UD3LR vilket jag köpte för att ersätta ett Asus P5E Deluxe. Det senare ville nämligen inte fungera ordentligt med mitt då rykande färska HD5870. :thumbsdown:

Länk till kommentar
Dela på andra webbplatser

Jag använder också ett Gigabyte... :thumbsup: Ett EP45-UD3LR vilket jag köpte för att ersätta ett Asus P5E Deluxe. Det senare ville nämligen inte fungera ordentligt med mitt då rykande färska HD5870. :thumbsdown:

 

Härligt, då verkar ju Gigabyte och HD5870 trivas bra ihop :thumbsup:

Jag hoppas förresten att ljudkortet ryms på mitt moderkort. Den översta PCIe x1-sloten rymmer bara ett kort kort pga. kylaren. Nästa plats kommer förmodligen att drunkna under grafikkortet, medan den 3:e platsen, dvs. den längst ned, förhoppningsvis kommer att fungera, se bild här:

http://www.gigabyte.com/products/product-page.aspx?pid=3436#

Länk till kommentar
Dela på andra webbplatser

Härligt, då verkar ju Gigabyte och HD5870 trivas bra ihop :thumbsup:

Jag hoppas förresten att ljudkortet ryms på mitt moderkort. Den översta PCIe x1-sloten rymmer bara ett kort kort pga. kylaren. Nästa plats kommer förmodligen att drunkna under grafikkortet, medan den 3:e platsen, dvs. den längst ned, förhoppningsvis kommer att fungera, se bild här:

http://www.gigabyte.....aspx?pid=3436#

Jag tror inte att det kommer bli några problem med det där... :thumbsup:

Länk till kommentar
Dela på andra webbplatser

Jag tror inte att det kommer bli några problem med det där... :thumbsup:

Man får hoppas det, lite tajt ser det ju ut att bli till grafikkortet. Men å andra sidan behöver det väl inte vara så stort avstånd för att fläkten ska få nog med luft. Vet du förresten om man skulle kunna sätta ljudkortet i den andra grafikkortsplatsen istället? Det spelar väl ingen roll att det är ett PCIe x8.

Länk till kommentar
Dela på andra webbplatser

Vet du förresten om man skulle kunna sätta ljudkortet i den andra grafikkortsplatsen istället?

I teorin är det inga problem, men man måste nästan testa först... :unsure:

Länk till kommentar
Dela på andra webbplatser

I teorin är det inga problem, men man måste nästan testa först... :unsure:

Man borde väl få Crossfire-effekt om man kopplar in ljudkortet i den andra PCIe x8-platsen. För jag antar att ALchemy också kan översätta från Ryska till låt säga OpenCL, eller vad som nu skulle krävas för att det ska fungera :D

Länk till kommentar
Dela på andra webbplatser

Man borde väl få Crossfire-effekt om man kopplar in ljudkortet i den andra PCIe x8-platsen. För jag antar att ALchemy också kan översätta från Ryska till låt säga OpenCL, eller vad som nu skulle krävas för att det ska fungera :D

Du kan ju det där hör jag! :lol: Helt rätt!! :D

Länk till kommentar
Dela på andra webbplatser

Arkiverat

Det här ämnet är nu arkiverat och är stängt för ytterligare svar.

×
×
  • Skapa nytt...