Just nu i M3-nätverket
Gå till innehåll

Testkörning av nytt grafikkort (6600 GT)


danh35

Rekommendera Poster

Du kan säkert kolla temperaturen på CPU:n med hjälp av Everest Home Edition, som du kan hämta hem härifrån: http://www.lavalys.com

 

Såvida inte Dell pelat bort sensorerna också på moderkortet?!

 

Glömde svara på detta i förra inlägget. Tyvärr har Dell tagit bort sensorerna så det är helt omöjligt att mäta tempen på CPU:n såvida man inte installerar egna sensorer.

 

Förresten, hur tolkar man temperaturen på hårddiskarna i Everest? Det finns ju tre kolumner under SMART där det står värde, sämst och data. Vad står dessa olika värden för. På värde har jag 114, på sämst 99 och på data 29. Någon som kan förklara dessa värden?

 

[inlägget ändrat 2005-02-16 14:16:35 av danh35]

Länk till kommentar
Dela på andra webbplatser

  • Svars 66
  • Skapad
  • Senaste svar
Vore intressant att höra vad någon annan med ett bra grafikkort får för temperaturer.

 

Min dator har först stått "på tomgång" några timmar idag, och då rapporterades tempen 58 för GPU:n (6800 GT @ 400/1100MHz) och 40 för omgivningen. Efter en omgång av 3DMark05 hade GPU:n ökat till 62 grader och omgivningen till 44. (Poängen blev 4314 med Forceware 71.81 och när jag hade 4X-AA och 16X-AF aktiverade genom drivarmenyn. :) Min temp är kanske i det varmaste laget även om datorn är mycket stabil. Har en papstfläkt som drar ut varmluften ur lådan, placerad ovanför grafikkortet och alldeles i höjd med processorn, för säkerhets skull...

 

Det är mycket intressant att veta vad olika slags datorkonfigurationer egentligen presterar! Exempelvis min sambos XP2800+, 768MB RAM samt Radeon 9700Pro fick i 3DMark2001SE ca 14400 poäng och alltså nästan ett par tusen högre än för din dator. Medan poängen i 3DMark03 däremot bara blev drygt 4900 mot dina 7300..!

 

Om vi jämför din ursprungliga konfiguration med den nuvarande, så fick din "gamla" dator iaf 21.6% och alltså bara kring en femtedel av prestandan i 3DMark2001SE jämfört med den "nya"..! :)

 

Länk till kommentar
Dela på andra webbplatser

Min dator har först stått "på tomgång" några timmar idag, och då rapporterades tempen 58 för GPU:n (6800 GT @ 400/1100MHz) och 40 för omgivningen. Efter en omgång av 3DMark05 hade GPU:n ökat till 62 grader och omgivningen till 44.

 

Satan i gatan så varmt. Dessa värden skulle jag nog inte ens komma upp i en varm sommardag med 3DMark03 snurrandes konstant :). Jag har ju inte ens lyckats komma upp i dina "tomgångsvärden" ännu. Rimligtvis borde din/dina hårddiskar vara ytterligare några grader varmare än denna omgivningstemperatur dock förstås beroende på var denna omgivningstemperatursensor är belägen i förhållande till hårddisken/hårddiskarna.

 

Jag testade igår att använda en extra PCI-fläkt men noterade då faktiskt högre temperaturer på grafikkortet än utan denna. Det har ju stor betydelse inte bara hur stort luftflöde man har utan även hur luftflödet går i lådan. Uppenbarligen förändrades luftströmmen på ett för grafikkortet negativt sätt med PCI-fläkten.

 

 

 

 

Länk till kommentar
Dela på andra webbplatser

Satan i gatan så varmt.

 

Ja, det är gränsfall till att jag tänkt byta ut grafikkortets orginalkylning mot en effektivare, och gärna mer tystgående sådan... men har inte brytt mig om det ännu iaf. Läste nånstans (minns inte var) att GPU:er tål mycket höga temperaturer. Och min egen GPU:s "långsamma tröskelvärde" ligger default på så högt som 120 grader! Det långsamma tröskelvärdet är den temperatur då strömtillförseln till GPU:n stoppas för att rädda livet på den.

 

En förklaring till att mitt grafikkort går så pass varmt är inte enbart p g a "den dåliga" orginalkylningen, utan även för att min låda är mycket effektivt ljudisolerad. En sak som förstås bidrar till att tempen ökar inne i den. Beställde en färdigisolerad låda från... http://asp.webconsult.dk/privat/ShowProds.asp

...men det första jag fick göra var att skära bort en massa ljudisolering. Idioterna hade nämligen täckt över varenda litet luftintag som finns i lådan..!

 

Länk till kommentar
Dela på andra webbplatser

...men det första jag fick göra var att skära bort en massa ljudisolering. Idioterna hade nämligen täckt över varenda litet luftintag som finns i lådan..!

 

Det är verkligen en utmaning att få både en tyst och en sval dator. Nu när jag kört den nya processorn ett tag så varvar processorfläkten upp och låter som en motorbåt vid hög belastning (dvs precis som förut). Det är möjligt att kylpastan börjat "ta" nu efter en tids användning. Från början trodde jag att CPU-fläkten hade stannat eftersom den i stort sett inte alls varvade upp något mer vid belastning. Jag lyckades också pressa upp GPU:n i 52 grader, vilket är rekord. Hårddiskarnas temperatur verkar dock inte drabbas speciellt hårt av grafikkortets värmeavgivning. Det högsta jag noterat är 40 grader för dessa, men oftast ligger de på 31-33 grader.

 

Från det ena till det andra. Jag noterar att HL2 (som är det enda spelet jag har ännu) vid autodetect inte väljer att köra med någon antialiasing alls och filtreringen sätter den till trilinjär. Är detta inte lite väl låga inställningar för min uppsättning?

 

Länk till kommentar
Dela på andra webbplatser

Min ena bror, som med sitt 9800Pro får runt 6000 poäng i 3DMark03, kör Doom 3 flytande i 1024*768 och med 2xAA samt 4xAF aktiverade. Enligt min uppfattning så är det spelet mer krävande än H-L 2. Och inte bara enligt min egen uppfattningen förresten... läser man spelens Read Me-filer så finner man att Doom 3 har högre hårdvarukrav.

 

När jag själv kör en autodetect i H-L 2 så hamnar inställningen på 4xAA och 8xAF. Men jag har funnit att användningen av 4xAA och 16xAF är det mest opimala för min maskin och har därför detta inställt direkt i drivarmenyn. Inställningarna man har där är ju överordnade dem i spelet.

 

När man ökar AA till 8x på ett GF 6xxx-kort så används en kombination av multi- och super-sampling. En sak som är oerhört prestandakrävande, samtidigt som bilden blir bländande vacker. Nöjer man sig med bara 4x-AA så används endast multisampling av GF 6xxx. Mig veterligen så använder sig Ati-kort aldrig av supersampling(?) Och det är i så fall säkert en delförklaring till varför dessa kort oftast brukar få högre resultat än Nvidiakort vid kvalitetsinställningar i olika benchmark.

 

Om du till exempel hade aktiverat 2xAA och 4xAF i din egen drivarmeny så tror jag ändå inte att poängen hade sjunkit alldeles katastrofalt mycket i 3DMark03. Gissningvis kanske nånstans kring ett par tusen poäng..?

 

Länk till kommentar
Dela på andra webbplatser

När jag själv kör en autodetect i H-L 2 så hamnar inställningen på 4xAA och 8xAF.

 

Tack för det mycket utömmande svaret R.N. Jag måste fråga om autodetect är det som körs automatiskt när man startar spelet eller är det något som man måste köra manuellt? Jag har antagit att det förstnämnda är fallet men eftersom jag är en total novis på området så chansar jag bara.

 

Min ena bror, som med sitt 9800Pro får runt 6000 poäng i 3DMark03, kör Doom 3 flytande i 1024*768 och med 2xAA samt 4xAF aktiverade.

 

Det låter ju som att det vore läge att dra på inställningarna något. Så du rekommenderar alltså att låsa inställningarna i drivarmenyn istället för att gå in i respektive spel och ändra inställningarna? En fördel inser jag ju genast med detta förfarande och det är ju förstås att man bara behöver göra inställningarna en gång för alla.

 

 

[inlägget ändrat 2005-02-17 16:18:14 av danh35]

Länk till kommentar
Dela på andra webbplatser

H-L 2 ställer automatiskt in det mest "optimala" vid den första starten av spelet. Ändrar man sedan själv någon inställning och det skulle råka bli för högt, så är det iaf enkelt att gå tillbaka igen till de "optimala" eftersom dessa är markerade med en asterix. Den här proceduren skiljer sig mellan olika spel, där endel har en enkel "autoknapp" som t ex Far Cry eller Doom 3...

 

Det låter ju som att det vore läge att dra på inställningarna något.

 

Det tror jag säkert att du kan göra! Tricket blir sen att hitta en bra balans mellan en bättre bildkvalité och ändå ha en BRA fps (har man en för dålig fps brukar man dö snabbt eftersom grafikkortet inte på ett tillfredsställande sätt hinner uppdatera bilden i takt med att spelförloppet fortsätter, om du förstår hur jag menar..?) Min uppfattning är att spelen brukar ställa in en hyfsad "mitt-emellan-kvalité"... det bör inte blir FÖR dålig grafik, samtidigt som mjukheten helst ska garanteras...

 

Så du rekommenderar alltså att låsa inställningarna i drivarmenyn istället för att gå in i respektive spel och ändra inställningarna?

 

Ja, efter att man har laborerat med ett flertal olika spel och sedan hittat en bra balans bildkvalité vs fps så tycker jag att man gott kan göra det. Inte bara p g a bekvämlighetsskäl utan också för att det i många spel helt enkelt inte går att välja varken graden AA och/eller AF på det sätt som man kanske önskar. Det är nog egentligen i ganska få spel tror jag, där man tillåts att ställa in dessa kvalitetsinställingar som man vill ha dem. Och därför är det smidigt och bra med valen man kan göra i drivarmenyn. Om den menyn är inställd på t ex 4xAA så visas bilden med just denna kvalité oavsett om själva spelet kanske är inställt på att bara visa 2xAA, och så vidare...

 

Länk till kommentar
Dela på andra webbplatser

Min temp är kanske i det varmaste laget även om datorn är mycket stabil.

 

Det skadar ju inte med lite extra uppvärmning när man bor i Kiruna. Det viktiga är bara att du ser till att få ut lite av denna värme i rummet så inte allt stannar i lådan :).

 

Länk till kommentar
Dela på andra webbplatser

Tackar så mycket för poängen! :)

 

Det skadar ju inte med lite extra uppvärmning när man bor i Kiruna. Det viktiga är bara att du ser till att få ut lite av denna värme i rummet så inte allt stannar i lådan :).

 

Ja det är helt sant! :) Här uppe i den allra nordligaste delen av Nordpolen så är varje extra värmekälla helt livsavgörande. ;)

 

Länk till kommentar
Dela på andra webbplatser

Ja, efter att man har laborerat med ett flertal olika spel och sedan hittat en bra balans bildkvalité vs fps så tycker jag att man gott kan göra det.

 

Det är en sak som jag har funderat på här och det är ifall AA och AF bara anstränger grafikkortet eller om det även suger CPU-kraft? På min burk är det ju fortfarande CPU-kraften som jag måste hushålla lite extra med, speciellt i HL2 som verkar vara gjort för AMD.

 

Sedan har jag en kanske lite subtil fråga: Varför väljer man alltid 4*AA och 8*AF i tester av grafikkort och inte t.ex. 4 eller 8 på båda? Är det någon "grundregel" att ha AF dubbelt så hög som AA?

 

Länk till kommentar
Dela på andra webbplatser

Det är en sak som jag har funderat på här och det är ifall AA och AF bara anstränger grafikkortet eller om det även suger CPU-kraft?

 

Det anstränger framförallt grafikkortet! Och vid kvalitetsinställningar mår kortet bättre ju högre minnesbandbredd det har (14.4GB/s för 6600GT AGP)

http://firingsquad.com/hardware/nvidia_geforce_6600_gt_agp/page2.asp

Siffran 14.4GB/s tycker jag är förvånansvärt hög med tanke på att minnesgränssnittet bara ligger på 128 bit och att antalet vertex pipelines inte är mer än tre st, och förklaringen ligger nog mycket i de höga klockfrekvenserna 500/900MHz på GPU/minne vilket medger mycket snabba beräkningar. Men minnesbandbredden hade trots allt gärna fått vara ännu högre de gånger du vill använda dig av AA & AF. :\ Exempelvis det gamla 9700Pro som sitter i min sambos dator har bara klockorna 325/620MHz men ändå en minnesbandbredd på 19.2GB/s! Och förklaringen är dess minnesgränssnitt på 256 bit och att antalet vertex pipelines är fyra st.

 

Grafikkortens prestanda, eller bättre uttryckt i detta sammanhang deras "fill rate", beror förstås på fler faktorer än jag tagit upp ovan... men på det stora hela är det som jag beskrev. Äldre spel vilka bygger på DX 8 har stor nytta av en hög minnesbandbredd medan nyare DX 9-spel, som använder pixelshading 2.0, även kräver en högre beräkningskraft eller m a o helst högre klockfrekvenser. Som du kanske kommer ihåg så slog min sambos dator (XP2800+, 9700Pro) din egen ganska rejält i DX 8-programmet 3DMark2001SE medan den åkte på storstryk i DX 9-programmet 3DMark03...

 

Du borde i alla fall utan några större bekymmer kunna använda dig av 2xAA samt 4xAF... men vill du öka bildkvalitén ytterligare, så borde du kanske inte ha varit så snabb med att avfärda rådet du fick redan tidigare i samband med förslaget om att syna ett svar till Maratonmannen närmare...

//eforum.idg.se/viewmsg.asp?EntriesId=662460#663396

 

Länk till kommentar
Dela på andra webbplatser

Tackar för, som vanligt, mycket intressant information.

 

men vill du öka bildkvalitén ytterligare, så borde du kanske inte ha varit så snabb med att avfärda rådet du fick redan tidigare i samband med förslaget om att syna ett svar till Maratonmannen närmare...

 

Jag är inte riktigt med på vad du avser här?

 

Länk till kommentar
Dela på andra webbplatser

Jag är inte riktigt med på vad du avser här?

 

Det kanske var lite väl diffust uttryckt... :P Men jag syftade bara kort och gott på idén om att titta närmare på ett 6800 i stället för 6600GT, eftersom du hade beslutat dig om att uppgradera processorn till Northwood 2.8GHz.

 

Länk till kommentar
Dela på andra webbplatser

  • 4 veckor senare...
EDIT: Drivrutinen för 6600 GT var Forceware 71.25. R.N. jag ska nog testa den nya drivrutinen du föreslog också.

 

Ville bara tipsa dig om att kolla denna tråd hos guru3d:

http://forums.guru3d.com/showthread.php?s=&threadid=128221

Tycker det verkar som att 71.84 är den mest populära hittils bland folk där. Medan många ratar de nyare 75.90 samt 76.10... Själv kör jag än så länge med 71.90. Väntar med spänning på en drivare som ger stöd för opengl 2.0! Det stödet finns redan i Atis Radeondrivare fr o m Catalyst 5.3 :)

 

Forceware:

http://downloads.guru3d.com/download.php?id=10

 

Länk till kommentar
Dela på andra webbplatser

Tycker det verkar som att 71.84 är den mest populära hittils bland folk där.

 

Tackar för tipset, jag ser att denna drivare även ligger ute på Nvidias hemsida nu.

 

Väntar med spänning på en drivare som ger stöd för opengl 2.0!

 

Mitt kort verkar dock bara stödja Opengl 1.5.

 

Jag förstår förresten inte vilka drivare det är Guru3D får tillång till. Där verkar det ju finnas långt fler drivrutiner än vad Nvidia någonsin har publicerat. På Nvidias hemsida så hoppas ju flera steg över så att säga. Vet du hur det här fungerar?

 

Länk till kommentar
Dela på andra webbplatser

Mitt kort verkar dock bara stödja Opengl 1.5.

 

Jag har förhoppningen om att det bara är den nuvarande drivaren som inte stödjer högre version än så. Här kan man skumma igenom en pdf-fil som handlar om stödet för opengl i Geforce 6:

http://download.nvidia.com/developer/presentations/2004/6800_Leagues/6800_Leagues_OpenGL_exts.pdf

 

Och en annan för just opengl 2.0:

http://download.nvidia.com/developer/presentations/GDC_2004/OpenGL2.pdf

Men säger väl iofs kanske inte så mycket...

 

 

Länk till kommentar
Dela på andra webbplatser

danh35 skrev:

 

Jag förstår förresten inte vilka drivare det är Guru3D får tillång till. Där verkar det ju finnas långt fler drivrutiner än vad Nvidia någonsin har publicerat.

Hoppar in med min egna lilla fundering till detta spörsmål.

Nvidia "läcker" drivrutiner efterhand till Gurun, för där står entusiasterna/volontärerna i första ledet. På detta sätt får Nvidia sina drivrutiner betatestade av de verkliga brukarna.

 

Länk till kommentar
Dela på andra webbplatser

Jag har förhoppningen om att det bara är den nuvarande drivaren som inte stödjer högre version än så.

 

Okay, så det sitter i drivaren och inte i hårdvaran som är fallet med DirectX enligt vad du förklarat för mig tidigare. Jag trodde det fungerade på samma sätt.

 

Länk till kommentar
Dela på andra webbplatser

Nvidia "läcker" drivrutiner efterhand till Gurun, för där står entusiasterna/volontärerna i första ledet.

 

Det låter ju som en rimligt förklaring. Så måste det ju vara!

 

Länk till kommentar
Dela på andra webbplatser

Jag trodde det fungerade på samma sätt.

 

Jo det fungerar väl på ungefär samma sätt, men jag är inte helt på det klara över vilket stöd som faktiskt finns i hårdvaran i GF 6-serien. Det var därför jag sa att jag "har förhoppningen" om att det bara är stöd i själva drivaren som saknas. Mig veterligen så har iaf Ati hårdvarustöd för opengl 2.0 i sina konkurrerande X800-kort. EDIT: Konkurrerar med 6600GT gör Ati iofs med X700Pro, vilket jämförelsevis är ett sämre val.

 

Opengl är en viktig motpol till Microsofts Direct3D! Och många av de större speltitlarna använder just opengl. Lucasarts brukar ha det i sina Starwarsspel (t ex Kotor 1 & 2), har för mig att Medal of Honor PA har det, och t o m det oerhört snygga och mycket krävande Doom 3 har opengl i stället för D3D. Bara för att ta några exempel...

 

[inlägget ändrat 2005-03-15 18:32:59 av RN]

Länk till kommentar
Dela på andra webbplatser

Okay, nu lärde du mig en massa nytt igen! :)

 

Från det ena till det andra så måste jag rapportera att jag vid spelande ett antal gånger har råkat ut för att datorn hoppar ur spelet och återgår till skrivbordet. Kan ett sådant fenomen ha med nätdelen att göra eller är det sannolikt att det beror på andra faktorer? Det är ju väldigt irriterande när det händer i alla fall.

 

Länk till kommentar
Dela på andra webbplatser

Kan ett sådant fenomen ha med nätdelen att göra eller är det sannolikt att det beror på andra faktorer?

 

Mja, visst kan det det, men det kan lika gärna bero på nåt annat. Är det samtliga spel du testar som uppför sig så? Ifall det bara är ett enda spel som hoppar ur så är det nog inte nätagget det beror på. Då kanske det bara är spelet som är instabilt, kolla efter patchar. Att använda senast tillgänliga grafikdrivare är också att rekommendera. För att säkerställa att den är så LITE buggig som möjligt. Varje ny drivarrelease innehåller alltid buggfixar för att funka så bra som möjligt ihop med diverse spel. Testa Nvidias senaste officiella 71.84:

http://www.nvidia.com/object/winxp_2k_71.84.html

Officiella releaser brukar vara ett tryggt val. Men även denna senaste version innehåller fortfarande saker att fixa (så är det ju alltid). Läs "Release Notes" under rubriken "Open Issues in Version 71.84":

http://download.nvidia.com/Windows/71.84/NVWinRel70Notes_7184.pdf

Där står det många punkter som är kvar att fixa för olika kortmodeller. Bland annat står det för GeForce 6 Series och Win XP: "Lightning issue with Half-Life 2." m m... Men utan att babbla för mycket så är iaf svaret: Ja, det kan bero på nätdelen, men det kan precis lika gärna bero på någonting helt annat! Kolla t ex minnena med Memtest86:

http://www.memtest86.com/

Eller testa att bara sänka grafikinställningarna i spelet, eller öka aperture size i bios för att bereda mer plats för speltexturerna... listan kan göras lång. Pröva koppla ur någon "onödig" och strömkrävande komponent för att testa om datorn uppför sig stabilare sen...

 

Det här var iaf några idéer som poppade upp i skallen på mig. :)

 

Länk till kommentar
Dela på andra webbplatser

Tack för tipsen R.N. Väldigt bra råd faktiskt, som jag ska testa ifall det händer igen.

 

Är det samtliga spel du testar som uppför sig så?

 

Det har bara hänt på HL2 vilket beror på att jag ännu inte testat något annat krävande spel. Och när jag tänker efter så tror jag faktiskt aldrig att det har hänt med den drivare som jag använder nu, dvs 67.03 och sedan jag installerade om spelet och defragmenterade hårddisken. Jag tror nog mer på att det var defragmenteringen och ominstallationen som förbättrade saken än drivaren. När det hände så använde jag version 71.25 tror jag det var. Jag har också ökat aperture size från 64 MB till 128 MB. Det är ju lite märkliga krascher eftersom det inte dyker upp något felmeddelande eller att datorn hänger sig. Spelet hoppade bara tillbaka till Windows helt enkelt. Men tydligen är jag inte ensam om just detta fenomen har jag sett på diverse forum. Kan det inte vara bakgrundprogram som stör också, t.ex. ett antivirusprogram som plötsligt får för sig att hämta uppdateringar? För jag har för mig att hela spelet flöt sämre med diverse ljudloopar just innan det hoppade ur och om andra program börjar ta en massa resurser så kanske det inte är så lyckat just när man spelar. Stänger du själv av antivirusprogram vid spel, eller fungerar det för dig att ha dem igång? Nu har du ju betydligt mer att köra med men det kan ändå vara intressant att veta.

 

När du nu är inne på det så skulle man ju faktiskt ha skaffat sig några andra spel snart. Du tyckte ju själv inte att HL2 var någon speciellt gedigen och väl fungerande produkt. Novis som man är när det gäller spel så vet jag dock inte vad som kan vara värt att införskaffa. Du får gärna nämna ett par titlar som du själv gillar och anser vara välgjorda spel, så kan jag ju kolla närmare på dem på nätet.

 

[inlägget ändrat 2005-03-16 20:24:33 av danh35]

Länk till kommentar
Dela på andra webbplatser

Arkiverat

Det här ämnet är nu arkiverat och är stängt för ytterligare svar.

×
×
  • Skapa nytt...