Just nu i M3-nätverket
Gå till innehåll

Vilka optimeringar har ni testat?


danh35

Rekommendera Poster

Hej!

 

Jag har suttit och läst lite på följande sida om olika optimeringar:

 

http://www.tweakguides.com/

 

Ganska snart insåg jag dock att det skulle ta minst en månad att läsa igenom och genomföra alla åtgärder som anses som "essential" i dessa guider. Bl.a. rekommenderas man att börja med att läsa igenom en 175 sidor lång guide vid namn "TweakGuides Tweaking Companion". Kan laddas ner här:

 

http://www.tweakguides.com/TGTC.html

 

Nu undrar jag vilka optimeringar ni som spelar mycket och vill kräma ut det absolut sista ur era datorer brukar göra? Hur bra resultat har det gett? Kanske man kan sammafatta de viktigaste åtgärderna här så slipper man läsa igenom hela den här digra manualen.

 

F.ö. tycker jag att den information som står att finna på www.tweakguides.com verkar rätt så välskriven och relevant. Någon som har någon annan åsikt om den här websidan?

 

 

 

 

Länk till kommentar
Dela på andra webbplatser

Hej danh35!

 

Klämma ur de sista vet jag inte precis om jag brukar göra... men har iaf några "standardgrejer" jag brukar ställa in...

 

Bios:

Fast writes OFF

Aperture size 128MB (oavsett ifall gfx-kortet har 128 el 256MB).

 

Ökar fsb:n några steg så länge biosen tillåter separat klocka för kommunikationen mellan gfx-kort -> RAM -> processor. Annars är risken överhängande att man tar sönder sin hårddisk exempelvis. Är egentligen ingen större anhängare av överklockning men att öka bara litegrann innebär oftast ingen fara alls. Min egen fsb är iaf för tillfället ställd till 209.

 

Men att öka fsb:n är ju inget att tänka på för din del, åtminstone inte ifall du har kvar din Dell fortfarande. Och med anledning av detta kan du faktiskt pröva ha Fast writes ON. Är datorn fortfarande stabil då så är ju bra eftersom det faktiskt ger en liten, om än mkt blygsam, ökning.

 

Windows:

Senaste DX naturligtvis.

Senast tillgängliga drivare för moderkortets chipset, gfx-kort och ljudkort (dina chipsetdrivare hittas förstås hos Dell). Ljudet tänker kanske inte alla på trots att även det är mkt viktigt för spelprestandan. Vad jag minns har du ett Audigy 2 Value. Därför föreslår jag att du använder drivaren som är daterad sep 2005 vilken hämtas här:

http://se.europe.creative.com/support/downloads/

Trots att den räknas som beta har den åtminstone WHQL-cert. Har använt den själv säkert ett par månader och upplever den som mkt stabil och bra. Tänk iaf på att det inte rör sig om en uppdatering i egentlig mening utan en helt ny release, vilket innebär att din nuvarande helst bör avinstalleras först...

 

Förut brukade jag även hålla på och testa olika avancerade inställningar för gfx-kortet (i drivarmenyerna) men ids inte hålla på med det längre... tycker inte det ger särskilt mkt ändå utan "default" brukar funka bra för det mesta. Nvidia har ju t o m olika profiler för olika spel där men jag brukar ofta inte ens välja dem heller. Grafikinställningar väljer jag i stället ifrån respektive spels menyer, och går det att välja exemplvis AA och/eller AF därifrån så går det. Spel vars menyer inte tillåter ändringar av dessa kvalitetsinställningar, får ibland hursomhelst diverse grafikfel, ifall man ställer in dem från grafikkortets menyer...

 

Är hungrig och rätt sömning för tillfället och har därför säkert glömt vad jag mer brukar göra, men i så fall gör jag en "edit" senare... ;-)

 

Länk till kommentar
Dela på andra webbplatser

danh35 skrev:

 

"TweakGuides Tweaking Companion". Kan laddas ner här:

 

http://www.tweakguides.com/TGTC.html

Jag har läst igenom den lite snabbt och mitt första intryck är att den innehåller ganska många fel och konstigheter. Ett och annat är bra men det är inget referensverk om man säger så.

 

-nisse

Failure is not an option!

It comes bundled with the software.

 

Länk till kommentar
Dela på andra webbplatser

Hej RN!

 

Det är trevligt att se att du är på hugget fortfarande och att du, som alltid, har intressanta saker att komma med.

 

Men att öka fsb:n är ju inget att tänka på för din del, åtminstone inte ifall du har kvar din Dell fortfarande. Och med anledning av detta kan du faktiskt pröva ha Fast writes ON.

 

Visst har jag kvar min Dell, du skulle nog märka om jag hade bytt bort den eftersom i så fall skulle jag ha startat en tråd i stil med "Ny värstingdator skall byggas" :). Nä, kanske ingen värsting men det vore ju faktiskt intressant att byggga något kring AMD FX-57 och ett GeForce 7800GTX eller liknande. Men om jag väntar ett minst ett halvår till (vilket jag nog tänker göra) så kanske dessa grejer är ute.

 

Angående Fast writes så går det inte att ställa något sådant i mitt bios. Så antingen är det alltid OFF, eller så är det alltid ON. Jag har dock för mig att jag läst någonstans att det alltid är OFF.

 

Vad jag minns har du ett Audigy 2 Value. Därför föreslår jag att du använder drivaren som är daterad sep 2005 vilken hämtas här:

 

Visst, stämmer bra. Tackar för tipset.

 

 

Grafikinställningar väljer jag i stället ifrån respektive spels menyer, och går det att välja exemplvis AA och/eller AF därifrån så går det. Spel vars menyer inte tillåter ändringar av dessa kvalitetsinställningar, får ibland hursomhelst diverse grafikfel, ifall man ställer in dem från grafikkortets menyer...

 

Aha, tidigare så gjorde du precis tvärtom vad jag kan dra mig till minnes, se t.ex. den här tråden:

 

//eforum.idg.se/viewmsg.asp?EntriesId=675188#680948

 

 

 

 

 

Länk till kommentar
Dela på andra webbplatser

Jag har läst igenom den lite snabbt och mitt första intryck är att den innehåller ganska många fel och konstigheter.

 

Okay, jag tror dig! Det gäller nog att inte köpa precis allt man läser i såna här guider.

 

Länk till kommentar
Dela på andra webbplatser

Tackar danh35 för poängen! :-)

 

Nä, kanske ingen värsting men det vore ju faktiskt intressant att byggga något kring AMD FX-57 och ett GeForce 7800GTX eller liknande. Men om jag väntar ett minst ett halvår till (vilket jag nog tänker göra) så kanske dessa grejer är ute.

 

Redan idag skulle jag ha föreslagit dig en Athlon X2 i stället för FX-57. Se t ex tråden nedan där diskussionen helt plötsligt började handla om bland annat det:

//eforum.idg.se/viewmsg.asp?EntriesId=781856#782011

 

Och om ett halvår är det förmodligen inte 7800GTX som gäller längre, fast kanske ur ett pris/prestanda-alternativ (Menar inte principen "bäst prestanda för pengarna", utan då kanske det kortet helt enkelt är näst bäst av Nvidias modeller. Och vi ska absolut inte glömma att Ati också finns).

 

Aha, tidigare så gjorde du precis tvärtom vad jag kan dra mig till minnes, se t.ex. den här tråden:

 

//eforum.idg.se/viewmsg.asp?EntriesId=675188#680948

 

Hjälp! Nu blev jag rädd att du hittat nåt där jag motsäger mig själv..! Men det tycker jag inte riktigt att jag gör. Och även om jag brukar ha rätt bestämda åsikter om saker och ting så handlar det oftast inte om några bergfasta principer. Principer av det slaget tycker jag gör en människa trångsynt... nästan en tro på att allting är antingen svart eller vitt utan några andra nyanser däremellan. Det finns oftast ingenting som är antingen "si eller så", det brukar alltid finnas minst ett tredje alternativ, t o m när det handlar om datorer som bara kan utföra beräkningen "ett eller noll; på eller av". Fast filosofi hör förstås inte hit. ;-)

 

Länk till kommentar
Dela på andra webbplatser

Hjälp! Nu blev jag rädd att du hittat nåt där jag motsäger mig själv..!

 

Det är nog ingen fara. Jag håller med om att det är dumt att hålla för hårt på principer bara för sakens skull.

 

 

det brukar alltid finnas minst ett tredje alternativ, t o m när det handlar om datorer som bara kan utföra beräkningen "ett eller noll

 

Jaså, vilket alternativ skulle det kunna vara? ;)

 

Länk till kommentar
Dela på andra webbplatser

Jaså, vilket alternativ skulle det kunna vara?

 

T ex alternativ 10 eller 01 i stället för antingen 1 eller 0 såklart..! ;)

 

Länk till kommentar
Dela på andra webbplatser

Har använt den själv säkert ett par månader och upplever den som mkt stabil och bra.

 

Upplevde du några förbättringar jämfört med den gamla drivrutinen? Vad är OpenAL förresten? Det verkar ju vara stöd för detta som är den stora nyheten i denna drivare. Är det bara riktigt nya spel som stöder det?

 

När vi nu är inne på ljudkort så läste jag följande om SB X-Fi i en katalog från Dustin:

 

Världens snabbaste ljudprocessor för snabbare spel, motsvarande en P4 3.6 GHz och 24 gånger mer kraftfull än SB Audigy. Ger avlastning på datorns processor, vilket ger högre bildhastighet i spel.

 

Vad är det som blir snabbare? Detta ljudkort kan väl inte höja fps:en nämnvärt jämfört med mitt Audigy 2 Value? Och att snabba upp ljudet, saknar för mig relevans. Ljudet kan ju inte gå snabbare med ett annat ljudkort.

 

 

Länk till kommentar
Dela på andra webbplatser

Upplevde du några förbättringar jämfört med den gamla drivrutinen? Vad är OpenAL förresten?

 

Ja det gjorde jag, annars skulle jag nog inte ha fortsatt använda den. I t ex Quake 4 går det att välja OpenAL-ljud vilket ger ett helt enastående resultat. Även i den relativt nya dussinskjutaren Pariah kan man välja OpenAL, även om ljudet i det spelet ändå inte är i närheten lika snyggt som i Quake 4. Här finns en helt lista förresten...

http://www.openal.org/titles.html

 

Min tolkning angående nämnda drivare är iaf att den helt enkelt ger ljudkortet stöd för OpenAL-applikationer innehållandes bl a EAX 5. Och Quake 4 stödjer just EAX 5...

http://www.soundblaster.com/eax/gaming/gameindex.asp?gameID=59528

...och som du kanske ser i länken kan spelet producera ett ljud som kräver 128 hårdvarukanaler. Detta klarar dock bara för X-Fi, våra Audigy 2 kan inte återge ljudet genom fler än 64 sådana kanaler.

 

Har såklart prövat lyssna till ljudet i Quake 4 genom först "bara" EAX Advanced HD och sedan med detta OpenAL aktiverat. Och iaf enligt mina öron så låter det senare mycket bättre.

 

Vad är det som blir snabbare?

 

I det här inlägget skrev jag bl a lite om "tekniska data" kring korten...

//eforum.idg.se/viewmsg.asp?EntriesId=783983#784471

 

Länk till kommentar
Dela på andra webbplatser

Här är lite mer om EAX 5.0, X-RAM och OpenAL i Quake 4 från Creative:

http://www.soundblaster.com/gaming/quake4/welcome.asp

 

Creative verkar vara de drivande bakom OpenAL, som jag tolkar som ett försök att bredda stödet för 3D-ljud. Och varje tillverkare kan lägga till sina egna funktioner, vilket ju bör borga för att det kan få ett brett stöd:

http://en.wikipedia.org/wiki/OpenAL

 

Jag använder också OpenAL i Quake 4, och upplever ljudet som mycket renare, krispigare. Ibland, vilket jag även upplevde med demon, har det dock hänt att det smugit sig in ett högfrekvent brus, men då är det bara att starta om så försvinner det. Bruset i sig är inte särskillt störande (konstigt nog), och det har bara hänt ett ytterst fåtal gånger (oftare i demon).

 

Ett annat spel som jag spelar som använder OpenAL är Battlefield 2 och dess uppföljare. Här upplever jag ibland också konstiga störningar, fast ytterst sällan, då i form av sprak och tjut, men jag tror att det också kan bero på VoiceOverIP-funktionen som finns i spelet. Fast det inträffar även när man spelar på servrar utan VoIP. Battlefield 2 var väl fö det första spelet som stödde EAX 5.0 och X-RAM:

http://www.soundblaster.com/gaming/battlefield2/

 

Och apropå BF2 och EAX, så justerade jag EAX-parametrarna i det spelet efter att ha läst tips i forumen. Tydligen så hade DICE tonat ner omgivningens påverkan och även vissa ljudstyrkor, men det fanns inte mycket till inställningar i själva spelet att ändra på. Istället fick man gå in och ändra parametrarna i en fil. jag testade några olika värden. Ibland lät det som om man befann sig i ett ekande rör :-) när man befann sig inomhus , men jag hittade till slut en kompromiss som förbättrade ljudupplevelsen jämfört med originalinställningarna.

 

Ananrs brukar jag titta igenom Tweakguides för de spel som jag spelar, och tycker faktiskt att det är intressant läsning och att det finns användbara tips, men ofta, som i Battlefield 2, får man mer tips genom att läsa i forumen kring spelet. Och ibland tycker jag att det är lite konstigheter i guiderna, eller i alla fall oklarheter. Jag skrev till dem angående en guide (vilken har jag glömt) där de hävdade en sak som jag tyckte var lite luddigt skriven, och fick ett svar från artikelförfattaren som höll med om att det var så (av de skäl som jag angav), men jag såg ingen förändring i guiden.

 

Öht är det roligt att skriva till artikelförfattare och föröka få feedback. Oftast får man svar, naturligtvis beroende på om man har vettiga åsikter såklart, men det är en fråga som jag inte har fått svar på: vilken typ av AA som Tomshardware använde i sin senaste VGA-test, och då speciellt i AoE 3 och SS 2:

http://www.tomshardware.com/2005/12/02/vga_charts_viii/index.html

 

En enkel fråga kan tyckas, för det framgår inte i testet, inte som jag kan se iaf, men jag upplever det som att ibland när frågorna rör områden som är lite "infekterade" som i detta fall, känns det som att det är enklast att undvika att svara. Tyvärr gör det att den testen inte känns helt seriös för mig längre, för jag vet inte om det bara var så att de inte hade tid att svara, inte kunde svara, eller inte ville svara. Ett annat fall var en av Bit-Techs artiklar. Jag fick visserligen ett välvilligt svar på det jag frågade, men jag tror (=är säker på) att den artikeln faktiskt inte var helt och fullt genomforskad, och att man hade "chansat" sig till vissa slutsatser. Så det gäller som alltid att läsa lite kritiskt och det gäller även Tweakguides. Funkar tipsen så är det ju bara bra!

 

/ m

 

Länk till kommentar
Dela på andra webbplatser

Jag använder också OpenAL i Quake 4, och upplever ljudet som mycket renare, krispigare. Ibland, vilket jag även upplevde med demon, har det dock hänt att det smugit sig in ett högfrekvent brus, men då är det bara att starta om så försvinner det.

 

Nu när du säger det så har nog jag också upplevt något liknande ibland... dock så sällan att jag inte lagt det på minnet. Tror att det nog kan försvinna helt om man bara ökar på Latencyn lite i biosen(?), en sak jag faktiskt hade tänkt testa men sedan glömt det eftersom de få "störningarna" inte har kännts besvärande på minsta vis.

 

...men det är en fråga som jag inte har fått svar på: vilken typ av AA som Tomshardware använde i sin senaste VGA-test, och då speciellt i AoE 3 och SS 2:

http://www.tomshardware.com/2005/12/02/vga_charts_viii/index.html

 

Vet inte om de svarade dig... men av vad jag kollade lite snabbt nu så såg jag inte ifall de nån gång använde högre än 4xAA. Därför utgår åtminstone jag ifrån att det är den lättare formen d v s multisampling det rör sig om.

 

Jag känner mig inte alldeles säker på ifall testet ger en så där riktigt rättvisande bild av Ati-kortens prestanda och tänker främst på de nyare korten såsom t ex X1800XT. Skulle vilja veta hur det hade sett ut lite längre fram i tiden när även Ati haft längre tid på sig att finslipa drivaren för den nya kortserien (i testet användes Catalyst 5.10). För kanske lika mkt som prestandan hänger på själva kortet hänger det ju också på drivaren till det; kass drivare => kasst kort.

 

X1800XT gör mkt bra ifrån sig i opengl-spelet Quake 4 och dess vidareutvecklade Doom 3-motor – opengl som traditionellt har brukat vara Nvidias område:

http://www.tomshardware.com/2005/12/02/vga_charts_viii/page11.html

2x 7800GTX SLI har de testat men vad jag då saknar att se är förstås 2x X1800XT Crossfire..!

 

Förresten var det kul att se att 6600GT 128MB (trådskaparen danh35:s kort) fick så pass bra resultat som 60.7 fps i Ultra quality i Quake 4 – en inställning där rekommendationen ju faktiskt är hela 512MB grafikminne..! :-)

[inlägget ändrat 2006-01-16 02:36:23 av RN]

Länk till kommentar
Dela på andra webbplatser

Förresten var det kul att se att 6600GT 128MB (trådskaparen danh35:s kort) fick så pass bra resultat som 60.7 fps i Ultra quality i Quake 4 – en inställning där rekommendationen ju faktiskt är hela 512MB grafikminne..! :-)

 

Tänkte i samband med detta höra om du tror att min dator i övrigt är kapabel att köra Quake 4 med någon behållning? Jag såg att Stålis hade kört ett Quake 4-test med sitt 5900 U 256 MB och att han upplevde att det bara någon gång blivit för dålig prestanda i en verklig spelsituation:

 

//eforum.idg.se/viewmsg.asp?EntriesId=792193#792500

 

Hur står sig detta kort i jämförelse med ett 6600 GT 128 MB tror du? Nu är jag inte heller så insatt i vad Stålis har för något i övrig i sin burk, han kanske har en snabbare processor och snabbare minnen än vad jag har.

 

 

Länk till kommentar
Dela på andra webbplatser

Tänkte i samband med detta höra om du tror att min dator i övrigt är kapabel att köra Quake 4 med någon behållning?

 

Det är jag helt säker på att den är, absolut! Det enda som jag skulle se som en liten brist i så fall är din mängd RAM vilken vad jag minns var 768MB medan rekommendationen för Quake 4, enligt mig, samt även Doom 3 är 1024MB. Det flyter på bra med 768... men mycket bra med 1024MB i de spelen.

 

Nu ska jag väl egentligen inte sitta här och tala för Stålis räkning, men eftersom du frågar så... jag minns att han sitter och trycker på en XP2100+, 768MB RAM och 5900U (och verkar vara en av dem som hela tiden väntar på "nästa bättre grej" och därför aldrig någonsin uppgraderar)... nej, förlåt Stålis! Jag ska snarast hugga av mig fingrarna för att avhålla mig från att sitta här och yttra dumheter..! ;)

 

*tjopp tjopp* Sådär, men det gick ju att fortsätta skriva med armbågarna i stället, hmm..! ;-)

 

Nåväl, jag misstänker iaf att 6600GT presterar minst lika bra som 5900U, om inte t o m lite bättre, i Quake 4 och detta oavsett om minnesmängden bara är hälften. Enligt vad jag har kommit fram till genom egna små tester är Quake 4 iofs lite mera minneskrävande än Doom 3 (jag menar alltså grafikminnet nu)... men ändock så har jag en känsla av att 5900U 256MB har relativt svårt för att slå 6600GT 128MB i det spelet. Spekulationer förstås, men jag tror inte att det finns något Quake 4-test där de har prövat just dessa kort mot varandra, inte något som jag har sett åtminstone.

 

(här är iaf min egen lilla undersökning i Quake 4)

//eforum.idg.se/viewmsg.asp?EntriesId=770948#790011

 

När vi talar om generationen som 5900U tillhör, så var 5950U Nvidias flaggskepp, men troninnehavaren var inte dem utan i stället Ati med deras Radeon 9800XT vilket var ett fantastiskt bra kort för tiden. När Nvidia senare lanserade 6600GT, till på köpet som ett mellanklasskort(!), kunde detta många gånger slå t o m den gamla härskaren 9800XT på fingrarna.

 

EDIT:

Lite om "datorer i övrigt" vs prestanda eller vad jag ska uttrycka det som...

 

Vad jag minns av när vi resonerade fram uppgraderingar för din dator, för säkert över ett år sen (orkar inte leta fram det nu), fick den väl ca 12500 poäng i 3DMark2001SE (jag är sån att jag inte alls minns ifall jag käkade frukost, däremot vad brorsans kompis dator nere i mörkaste Småland bestod av för tre år sedan). Men nu ska jag säga det iaf; 3DMark är ett rent uruselt program att mäta med helt enkelt därför att det inte mäter en dators verkliga spelprestanda, punkt! (även om det förstås kan vara en lite kul måttstock att lattja med t ex efter uppgraderingar av datorn).

 

Cirka 12500 är iaf precis samma resultat som min gråe Far får med sin XP2200+, 768MB RAM och Radeon 9500Pro. Innebär detta då att hans dator presterar lika bra i spel som din Northwood 2.8GHz, 768MB och 6600GT? Nej, definitivt inte! Hans minne är lika snabbt som ditt; DDR266, medan processorn är långsammare och grafikkortet oerhört mkt långsammare. Och skulle man ha ställt era datorer mot varandra i en duell i ett riktigt spel som Doom 3 hade hans dator blivit fullständigt och totalt söndersmulad, oavsett likartade resultat i 3DMark2001SE eller inte..!

 

Men nu ska jag sluta babbla och gå iväg och ta mig en kopp kaffe i stället... ;-)

[inlägget ändrat 2006-01-16 11:48:02 av RN]

Länk till kommentar
Dela på andra webbplatser

Det enda som jag skulle se som en liten brist i så fall är din mängd RAM vilken vad jag minns var 768MB medan rekommendationen för Quake 4, enligt mig, samt även Doom 3 är 1024MB. Det flyter på bra med 768... men mycket bra med 1024MB i de spelen.

 

Jo, är det något som jag ser som aningen misslyckat så här i efterhand så är det väl möjligen att jag inte köpte en 512:a istället för en 256:a när jag väl uppgraderade minnet. Det känns aningen bortkastat att nu i efterhand köpa en 512:a och lägga 256:an i byrålådan. Men det är klart att det är alltid kul att ha en massa datordelar skräpande så det ser ut om att man lever :). Men det kan kanske vara värt att spara de pengarna till ett nytt bygge, som ändå blir ett måste så småningom (oftast snabbare än man tror kanske).

 

Cirka 12500 är iaf precis samma resultat som min gråe Far får med sin XP2200+, 768MB RAM och Radeon 9500Pro. Innebär detta då att hans dator presterar lika bra i spel som din Northwood 2.8GHz, 768MB och 6600GT?

 

Det var ju märkligt måste jag säga. Min uppfattning har hittills varit att 3DMark2001SE mäter systemets totala prestanda ganska bra medan 3DMark2003 lyckas isolera och blott mäta prestanda på grafikkortet på ett annat sätt. Jag får förresten dryga 12900 poäng numera, så jag slår ju din gråe Far :). Men nog borde det har varit större marginal tycker jag, oavsett om det är systemets totala prestanda eller bara grafikkortet som mäts.

 

 

[inlägget ändrat 2006-01-16 15:44:19 av danh35]

Länk till kommentar
Dela på andra webbplatser

Min uppfattning har hittills varit att 3DMark2001SE mäter systemets totala prestanda ganska bra medan 3DMark2003 lyckas isolera och blott mäta prestanda på grafikkortet på ett annat sätt.

 

Ja det stämmer bra även enligt min uppfattning iaf. Och jag måste tyvärr erkänna att jag faktiskt kom ihåg lite fel... det var svågern som fick ca 12500 med en XP2500+, 768MB DDR333 och ett 9500Pro, och Far min fick nog iaf kring tusen poäng lägre... Skäms, RN!

 

I 3DMark03 ser bilden lite annorlunda ut eftersom deras datorer fick ca 3600 respektive 3800 poäng medan din väl fick omkring 7700..? I julas hemma hos min kära bror i Småland benchade jag såklart hans dator med Doom 3. Och i 1024x768, High quality inkl 8xAF samt 2xAA fick den 40.5 fps i det inbyggda timedemot. Det innebär ett klart godkänt resultat som betyder en mjuk spelupplevelse. Inte illa, tyckte jag, för hans 9800Pro 128MB (som förstås dras uppåt endel av hans A64 3000+). Det rekommenderade grafikminnet för High quality är iaf den dubbla mängden 256 och vid 128MB autodetectar spelet Medium quality... Anående 3DMark03 fick hans dator närmare 6200 poäng och alltså mer än tusen lägre än din.

 

Jag är iaf helt säker på att du utan att behöva vara orolig kan köpa Quake 4 och lira det med stor behållning. Åtminstone så länge du inte maxar inställningarna utan utgår ifrån kanske lite drygt Medium (uppskattningsvis kanske 1024x768, High quality (8xAF), 2xAA men ingen Vsync) för att få en ordentligt snabb fps. Det är ett kul och bra spel, och även om det är lätt att dra paralleller till Doom 3 tack vare att de är så lika ut, tillhör de inte alls samma spelkategori. Medan Doom 3 är ett rent skräckspel är Quake 4 mer av ett actionspel.

 

Men ifall jag själv hade haft en slant som bara räckte till ett enda spel hade den slanten nog fått gå till F.E.A.R i stället..! :-)

 

Länk till kommentar
Dela på andra webbplatser

I 3DMark03 ser bilden lite annorlunda ut eftersom deras datorer fick ca 3600 respektive 3800 poäng medan din väl fick omkring 7700..?

 

Det stämmer ganska bra, 7500 poäng fick jag senast jag körde (och flera gånger före det också om jag inte minns fel). Jag brukar kolla med jämna mellanrum för att förvissa mig om att datorns prestanda inte har försämrats av någon anledning.

 

Angående minnet så får vi se hur jag gör, eventuellt har jag en kompis som är i behov av min 256:a. Och betalar han bra så.. Kanske det finns lite mer att klämma ur burken innan jag slänger ut den genom fönstret eller ger bort den till morsan :-).

 

Vad har du förresten för erfarenhet av att ha många installerade spel samtidigt på datorn (som jag har fått uppfattningen att du brukar ha ibland)? Har du upplevt några krockar eller prestandaförsämringar pga. detta? Eller rentav en totalkrasch med ominstallation av OS:et som följd. Jag har ju läst att en del föredrar att ha en dedikerad dator för spel eftersom vissa spel, eller kombinationer av spel, tycks kunna få datorn att haverera, vilket naturligtvis oftast händer när det är som mest olämpligt. Och då är det ju bra att ha den där datorn med bara office och några andra nyttoprogram som alltid rullar på stabilt. Tyvärr hör jag till skaran som bara har en dator hemma, vilket innebär att spel och kontorsdator sammanfaller.

 

[inlägget ändrat 2006-01-16 23:32:44 av danh35]

Länk till kommentar
Dela på andra webbplatser

Angående minnet så får vi se hur jag gör, eventuellt har jag en kompis som är i behov av min 256:a. Och betalar han bra så..

 

Begagnade komponenter är inte värda ett piss. Och nytt minne får man väldigt billigt idag. Drygt ett par hundra här för ett Kingston 256MB...

http://surl.se/agow

 

Bara 440kr för Kingston:s 512MB-modul:

http://surl.se/agox

 

Men kanske köper du ditt minne direkt ifrån Dell? Annars kan ju en tanke vara att polaren får köpa din modul för 220kr vilket innebär att du sen bara behöver spendera 220kr från dina lönepengar för ett nytt Kingston 512MB... om du hängde med i min tankebana..? Det tycker jag iaf är en billig metod att äntligen få 1GB i burken.

 

Kanske det finns lite mer att klämma ur burken innan jag slänger ut den genom fönstret eller ger bort den till morsan :-).

 

Jag det tycker jag, än är den långt ifrån pensionsfärdig. Och lite mer valuta för dina redan investerade pengar i uppgraderingar vill du väl ha? Fortfarande idag är ett köp av 6600GT ingen dålig affär även om 6800XT för ett par månader sen blev att föredra i samma prisklass.

 

Jag har ju läst att en del föredrar att ha en dedikerad dator för spel eftersom vissa spel, eller kombinationer av spel, tycks kunna få datorn att haverera...

 

Vet jag inte om jag håller med om riktigt. Men det är sant att ju fler program som finns installerade på datorn desto trögare riskerar den att bli. Då sväller registret och filallokeringstabellerna och det tar längre tid för Windows att söka igenom dem. Och ifall hårddisken på detta är fragmenterad tar det så klart längre tid för den att ladda läsa in filerna.

 

Så har vi allt skräp som stjäl minne och resurser av datorn. Och till skräp räknar jag t o m MSN och ICQ vilka är program jag hatar, de är "frivilliga trojaner". ;-) Men många vill förstås ha dem att umgås genom.

 

Ha iaf så lite som möjligt i autostarten, men lämna kvar viktiga program som t ex antiviruset o dyl. Sök igenom datorn regelbundet och rensa bort spyware:

http://surl.se/agpb

 

Installera utvärderingsversionen av TuneUp Utilities och städa. Har du inte kört liknande program på länge kan jag lova att TuneUp kommer hitta åtminstone några hundra fel att åtgärda.

http://www.tune-up.com/

 

Men nu orkar jag inte skriva mer för stunden..! ;-) Hoppas du får nytta av nånting jag nämnde.

 

Länk till kommentar
Dela på andra webbplatser

Men kanske köper du ditt minne direkt ifrån Dell?

 

Nej, sist köpte jag från Komplett. Dell är ju lite känslig på minne vad jag har hört men följande är exakt samma fabrikat som sitter i datorn från början, dvs Micron:

 

http://www.komplett.se/k/ki.asp?sku=111283&cks=PLS

 

Nu tror jag iofs att Kingston säkert skulle fungera också. Men jag har ingen erfarenhet av det så det är bara en vild chansning.

 

 

Men nu orkar jag inte skriva mer för stunden..! ;-) Hoppas du får nytta av nånting jag nämnde.

 

Det har jag alltid fått. Du har alltid kompetenta och bra svar att ge på det mesta.

 

Länk till kommentar
Dela på andra webbplatser

Nu tror jag iofs att Kingston säkert skulle fungera också.

 

Förmodligen hade det funkat bra att blanda olika märken, oftast gör det det. Men om möjligt, är det ändå bättre att hålla sig till samma märke som redan finns i datorn. Bara för att undvika strul så långt som möjligt.

 

Du har alltid kompetenta och bra svar att ge på det mesta.

 

Tackar för komplimangen! :) Känns alltid kul att få "höra". Tackar givetvis också så mkt för alla de två miljoner poäng du gett mig under tidens lopp. Och tack till NWM för poängen i denna tråd! :)

 

Ifall du, danh35, skulle vilja ha ännu högre spelprestanda i din nuvarande burk finns det faktiskt fortfarande alternativ för agp; 6800GS. Det kortet är Nvidias nya bidrag i mellanprisklassen och presterar ganska likvärdigt med 6800GT (lite beroende på spel) vilket inte längre tillverkas, och inte heller 6800U (industrin vill väl egentligen att alla ska gå över till pci-e, helst redan för länge sen ;-).

 

6800GS presterar, kanske inte riktigt dubbelt så bra, men iaf väldigt mkt bättre än 6600GT. Men visst är det förstås så att din dator i övrigt nog inte hade gjort 6800GS en sådär väldig rättvisa, men den hade ändå fått en ordentlig och i allra högsta grad märkbar skjuts framåt vad gäller spelprestanda. Det är iofs att rekommendera att du verkligen också fixar upp RAM:et till 1GB (eller mer) i så fall...

 

Vad gäller maxfps i spelen hade den nog knappast ökat särskilt dramatiskt med ett 6800GS (i din dator). Däremot hade du oftast kunnat använda High quality, dessutom med kvalitetsinställningar AA & AF aktiverade, och det med bibehållen fps där 6600GT i stället droppar neråt...

 

Priser 6800GS:

http://www.buggy.nu/index.php?a=search&q=6800gs+agp

 

Några sidor prestandastaplar (iofs pci-e men det gör inte så mkt i sammanhanget):

http://www.guru3d.com/article/content/278/7/

 

Ditt nuvarande 6600GT hade förstås gått att sälja och det sannolikt ganska enkelt. Ett prisförslag är att försöka ta runt hälften av vad det hade kostat dig att köpa ett nytt 6800GS.

 

Som du kanske märker är jag inte den som gärna kastar ut en dator genom fönstret i första taget. ;-) Jag brukar i stället försöka söka efter och hitta möjligheter att på ett bra sätt hålla den kvar i matchen. Svågern exempelvis har numera en XP2800+, 1280MB RAM och mkt tack vare ett 6800U ger datorn fortfarande en väldigt bra spelprestanda...

 

Länk till kommentar
Dela på andra webbplatser

Hejhej RN och danh35!

 

Look - no hands!! :-)

 

Ser att ni skriver om 3DMark, och då kan jag inte låta bli att informera om att 3DMark06 är precis runt knuten, och som man kan se på teasern på deras hemsida verkar det innehålla HDR. Så hur ska man tolka raden "Will your pc get it?". Kommer det bara att vara körbart på grafikkort som stöder HDR, och i så fall vilken sort av HDR? Ungefär som 3DMark05 bara var körbart på grafikkort som stödde DX 9.0?

 

I väntan på det laddade jag ner SPMarkJava06 till min mobil. Lite roligt är det att 3D-sekvensen som testas är en bil som åker, ungefär som i 3DMark01 - men det blir nog inte så mycket spela av just i det läget, för resultatet i 3D-spelet blev 4.2 fps, i 2D-spelet 27.0 fps, totalt 934 SPMarkJava06. Vad nu det betyder. Det är klart att alla benchmark av den här sorten säger något om systemets prestanda, men i fallet med 3DMarkserien är det lite oklart exakt vad eftersom det som RN påpekade inte är något spel som använder 3DMark-motorn (motorerna?) som spelmotor. Men samtidigt är det också det som är dess styrka, att den ska vara oberoende (och kanske ärligare?), och försöka avgöra hur spel kommer att programmeras i framtiden, och på något sätt mäta "råstyrkan" att klara av det hos systemet. Och dess svaghet, för det är inte säkert att Futuremarks förutsägelser om hur spel programmeras slår in. Så en kombination av tester med "riktiga" spel och 3Dmark ger oftast en mer nyanserad bild av både verkliga prestanda och framtidssäkerhet. Annars är det just mest ett systemoptimeringstest. Men väldigt fint att se på är det i vilket fall!

 

Apropå HDR, så gällde min fråga till Tomshardware just HDR ihop med AA, men nej RN, jag har inte fått något svar än, fast jag tänkte försöka på nytt igen. Skam den som ger sig. :-) Om det är MSAA går det nämligen inte ihop sig... Återkommer om det händer något på den fronten.

EDIT: Och det är just det här jag undrar över, hämtat från Firingsquads 3DMark06 test:

When we move to tests with anti-aliasing turned on, things change substantially. Although the GeForce 7800GTX is one of the fastest performing GPUs in real-world games it cannot do HDR and anti-aliasing simultaneously. ATI can. As a result, NVIDIA puts in a zero score for the HDR/SM3.0 with anti-aliasing tests.

 

Och dokusåpan vänta på nästa sak fortsätter även nästa vecka med att X1900XTX ska lanseras - tydligen ska den finnas ute till köp redan från början! Hmmmm... jaja, jag tror det när jag ser det. Men faktum är att den har funnits på Buggy sedan förra veckan, så någon sanning kanske det ligger i det den här gången? Isf blir det väl Nvidia som får stå i skamvrån, sedan de inte kunde leva upp till leveranslöftet för 7800 GTX 512 i tillräcklig mängd, samt att de retade upp sina partners genom att presentera Quad SLI ihop med Dell, men att den bara ska tillverkas i ungefär 20 exemplar?! Någon av partnerna uttyckte sitt missnöje med den presentationen och att sätta ett så kraftfullt grafiksystem avsett för spel i en Inteldator (som ju Dell är, istf för i ett Athlonsystem) med att det var som att sätta läppstift på en gris. Det tyckte jag var ganska roligt sagt. :-)

 

/ m

 

EDIT: Ibland får man vissa funderingaer snabbt besvarade:

http://www.firingsquad.com/hardware/3dmark_06/

http://www.futuremark.com/download/?3dmark06.shtml

[inlägget ändrat 2006-01-18 17:19:31 av Stålis]

Länk till kommentar
Dela på andra webbplatser

Although the GeForce 7800GTX is one of the fastest performing GPUs in real-world games it cannot do HDR and anti-aliasing simultaneously. ATI can.

 

Aha! Naturligtvis klarar inte heller GF 6 det i så fall. Det förklarar varför jag inte kan välja AA i Splintercell 3 samtidigt som shadermodell 3.0 är aktiverat (spelet gör mkt bruk av HDR). Tvingar jag ändå fram AA genom drivarens menyer blir det underliga grafikfel där det ska vara skuggeffekter. Däremot går det bra för mitt 6800U att använda 16xAF samtidigt med SM 3.0 i spelet. Nu blev du iaf värd en poäng! :-)

 

Vid min nästa grafikkortsuppgradering blir det alltså inget Nvidia i burken så länge de inte fixar till detta lite irriterande spörsmål. Jag vill ha AA aktiverat, men kanske hellre HDR, och allra helst såklart AA+HDR samtidigt (samt även AF naturligtvis).

 

...Quad SLI...

 

Så fruktansvärt meningslöst att betala pengar för denna iofs monstruösa prestanda! Okej att man i så fall har en prestanda som räcker härifrån och till månen, men det är ändå meningslöst eftersom korten hursomhelst blir omoderna så snabbt. Bättre att betala en tredjedel i så fall och ändå få bra prestanda för SM 3.0, vänta ett år eller två, betala en till tredjedel och då få bra hårdvarustöd för "SM 4.0"..!

 

Quad-SLI, för prestandagalningen ;-)

http://www.slizone.com/object/slizone_quadsli.html

 

[inlägget ändrat 2006-01-19 06:16:23 av RN]

Länk till kommentar
Dela på andra webbplatser

Det är iofs att rekommendera att du verkligen också fixar upp RAM:et till 1GB (eller mer) i så fall...

 

Stopp och belägg nu RN ;). 1GB är max (jag tänker på frasen "eller mer" ovan) i min burk så det handlar verkligen om att klämma ur det absolut sista.. Men det bör man ju göra så därför har jag funderat på att sälja mina gamla delar till vem då... ja morsan naturligtvis, som skulle bli lycklig om det flöt på bättre med surfning och email än det gör med hennes P2:a på 266 MHz. Och jag tycker naturligtvis att det vore trevligt om mina skräpande delar kom till nytta någonstans. Jag har ju faktiskt uppgraderat så pass att jag nästan har en komplett dator liggandes i en kartong nu. Det som saknar är moderkort + låda + processorfläkt + kanske någon fler fläkt + kanske något mer som jag glömt.

 

Men en förutsättning för att jag ska få några hundra för mitt gamla "skräp" är förstås att jag får ihop något som fungerar. Jag har startat en ny tråd angående detta här:

 

//eforum.idg.se/viewmsg.asp?EntriesId=795986

 

Tack för ditt tips angående 6800GS förresten! Helt klart värt en poäng till.

 

Länk till kommentar
Dela på andra webbplatser

Hej RN, och tack för poängen! :-)

 

Aha! Naturligtvis klarar inte heller GF 6 det i så fall. Det förklarar varför jag inte kan välja AA i Splintercell 3 samtidigt som shadermodell 3.0 är aktiverat (spelet gör mkt bruk av HDR).

Jo, det är väl så. Samtidigt är det ju lite komplicerat, det är därför jag försöker reda ut hur det egentligen hänger ihop med HDR och AA, och det är inte det lättaste! :-) Firingsquad har rätt i att en viss typ av HDR inte funkar ihop med AA på Nvidias kort, dvs AA genom multisampling. Du borde kunna köra med supersampling? Men kanske att det ger artefakter när du tvingar på SS FSAA genom drivrutinerna, iom att spelets interna AA använder multisampling, antar jag?

 

De som borde ha full koll, dvs de som skriver om grafikkort och testar dem, verkar inte ha det när det gäller kombinationen SM 3.0/HDR/AA etc. Det känns som att Anandtech är mest att lita på (även om jag därifrån kan känna en viss Nvidia-bias), medan Tomshardware är ute och cyklar. Visst är det klart att alla artikelförfattarna har olika preferenser och inte är opartiska, vilket märks, men det är klart att de får tycka vad de vill, bara de också i kombination med det ger ett riktigt faktaunderlag så att varje läsare kan fatta sina egna beslut, och det är väl där det brister idag.

Här är några exempel:

 

anything lower than PixelShader 3 cannot display new graphics effects like HDR rendering...
If your system has a Geforce 6 or 7, or a Radeon X1x00, Splinter Cell 3 opens the graphics menu for PixelShader 3, which allows you to activate effects like parallax mapping and HDR rendering.
från Tomshardware

 

Splinter Cell Chaos Theory Performance

While the latest patch enables HDR support on SM2.0 cards as well as SM3.0, despite claims to the contrary, HDR is not a feature of SM3.0 – we have done the testing here without HDR. Enabling HDR causes a serious performance hit on all cards.

(om HDR i 3DMark06) First, unless some form of supersample AA is used, only ATI's hardware can perform multisample FSAA on an FP16 render target. For this reason, many game developers have opted to avoid such an approach.
...one of the most effective real world HDR implementations that we've seen so far has relied on a dynamic exposure rather than floating point precision (Valve's Source HDR). There is some overhead involved, but the effect is quite good, while allowing full filtering and FSAA on all hardware...
från Anandtech

 

Kombinationen HDR och AA är nog lite för tuff för fps:en för de flesta kort än så länge (även om det såklart är beroende av speltypen). Så här uppfattar jag iaf läget vad det gäller HDR och AA i en liten sammanfattning:

 

[log]* HDR är inte en effekt utan består av en mängd olika effekter, som var för sig kan implementeras på olika sätt, t ex som OpenEXR HDR.

 

* Alla effekterna/implementeringarna kräver inte SM 3.0-hårdvara för att fungera. Vissa HDR-effekter har visats redan på DirectX 8-hårdvara i demosyfte (sedan är det en sak om de hade kunnat utnyttjas praktiskt i spel).

 

* Den mest mångsidiga HDR:en får man med HDR på flyttal (FP16), som är den som har hårdvarustöd i den senaste SM 3.0-hårdvaran. Det är den som vanligtvis avses när man säger HDR; den ’riktiga’ HDR, som t ex 3DMark06 använder, och som Nvidia pratar om som standard. Jag antar att det även är den HDR som används i Age of Empires 3 och Far Cry (vad som används i Serious Sam 2 vet jag inte).

 

* Valve har visat praktiskt fungerande HDR-effekter på SM 2.0-hårdvara i Lost Coast och Day of Defeat: Source. Även Splinter Cell Chaos Theory har HDR-effekter för Ati i SM 2.0.

 

* Supersampling är en bättre metod för AA (den 'sanna' metoden), men multisampling är en snabbare och hyfsad approximation. Eftersom HDR och AA kräver väldigt mycket, är förmodligen kombinationen HDR och multisamplad AA mer praktiskt användbar för fler.

 

* Ati kan göra alla typer av AA ihop med HDR på flyttal. Nvidia kan idag inte göra HDR på flyttal och multisamplad AA. Det är hårdvarutekniskt relaterat och beror på Geforce 6/7-seriens uppbyggnad, men de kan göra HDR på flyttal och supersampling.

 

• Både Ati och Nvidia kan göra multisamplad AA och HDR i Valves implementering av HDR - här begränsar inte hårdvaran Nvidia eftersom HDRen är uppbyggd på annat sätt.[/log]

 

Det vore inte så farligt att det på många ställen står fel eller missvisande information - världen rullar ju vidare ändå (va! :-) – men i spelvärlden är HDR det "stora nya", och då känns det tämligen relevant att åtminstone de stora sajterna håller ordning på uppgifterna om de nu är i branschen att testa kort och ge råd. Då kan det vara bra att - antingen i forumen eller i frågor direkt till artikelförfattarna - försöka få lite förtydliganden. I bästa fall kan det agera som små nålstick om att skärpa till sig… ;-)

 

Slut på romanen för idag!! :-)

 

/m

 

PS Till sist fick jag forumet att svälja mitt svar!!

[inlägget ändrat 2006-01-20 17:19:49 av Stålis]

Länk till kommentar
Dela på andra webbplatser

Du borde kunna köra med supersampling?

 

Ja, det verkar som att det kanske går..! Det var en kombination jag faktiskt inte hade testat, inte vad jag kan dra mig till minnes iaf. I spelmenyn (för Splintercell 3 såklart ;-) går det att välja upp till 4xAA, och därmed multisampling, då shadermodell 1.1 är aktiverad. Vid aktiveringen av SM 3.0 blir valet för AA gråmarkerad och disabled.

 

Förut när jag har prövat tvinga fram AA från drivarmenyn, har jag antagligen bara gått upp till 4xAA (tillsammans med 8xAF genom spelmenyn). Grafikfelen som då uppstod var inte några artefakter... de kunde i stället uppenbara sig t ex som att där det egentligen skulle vara skuggor, fanns det i princip inga skuggor alls...

 

Av det lilla jag hann testa nu med 8xAA (supersampling) från drivarmenyn så uppstod inga grafikfel... så det kan alltså ligga nånting i det du säger angående att GF 6 visst klarar HDR+AA samtidigt, så länge man håller sig till supersampling.

 

När man aktiverar SM 3.0 i Splintercell 3 kommer det fram en meny, kallad Shader options, som inte finns där alls vid SM 1.1. :-) Och under denna meny finns det trevligheter som HDR Rendering (Tone mapping), Parallax mapping samt High quality shadows att välja som antingen On eller Off.

 

Spelet har funnits på marknaden under snart ett års tid... Är SM 3.0 då någon nyhet idag? Nej, skulle inte tro det. ;-) Men Ati vill förmodligen göra gällande att först nu finns det kort som kan "nyttja det ordentligt", med deras slogan "SM 3.0 done right!". Oavsett om mitt GF 6 har gjort det "right" eller inte har jag ändå njutit av SM 3.0 under lång tid nu, lika lång tid som Ati helt har saknat stöd för det.

 

Kanske blir nästa kort för mig ändå ett Ati tack vare deras möjlighet för HDR+AA genom det mindre krävande multisampling, kanske blir det att vänta på hårdvarustöd för "SM 4.0"... :-)

 

Nu är det iaf god natt för ikväll.

 

EDIT:

God förmiddag! :-)

 

Det känns som att Anandtech är mest att lita på (även om jag därifrån kan känna en viss Nvidia-bias), medan Tomshardware är ute och cyklar.

 

Min trovärdighet för Tomshardware är fortfarande ganska bra även om den har naggats lite i kanten på senare tid. Artikeln nedan exempelvis börjar de med "Shadereffekter på vattenytor blev förbluffande snygga med DirectX 8. Ett av de tidigaste grafikkorten som försökte använda dem var GeForce 4 och Radeon 9600 i spelet Morrowind." vilket är helt galet..! Första Nvidiakortet med hårdvarustöd för det SM 1.1 Morrowind använder var det gamla Geforce 3. Ati låg lite på efterkälken men gick om Nvidia genom att ända från början kunna erbjuda SM 1.4 i Radeon 8500. Och inte förrän i Geforce 4 Ti4x00 kunde Nvidia ebjuda detsamma...

http://www.tomshardware.se/grafikkort/200601131/index.html

 

[inlägget ändrat 2006-01-21 10:44:13 av RN]

Länk till kommentar
Dela på andra webbplatser

Arkiverat

Det här ämnet är nu arkiverat och är stängt för ytterligare svar.

×
×
  • Skapa nytt...