Just nu i M3-nätverket
Gå till innehåll

Hur vet man ifall det är rätt grafikkort?


M-L-I

Rekommendera Poster

Hej!

Jag har tänkt köpa ett nytt grafikkort.

Efter att ha köpt Oblivion på PC och det inte funkat, troligen pga grafikkortet, så hittade jag en lista:

 

ATI X1900 series

ATI X1800 series

ATI X1600 series

ATI X1300 series

ATI X850 series

ATI x800 series

ATI x700 series

ATI x600 series

ATI Radeon 9800 series

ATI Radeon 9700 series

ATI Radeon 9600 series

ATI Radeon 9500 series

NVIDIA GeForce 7800 series

NVIDIA GeForce 6800 series

NVIDIA GeForce 6600 series

NVIDIA GeForce 6200 series

NVIDIA GeForce FX se

 

 

Om jag då vill köpa en från denna "serien" eller hur det funkar?

ATI X1600 series

 

Sökte och hittade på Amazon.de

 

"Sapphire ATI RADEON X1600 PRO Grafikkarte 512MB DDR2 AGP DVI Lite Retail"

 

Men hur vet jag att detta är rätt eller kommer att fungera?

Eftersom det även står:

"Sapphire" "Radeon" "Pro"

Så är jag osäker på om det är rätt kort som kommit upp när jag sökt efter grafikkortet och jag vill inte gärna beställa fel...

 

Har dom någon betydelse och hur vet jag att det är rätt kort?

 

Länk till kommentar
Dela på andra webbplatser

Rätt kort måste ju vara ett grafikkort som gör Oblivion spelbart för dig.

http://www.tomshardware.se/grafikkort/interaktiv_jamforelse/index.html?model1=549&model2=558&chart=207

som du ser är varken ATI 1600 eller ATI 1900 spelbara i det här testetmed upplösning 1600x1200

har du en CRT (tjock äldre typ av skärm) går det bra köra

1024x768

vilket inte hjälper X1900 GT kommer upp i 23 bilder/sek minimum anses ofta vara 40 bilder/sek

 

Det enda grafikkortet som klarar detta är 8800GTS 48 bilder/sek

(de andra över 40bilder/sek är alla TVÅ grafikkort i parallell SLI nvidia crosfire ATI)

 

http://www.tomshardware.se/grafikkort/interaktiv_jamforelse/index.html?model1=549&model2=558&chart=204

det finns ett annat test

http://www.tomshardware.se/grafikkort/interaktiv_jamforelse/index.html?model1=549&model2=558&chart=208

då ser 1600 Pro med 36 mycket mer lovande ut i 1024x768

men i 1600x1200 så behövs typ ett X1950Pro

vilket finns både för AGP och PCI-e slot på moderkortet

 

http://www.tomshardware.se/grafikkort/20070417/index.html

 

http://www.byggy.nu

http://www.cint.se

http://www.prisjakt.nu

 

För att orka köra ett 8800GTS kan du dessutom behöva ett nytt nätaggregat

som kan ge en 30A på 12V..

Och en extra tilluft fläkt i sidan på tornet som blåser in luft under grafikkortet.

Dessutom är 8800GTS kortet så långt, ca 27cm så det kanske inte får plats.

 

 

 

 

 

[inlägget ändrat 2007-04-24 19:18:11 av jannejanne]

[inlägget ändrat 2007-04-24 19:20:45 av jannejanne]

Länk till kommentar
Dela på andra webbplatser

Jag har den "gamla" X1900 GT. De ändrade specarna på den reviderade X1900 GT när X1950 Pro kom, se skillnaderna här:

http://firingsquad.com/hardware/sapphire_radeon_x1950_gt_review/

 

Den är överklockad genom Catalyst Overdrive till 601/693, dvs ett par snäpp snabbare än en originalklockad X1950 Pro (575/690). Köpte det just med tanke på Oblivion (sedan har jag en Core 2 Duo E6300, ej överklockad, och 2 GB RAM på ett Asus P5B).

 

Inställningarna är 1024x768, i princip max på nästan allt i ingame-menyn utom vad gäller antalet skuggor, HDR + 6xAA, samt Adaptive antialiasing i performanceläge, dessutom ytterligare ökade grafiska inställningar i Oblivion.ini-filen på t ex fler reflektioner i vattnet, samt moddad med ytterligare bättre grafik genom Natural Environments och LOD replacements.

 

Funkar alldeles utmärkt. Visst hackar det ibland i vissa lägen utomhus, men Oblivion behöver som tur är inte fyrtio bilder per sekund, snarare tjugo.

 

Länk till min (gamla) jämförelse utan och med 4xAA+HDR (gränsen när grafikkortet var oklockat, gick upp till 6xAA med överklockningen):

http://public.fotki.com/steelmartin/oblivion-hdr-wwo-aa-/

 

(klicka på bilderna och "Get original uploaded photo" för att få originalstorlek på dem)

 

 

/m

 

PS Tänkte bara tillägga, som svar på frågan, att Ati och Nvidia är tillverkare av grafikchip, sedan finns det olika tillverkare som sätter samman grafikkort med dessa chip, t ex Asus, Gigabyte, Powercolor, Sapphire etc.

[inlägget ändrat 2007-04-25 05:10:44 av Stålis]

Länk till kommentar
Dela på andra webbplatser

Tack båda två för era svar!

Fast eftersom jag inte är så bra på detta med grafik osv så förstod jag dock inte så mycket!

Jag fick hjälp i en butik som rekomenderade

NVIDIA GeForce 6900, nått...

Eftersom den skulle passa bra ihop med vår processor (?)

Men vad är det för inställningar/upplösningar på oblivion som ni nämner?

Funderar nästan på att köpa ny bas i datorn... eftersom egentligen allt behöver bytas!

 

Länk till kommentar
Dela på andra webbplatser

Jag ska se om jag kan snabbförklara lite.

 

Spel utvecklas under olika grafikmodeller, kan man säga. Nyare modeller innebär oftast bättre och "häftigare" grafik, men då måste hårdvaran också klara av det nya. Den modell som är vanligast att göra spel för är Microsofts DirectX. Oblivion är gjort för DirectX 9.0c. Har du ett kort med hårdvara med stöd för DirectX 9.0c, men som också är snabbt nog att kunna klara av det - för det finns långsamma DirectX 9.0c-kort - kan du i princip få alla effekter i Oblivion, som t ex HDR, ett sätt att utnyttja ljuset bättre, kan man säga. Beroende på hur kraftig dator du har kan du dock vara tvungen att välja en lägre upplösning för att det ska flyta. Prestandan du kan få ut i spelet beror såklart också på vilken processor och hur mycket minne du har. Det är inte värt att lägga pengarna på ett grafikkort enbart, om datorn i övrigt är alldeles för dålig - lite matchning måste det vara - kolla vad Oblivion har för rekommenderade specar (inte minimi) och utgå från det; om du ligger därikring vad gäller datorn i övrigt kan det var lönt att uppgradera.

http://www.uesp.net/wiki/Oblivion:System_Requirements

 

Radeon X1000-serien från Ati har stöd för DirectX 9.0c, t ex just X1950 Pro, och har en fördel framför Geforce 7-serien från Nvidia som ocksåp klarar DX 9.0c. De kan klara HDR ihop med kantutjämning (antialiasing, AA) i Oblivion, en bildförbättrande teknik, vilket inte Geforce 7-serien klarar av. Det gör däremot Nvidias Geforce 8-serie. Den har stöd för det allra nyaste DirectX 10, som spel kommer att utvecklas för framöver. Ska du därför köpa en helt ny dator ska du köpa ett DirectX 10-kort, ska du temporärt uppgradera en gammal kan ett DirectX 9.0c-kort räcka ett tag, speciellt om du kör Windows XP eftersom DirectX 10 endast finns för Windows Vista. Snart kommer det även DirectX 10-kort från Ati.

 

Jag är tveksam till att köra Oblivion på ett kort ur Geforce 6-serien. De klarar iofs DX 9.0c, men du borde iaf kunna köpa ett ur Geforce 7-serien som är snabbare. Om det är värt det beror på hur datorn ser ut i övrigt. T ex kan nya grafikkort kräva ett bättre nätaggregat.

 

/m

[inlägget ändrat 2007-04-26 00:08:18 av Stålis]

Länk till kommentar
Dela på andra webbplatser

Jag är tveksam till att köra Oblivion på ett kort ur Geforce 6-serien.

Tveka i det gör du alldeles rätt i tycker jag. För ett år sen ungefär då Oblivion släpptes var just detta spel huvudanledningen till att jag uppgraderade mitt 6800U till ett 7900GT. GF 6-kortet klarade inte på långa vägar inställningarna jag ville ha med HDR i 1280x1024 vilket var upplösningen för min dåvarande lcd-skärm. Och när det gäller beräkningar av HDR – den "äkta" metoden genom shadermodell 3.0 och inte den Ati och Valve arbetade fram genom shader 2.0 för H-L 2 – medgav GF 7 ett mycket välkommet prestandatillskott vilket det här gamla testet i Far Cry visar på:

http://www.firingsquad.com/hardware/bfg_geforce_7800_gs_agp/page18.asp

6800U börjar få det lite för tungt redan vid 1024x768 och presterar bara ca 60% av ett 7800GS.

 

Gjorde ett litet byte med svågern, förlorade mitt 7900GT, och skaffade X1950Pro som ersättning – ett underbart kort för Oblivion till relativt låg kostnad! Inga problem alls med "High, Vsync, HDR+AA (inkl performance adaptive-AA)" i 1680x1050 (lägre AA än Stålis p g a högre upplösning) och dessutom med anisotropisk filtrering. På detta tillkom dessutom fem olika grafikmoddar inkl de Stålis använder (och datorn i övrigt innehåller X2 4800+ och 2GB minne).

 

Vad jag vill säga med detta är att M-L-I helst bör avstå ifrån det GF 6 som butiken tydligen hade att "rekommendera" och i stället skaffa ett lite modernare och bättre presterande kort. GF 6 härstammar trots allt ända ifrån böran av 2004 och har alltså redan hunnit fylla tre år, men klart att butiker vill försöka bli av med och lura på folk sina gamla lagervaror..! :thumbsdown:

 

Länk till kommentar
Dela på andra webbplatser

Arkiverat

Det här ämnet är nu arkiverat och är stängt för ytterligare svar.

×
×
  • Skapa nytt...