Just nu i M3-nätverket
Gå till innehåll

Hur många MB egentligen??


Amos Bronson Alcott

Rekommendera Poster

Amos Bronson Alcott

 

 

Hej

 

Jag undrar vad som menas när det står så här.......

 

Grafik: ATI X300HM 32/128MB PCI-express

 

Vad menar dom med "32/128MB"?? Antingen är väl kortet på 32MB eller också är det på 128MB.

Vilket är det som gäller här. Hur många MB är kortet på??

 

Jag kan aldrig tänka mig att dom menar 32MB, det var ju flera år sedan korten var så "svaga".

Det är denna datorn det gäller............

 

http://www.siba.se/Product/Product.aspx?identifier=SEPFS33

 

amos

 

 

 

Länk till kommentar
Dela på andra webbplatser

Hej,

 

HM står för HyperMemory. Det är ett sätt att via pcie-bussen utnyttja datorns RAM. Så kortet har alltså enbart 32 MB på kortet, men tillgång till 128 via pcie. Nvidia har också en variant av det här, och då kallas den TurboCache.

 

Läs mer här:

http://www.ati.com/companyinfo/press/2004/4783.html

 

och på den här testen:

http://techreport.com/reviews/2005q2/hypermemory-turbocache/index.x?pg=1

 

/m

 

Länk till kommentar
Dela på andra webbplatser

Amos Bronson Alcott

 

Hej Stålis och tack för ditt svar.

 

Det där hade jag aldrig kunnat räkna ut, trodde nästan att det var ett skrivfel med 32/128MB.

Jag gillar inte den lösningen, nog skall väl ett fristående grafikkort kunna klara sig på egen hand.

Varför inte kalla det för "shared memory" då.

Fast "HyperMemory" och "TurboCache" låter ju betydligt vassare om man skall sälja något förstås.

 

Menas det alltså att det kommer att stjäla 128-32Mb=96MB ifrån RAM-minnet. Om Ram är 512MB och man drar 96MB därifrån så får man 416MB.

Alltså blir det egentligen så här på datorn................

 

RAM 416 MB

grafik 128 MB

 

amos

 

 

 

 

Länk till kommentar
Dela på andra webbplatser

Ja, så blir det. Fast jag tror inte att allt det "lånade" minnet verkligen utnyttjas, bara att det kan utnyttjas. Dessutom blir det aningen långsammare 128 MB än reguljära 128 MB direkt på kortet, eftersom åtkomsttiden blir lite sämre över pcie-vägen. Och datorn måste ha en viss mängd minne för att det ska funka.

 

Men poängen är att korten blir mycket billigare, och att det tydligen faktiskt går att spela på dem, om man nu inte har några större krav. I den prisklassen innebär det en inte försumbar bonus, för om tillverkarna av en dator får välja mellan ett billigt kort som det inte går att spela på, eller ett lika billigt som det går att spela hjälpligt på, vilket skulle de välja? Av tradition brukar många färdiga datorpaket ofta innehålla det billigast möjliga grafikkort tillverkarna kan komma undan med utan att skämmas, så det här är en given investering för dem. Inte så mycket för den som söker ett kort att uppgradera med alltså, uten snarare den nivå man är tänkt att uppgradera ifrån.

 

Och visst är grafikföretagen sällsynt kunniga i att hitta på flashiga namn!! :-)

 

/ m

 

Länk till kommentar
Dela på andra webbplatser

Amos Bronson Alcott

 

Ok tackar, då har jag lärt mig något nytt.

 

amos

 

 

 

Länk till kommentar
Dela på andra webbplatser

Okej, det borde också betyda att man bör ha så snabbt minne som möjligt i sitt system för att få ut så mycket som möjligt av grafikkortet. Helst så mycket som möjligt också.

 

Länk till kommentar
Dela på andra webbplatser

Okej, det borde också betyda att man bör ha så snabbt minne som möjligt i sitt system för att få ut så mycket som möjligt av grafikkortet.

 

Den teoretiska bandbredden för pcie är 4GB/s. Jag tycker det här fjantet med HyperMemory och TurboCache är ett smart sätt att lura folk köpa vad som i grund och botten är kontorsgrafikkort i villfarelsen att de är något mycket kraftigare. Principen med att låna minnesbuffert av datorns RAM tycker jag man kan likna vid de traditionella agp-kortens aperture size. Agp-kort har alltid "lånat" av datorns RAM då kortets egen minnesbuffert inte längre räckt till. Den stora skillnaden är väl att bandbredden (från RAM till gfx-kort) för agp-8x bara är hälften så stor eller m a o 2GB/s.

 

Kortet ifråga här, Radeon X300HM, finns med hos Tomshardware och vad gäller det snart ett år gamla Doom 3 så kan man se hur hopplöst kass prestanda det egentligen har (för spelsammanhang):

http://www.tomshardware.se/graphic/20050525/grafikkortslistan-05.html

Med en fps på endast 14.3 så är spelet fullkomligt och totalt ospelbart. För att spelen ska flyta på riktigt mjukt och bra behöver fps:en ligga på ca 40 eller mer. Förvisso har de använt inställningen High Quality och 1024x768... men de som vill ha sin dator till att kunna spela med, vill knappast känna sig tvungna till att använda speciellt mycket lägre inställningar än så heller.

 

Vill man ha en bra spelprestanda i datorn så bör man idag som lägst välja åtminstone "dagens val" av mellanklasskort; ett Geforce 6600GT. Om man jämför siffran 14.3 fps för X300 HM med 88.3 fps för 6600GT så ser man den milsvida skillnaden korten emellan...

 

Länk till kommentar
Dela på andra webbplatser

Tack för ett mycket bra svar RN. När det gäller grafikkort kan man alltid räkna med ett par inlägg från dig :)

 

Men oj inte trodde jag att kortet var så svagt fast å andra sidan hade jag inte heller läst några tester. Jag hade nästan fått för mig att de flesta pci-e-kort är fartmonster.

 

Du har helt rätt att man bör ha kring 40 fps för att kunna spela tillfredställande.

 

Hoppas inte Amos Bronson Alcott har blivit lurad på något skräp nu bara.

 

[inlägget ändrat 2005-07-22 22:10:03 av Hundbert]

Länk till kommentar
Dela på andra webbplatser

Amos Bronson Alcott

 

Hoppas inte Amos Bronson Alcott har blivit lurad på något skräp nu bara

 

Ingen fara, en kompis till mig frågade mig om den här datorn. Tack vare duktigt folk på Eforum så slapp han bli lurad. Ett poäng till er var från kompisen och mig.

 

amos

 

 

 

 

 

[inlägget ändrat 2005-07-23 11:09:28 av Amos Bronson Alcott]

Länk till kommentar
Dela på andra webbplatser

Om man jämför siffran 14.3 fps för X300 HM med 88.3 fps för 6600GT så ser man den milsvida skillnaden korten emellan...

 

Som vanligt får man sig lite intressant läsning från din inlägg. Jag tänkte passa på att fråga dig RN om du känner till ungefär hur stor prestandaskillnaden är mellan AGP varianten av 6600 GT som jag har och pcie-varianten av densamma? Hamnar jag ordentligt på efterkälken jämfört med de som har en pcie-buss?

 

Länk till kommentar
Dela på andra webbplatser

Anjuna Moon
Tack för ett mycket bra svar RN. När det gäller grafikkort kan man alltid räkna med ett par inlägg från dig

Stålis och RN förtjänar mycket respekt för kvalificerade svar under lång tid här kring grafikhårdvara. De har hjälpt mig mycket i mina inköp.

 

Länk till kommentar
Dela på andra webbplatser

Tack till allihopa för komplimanger och poäng!! :) Och jag tycker det var bra av Anjuna Moon att inte glömma Stålis här. Hans kunskaper är verkligen inte att förakta.

 

Jag tänkte passa på att fråga dig RN om du känner till ungefär hur stor prestandaskillnaden är mellan AGP varianten av 6600 GT som jag har och pcie-varianten av densamma? Hamnar jag ordentligt på efterkälken jämfört med de som har en pcie-buss?

 

Att jämföra 6600GT agp vs pci-e rakt av går inte riktigt eftersom de inte är klockade i exakt samma hastigheter – agp-kortet har 100MHz långsammare minne. Det tolkar jag som ett av industrins sätt att försöka få skillnaden agp vs pci-e att framstå som större än den är i realiteten. Men här behöver man iaf bara gå till Tomshardware igen:

http://www.tomshardware.se/graphic/20050412/geforce_6600-31.html

Agp-korten i tabellerna är markerade med en asterix.

 

I den första tabellen ser man att skillnaden mellan Albatron PC6600GT och Albatron AGP6600GT är att det förstnämnda är ca 7% snabbare. Men den skillnaden beror sannolikt primärt på skillnaden i minneshastigheten korten emellan. Att det skulle vara någon verklig skillnad i spelprestanda mellan själva bussarna pci-e och agp köper jag inte riktigt. Inte ens mellan agp8x 2GB/s och dess föregångare agp4x 1GB/s existerar det någon verkligt påtagbar skillnad, så skillnader i spelprestanda som man ser mellan pci-e och agp beror framförallt på hur själva grafikkorten är konstruerade! Tomshardware har försökt använda ganska likvärda testsystem här. Men pcie-datorn har haft lite snabbare RAM...

 

Länk till kommentar
Dela på andra webbplatser

Tackar RN, du är verkligen som ett uppslagsverk när det gäller grafikkort och verkar alltid bara vara ett knapptryck ifrån en test som belyser frågan i dess helhet.

 

edit: Man kan förresten fundera på hur fps i såna här tester anges. Är det ett medevärde, minvärde eller beräknas den på annat sätt? Genom ett consolkommando fick jag HL2 att visa fps under spel och den varierade något alldeles enormt. I slutna utrymmen utan någon action låg den alltid över 80 medan i stora, öppna och händelserika utomhusmiljöer hände det att den gick under 30 korta perioder (utan AA och med trilinjär AF och 1024*768). Om det är ett medelvärde på t.ex. 55 fps som anges i testen behöver det ju alltså inte säga att det blir speciellt njutbart precis hela tiden.

 

 

[inlägget ändrat 2005-07-23 12:23:32 av danh35]

Länk till kommentar
Dela på andra webbplatser

Man bugar och bockar för din generösa poängutdelning! :)

 

Om inte annat anges så är det alltid kortens medel-fps som redovisas. Ibland står det typ min-fps, max-fps och average-fps men som sagt så står det endast ETT värde kan man nog utgå från att det är "average" som avses. Man kan också utgå ifrån att testerna sker på helt rena maskiner utan några övriga program igång. Jag själv har exempelvis ALLTID igång min kombinerade mjukvarubrandvägg/antivirus viken stjäl kanske mellan 5-10% av systemprestandan.

 

I Doom 3 använder jag 2xAA, Vsync, High Quality (inkl 8xAF) och 1280x1024, och när jag benchade med dess Timedemo fick jag en average-fps på 48.6. Mitt grafikkort är ett GF 6800Ultra GS (vilket innebär klockorna 430/1200MHz på GPU/minne). Och processorn är en Athlon 64 3400+, minnesmängden 1024MB.

 

Benchar jag med samma inställningar som i tabellen jag tidigare hänvisat till här...

http://www.tomshardware.se/graphic/20050525/grafikkortslistan-05.html

...så får jag genast mycket högre; 83.7 fps. Men min dator har nog förstås lite svårt att mäta sig med den Athlon 64 4000+ de har använt i testet. De har ju fått 112.6 fps med "bara" ett vanligt 6800Ultra vilket har klockorna 400/1100MHz (och det på sannolikt en helt "ren" maskin).

 

Länk till kommentar
Dela på andra webbplatser

I Doom 3 använder jag 2xAA, Vsync, High Quality (inkl 8xAF) och 1280x1024, och när jag benchade med dess Timedemo fick jag en average-fps på 48.6.

 

Kan du bencha med exakt samma timedemo som de har i testen? Du minns att jag frågade tidigare om timedemos i HL2 och hur man kör dem. Då hänvisade du till följande sida http://downloads.guru3d.com/download.php?det=927

 

Är det något liknande du kör för Doom3 eller finns det demon inbyggda i spelet? Jag har för mig att det ska finnas inbyggt i HL2 och kan dras igång med något consolkommando, frågan är bara hur. Det vore ju intressant att kunna köra exakt samma demos som i THG:s tester.

 

Länk till kommentar
Dela på andra webbplatser

Är det något liknande du kör för Doom3 eller finns det demon inbyggda i spelet?

 

Timedemot i Doom 3 startar man från i consolen vilken man får fram genom att hålla ner Ctrl, Alt och "knappen till vänster om siffran 1-tangenten som jag inte minns namnet på" samtidigt. :) I testet uppger de att det kört "Demo1" och den startar man genom att i consolen skriva:

timedemo demo1

Demot skall köras TVÅ gånger. Vid första varvet ägnar sig datorn åt en massa cachening av filer och slutresultatet blir ganska dåligt. Efter körning nr två får man fram ett mer tillförlitligt resultat och kör man en tredje omgång så blir resultatet i stort sett identiskt med det andra.

 

Ifall du inte har Doom 3 så rekommenderar jag starkt att du köper det. Men bara ifall du har lust att känna dig som en deltagare i en skräckfilm och vill skita på dig! :) Den som påstår sig inte bli skrämd av Doom 3 ljuger. Och varför inte skaffa expansionen Resurrection of Evil samtidigt? Den innehåller en del roliga förbättringar såsom t ex en liknande "grabber" som den i H-L 2, d v s ett vapen med vilket man kan fånga upp figurernas eldbollar och skicka tillbaka dem. Den är skitkul och jag använder den så mycket jag kan i spelet! :)

 

Länk till kommentar
Dela på andra webbplatser

I testet uppger de att det kört "Demo1" och den startar man genom att i consolen skriva:

timedemo demo1

 

Oki, ja i consolen kan man ju vad jag har förstått skriva in oändligt med kommandon. Men det följer ju inte med någon manual till HL2 som anger dessa utan de får man söka sig fram till på nätet eller på annat håll. Jag förstår inte riktigt vad anledningen är till att det mesta i spelet är odokumenterat. Men det kanske inte gäller Doom 3?

 

Länk till kommentar
Dela på andra webbplatser

Jag får också tacka för poäng och visad uppskattning :-) Det är ett bra gäng här på forumet!!

 

 

Den innehåller en del roliga förbättringar såsom t ex en liknande "grabber" som den i H-L 2, d v s ett vapen med vilket man kan fånga upp figurernas eldbollar och skicka tillbaka dem. Den är skitkul och jag använder den så mycket jag kan i spelet! :)

 

Kan inte annat än hålla med dig, grabbern är bland det bästa! Körde med artefaktens tidsförlängning och fångade även upp projektiler och skickade tillbaka dem nere i tunnelsystemet. Tycker att tillägget håller ett högre tempo än originalet, och skräms mer...

 

 

Här är förresten ett tips att använda vid benchmarking.

 

timedemo demo1 usecache

 

Då cachar den allt innan, och du slipper köra två gånger. Kan alltid spara lite tid, och ge mer tid till spelande! :-)

 

/ m

 

Länk till kommentar
Dela på andra webbplatser

Här är förresten ett tips att använda vid benchmarking.

 

timedemo demo1 usecache

 

Okej, jag benchar "jämt" med Doom 3 på lite olika maskiner så det var bra att känna till, poäng till dig! :)

 

Länk till kommentar
Dela på andra webbplatser

Du minns att jag frågade tidigare om timedemos i HL2 och hur man kör dem. Då hänvisade du till följande sida...

 

Har installerat H-L 2 på min dator igen, jag får väl stå ut med trojanen Steam..! ;) Hämtade testet jag föreslog dig här...

http://downloads.guru3d.com/download.php?det=927

...och benchade med de inställningar jag använder i spelet. Så här blev resultatet:

 

Resolution: 1280×1024

Demo: HardwareOC - Coast

Detail: Maximum quality

Antialising mode: From System (4xAA)

Filtering mode: From System (8xAF)

Hardware DirectX level: DirectX 9

Heapsize: 64 MB - default

Fast Z: Disabled

Score = 83.1 FPS

 

Inte illa! Tänkte jag, och började leka lite. Vid nästa körning fördubblade jag den anisotropiska filtreringen till 16x och fick då det här resultatet:

 

Resolution: 1280×1024

Demo: HardwareOC - Coast

Detail: Maximum quality

Antialising mode: From System (4xAA)

Filtering mode: From System (16xAF)

Hardware DirectX level: DirectX 9

Heapsize: 64 MB - default

Fast Z: Disabled

Score = 80.2 FPS

 

Blev lite förvånad över att steget mellan 8-16xAF, åtminstone i det här fallet, knappt innebar någon begränsning för min dator..! Så här kan man iaf hålla på och ändra inställningarna och bencha till man har hittat en bra balans mellan prestanda-bildkvalité! :) Själv är jag ganska nöjd med mjukheten i spelen så länge fps:en ligger på åtminstone över 40 ungefär.

 

[inlägget ändrat 2005-07-26 02:51:31 av RN]

Länk till kommentar
Dela på andra webbplatser

Hej!

 

Givetvis måste jag presentera mina låga resultat här också.

 

Resolution 1024x768

Demo: HardwareOC - Coast

Detail: Maximum quality

Antialiasing mode: From System (None)

Filtering mode: From System (None)

Hardware DirectX level: DirectX 9

Heapsize: 64 MB - default

Score = 49 FPS

 

Resolution 1024x768

Demo: HardwareOC - Coast

Detail: Maximum quality

Antialiasing mode: From System (2*AA)

Filtering mode: From System (4*AF)

Hardware DirectX level: DirectX 9

Heapsize: 64 MB - default

Score = 49 FPS

 

Resolution 1024x768

Demo: HardwareOC - Coast

Detail: Maximum quality

Antialiasing mode: From System (4*AA)

Filtering mode: From System (8*AF)

Hardware DirectX level: DirectX 9

Heapsize: 64 MB - default

Score = 49 FPS

 

Resolution 1280x1024

Demo: HardwareOC - Coast

Detail: Maximum quality

Antialiasing mode: From System (4*AA)

Filtering mode: From System (8*AF)

Hardware DirectX level: DirectX 9

Heapsize: 64 MB - default

Score = 44 FPS

 

 

Man ser alltså tydligt att grafikkortet hänger med betydligt bättre än vad resten av datorn gör. Jag får identisk FPS i den lägre upplösningen med de filtreringar jag testade. Det är först med högre upplösning och hög AA/AF som grafikkortet börjar krokna och bli flaskhals. Med den lägre upplösningen blir det i alla fall spelbart även med ordentlig filtrering. Tycker du själv att jag fick rimliga resultat med tanke på min dator (P4 2.8 GHz Northwood och 768 MB PC2100 DDR RAM, GeForce 6600 GT)? I annat fall får jag väl börja felsöka :).

 

 

edit: småjusteringar, samt att jag lade dit att grafikkortet är ett GeForce 6600 GT, vilket är så välkänt för RN att jag inte tänkte på att nämna det..

 

[inlägget ändrat 2005-07-30 22:57:51 av danh35]

Länk till kommentar
Dela på andra webbplatser

Tänkte testa för skoj skull vad jag själv måste använda för inställningar för att få fps:en hamna på 44. Så jag startade spelet för att sen ändra till 1600x1200, men se det gick inte, utan högsta var tydligen 1280x1024 för H-L 2! Hmm, tänkte jag och ökade AA till 6x, men det här är iofs lite kul därför att Nvidia har inte ens stöd för 6xAA – steget efter 4x är 8x för Geforce 6 och 8x gick inte ens att välja i spelet. Resultatet blev iaf så här:

 

Resolution: 1280×1024

Demo: HardwareOC - Coast

Detail: Maximum quality

Antialising mode: From System (6xAA, vet inte ifall kanske 4x användes i realiteten eftersom GF 6 som sagt inte ens har stöd för någonting mellan 4-8x. Ati-kort har däremot stöd för 6xAA.)

Filtering mode: From System (16XAF)

Hardware DirectX level: DirectX 9

Heapsize: 64 MB - default

Fast Z: Disabled

Score = 83.1 FPS

 

Tycker du själv att jag fick rimliga resultat med tanke på min dator (P4 2.8 GHz Northwood och 768 MB PC2100 DDR RAM, GeForce 6600 GT)?

 

O ja, ingen anledning till besvikelse! Intressant var det att se resultatet för 4xAA & 8xAF därför att jag tycker din minnesmängd på 128MB egentligen borde innebära en större begränsning än den tydligen gjort i det här läget. För att inte tala om ditt minnesgränssnitt på 128bit då detta vid kvalitetslägen egentligen bör ligga på 256bit!

 

Ibland verkar folk, däribland jag själv får jag erkänna, vilja stirra sig blinda på den faktiska hårdvarukonfigurationen och därmed få förutfattade meningar angående spelprestandan. Men nu ska jag berätta något jag tyckte var intressant:

 

Som du kanske har förstått så gillar jag att mäta prestandan med Doom 3. Det spelet är t ex mycket tyngre för datorn än vad H-L 2 ens kommer i närheten av. Men nu kommer det som jag tyckte var intressant! Själv har jag en A64 3400+, 1024MB RAM och ett GF 6800Ultra GS och svågern en XP2800+, 1280MB RAM och ett GF 6800GT GS. Vet du vad som skiljer åt våra datorer prestandamässigt vid exakt samma grafikinställningar i Doom 3? Jo, endast ca tio futtiga fps! Vid 1024x768, High (inkl 8xAF), 2xAA och Vsync får min dator ca 55 fps medan hans får ca 45. Skillnaderna börjar kanske bli större vid högre upplösningar, det har jag inte testat och kanske det faktum att jag använt Vsync spelar in en än större roll än jag räknat med..?

 

Men i alla fall... så länge du ligger på åtminstone drygt 40 fps tycker jag inte det finns någon egentlig anledning till besvikelse. Känner du ändå lite besvikelse då du vill använda kvalitetslägen, så glöm inte att jag faktiskt en gång föreslog dig ett GF 6800 framför ett GF 6600GT..! ;)

//eforum.idg.se/viewmsg.asp?EntriesId=662460#663396

 

EDIT: Använder du förresten Forceware 77.76? H-L 2 har då åtminstone för mig själv aldrig funkat så bra som det gör med en releasen.

http://www.nzone.com/object/nzone_downloads_rel70betadriver.html

 

Det är först med högre upplösning och hög AA/AF som grafikkortet börjar krokna och bli flaskhals.

 

Jag har läst någonstans, minns ej var, ett test där de tyckte att man egenligen aldrig bör överskrida 1024x768 vid minnesmängden 128MB på gfx-kortet. Upplösningen i all ära men även kvalitetslägen kräver förstås sin beskärda del av gfx-minnet. Kika här på resultatet för 3DMark05 då de använt så högt som 1600x1200 och det med 4xAA & 8xAF...

http://www.tomshardware.se/graphic/20050705/grafikkortslistan_agp-02.html#3d_mark_2005

...korten mellan GF 6600-6800 stendör och min tolkning till varför de gör det är att deras minnemängd inte är högre än 128MB. 6800 GT däremot har 256MB minne och då har resultatet helt plöstligt blivit 2504 i stället för noll!

 

[inlägget ändrat 2005-07-31 01:31:08 av RN]

[inlägget ändrat 2005-07-31 02:42:17 av RN]

Länk till kommentar
Dela på andra webbplatser

Använder du förresten Forceware 77.76?

 

Nej jag använder en urgammal drivrutin vid namn 71.84. Jag ska testa senare någon dag att byta ut den för att se om det blir någon skillnad. Som jag ser det så måste det framförallt vara ramminnesbussen (även om processorn inte är direkt supersnabb heller) som håller tillbaka hastigheten ganska mycket i min dator. Kortet verkar ju som sagt bara svälja vad det får i uppgift så länge man inte kör med riktigt höga kvalitetsinställningar. Grannen som har en AMD64 3000+, bara 512 MB i ram men PC3200 och ett likadant grafikkort fick ca 10 fps högre i alla lägre inställningar medan vi blev i stor sett lika med hög upplösning och hög AA/AF. I 3DMark03 fick han dock bara 200 poäng mer än mig (7700).

 

Länk till kommentar
Dela på andra webbplatser

Ja förmodligen håller din minnesbuss tillbaka gfx-prestandan en hel del. Och jag misstänker att ett 6800 inte hade gett dig någon särskilt mycket högre prestanda, så länge det inte handlar om kvalitetsinställningar då du åtminstone hade fått ha en bibehållen sådan. Vet inte om du har kollat på det här testet, men där kan man iaf tydligt se hur 6600GT tappar orken jämfört med 6800 vid användningen av AA & AF:

http://www.tomshardware.se/graphic/20041120/geforce-6600gt-agp-09.html

Men då ger 6800 dock i princip bara spelbara resultat vid 1024x768 (och möjligen 1280x1024) vilket förmodligen beror på dess minnesmängd 128MB – högre inställningar innebär helt enkelt att texturerna inte längre får plats i minnet och prestandan blir mycket lidande.

 

Grannen som har en AMD64 3000+, bara 512 MB i ram men PC3200 och ett likadant grafikkort fick ca 10 fps högre i alla lägre inställningar medan vi blev i stor sett lika med hög upplösning och hög AA/AF.

 

Man kan inte riktigt jämföra spelprestandan mellan era processorer, då din grannes A64 3000+, åtminstone när det gäller Doom 3, t o m slår en Northwood 3.40GHz. Och en A64 3000+ med Newcastlekärnan klarar då även att slå en Prescott 3.4GHz..!

http://www.tomshardware.se/cpu/interaktiv_jamforelse/index.html?model1=64&model2=16&chart=26

 

EDIT: Kolla förresten vad mkt som egentligen skiljer en Northwood 2.8GHz DDR 400 och "din" dito som har DDR 266 (de röda staplarna)!

http://www.tomshardware.se/cpu/interaktiv_jamforelse/index.html?model1=19&model2=31&chart=26

 

[inlägget ändrat 2005-07-31 14:34:23 av RN]

[inlägget ändrat 2005-07-31 15:50:13 av RN]

Länk till kommentar
Dela på andra webbplatser

Kolla förresten vad mkt som egentligen skiljer en Northwood 2.8GHz DDR 400 och "din" dito som har DDR 266 (de röda staplarna)!

 

Jo, minneshastigheten verkar ha mycket stor betydelse, såvida det inte är även annat som skiljer de två processorerna åt men det bör det väl inte vara. En glädjande sak är i alla fall att min gamla P4 1.7GHz Willamette presterar hela 38% sämre än den nya 2.8GHz trots att den i testet används med de snabbare rambusminnena. Det vore intressant att se hur dåligt den hade presterat med exakt samma minnen. Så lite effekt gav uppgraderingen i alla fall :).

 

Man kan inte riktigt jämföra spelprestandan mellan era processorer, då din grannes A64 3000+, åtminstone när det gäller Doom 3, t o m slår en Northwood 3.40GHz. Och en A64 3000+ med Newcastlekärnan klarar då även att slå en Prescott 3.4GHz..!

 

Jag är osäker på om grannen har en Newcastle eller en Winchester men det skiljer ju bara 2 fps mellan dem i Doom 3 och jämförelsen med min processor blir, precis som du säger, inte riktigt relevant oavsett vilken av dem det skulle vara. Det var därför jag blev så förvånad över att det bara skilde 200 poäng mellan våra datorer i 3DMark03. Men det torde väl vara hans mindre minnesmängd som sätter käppar i hjulen här. HL2 är ju också känt för att vara speciellt processorkrävande och det är väl huvudanledningen till att han drar ifrån där.

 

Nåja, jag ska köpa av Maratonmannen hans dator när han snart blir less den så kanske det blir lite drag under galosherna :).

 

edit: Förresten så kanske inte Rambus RD800 är snabbare än mitt DDR266 till en P4 1.7GHz Willamette även fast man hörde såna rykten gå för 3 år sedan när jag köpte min dator?

 

[inlägget ändrat 2005-07-31 17:45:22 av danh35]

Länk till kommentar
Dela på andra webbplatser

Arkiverat

Det här ämnet är nu arkiverat och är stängt för ytterligare svar.

×
×
  • Skapa nytt...