Just nu i M3-nätverket
Gå till innehåll

Vilka optimeringar har ni testat?


danh35

Rekommendera Poster

Hallå, och god förmiddag själv! Fast en annan... :-)

 

Jo, det är samma artikel som jag hämtade mina citat ifrån, fast den engelska. Med tanke på att författaren är en av de tre som även gjorde VGA Charts VIII känns det ju lite oroväckande att det är så mycket felaktigheter och ofullständig information - får mig nästan att misstänka att de inte hade så mycket pejl på vad de gjorde när de testade t ex AoE3 och SS2 med MSAA - om det nu var det, eller SSAA, eller om de testade utan HDR? Kollade de verkligen på vad de körde? Jaja, bara man själv vet vad som gäller. Vi får väl ägna vår tid på e-forum åt att upplysa de okunniga...! ;-)

 

Oavsett om mitt GF 6 har gjort det "right" eller inte har jag ändå njutit av SM 3.0 under lång tid nu, lika lång tid som Ati helt har saknat stöd för det.
Precis, och det beror ju på att du gjorde ett helt rätt val, och använde dina kunskaper då du gjorde köpet.:thumbsup:

 

Jag vill bara också förtydliga vad jag menade med Nvidiabias hos Anandtech, där förresten en del av citaten var hämtade från deras test av 3DMark06:

http://www.anandtech.com/video/showdoc.aspx?i=2675

 

Min historielektion lyder sålunda: SM 3.0 är ju inte nytt, och Nvidia använde det ihop med Crytech i Far Cry som exempel på HDR under SM 3.0 redan under hösten-04 - naturligtvis för att ställa det i kontrast till Atis SM 2.0-kort som inte kunde hantera det alls - och det med rätta, såklart. Nvidia kan ju därför delvis sägas vara skyldiga till att folk blandar ihop HDR och SM 3.0, de satsade mycket på den kopplingen, både då och senare. Min misstanke är iaf att Valve, som ju var mer Ati-vänligt, därför riktade in sig på att göra HDR som även skulle funka på Atis SM 2.0-kort, vilket de gjorde nu i Lost Coast t ex. Och det blev sas ett sätt att indirekt också sätta Nvidia på plats, eftersom Valve var erkänt Nvidiakritiska. En fördel som följde med detta var att MSAA funkade ihop med Valve Source HDR på alla kort det stödde. Nu, när Ati försöker dra växlar på att de gör SM 3.0 på 'rätt sätt', kommer det samtidgt ut information - vad kan det bero på? - om att MSAA och den typen av HDR som användes i Far Cry endast funkar på Atis kort, och detsamma gäller nu 3DMark06, vilket ju måste väcka en enorm skadeglädje hos Ati, och om inte en kalldusch så kanske en kallsup hos Nvidia? Så plötsligt måste man, om man nu upplever det så, istället tona ned betydelsen av HDR under SM 3.0 som man tidigare har lanserat starkt, och säger att de flesta speltillverkare därför försöker hitta andra lösningar, och pekar då på t ex Valves HDR som ett av de mest framgångsrika sätten att göra HDR på. Så knäppen på Nvidias näsa, används nu för att rädda Nvida från nesa. Vilket jag tyckte var lite lustigt iaf!

 

Jag skulle väl sammanfatta min inställning som att Ati har den faktiska fördelen av HDR på flyttal + MSAA, men den är inte alls på långa vägar lika stor som den Nvida hade under lång tid med SM 3.0-stöd vs Atis 2.0 (och dessutom ska det ju gå att göra SSAA). Fast det här berör nog bara toppkorten, andra kort göre sig inte besvär. Tror jag. Och sedan är jag också osäker på om det i den senaste patchen till Far Cry trots allt kom stöd för AA och HDR på Nvidakorten?

 

Crysis

Något helt annat, fast inte alls, eftersom det handlar om Crytech, är Crysis. Världens första tillkännagivna spel för DirectX10, som sägs komma i höst. Videon är gammal, fast nu högupplöst och ännu snyggare, men namnet Crysis är nytt:

http://gamershell.com/news/27536.html

 

Det här innebör såklart att DirectX10-kort bör finnas ute till dess. Och så var det det här med att vänta på nästa grej igen. ;-)

 

/ m

[inlägget ändrat 2006-01-22 10:52:27 av Stålis]

Länk till kommentar
Dela på andra webbplatser

Det här innebör såklart att DirectX10-kort bör finnas ute till dess. Och så var det det här med att vänta på nästa grej igen. ;-)

 

Kom igen nu Stålis! Det vet väl du också att när de korten väl finns på marknaden så är arbetet med "DX 10.d" och "SM 4.1h" redan i full gång, nästa grej igen m a o..! ;)

 

Idag blev jag faktiskt lite nyfiken på hur länge du egentligen hade kunnat hålla liv i din XP2100+... genom att trycka dit ett 6800-GS, eller -XT för att spara pengar (och helst mer minne)..? Far min har en nästan likadan maskin som du; XP2200+, 768MB DDR266 fast med ett 9500Pro. Du hade sen iaf kunnat rädda världen från ditt FX-kort genom att placera det i ett slutet förvaringsrum för atomsopor. :-D

 

6800GS AGP:

http://www.guru3d.com/article/Videocards/314

 

Ett sådant hade inte varit helt bortkastade pengar iaf inte ifall detta moderkort skulle ha fått bli din nästa plattform, tillsammans med någon snabb socket 939-processor:

//eforum.idg.se/viewmsg.asp?EntriesId=796491#796535

 

Och exempelvis det här...

http://www.guru3d.com/news.html#3525

...gör att GF 6 faktiskt fortfarande kan vara riktigt intressant.

 

Länk till kommentar
Dela på andra webbplatser

Ibland, vilket jag även upplevde med demon, har det dock hänt att det smugit sig in ett högfrekvent brus, men då är det bara att starta om så försvinner det.

 

Missa inte att det har kommit en drivaruppdatering nu, som inte har betastatus...

http://se.europe.creative.com/support/downloads/

 

Den nya setupfilen ombesörjer även avinstallationen av den gamla drivaren. Förutom att den nya drivaren sen läggs in så installeras även programmet Audio Console. Själv hade jag tidigare programmen EAX Console samt Speaker setup vilka bägge blev överflödiga varför jag avinstallerade dem...

 

Länk till kommentar
Dela på andra webbplatser

Arkiverat

Det här ämnet är nu arkiverat och är stängt för ytterligare svar.

×
×
  • Skapa nytt...