Just nu i M3-nätverket
Jump to content

Prestanda ökning med SM3.0 eller även grafisk ökning


cibbe

Recommended Posts

Någon som vet hur många spel som kommer att använda SM3.0 fram till slutet av nästa år? Samt om det endast ligger prestanda ökning och inte några grafiska effekter i botten av det? För om det endast är prestanda ökning så verkar ati ha de bättre korten.

 

Nyfiken...

 

Link to comment
Share on other sites

Tja, jag har sett lite olika synpunkter på detta. Såvitt jag har förstått det så är det så att allt som kan göras i PS 3.0 kan också göras i PS 2.0, bara lite långsammare. Sedan kan det ju hända (med hjälp av´lite pengar från nvidia) att spel utvecklarna lägger till en del PS 3.0 effekter och då inte gör någon motsvarande PS 2.0 effekt, så att det ser bättre ut trots allt, som skett med PS 3.0 patchen till Far-Cry.

 

Jag har själv nyligen köpt ett GF 6800 GT kort till en dator som jag håller på att bygga. Detta gjorde jag för att 6800 GT korten verkar vara framtidssäkrare än X800 Pro korten. ( De vinner fler tester i benchmarks, stöder D3D 9.0c, räknar med 128 bitars nogrannhet)

 

Link to comment
Share on other sites

Shader Model 3.0:

http://graphics.tomshardware.com/graphic/20040414/geforce_6800-11.html

 

De har citerat ett klumpigt uttalande av Ati:s Richard Huddy som jag tyckte var kul:

"Steer people away from flow control in ps3.0 because we expect it to hurt badly. [Also it's the main extra feature on NV40 vs R420 so let's discourage people from using it until R5xx shows up with decent performance...]"

 

Nvidia sa ungefär likadant när Ati kom med deras Radeon 8500 vilket hade stöd för pixelshading 1.4, medan Nvidia endast stödde version 1.1 med deras GeForce 3 (GF 4 Ti4XXX fick PS 1.4). Och nu är situationen den omvända! He he... =)

 

Link to comment
Share on other sites

Okej, det var intresanta svar, nu är fråga hur man ska reagera på det citatet- inte den smartaste kommentaren han gjorde:=)

Men det är den övre delen av prestanda spektrat jag kollar på för tillfället till min nästa dator. Och om man bara ska gå på ren prestanda samt nöjet att spela spel i den allra högsta upplösningen med så mycket AA OCH AF som möjligt då måste det klara vinnaren vara ATI, väl?

 

Och, gaad vad man får migrän av att tänka på vilket kort man ska välja,

det enda spelet där det finns stöd för SM3.0 som går över gränsen för vad som inte kan göras med 2.0b är Unreal3 vad jag vet och det spelet kommer inte att komma ut förrän slutet eller början av 2005/2006, så är det inte vettigare att gå med ATI?

 

Först tänkte jag direkt att jag ska välja nvidia, men sen kommer flashbacks av när man valde geforcefx istället för 9800pro och geforce4ti serien mot vad ati hade då. Tycker man har alltid fått en knäpp på näsan när man valt nvidia..... Kanske bara var jag annars.

 

Och ATI:s kort vinner i princip alla tester (förutom när man kör på pure mode, och alla tester med massa AA och AF)

 

Annars är kortet jag tänker på detta:

http://www.inwarehouse.se/pb.asp?catid=1&src=14&sku=e740980

 

/Tackar för alla inlägg.......

 

 

 

 

Link to comment
Share on other sites

Jag var lika vacklande i mitt val innan jag till slut köpte ett Gainward 6800 GT Golden Sample! X800 Pro och 6800 GT verkar prestera ganska likvärdigt, beroende på vilka spel som korten testas med. Men vågskålen prestandamässigt lutar ändå till 6800 GT:s fördel. Och det faktum att kortet har PS 3.0 är något som jag värdesätter mycket. Övergången från PS 2.0 till version 3.0 är tydligen ganska enkel; det räcker med att man patchar spelet som i fallet med Far Cry:

http://graphics.tomshardware.com/graphic/20040705/index.html

 

Här står det också litegrann om PS 3.0:

http://www.guru3d.com/article/Videocards/135/3/

 

Citat därifrån:

"The discussion we see from a lot of ATI fans is are like this "Hey, who needs Pixel and Vertex Shader 3.0?; there is not one game that supports it and it that won't happen this year also.''

 

That's so wrong people. The step from 2.0 towards 3.0 is a small one and most Shader Model 2.0 games can easily be upgraded towards Model 3.0, which means more candy for the eyes. When DirectX 9 is updated we are going to see a lot of support for 3.0 Shaders."...

 

..."Shader Model 3.0 titles that we can expect soon: Lord of the rings; Battle for Middle-Earth, Stalker, Vampire; Bloodlines, Splinter Cell X, Driver 3, Grafan, Painkiller, Far Cry and more..."

 

Jag gick så långt tidigare här någon gång att jag kallade Geforce FX för en "förlorad" generation grafikkort. Men att Nvidida kommit tillbaka STARKT med deras 6800-serie. Tydligen presterar kommande lillerbror 6600 också mycket bra:

http://www.guru3d.com/article/Videocards/146/7/

Över 8000 poäng i 3DMark03 med ett "budget"-kort (tillsammans med en P4 3.2GHz) är mycket bra! Själv får jag över 12000 poäng med mitt Gainward 6800 GT GS och Athlon 64 3400+ :-) *skryter så det luktar illa*

 

Lycka till i ditt val, och hoppas jag kunnat ge några användabara tips!

 

Link to comment
Share on other sites

nu vet man iallafall att det finns ett flertal spel som utnyttjar sm3.0, men valet är inte det lättaste, kommer förmodligen att vackla ända tills dess att man faktiskt klickar "beställ" på någon internet affär:=)

 

Synd att det inte finns några andra spel där dem faktiskt testat prestandaökningen, så man vet lite mer om vad som finns att hämta.

Särskilt om det kommer något spel som är uppbyggt för SM3.0, farcry patchades ju som sagt.

 

Har förresten läst på någon sida att anisotropisk filtrering kommer att få en rejäl knuff åt rätt sida med SM3.0, har jag rätt i det? Det var något med att filtreringen skulle flyttas från pixel pipelinesen (eller vertex shaders) till något annat. Vet att det kanske var lite flummigt formulerat men kunde inte hitta sidan där jag läste det....

 

Men jag tackar för inläggen det var mycket hjälpfulla

 

Link to comment
Share on other sites

Visst vore det bra med en kristallkula ibland? ;-)

 

Det är ingen tvekan om att SM 3.0 är framtidssäkrare, Nvidia har ett starkt kort där. Och Doom 3 såklart. Men Ati är snabbare när det gäller DirectX-spel, de flesta spel är ju skrivna för det. Och x-generationen har dessutom 3dc, vilket betyder högre bildkvalité om det utnyttjas. Guru3D's artikel är från juni, och det har sedan visat sig att det som man trodde enbart var för SM 3.0 och som har nämnts i Far Cry, även funkar för 2.0b, som instancing och ljusmodellen, en del även för 2.0, som HDR. Så vitt jag vet är det två skillnader mellan 3.0 och 2.0b: dels högre noggrannhet i SM 3.0, dels flexiblare kodning. Men vad innebär det i praktiken? Kan speltillverkarna strunta i de som har 2.0 och 2.0b? Kan det t o m vara så att citatet från Ati syftar inte bara på Nvidias konkurrensfördel, utan att det även är så att för att få tillgång till reell 'eye-candy' i SM 3.0 räcker ändå inte nuvarande kortgeneration från någon av tillverkarna riktigt till prestandamässigt? Ungefär som FX 5200 som annonseras som DirectX 9-kort, vilket ju definitionsmässigt sett stämmer, om än inte praktiskt?

 

Jag har väl sagt vad jag anser i den här frågan på annan plats i forumet, och jag är glad att jag inte ska köpa grafikkort just nu. Men ett vet jag, och det är att jag inte skulle lägga ut för mycket pengar på något kort i den här generationen, istället köpa ett billigare, typ 6600GT, eller kommande x700, och avvakta. Jag tror nämligen att först nästa kortgeneration kommer att kunna utnyttja SM 3.0 som det är tänkt.

 

/m

 

Link to comment
Share on other sites

Jag tolkar det som att Ati vinner mycket prestandamässigt dels p g a att de varken använder Bilinear- eller Trilinear Filtering utan en kombination däremellan kallad "Brilinear". En funktion som inte går (gick?) att stänga av i drivrutinen för att få sann Trilinear Filtering. Nvidia kör iof också med nå't "fusk" för att få optimerad prestanda/kvalité men det går åtminstone att stänga av i deras drivrutin. Att Ati hade bättre bildkvalité än Nvidia var tydligen sant ända upp till till GPU:n R300 vilken sitter på Radeon 9500-9700. Fr o m det att R350 kom, d v s Radeon 9600 och 9800 (XT-modellerna har R360), så används tydligen Brilinear Filtering(?)

Finns det någon fler som försökt bena i det här? Den här artikeln som handlar om detta är intressant:

http://graphics.tomshardware.com/graphic/20040603/index.html

 

Citat från tidningen PC Gaming World nr7 juli 2004:

"Tack vare vertex Shader 3.0 så tas t.ex. fysik beräkningar över av grafikkortet - fram till nu har det varit CPU:n som har stått för det. Den nya pixel shader version 3.0 kommer dock inte med några nya effekter jämfört med version 2 från Radeon X800 XT, 9800 XT eller Geforce FX 5950 Ultra. Däremot blir grafikchipets prestanda utnyttjat mycket effektivt."

 

Ju mer man håller på att rota i det här desto gråare hår får man! Tur att jag själv redan har köpt ett kort, nu slipper jag göra det "omöjliga" valet en gång till. ;-) Men det börjar egentligen kännas som ett val mellan äpplen och päron. Båda tillverkarna har sina för- respektive nackdelar och inget av dem är bäst.

 

Link to comment
Share on other sites

Men ett vet jag, och det är att jag inte skulle lägga ut för mycket pengar på något kort i den här generationen, istället köpa ett billigare, typ 6600GT, eller kommande x700, och avvakta. Jag tror nämligen att först nästa kortgeneration kommer att kunna utnyttja SM 3.0 som det är tänkt
Det är alltid så inom data branchen, nästa generation kommer alltid att vara kraftfullare än de föregående. Man bör inte vänta på att köpa nytt, utan köp när du tycker att du behöver mer prestanda. När det kommer ut spel som dagens 6800 GT / Ultra kort inte klarar av så är det dags att köpa nytt igen, eller rent utav att bygga ny dator.

 

 

Det är ingen tvekan om att SM 3.0 är framtidssäkrare, Nvidia har ett starkt kort där. Och Doom 3 såklart. Men Ati är snabbare när det gäller DirectX-spel, de flesta spel är ju skrivna för det.

 

Ta och läs testen av Leadtek Winfast A400GT, http://www.gamingnexus.com/Review.asp?ID=539&page=1 , så ser du att Ati X800 Pro, nästan bara slår GT kortet i låg upplösning (800 x 600). I högre upplösningar vinner GT kortet de flesta benchmarks ( även D3D spel).

Ett Radeon X800 Pro kort testas på http://www.thetechlounge.com/review.php?directory=ati_radeon_x800_pro_256&page=1 , även där vinner GT kortet, även om skillnaderna mellan korten inte är stor.

[inlägget ändrat 2004-09-11 10:52:45 av Kraantz]

Link to comment
Share on other sites

Okej, där var det mycket intresanta saker som blev sagda. Jag visste att det även kom SM2.0b och att det gav ATI en liten prestanda knuff liknande den som sågs med SM3.0 för nvidia, men är den enda skillnaden mellan dessa att det fortfarande finns begränsningar med sm2.0b som att

koden nu, även om den blev längre, kan bli upp till 96 rader, jämfört med nvidias obegränsade 52,655? (det var bara gissningar vet inte siffrorna i huvudet). Vilket dock inte spelar någon roll då spel som te x half-life2 endast har kod som blir ca 60 rader?

 

Och, bara spekulerar, alla dessa spel som kommer nu som nämndes av någon annan med SM3.0 har alltså ingen grafisk skillnad? Och i och med SM2.0b kommer prestanda ökningen även komma på ATI:s kort?

 

Så nu är den enda skillnaden mellan SM3.0 och SM2.0b lite längre rader och högre noggranhet? och prestanda ökningen som kommer med spel med sm3.0 även kommer att påverka ati:s kort med liknande ökning?

Och att nvidia egentligen inte har något övertag i och med sm3?

(Känns som att ända sedans jag började kolla efter nya datordelar har den enda delen som gett mig huvudvärk varit grafikkortet, det räcker nästan med att sätta sig framför datorn och kolla på korten....sen bam!)

 

En annan sak jag läste var något om att korten alltid kommer att öka i prestanda, frågan är tycker jag om man någonsin kommer att se en likadan ökning som med denna generationens kort? Samt nu måste ju vara den absolut bästa tiden på året om man ska gå på cykeln på hur korten släpps med intervaller. Rent flummigt sett kunde den inte varit sämre dock. Och i och med att nästa generations kort förmodligen inte kommer att släppas tidigare än julen nästa år och kommer hit till Sverige någon gång vid mars känns det ännu vettigare att köpa nu än att vänta.

Tror både ati och nvidia hade ökat sin produktcykel till 18 månader jämfört med tidigare 12.

 

Nu blir det fler reviews....

 

Link to comment
Share on other sites

Här finns en sida med skärmdumpar från Far Cry 1.2 där de jämfört PS 2.0, -2.0B och -3.0:

http://www.xbitlabs.com/articles/video/display/farcry20b_4.html

Sen föjer en massa sidor med prestandamätningar. Testet är iof inte riktigt representativt längre eftersom de använt gammal beta/icke officiellt släppt programvara (drivrutiner etc)...

 

 

Link to comment
Share on other sites

Archived

This topic is now archived and is closed to further replies.



×
×
  • Create New...