Just nu i M3-nätverket
Gå till innehåll

Köpråd Grafikkort


zetterman

Rekommendera Poster

  • Svars 72
  • Skapad
  • Senaste svar

Kommer du ihåg detta utdrag från ett av dina inlägg:

 

"visst, det är skillnad - framförallt i polygontunga scener, och i bildkvalite"

 

Bildkvalitet, vem var det som började snacka om bildkvalitet?

Enligt ditt senaste inlägg som jag nu svarar på så skriver du att bildkvaliteten inte har något med grafikkortet att göra utan har endast med processorn att göra. Du vänder och vrider på det hela tiden.

 

Får man vara lite käck och fråga dig vilken processor som enligt dig presterar bäst bildkvalitet? :=)

 

Nej det kan väl ändå inte stämma att processorn är den enda faktorn som tillämpas när det handlar om bildkvalitet.

 

Bildkvaliteten skiljer sig (enligt min mening) mellan grafikkorten. Jag renderade en scen med ett matrox 4mb kort, och scenen blev inte av samma bildkvalitet som när jag renderade samma scen med ett TNT2 Ultra på samma dator.

 

Jag sammanfattar min fulla ståndpunkt angeånde renderingstiderna så här:

 

Om jag renderar någon av Light benchmarksen i 3dstudio, så går detta betydligt snabbare (relativt) med FireGL2 kortet än Geforce2:an.

Jag anser att detta beror på att FireGL2 kortet kan beräkna fler ljuskällor direkt över hårdvaran på grafikkortet. Den behöver då inte gå igenom processorn för att göra beräkningarna som Geforce2:an måste.

Detta snabbar upp renderingen.

Grafikkortet tillför inte själva renderingen något, utan den avlastar processorn...

 

Du håller säkert inte med, så det hela måste vara min egen inbillning...

 

Angående dina "renderings-farmar", så vill jag säga att klienterna inte behöver något maffigt grafikkort (som du påpekar), men servern som startade renderingen är i behov av ett grafikkort av bra kvalitet, klienterna gör endast matematiska beräkningar och skicka svaren till servern för att på så sätt avlasta serverns processor.

 

Sedan uppskattar jag inte direkta personangrepp. Jag fyller 18 om en månad. Studerar, som du listat ut på dagarna och frilandsarbetar på "fritiden". Jag har egen bostad och

egen deklarerad inkomst. Så man kan lungt säga att jag lever mitt egna liv, detta vid 17,9års ålder (Fantastiskt va!?).

 

I alla fall, även om våra åsiker är minst sagt delade vad gällade 3D-rendering, så hoppas jag att det inte behöver gå ut över andra skribenter och läsare på forumet. Detta för att forumet ska kunna hålla en fortsatt bra kvalitét, hoppas att du inte mísstycker.

 

/Rak Nam

 

 

 

 

 

 

 

 

[inlägget ändrat 2001-03-29 09:30:06 av Rak Nam]

Länk till kommentar
Dela på andra webbplatser

gondor lias

Det e som sagt enbart number crunching i proppen när man renderar...Annat e det ju sen när man spelar upp det färdigrenderade materialet, men det diskuterar vi inte här...

 

 

 

 

 

Länk till kommentar
Dela på andra webbplatser

Jag tycker Nixon hade ett intressant inlägg om det här. Så som jag tolkar det, ett bra grafikkort är specialiserat på att göra en snabb höftning av grafiken, slänga ut några polygoner på skärmen. Naturligtvis påverkas bildkvalitén av hur snabbt grafikkortet är. Ett snabbare kort kan göra lite mer exakta höftningar i beräkningarna. Frågan är nu om kortet klarar en exakt raytracing. Även ett Geforce skulle antagligen behöva åtskilliga timmar/dagar för en högkvalitativ raytracing. Man är knappast intresserad av en skärmuppdateringsfrekvens på 1 bild/flera dagar. Därför kan det tänkas att grafikkorttillverkarna har lagt all energi på att optimera de höftande snabba beräkningarna. Avviker man från höftningarna och vill öka precisionen, kanske grafikkortets processor inte ger någon extra prestanda alls jämfört med den vanliga cpun. Grafikkortets styrka ligger i att dess processor är optimerad för snabba höftande beräkningar för grafiken. Den vanliga cpuns styrka ligger i dess allsidighet. Därför kan du själv välja en raytracingsmetod med mycket högre precision på en vanlig cpu. Det finns ett skäl till varför man inte använder en GeForce-processor som cpu i en vanlig dator.

 

Länk till kommentar
Dela på andra webbplatser

Bildkvalitet, vem var det som började snacka om bildkvalitet?

Enligt ditt senaste inlägg som jag nu svarar på så skriver du att bildkvaliteten inte har något med grafikkortet att göra utan har endast med processorn att göra. Du vänder och vrider på det hela tiden.

 

Får man vara lite käck och fråga dig vilken processor som enligt dig presterar bäst bildkvalitet? :=)

 

Du började snacka om bildkvalite - håll lite koll på vad du skriver, len.

 

Normalt spelar det ingen roll vilken processor man använder, men om man kör olika plattformar - ex alpha och intel, så är det mycket möjligt att matematiska texturer och annat som kräver noggrann flyttalsberäkning faktiskt skiljer sig åt! Om detta tvistar de lärde om än idag dock, då det knappast är aktuellt längre då homogena plattformar är vanligast.

 

Det är du som ska sluta slingra dig.

 

Bildkvaliteten skiljer sig (enligt min mening) mellan grafikkorten. Jag renderade en scen med ett matrox 4mb kort, och scenen blev inte av samma bildkvalitet som när jag renderade samma scen med ett TNT2 Ultra på samma dator.

 

Nej! Kan du inte få in i ditt huvud att det inte stämmer?

 

Bilden ser EXAKT likadan ut oavsett vilket eländigt grafikkort du har i burken. Rendera ut bildfan med ett VIRGE DX på en gammal burk, kopiera resultatfilen och visa den på din "coola" burk och försök påskina att det är skillnad. Det är det INTE. Du har så fundamentalt fel i nästan alla dina påstående så jag blir helt trött juh :)

 

så det hela måste vara min egen inbillning...

 

JA! Du läser väl till datalog, säg till när du börjat studera raytrace och dess algoritmer.

 

Angående dina "renderings-farmar", så vill jag säga att klienterna inte behöver något maffigt grafikkort (som du påpekar), men servern som startade renderingen är i behov av ett grafikkort av bra kvalitet

 

Öh? Ok, säg mig hur fan det fungerar i ett serverlöst renderingsnät då? Blir det ingen bild alls då? Snälla vännen, ge upp...

 

I alla fall, även om våra åsiker är minst sagt delade vad gällade 3D-rendering,

 

Våra åsikter är delade ja, problemet är att du på nå't vis håller fast vid en totalt ologisk ståndpunkt. Datorkrig är en sak, sakfel är nå't helt annat.

 

Hålla en bra kvalite? Den här diskussionen fortsätter tills sanningen kommit fram. Därmed basta.

 

Ult T (lite lång)

 

Ett grafikkort kan inte sitta och "beräkna" en bild i flera dagar. Det är, som du säger, gjort för att visa en preview - i så nära realtid som möjligt. Det kan visa polygoner, med ett par rudimentära skuggningar/shadings och kanske ett par lager image maps-texturer max. OpenGL är dessutom begränsat till 8 väldigt enkla former av ljuskällor. Det finns ingenting ens ett 50kkr-kort kan göra åt de mest självklara delarna i en raytrace-beräkning (Tyvärr). Ett 3D-objekt har ofta ett stort antal lager texturer. Dessa är inte bara i färgkanalen, utan i alla andra viktiga kanaler som grafikkorten inte har en aning om. Exempelvis diffuse, specularity, reflectivity, transparency, transluceny, bumbmapping och en hel dröse extra shaderkanaler. Kort som GF3 hanterar, mycket begränsat, ett par av dessa kanaler också. Men betänk min stol jag har gjort, som har 5 lager matematiskt beräknade texturer i diffuse och spec-lagret. För ett grafikkort är det rena grekiskan. För att sammanfatta det hela så kan ett grafikkort inte raytrace:a (strålfölja) alls. Pratar vi global illumination dessutom, så... jaa - det går liksom inte.

 

Därför är hela den här diskussionen otroligt absurd =D

 

Ulf T's sista mening var mycket bra. Läs den gott folk. ;)

 

/Weyland

 

PS. Personangrepp? Var? Jag läste din profil och noterade att du förmodligen äter mat samtidigt som mig och Reefer. Problem med det?

 

 

[inlägget ändrat 2001-03-29 13:48:19 av Weyland]

Länk till kommentar
Dela på andra webbplatser

Kommer du ihåg detta utdrag från ett av dina inlägg:

 

"visst, det är skillnad - framförallt i polygontunga scener, och i bildkvalite"

 

Bildkvalitet, vem var det som började snacka om bildkvalitet?

 

Nu får jag STOR lust att skriva i versaler rakt igenom. Skrika lite åt dig. Det jag skrev, som alla andra utom du noterat, gällde GRAFIKKORTET och dess EFFEKT på PREVIEW-bilden. Som vi har kommit fram till så har detta INGET med renderingsresultatet att göra ALLS! =D Renderingshastigheten eller dess kvalite PÅVERKAS INTE AV GRAFIKKORTET. Och därmed basta.

 

/Weyland

 

Länk till kommentar
Dela på andra webbplatser

"säg mig hur fan det fungerar i ett serverlöst renderingsnät då? Blir det ingen bild alls."

 

Eftersom du sa att klienterna inte hade några grafikkort, och det finns ingen server, då finns det inte någon burk med ett enda grafikkort. Du menar alltså att du kan rendera en scen utan grafikkort, rätt?

 

Jaja... så då finns det igentligen ingen mening med att rendera med ett dyrt kort gentemot ett billigt, så länge man har en eller flera bra CPU/s.

Alltså kan en renderingsdator ha ett nästintill obefinligt grafikkort.

Det är väl i princip vad du menar? (måste väl förstått dig rätt denna gången va...?).

 

"(Antar att Rak Nam oxå äter såhärdags eftersom han jobbar 18-22, pluggar till datalog på dagarna (vid 17 års ålder) och lattjar med svindyra 3D-program samt har programmerat en egen modern renderare som använder sig av grafikkortet.)"

 

Man kan ju läsa mellan raderna...

 

/Rak Nam

 

[inlägget ändrat 2001-03-29 14:05:39 av Rak Nam]

Länk till kommentar
Dela på andra webbplatser

Eftersom du sa att klienterna inte hade några grafikkort, och det finns ingen server, då finns det inte någon burk med ett enda grafikkort. Du menar alltså att du kan rendera en scen utan grafikkort, rätt?

 

JAAA! Tack för att du förstår, äntligen =D

 

/Weyland

 

Länk till kommentar
Dela på andra webbplatser

Man kan ju läsa mellan raderna...

 

Efter ett dussin så'na här inlägg blir man lite bitsk ibland, sorry ;)

 

/Weyland

 

 

 

Länk till kommentar
Dela på andra webbplatser

gondor lias

Men weyland, jag tror jag ska köpa ett riktigt fett grafikkort så att jag kan rendera snabbare precis som du säger! Dessutom sparar jag in en extra pc då oxå, och det e ju jättebra!

Sen ska jag nog köpa ett bra ljudkort också så jag kan spela in alla ljud dubbelt så fort...

Tack för tipset weyland!

 

 

MVH

En som inte fattat allt!

 

 

Länk till kommentar
Dela på andra webbplatser

Låt se om jag fattat detta rätt...

Det enda som påverkar renderingshastigheten är processorkapaciteten (+minne?)?

Snackar ni bara om stillbilder eller animeringar? Renderar man båda?

Om man skall se på en animering på en burk måste ju grafikkortet spela roll, eller?

Om man kör på en 486:a med 1MB grafikminne jämfort med en P4 1,5 GHz med GF3 kort måste det ju gå snabbare. Eller? Stillbilder borde ju inte påverkas.

Bildkvalitet påverkas ju inte om man har samma upplösning och färddjup, eller?

Jag har aldrig hållt på med rendering etc. men den här diskussionen gjorde mig minst sagt intresserad...

 

 

Länk till kommentar
Dela på andra webbplatser

"Låt se om jag fattat detta rätt...

Det enda som påverkar renderingshastigheten är processorkapaciteten (+minne?)?

Snackar ni bara om stillbilder eller animeringar? Renderar man båda?

Om man skall se på en animering på en burk måste ju grafikkortet spela roll, eller?

Om man kör på en 486:a med 1MB grafikminne jämfort med en P4 1,5 GHz med GF3 kort måste det ju gå snabbare. Eller? Stillbilder borde ju inte påverkas.

Bildkvalitet påverkas ju inte om man har samma upplösning och färddjup, eller?

Jag har aldrig hållt på med rendering etc. men den här diskussionen

 

En animation är just en serie stillbilder,

 

Det är skillnad på realtidsgrafik och proffsrenderade grejjor. Inte minnst i renderingstid, då är skillnaden <1 000 000 i tid.

 

Grafiken du ser i Toystory eller i Mosquito är inte gjord på ngn Pc med Geforce-kort utan varje pixel är beräknad utifrån varje ljusstråle, dess stutsar och transformeringar. Dvs det är bara beräkningar.

 

se: http://www.datateknik30.se/pub/pub35_10.asp?art_id=2738

 

/nix

 

Länk till kommentar
Dela på andra webbplatser

Precis, det är ingen skillnad på animation eller stillbild.. när man renderar ut en animation renderar man ut dem bild för bild, precis som om man renderade ut en hope stillbilder. Dessa sätter man sedan ihop i ett redigeringsprogram typ edit* eller *huh* premiere.

 

En 486 renderar bara långsammare - kvaliteten är exakt likadan, oavsett grafikkort.

 

Det är vid uppspelning det är skillnad - men hallå, det är inte det vi pratar om här. Mina utrenderade bilder på min 486 kanske jag skickar in till en studio som sätter ihop dem och SVT sänder dem på TV - vad har mitt grafikkort med det att göra? Nej, precis. Nada :o)

 

Minne påverkar hastigheten endast om det är så att det inte finns tillräckligt med minne för att rymma hela scenen som renderas (dvs geometridata, texturer (framförallt) och framebuffers). Har man tillräckligt mycket minne så blir det inte snabbare av mer... däremot kan man ösa på med ännu fler ultrahögupplösta image maps/texturer förstås =D

 

/Weyland

 

PS. Grafiken i Toystory har inget med vilket grafikkort de använt heller. Med en vanlig PC och ett vanligt kasst grafikkort oavsett modell kan en hemanvändare idag enkelt åstadkomma fotorealistiska renderingar som vida överträffar vilken proffsstudio som helst. Det enda som spelar roll är kompetensen/tålamodet och till viss grad programvaran. Att det är ett h-e att modellera och animera tunga scener på ett gammalt VIRGE DX är juh en annan sak, det går juh faktiskt och resultatet blir detsamma.. om än att det är opraktiskt i längden pga att preview-delen är hemskt långsam att jobba med.

 

Länk till kommentar
Dela på andra webbplatser

Men weyland, jag tror jag ska köpa ett riktigt fett grafikkort så att jag kan rendera snabbare precis som du säger!

 

Är du trött eller var det ironi?

 

Grafikkortet påverkar varken renderingshastigheten eller renderingskvaliteten. Ska jag behöva skriva mer än tio inlägg med samma innehåll eller?

 

/Weyland

 

Länk till kommentar
Dela på andra webbplatser

"Är du trött eller var det ironi?"

 

They are driving with you ;) Men det det är klart att; visserligen går det inte ett dugg fortare att rendera med en GF3 än en S3 Virge eller CL, men det går fasen så mycket fortare att förbereda renderingen. Särskilt med tunga apps som 3ds max 4, som nästan stannar med nivån under GF2MX. Summa summarum = man lägger ner mycket mindre av sin egen viktiga tid med ett fett graffe-kort, även om PC-CPU:n själv struntar blankt i vilket man använder och alltid tar lika mycket tid på sig...

 

Finns det mer att tillägga ? ;)

 

 

 

/PaleRider

- nedräkningen för Crapple har börjat !

 

Länk till kommentar
Dela på andra webbplatser

Finns det mer att tillägga ? ;)

 

Nej, jag hoppas inte det :)

 

Jo, arbetet med 3d-scener är juh det som snabbas upp med ett bättre grafikkort. Det är den enda anledningen att skaffa ett svindyrt proffskort, renderingen bryr sig dock inte.

 

Förhandsgranskning (på proffsnivå) av ex. ytor idag sker oxå mha processorn, selektiv rendering i princip, då inte ens ett ultradyrt kort klarar ens de mest rudimentära ytor i realtid...

 

/Weyland

 

PS. För de intresserade bifogar jag, när jag kommer hem igen, en uttömmande artikel om 3D som introduktion.

 

Länk till kommentar
Dela på andra webbplatser

Märklig diskussion det här...

 

Weyland har förstås rätt, på alla punkter. Men det verkar som om somliga missförstår det han säger, så även om jag förmodligen inte är någon lysande pedagog tänkte jag försöka reda ut grunderna.

 

(Det var ett tag sedan jag pysslade med 3D-grafik, jag kan ha fel på någon detalj, men i stora drag är det så här. Typ.)

 

Om vi delar upp hela 3D-animationsprocessen i tre steg så är grafikkortet inblandat i två av dem, medan endast processorn är inblandad i det tredje. Så här:

 

STEG A: 3D-animatören sitter och jobbar i exempelvis 3D Studio Max med sin animation. Här är naturligtvis hastigheten på grafikkortet synnerligen väsentligt eftersom det är grafikkortets uppgift att rita upp saker på skärmen, och när man jobbar i ett 3D-program blir det f-n så jobbigt om det tar 20 sekunder varje gång skärmen ska ritas om.

 

STEG B: När man jobbat klart med sin animation är det dags att rendera den. Det vill säga 3D Studio Max går igenom bildruta för bildruta och sätter ihop dem som en sammanhållen animation som man sedan kan spara exempelvis som en Quicktime-fil eller vad man nu vill. Grafikkortet är INTE INBLANDAT i denna process på något sätt överhuvud taget. Man kan göra detta utan att ens ha ett grafikkort i datorn. Det spelar ingen roll. Ingenting behöver ju ritas upp på skärmen när man renderar, och grafikkortets uppgift är just att visa saker på skärmen. Detta är ett rent räknearbete som utförs av processorn. Allt annat snack är rent nonsens.

 

STEG C: Okej, 3D-animationen är färdigrenderad och klar, och sparad som en Quicktime-fil. När man tittar på den på sin dator har självfallet grafikkortet lite med saken att göra. Dels måste grafikkortet vara snabbt nog för att visa film-klippet utan att hacka och dels avgörs ju alltid själva bildkvaliteten på ens skärm av det grafikkort man har (observera att själva animationens kvalitet naturligtvis är konstant oavsett vilket grafikkort ANVÄNDAREN har i sin dator, det är bara hur filmen VISAS för just den specifike användaren som påverkas).

 

Okej, det här blev långt och lite snårigt, men den här diskussionen höll på att driva mig till vansinne. ;-)

 

/Björn G

 

Länk till kommentar
Dela på andra webbplatser

Tycker du ter dig som en synnerligen pedagogisk person Björn. Tack :)

 

Du är inte ensam om att närapå drivits till vansinne av diskussionen, kanske på andra grunder, men iaf ;)

 

/Weyland

 

Länk till kommentar
Dela på andra webbplatser

"Bra introduktion till 3D:"

 

Tack Weyland ! Jag har bara sniffat på ämnet själv, men visst är det fascinerande...jag sparar bokmärket tills jag får en lugn stund över. Apropå 3D-kort; jag har byggt ihop en dator åt ungarna av alldeles äkta datorskrot - i skrivande stund är den "uppe i" en P200MMX(den morphar en del beroende på vilka delar jag trycker i)och nätverkar som den aldrig gjort annat, bla just nu - för tillfället har den den otroligt häftiga 3D-acceleratorn ATI Rage II+ DVD 4MB. Tro det eller ej, men den är faktiskt synbart snabbare än mjukvarurendering i Direct X ;-) Vilka tider det var...GF3; släng dig i väggen !

 

P.S. Nu såg jag Björns inlägg, synnerligen klarsynt - hoppas vansinnet börjar rinna av honom nu D.S.

 

 

/PaleRider

- nedräkningen för Crapple har börjat !

[inlägget ändrat 2001-03-29 22:49:37 av PaleRider]

Länk till kommentar
Dela på andra webbplatser

Arkiverat

Det här ämnet är nu arkiverat och är stängt för ytterligare svar.

×
×
  • Skapa nytt...