Just nu i M3-nätverket
Gå till innehåll

HighColour 32 bit


cookiehunter

Rekommendera Poster

cookiehunter

Hej,

Undrar när nyttan av denna inställning är befogad. Har provat men märker ingen skillnad.

Om nu grafikkortet medger inställningen, är det då frågan om att jag har för dålig bildskärm eller finns det ingen multimedia i dag som behöver denna inställning?

/Björn

Länk till kommentar
Dela på andra webbplatser

CJ Björkdahl

 

 

 

Sysslar du med grafiska arbeten så kör du givetvis 32 bitar..

 

Men annars så måste jag säga att det är svårt att se skillnad..

 

Oftast är den största skillnaden i prestanda. ( Det går åt mindre datorkraft för 16 bitar "Highcolor" så har man en "äldre" dator så är 16 bitar att föredra)

 

Vissa videofrekvenser som är inspelade i mer än 16 bitar ger sämre bild om de visas i 16 bitar. Lade märke till att exempelvis "Charlies Änglar" såg betydligt sämre ut på widescreentv:n med 16 bitar än 32..

 

MVH

pedagogen

 

 

Länk till kommentar
Dela på andra webbplatser

Jojo, men hur stora är skillnaderna mellan 24 och 32 bpp?

 

[inlägget ändrat 2001-03-06 19:32:43 av jakrog]

Länk till kommentar
Dela på andra webbplatser

Jag provar å spekulera lite - rätta mig om jag är ute å cyklar (mycket troligt) ;)

 

Det är ingen skillnad. Det är oftast bara enklare för ett grafikkort att använda sig av 32bitars färgdjup än 24bitar och har nå't med matte och hastighet att göra, right?

 

Dessutom används de sista 8bitarna normalt i bildinformation i bildfiler till alphakanalen - och jag antar att något liknande gäller även för skärmupplösningar... dvs transparens, vet inte om det är implementerat i något OS dock.

 

/Weyland - gissar vilt och körde 15bitars färgdjup på Amigan (PIV).

 

Länk till kommentar
Dela på andra webbplatser

När det gäller 16 vs 24/32 bitar är det juh enkel matte - 24 eller 32bitars färgdjup möjliggör att varenda bildpunkt på en normal upplösning kan ha en egen färg - detta är inte möjligt med bara 16 bitars färgdjup - därav kvalitetsförlusten och den ofta återkommande "banding"-effekten.

 

VGA-kretsar på PC-burkar har den oegenheten att själva palettdjupet oxå skiljer beroende på upplösning - ett 8 bitars färgdjup kan inte definiera lika många olika nyanser på en och samma bildpunkt än vad ett högre färgdjup kan. Detta är konstigt och gör att bilder ser bättre ut på en Amiga i 8bitar än på en PC i 8 bitar =)

 

 

/Weyland

 

Länk till kommentar
Dela på andra webbplatser

  • 1 month later...

Också lite spekulationer. Processorer arbetar ofta med 32 bitar, samt har 32 bitars buss mot minnet. Kör man med 16 bitars färg skulle man kunna tänka sig att det går att ta hand om två pixlar på en gång, åtminstone i överföringen till minnet. Går man upp till 24 bitar, är det bara 8 kvar ledigt för nästa pixel. Kan alltså inte användas. Därför kan man lika gärna köra med 32 bitar. Så tror jag att det hänger ihop.

 

Länk till kommentar
Dela på andra webbplatser

Alltså 24 bitars färgdjup är det som gäller. Det vill säga 8 bitar för varje grundfärg.

 

När man kör på 32 bitar har man FORTFARANDE 24 bitars färg, men man har lagt till alfakanalen, som används för effekter såsom transparens (används ofta i digitalvideo, animationer och spel).

 

Vad gäller antal färger är allstå 24 och 32 bpp precis samma sak. Det är bara alfakanalen som skiljer.

 

När det gäller frågan om att ta hand om två pixlar åt gången om man kör 16 bitars färg... det görs ju redan... oavsett färgdjup. Pixelhantering är ju grafikkortets område och exempelvis GeForce2 har fyra stycken pixel-pipelines med två texture-enheter på varje, och kan alltså ta hand om fyra pixlar på varje klockcykel under förutsättning att multitexturing hålls på en någorlunda rimlig nivå. Eller avsågs något annat som jag inte begrep?

 

/Björn G

 

Länk till kommentar
Dela på andra webbplatser

En följdfråga, fyra pixelpipelines hos GeForce2 antar jag hänger ihop med en 128-bitars databus. Om man då kör med 16-bitars färg borde man väl kunna köra åtta pixlar på samma bus och därmed fortfarande kunna öka prestandan genom att välja 16-bitars färg? Känner du till hur det hänger ihop?

 

 

 

 

Länk till kommentar
Dela på andra webbplatser

Njaa... det där var på sätt och vis en lite lurig fråga.

 

Man kan i alla fall inte dubbla den maximala hastigheten genom att halvera färgdjupet. Om vi fortsätter använda GeForce2 som exempel så har du ju rätt i att man genom att gå ner till 16-bitars färg möjliggör för videominnet att föra över åtta i stället för fyra pixlar per klockcykel till grafikchipet. Men grafikchipet kan inte ta hand om den datan. Eftersom det ändå bara finns fyra pixelpipelines kan grafikchipet bara ta hand om fyra pixlar per klockcykel. Vare sig man använder 16 eller 32 bitars färg blir alltså den teoretiska maxhastigheten fyra pixlar per klockcykel multiplicerat med 200 Mhz klockfrekvens = 800 Mpixel/s. (Jag är *ganska* säker på att jag har rätt så här långt).

 

På frågan om man vinner något i prestanda på att gå ner i färgdjup... tjaa... där blir jag lite mer tveksam. Jag vet att man vinner på det i exempelvis 3D-spel, där grafikchipet får göra många komplicerade beräkningar. Dessa beräkningar blir ju enklare med färre färger och grafikkortet kan därmed komma närmare sin teoretiska maxhastighet på 800 Mpixel/s. Men när man kör simpel 2D-grafik i Windows? Borde inte ett modernt grafikkort gå för maxhastighet där i stort sett alltid, oavsett om man har 32 eller 16 bitars färg? Jag är osäker. Någon annan som vet? Eller har jag fel på alla punkter?

 

/Björn G

 

Länk till kommentar
Dela på andra webbplatser

Arkiverat

Det här ämnet är nu arkiverat och är stängt för ytterligare svar.

×
×
  • Skapa nytt...