Just nu i M3-nätverket
Gå till innehåll

Suddig bildskärm


Johan Forsberg

Rekommendera Poster

Johan Forsberg

Fick en gammal bildskärm av en polare för ett tag sedan, nu är det så att bilden är väldigt suddig. Det konstiga är att den är det bara när jag arbetar i windows. Men i spel så är bilden perfekt. Är det skärmen som börjar bli för gammal och slite eller är det för att jag inte kan använda en uppdateringsfrekvens på mer än 60 HZ.

 

 

_______________________________

Johan Forsberg

E-mail: sajberjohan@home.se

ICQ: 18353568

Länk till kommentar
Dela på andra webbplatser

Det skulle kunna ha med skärmuppdateringen. 60 Hz är egentligen för lite. Det upplevs som flimrigt om man har många statiska objekt på skärmen (fönster, statusrader, bakgrund etc.). I spel brukar bilden röra sig hela tiden. Då upplever man inte flimret lika påtagligt. Jämför med en tv som har en uppdatering på bara 50 Hz. Det brukar man normalt sett inte besväras av (även om det finns de som hellre vill ha en 100Hz-tv). Skulle du ha en statisk bild på en tv skulle du uppleva den som rejält flimrig. Gå till en tv-handlare och jämför en vanlig tv med en 100Hz-tv när de visar testbilden. Att din vanliga tv var så flimrig hade du nog ingen aning om.

 

Länk till kommentar
Dela på andra webbplatser

Johan Forsberg

Men hur ska jag öka uppdateringsfrekvensen?

Och hur hög bör den vara när man kör i 1024*768?

 

 

_______________________________

Johan Forsberg

E-mail: sajberjohan@home.se

ICQ: 18353568

 

Länk till kommentar
Dela på andra webbplatser

Allting under 72 Hz tycker ögat flimrar.

Minst 85 Hz tycker jag är "skönt" för ögonen.

 

 

 

 

Länk till kommentar
Dela på andra webbplatser

Är skärmen gammal finns risk för att du inte kan höja frekvensen. Högerklicka på skrivbordet -> välj Egenskaperi menyn -> välj fliken Inställningar. Där finns ett fält för val av uppdateringsfrekvens. Välj någon du tycker passar och klicka sedan på knappen Testa för att se om det funkar. Angående lämpliga frekvenser kan jag bara hålla med Martin77.

 

 

 

 

Länk till kommentar
Dela på andra webbplatser

Observera att om skärmen är gammal kan en för hög frekvens göra bilden väldigt oskarp.. så ibland kan man få sänka den istället... inte så kul dock..

 

/Weyland

 

Länk till kommentar
Dela på andra webbplatser

85 Hz @ 1024 x 768 pixlar och tusentals färger är minimum!

 

Och gör inte samma idiotiska misstag som jag - köp inte en skuggmaskskärm. Köp en Trinitron- eller Diamondtron-skärm.

 

De är dyra men värda varenda krona. Köp den bästa skärm och det bästa bildskärmskort du kan få tag på eller har råd med och snåla på processorn istället.

 

Skärmen ska du ju kanske sitta och glo på i flera år medan datorn kanske blir utbytt efter ett tag.

 

 

"Life is too short to use anything but a Mac; Windows is just not a human environment." - Roger Ebert, filmkritiker på Chicago Sun-Times

 

 

[inlägget ändrat 2001-04-05 13:44:29 av Staffan Kjell]

Länk till kommentar
Dela på andra webbplatser

Word, len!

 

Fast 16bitars färgdjup är hopplöst jobbigt, hemsk 'banding' uppstår juh om en övertoning på en hemsida till exempel är det minsta komplicerad... truecolour är det som gäller...

 

/Weyland - upptäckt att geforce2gts inte klarar mer än 85Hz i 1600x1200x32 :7

 

Länk till kommentar
Dela på andra webbplatser

"upptäckt att geforce2gts inte klarar mer än 85Hz i 1600x1200x32 :7"

 

Fy vilket ruttet grafikkort; 100Hz är ju det som gäller. Det klarar tom TV-apparaterna(i 400x250 ca) haha =)

 

 

/PaleRider

- nedräkningen för Crapple har börjat !

 

Länk till kommentar
Dela på andra webbplatser

Mmm.. lite störigt ;p

 

..100Hz vid 1600x1200x16 funkar dock.. men iaf - lite störigt är det faktiskt. Dags för ett nytt snart =P Geforce2MX verkar ha en snabbare RAMDAC och därmed klara högre upplösningar/svepfrekvenser - så orättvist att budgetkortet är bättre på 2D ;9

 

/Weyland

 

 

 

Länk till kommentar
Dela på andra webbplatser

"så orättvist att budgetkortet är bättre på 2D ;9"

 

Marknadsföring. Köp två, betala för tre ;-) Om det ändå bara vore grafikkortet man behövde byta ut, livet är mer än orättvist...

 

 

/PaleRider

- nedräkningen för Crapple har börjat !

 

Länk till kommentar
Dela på andra webbplatser

Men jag sa faktiskt minimum. Optimalt ska kortet kunna visa miljontals färger (ehum... "true color" för er Windows-användare) vid 85 Hz och en upplösning på 1024 x 768 pixlar, men tusentals färger är helt OK.

 

Förresten har jag lämnat tillbaka den suddiga Iiyama-skärmen och bytt till en Sony CPD-G400P. Vilken skillnad i kvalitet. Dyrare dock... Klarar utan vidare 1280 x 1024 @ 101 Hz.

 

"Life is too short to use anything but a Mac; Windows is just not a human environment." - Roger Ebert, filmkritiker på Chicago Sun-Times

 

[inlägget ändrat 2001-04-05 16:21:58 av Staffan Kjell]

Länk till kommentar
Dela på andra webbplatser

 

Tss....

jag kör 1600x1200 @85Hz i 65' färger :)

 

_________________________________________________

"C gör det lätt att skjuta sig själv i foten. C++ gör det svårare, men om du lyckas så skjuter du bort hela benet."

Bjarne Stroustrup

 

 

Länk till kommentar
Dela på andra webbplatser

"tusentals" och "miljontals" fäger säger inte oss så mycket.. om du säger "tusentals" så undrar jag hur vi ska veta vilket färgdjup du menar? 15bitar? 16bitar? osv..

 

näe - behåll era "skivminnen" för er själva ;)

 

/Weyland - retas

 

 

 

Länk till kommentar
Dela på andra webbplatser

Det sant: "tusentals färger" säger inte så mycket. Men säger "true color" (riktig färg) mer tycker du? Eller "16 bitar"? Det är bara en vanesak.

 

Det heter inte "skivminne" på Mac. Det heter hårddisk, men däremot säger man sällan disk som i "filen sparades på disk" vilket är rätt vanligt i Windows-sammanhang. Disk har man i diskmaskinen eller i diskhon.

 

En skiva (engelska "volume" eller enhet) är en hårddisk eller cd-rom-skiva som läggs på skrivbordet ("monteras"), men det kan lika gärna vara en zip, jaz, diskett, en extern hårddisk eller en server.

 

 

"Life is too short to use anything but a Mac; Windows is just not a human environment." - Roger Ebert, filmkritiker på Chicago Sun-Times

 

[inlägget ändrat 2001-04-05 17:05:18 av Staffan Kjell]

Länk till kommentar
Dela på andra webbplatser

När jag testade fanns det en inställningsmoj som hette "skivminne" bland annat.. ;)

 

Ptja.. truecolour indikerar att varje bildpunkt på skärmen kan erhålla ett unikt färgvärde, och dessutom ur en palett som är tillräckligt nyanserad för att ögat inte ska märka några konstigheter.

 

/Weyland

 

Länk till kommentar
Dela på andra webbplatser

Du tänker kanske på RAM-skiva?

 

De flesta Mac-användare vet vad miljoner färger är. Macen är ju trots allt kungen när det gäller grafisk design.

 

Ptja, "true color" eller "16 bitars färg" tycker jag säger inte mer än "miljoner färger".

 

 

"Life is too short to use anything but a Mac; Windows is just not a human environment." - Roger Ebert, filmkritiker på Chicago Sun-Times

 

[inlägget ändrat 2001-04-05 23:24:15 av Staffan Kjell]

Länk till kommentar
Dela på andra webbplatser

Jag måste faktiskt hålla med Staffan Kjell om att "true colour" inte säger något mer än "miljoner färger".

 

Varje bildpunkt ska kunna ha ett unikt färgvärde:

1600x1200=1920000 -> Det räcker alltså med knappt 2 milj färger för att uppfylla det vilkoret.

 

Tillräckligt nyanserad för att ögat inte ska märka några konstigheter:

Här är vi inne på ytterst subjektiva bedömningar. Vad säger att just 24-bitars färg är tillräckligt? Många scannrar arbetar med 48-bitars färg. Det är nog också befogat om man vill scanna in diabilder som ju har avsevärt högre kontraster än negativ film. Jag tycker personligen att jag uppfattar mycket mer kontrast i diabilderna. Det kanske är så att jag kan uppfatta fler än 2^24 färgnyanser. Det är möjligt att det kan förklaras på andra sätt. I vart fall, det är väldigt subjektivt var gränsen går.

 

PS

Apropå skivminnen/hårddiskar, vi får hoppas att Staffans inte blir skitigt. Det blir så lätt kortslutning när hårddisken har varit en vända ner i diskhon;-)

DS

 

 

 

 

Länk till kommentar
Dela på andra webbplatser

Beträffande färgdjup:

 

Det funkar inte på det viset att "2 miljoner färger" betyder att två miljoner pixlar kan ges vilken färg som helst. Färgdjupet beskriver hur många bits som kan användas för att beskriva färgen på VARJE ENSKILD pixel. Har man 1-bits färgdjup har man bara två färger att välja mellan (monokrom), varje pixel kan alltså exempelvis göras vit eller svart. Har man 24-bits färgdjup kan man alltså använda 24 bits för att beskriva färgen på en pixel. Åtta bits används för att beskriva den mängd rött som pixeln ska ha, åtta bits för mängden grönt och åtta bits för mängden blått. Totalt ger det 16 777 216 möjliga färgkombinationer. Om man skulle nöja sig med att ha två miljoner färger skulle det finnas miljontals färgnyanser som det mänskliga ögat tydligt kan uppfatta som datorn helt enkelt inte skulle kunna visa.

 

Beträffande True Colour:

 

TrueColour kallas så eftersom en tumregel är att det mänskliga ögat kan uppfatta omkring 10 miljoner färger, medan TrueColour (=24-bits färgdjup) kan representara ca 16,8 miljoner färger. Visst kan färguppfattningsförmågan variera från person till person, men att tro att somliga kan uppfatta typ 20 miljoner färger eller mer är nog orealistiskt. Att 48-bits scanners upplevs som bättre beror sannolikt i viss utsträckning på att det är high-end scanners med god kvalitet i övrigt.

 

Beträffande Mac/PC:

 

Självklart säger 16-bits färg eller 24-bits färg mer än "miljoner färger", eftersom de båda föregående begreppen anger EXAKT hur många färgnyanser datorn kan reproducera. Nu är väl det här, antar jag, bara en fråga om etiketter, eftersom Mac:ens "miljoner färger" väl rimligtvis är exakt samma sak som PC:ns TrueColour, det vill säga 24-bits färgdjup (eller har jag fel?). I synnerhet som Mac:ar nuförtiden använder samma grafikkort som vi PC-folk har. Vilket för övrigt får mig att undra på vilket sätt Mac:en är "kungen när det gäller grafisk design"? Alltså med tanke på att G4:orna har ATI Rage 128 Pro eller Nvidia GeForce2 MX medan iMac:arna har ATI Rage 128 Pro eller Ultra. Det är ju bra grafikkort i och för sig (själv har jag alltid gillat Nvidias chip), men inget av dom är ju precis värdsledande när det gäller bildkvalitet. Skulle jag ägnat mig åt professionell grafisk design (inte 3D alltså) på min dator där hemma hade det nog blivit ett kort från Canopus, till exempel. Eller kanske Matrox. Det vill säga kort med riktigt bra bildkvalitet i 2D. Så... på vilket sätt är Mac kung?

 

/Björn G

 

[inlägget ändrat 2001-04-06 18:49:57 av Björn G]

Länk till kommentar
Dela på andra webbplatser

Dom som använder Mac TYCKER att Macen är kung på grafik, that´s it. Macarna lånar ju det mesta i hårdvara från pc idag; agp, pci, usb, grafikkort, IDE diskar osv.. Inte så mkt Mac kvar, annat än operativet och cpu:n =)

 

Länk till kommentar
Dela på andra webbplatser

"det mänskliga ögat kan uppfatta omkring 10 miljoner färger, medan TrueColour (=24-bits färgdjup) kan representara ca 16,8 miljoner färger. Visst kan färguppfattningsförmågan variera från person till person, men att tro att somliga kan uppfatta typ 20 miljoner färger eller mer är nog orealistiskt."

 

Det är sant att största lyftet för oss "kräsna" är mellan 16-bit och 24-bit(då försvinner den urfula "bandningen"). Steget mellan 24-bit och 32-bit beror, förutom "in the eye of the beholder", enormt mycket på vilken kvalitet på skärmen man har. Tex. klarar dom flesta(alla?) LCD "bara" 16-bit, det är alltså "gammaldags" CRT-skärmar som gäller för bildbehandling. Själv har jag två skärmar, den ena är en IBM 17" "paket-skärm" och når nog sin maximala kvalitet redan vid 24-bit ;) Den andra är en EIZO med Trinitron-bildrör, förutom att den är oändligt mycket bättre så är skillnaden mellan 24 och 32-bit mycket tydligt synbar. Sådetså.

 

 

 

/PaleRider

- nedräkningen för Crapple har börjat !

Länk till kommentar
Dela på andra webbplatser

"Det är sant att största lyftet för oss "kräsna" är mellan 16-bit och 24-bit(då försvinner den urfula "bandningen").

<klipp>

Den andra är en EIZO med Trinitron-bildrör, förutom att den är oändligt mycket bättre så är skillnaden mellan 24 och 32-bit mycket tydligt synbar. Sådetså."

 

Nää, men skärpning nu.

 

Du kan omöjligt se någon skillnad i färgåtergivningen mellan 24 och 32-bits färgdjup eftersom det inte är någon skillnad!

 

24 bit = 16,777,216 färger.

32 bit = 16,777,216 färger.

 

Vad används då de åtta extra bitarna till? Jo, det är något som kallas alfa-kanalen. Det är en effektkanal som kan användas till specialeffekter för exempelvis transparens och dimma. Detta används ofta i till exempel datorspel och 3d-grafik.

 

Men mängden unika färger som kan visas är exakt densamma. Sådetså ;-)

 

/Björn G

 

Länk till kommentar
Dela på andra webbplatser

"Nää, men skärpning nu.

 

Du kan omöjligt se någon skillnad i färgåtergivningen mellan 24 och 32-bits färgdjup eftersom det inte är någon skillnad!"

 

Man lär sig något nytt varje dag =) Nåväl, jag har aldrig brytt mig om att studera hur man konstruerar ett grafikkort, men på min utrustning upplever jag faktiskt en tydlig skillnad. Om det inte är "placebo-effekt", så bör det väl isåfall härröra från diverse bi-effekter som uppstår i min konfiguration när man ändrar på just den inställningen. Som bekant är teori och praktik vitt skilda saker ;-)

 

P.S. Jag ska vid tillfälle studera fenomenet närmare och BTW, kan du rekommendera en bra teknisk beskrivning av just det vi tjötat om här ? D.S.

 

 

 

 

/PaleRider

- nedräkningen för Crapple har börjat !

Länk till kommentar
Dela på andra webbplatser

Jag tippar på placebo-effekt ;-)

 

Men det är klart, man ska aldrig säga aldrig, vem vet, ditt grafikkort kanske av någon anledning funkar dåligt när man kör i 24-bit.

 

I vilket fall som helst: En bra teknisk beskrivnining var beställt...

 

Man kan ju alltid börja med www.howstuffworks.com. Dom har massor med kul grejer, det som är relevant för den här diskussionen är väl deras guide till skärmar och deras guide till grafikkort. Inte så djuplodande kanske, men korrekt och pedagogiskt.

 

Firingsquad har en guide till grafikkort som går igenom grafikkortens utveckling i nästan plågsam detalj: http://firingsquad.gamers.com/guides/hiwdisplay/default.asp

 

Och för extremt utförlig info rekommenderas http://www.faqs.org/faqs/pc-hardware-faq/video/part1/

 

/Björn G

 

 

 

Länk till kommentar
Dela på andra webbplatser

"En bra teknisk beskrivnining var beställt..."

 

Tackar varmast :-) Outforskat territorium...

 

 

/PaleRider

- nedräkningen för Crapple har börjat !

 

Länk till kommentar
Dela på andra webbplatser

Arkiverat

Det här ämnet är nu arkiverat och är stängt för ytterligare svar.

×
×
  • Skapa nytt...