Just nu i M3-nätverket
Jump to content

Uppdaterings frekvens, Hertz (Hz) / Frames per secound - FPS


Niss3

Recommended Posts

Hej!

 

Jag har alltid haft en egen uppfattning som jag tyckt varit ganska

klar av vad Uppdateringsfrekvensen på skärmen och fps'n i spelen

har haft för funktion.

Här är min uppfattning:

Hertzen på skärmen anger uppdaterings frekvensen på skärmen.

Vanligtvis varierar den från 60-120 beroende på om man har

en platt skärm eller en tjockare (CRT?) skärm, gammal alltså.

Som jag förstått det så är det skärmen som sätter begränsningen

mest, men litegrann grafikkortet också.

Men som jag fått det förklarat så är det ingen somhelst prestanta

kravs skillnad om du kör 60 eller 120 hertz för grafikkortet. Alltså

menar jag att grafikkortet inte kommer jobba mer för att skärmen

uppdaterar bilden snabbare, har jag rätt?

Derimot så är det bättre att ha en högre frekvens för ögonen, då

en låg kan vara skadlig i längden.

Jag sitter på en lite äldre plattskärm men har ändå 75 Hz, vilket

jag är helt nöjd med.

Sen angående FPS'n när man spelar. Det är väl helt enkelt ett värde

för hur snabbt bilderna uppdaterar sig. Vanligvis brukar jag ha 40-150

beroende på vilket spel jag spelar, i vissa udda fall kan man krossa

de gränserna, men vad jag märkt gör det ingen större skillnad.

Självklart har jag förstått att fps'n i spelen är helt baserade på

prestanda, men helt oberoende vad du har för hertz på skärmen.

 

Då till det jag vill reda ut. Dels att jag förstått det rätt? Och dels så

är jag väldigt intresserad och vill gärna veta mer, mycket mer, om

både skärmar och datorer, så all information ni kan ge mig om detta

är väldigt uppskattat!

Men! Nu det som har irriterat mig. Jag vill ha klarhet i hur det fungerar

jämförelsevis mellan olika länder. Jag har hört att exempelvis USA

använder sig av 60 Hz i deras krafledningar och vi 50 Hz vilket medför

att de på något sätt har "bättre" möjligheter än oss. Speciellt när det

gäller TV och Konsol Spel. Men vad har detta för invärkan? Gör det

värkligen någon skillnad? Jag tykcer det låter fånigt - det jag har hört -

att man i USA skulle ha bättre bild och kunna spela bättre bara för att

de har högre uppdaterings frekvens och möjligtvis då FPS?

Jag menar, gör det värkligen så stor skillnad om vi inte pratar total

elite super nivå (när det gäller de som spelar data/konsol spel för

att tjäna pengar, eller är sponsrade).

 

Skulle det vara någon skillnad i spelandet om jag sitter på en dator med

75 Hz (skärm uppdatering) och 100 FPS i spelet, medans min motståndare

sitter på en dator med 120 Hz (skärm uppdatering) och 250 FPS!

Jag har provat båda och finner ingen somhelst skillnad när det gäller

att klara av samma sak lika bra. Möjligtvis små känslo skillnader i hur

spelet "flyter på". Men jag menar, skulle det medvärka att man blir

bättre? Att det skulle vara en fördel eller tillockmed räknas som fuskigt?

Jag tycker det är absurt!

I dehär fallen pratar jag såklart om "Shoot ém up" Spel. First person shooters. T.ex. Klassikerna Counter Strike, Quake 3.. eller nyare

S.T.A.L.K.E.R och Splinter Cell.

Visst förstår jag att en låg FPS skulle försämra möjligheterna, men

det känns värkligen som att "ögonen" inte har någon nytta av högre

FPS än ~100 och att Hertz/FPS inte på något sätt skulle öka spelarens

möjligheter att göra bättre ifrån sig när vi pratar "vanligt spelande"

för utmaningarnas och "vadslagningarnas" skull?

 

Jag skulle värkligen uppskatta om någon kunde ge mig klarhet i dessa

"begrepp", FPS och Hertz (Skärmens Uppdateringsfrekvens)!

Jag tror nämnligen inte att ett klassiskt playstation spel som Tekken 3

skulle gå "snabbare" i USA bara för att deras TV skärmar går på

högre frekvens än vad våra Svenska gör!

 

Link to comment
Share on other sites

Mr Andersson

Elnätets frekvens (50/60 Hz) har ingen som helst betydelse för varken datorns prestanda eller skärmens uppdateringsfrekvens. All el likriktas innan den används i elektronik.

 

Spelets fps, är hur fort spelet spottar ur sig nya bilder och har ingenting med skärmens uppdateringsfrekvens att göra. Dock, är det lämpligt att skämen är inställd på att visa minst så många fps som spelet spottar ur sig.

 

En skärm av typen CRT, där anger antalet Hz det antal bilder som elektronstrålen ska rita upp per sekund, och behöver inte ha något med datorns prestanda att göra, dock måste grafikkortet hinna med att skicka ut informationen i den hastigheten som skärmen behöver den. Låg frekvens gör att bilden flimrar och hög frekvens gör att bilden är stabil.

 

En skärm av typen TFT, vill alltid ha bilden i 60 Hz, men själva TFT-matrisen jobbar mycket snabbare än så, för att bilden ska bli stabil.

 

Därför, har du ett spel som spottar ur sig 120 fps och spelar på en TFT, missar du varannan bild. Eller rättare sagt, rent teoretiskt. Vårt öga hinner inte registrera mer än ca 50 bilder per sekund.

 

Som jämförelse, en vanlig TV visar 25 bilder per sekund (50 delbilder per sekunde, eftersom varje bild visas två gånger, men varannan linje per gång)

 

 

[inlägget ändrat 2007-04-12 23:08:00 av Mr Andersson]

Link to comment
Share on other sites

Vad det gäller skärmens uppdateringshastighet är högre frekvens än 60 Hz på en CRT-skärm att föredra för ögat. Om det finns en lampa i närheten kommer ögonen att se skillnadsfrekvensen, 60 - 50 = 10 Hz, som flimmer, vilket tröttar. Men en TFT-skärm har inte det problemet och bör i stället vara inställd på sitt defaultvärde (=60 Hz) för att bilden ska bli skarpast.

 

Link to comment
Share on other sites

Archived

This topic is now archived and is closed to further replies.

×
×
  • Create New...