Just nu i M3-nätverket
Gå till innehåll

vill packa upp en fil som heter ??????.rar


ego

Rekommendera Poster

CJ Björkdahl

Med tanke på att "alla vettiga människor" har bredband idag, och att winzip (som numera är integrerat till viss del i win) är det inte klokt att det dyker upp nya komprimeringsstandarder för filer..

 

Okej:

En en megabyte stor fil tar 1 sekund för mig att ladda ner. (ungefär). Att "unzippa" den tar också en sekund, men kräver lite "obehag/arbete" geom klicka okej ett par gånger. Har filen ett konstigt "zip-format" som exempelvis "rar", så tar det betydligt mer kraft och arbete samt tid att få fram filen i "normalt" format.

 

(Sista {och enda} "rar"-filen jag öppnat innehöll dåliga bilder på "utlovade" nakna blondiner.. Inte alls värt besväret!)

;)

 

 

Länk till kommentar
Dela på andra webbplatser

.rar är inte så nytt. Kanske äldre än zip.

 

WinZip har en begränsning på 4 GB. WinRar kan packa betydligt större filer.

 

Länk till kommentar
Dela på andra webbplatser

CJ Björkdahl

Okej... Men jag har aldrig haft behov av "packade filer" som är i storleken 4GB..

 

-Har inte ens sett några, faktiskt.

 

Länk till kommentar
Dela på andra webbplatser

Men om jag ska ladda ned något från en webbsida och detta något innehåller en hundra hundrafemtio olika filer som ska ligga i tretton mappar med 2-3 undermappar var och mappstrukturen är viktig. Då är det skönt att det kommer packat! Ett/två klick för att ladda hem. Ett/två klick för att packa upp. Jämförs med sjuhundrasjuttiosju klick om man skulle ladda ner filerna var för sig och återskapa mappstrukturen... Och ja, rar är en gammal standard (som sagt kanske äldre än zip). Om man med gammal menar att den funnits med länge.

 

/Cluster

----------------------------------------

"Den som försummar att dricka ur erfarenhetens källa kommer troligen att dö av törst i okunnighetens öken." - Ling Po

 

Länk till kommentar
Dela på andra webbplatser

Jag föredrar definitivt rar framför zipformatet då rar kan packa betydligt hårdare än zip och få ner filstorleken ytterligare.

För dom flesta människor tar det betydligt längre än 1 sek för att ladda ner en megabyte och då är storleken avgörande.

 

Länk till kommentar
Dela på andra webbplatser

Stefan Eklinder
WinZip har en begränsning på 4 GB. WinRar kan packa betydligt större filer.

 

Har inte WinZip stöd för RAR-filer?

 

Mitt PowerArchiver kan man packa upp RAR med. I alla fall blir sådana filer associererade (svårstavat) med PowerArchiver. Har inte fått någon RAR-fil dock.

 

 

---

C:\Eforum\Stefan Eklinder>|

 

Antingen är man en del av lösningen eller en del av problemet.

 

E Cleaver

 

 

Länk till kommentar
Dela på andra webbplatser

CJ Björkdahl

Jag skulle inte vilja ladda ner något stort och komprimerat, som Cluster skrev. Komprimeringen gör att felkorrektion (exempelvis) inte fungerar. Och den behövs!

 

Länk till kommentar
Dela på andra webbplatser

Komprimeringen gör att felkorrektion (exempelvis) inte fungerar. Och den behövs!

 

Ursäkta? Utveckla detta pleeease! :)

 

--

.Wey

 

Go da! Sing a song!

 

Länk till kommentar
Dela på andra webbplatser

CJ Björkdahl

Det är betydligt sämre skydd mot korruperade filer om filerna är komprimerade än okomprimerade. Googla gärna på "corrupted zip" (rar etc.). Dyker upp en massa träffar från bedrövade människor..

 

Exempel:

http://www.google.com/search?sourceid=navclient&hl=sv&ie=UTF-8&oe=UTF-8&q=corrupted+compressed+files

 

Förutom att komprimeringsalgoritmen tar bort en massa "luft" i filerna, så tar man också bort felkorrektionsskyddet. Att sedan filer med högre "densitet" samtidigt är mer felbenägna just på att de har "högre densitet" är en annan grej. (Jämför exempelvis det liknande förhållandet mellan en "lika stor" repas inverkan på en DVD-skiva respektive CD-skiva.)

 

Har läst flera artiklar om ämnet, alla säger i princip samma sak: Komprimerade filer är känsligare för störningar än okomprimerade.

 

 

Länk till kommentar
Dela på andra webbplatser

Googla gärna på "corrupted zip" (rar etc.). Dyker upp en massa träffar från bedrövade människor..

 

Ok, vad fasen har det med saken att göra? Som om man laddade ner icke komprimerade filer från nätet någonsin? (kör du med modem har du dessutom inget val, datatrafiken komprimeras som standard så mycket det går)

 

..mp3:or, jpeg och gif-bilder, streaming, installationsexefiler - alla är så komprimerade som det går (+/- några procent). Varför skulle just zip och rar-filer vara mer drabbade? Nähä du, låt gå för tandkrämen på processorn (men 10 graders skillnad kan du glömma, då har testaren gjort fel eller inte räknat på marginalerna och testat tillräckligt många gånger!) - men den här gubben går fan inte, CJ! ;)

 

så tar man också bort felkorrektionsskyddet

 

Kan vi börja med att reda ut vilket felkorrektionsskydd du pratar om?

 

Jag skulle inte vilja ladda ner något stort och komprimerat, som Cluster skrev.

 

Såååå... hur gör du då? Laddar ner något litet och okomprimerat? =D

 

--

.Wey - en fil är en fil är en fil, en felaktig bit är en felaktig bit - det stör fasen ut filen oavsett vad det är. Om det sedan är en mp3 som får ett "klick" vid felet eller en zip som då vägrar att packa upp innehållet har juh inget med störkänsligheten att göra? Det går för övrigt att zippa upp skadade filer också om man anstränger sig...

 

...vidare är (den bakom) zip en såpass gammal och tråkig algoritm att rar och andra nya kompressionsformat med vettigare algoritmer visst fyller en plats. Det kan bli en markant skillnad i "verkningsgrad" om man struntar i zip, även om jag aldrig orkar bry mig om det när jag packar själv...

 

Go da! Sing a song!

 

Länk till kommentar
Dela på andra webbplatser

CJ ??? Felkorrigering (eller är kanske validering ordet du letar efter) sker på indata och inte hur indatan såg ut innan den blev indata.

 

Länk till kommentar
Dela på andra webbplatser

CJ Björkdahl

Jovisst, men det hjälper ju inte om zip-filen blivit skadad i överföringen över exempelvis internet..

 

Du har större risk att få en zip-fil (komp. fil) skadad än en fil i "klartext". Och ju större filen är, desto större är också risken.

 

Länk till kommentar
Dela på andra webbplatser

Du har större risk att få en zip-fil (komp. fil) skadad än en fil i "klartext".

 

Nej, varför det? Det spelar juh ingen roll vad bitarna representerar, det är knappast så att trollen har någon sorts försmak för bitar tillhörande en zip-fil.

 

Och ju större filen är, desto större är också risken.

 

Desto bättre att zippa filen så den blir mindre då? ;)

 

--

.Wey

 

Go da! Sing a song!

 

Länk till kommentar
Dela på andra webbplatser

CJ Björkdahl

Nehej, vi pratar om varandra.

 

Redundansen i okomprimerade filer är högre än i komprimerade eftersom pariteten är högre vid okomprimerat. (Okomprimerat har helt enkelt fler korrektionsbitar)

 

Skickar du över 100 filer så har du högre redundans (se resonemanget ovan) än om du skickar allt i ett enda ziparkiv (eller rar-arkiv) vilket kan ses som en enda stor fil.

 

Och jag talar om filkomprimering, inte komprimering av ljud/bildinformation som exempelvis mp3. (Inte riktigt samma sak, men det är nog Weyland medveten om)

 

Länk till kommentar
Dela på andra webbplatser

Redundansen i okomprimerade filer är högre än i komprimerade eftersom pariteten är högre vid okomprimerat. (Okomprimerat har helt enkelt fler korrektionsbitar)

 

Vadå pariteten högre? I vadå? Bitar som bitar, felkorrigeringen skiter väl i om det är "hårt komprimerat" eller inte - det är bara bitströmmar för den oavsett hur ettorna och nollorna är fördelade...

 

--

.Wey

 

Go da! Sing a song!

 

Länk till kommentar
Dela på andra webbplatser

CJ Björkdahl

Jämför med koncentrerad saft respektive utspädd saft:

Spiller du en deciliter koncentrerad saft, blir du av med mer saft än om du spiller en deciliter utspädd saft.

 

-Dvs. snackar vi komprimerade filer respektive okomprimerade filer så är det värre att förlora en bit av en komprimerad fil än det är att förlora en bit av en okomprimerad fil. Vidare är det "lättare" att "återskapa" en fil som har fler paritetsbitar än en fil som har färre. I en komprimerad fil måste mer information "dela på" ett färre antal paritetsbitar.

 

Länk till kommentar
Dela på andra webbplatser

Fil1.xxx:

01000101011000101100101010100101010101000

 

Fil2.xxx:

010011101010010100111000

 

 

...hmm... fil2 är en zipfil, fil1 är en wordfil. Förklara nu, varför skulle Fil2 lida av större risk för felaktiga bitar?

 

Det har juh inte med sammansättningen att göra, det enda som kan påverka är filstorleken - alltså vinner man på att zippa.

 

Vidare, om du nu inte kom ihåg det, så kan man zippa upp skadade zipfiler för att utvinna de filer som inte ligger inom det skadade området, om det nu är det du hakat upp dig på... (fast då skulle du förstås inte förespråka en tarboll heller, som typ bara är alla filerna i följd i en fil utan komprimering)

 

Dvs. snackar vi komprimerade filer respektive okomprimerade filer så är det värre att förlora en bit av en komprimerad fil än det är att förlora en bit av en okomprimerad fil

 

Knappast möjligt att resonera så, blir du av med en enda bit i en fil så är den normalt körd, hur låg densitet den än har. Vi pratar digitalt, ettor och nollor, inga gamla rullband som klarar mera slitage juh högre hastighet (=lägre datadensitet) de har :)

 

Vidare, om du zippar filen så den blir mindre så reducerar du juh den statistiska chansen att ett bitfel uppstår, snarare än att öka den.

 

Den här debatten är klart skum, jag hajar inte vad poängen är, men jag kanske kan förstå vart resonemanget kommer ifrån... dock är det inte applicerbart på digital data. Vidare är det svårare att spilla ur en deciliter koncentrerad saft i ett tvådecilitersglas än vad det är att spilla ur två deciliter utspädd saft i ett tvådecilitersglas :)

 

--

.Wey

 

Go da! Sing a song!

 

Länk till kommentar
Dela på andra webbplatser

De flesta filöverföringar över nätet sker dessutom ändå med komprimering av "luft"-avsnitt, så bortfallet kommer ändå att påverka samma fil, statistikt sett, på samma sätt oavsett om den är packad eller inte innan överföringen påbörjas.

 

Länk till kommentar
Dela på andra webbplatser

CJ Björkdahl

Om vi säger så här då:

 

Du har en skönlitterär bok på 500 sidor. Riv ut en sida i mitten av boken och kasta bort. Du kan ändå förstå handlingen i boken någorlunda väl. Om det hänt något signifikant på denna sida, exempelvis en figur blivit mördad, så kan du räkna ut detta av handlingen före och efter den saknade sidan.

 

Men:

Du har samma bok "komprimerad" till en kort text på ett par sidor. Kasta bort en sida. Den komprimerade sidan som försvinner innehåller mer signifikant information än den sidan som försvann av 500 sidor..

Du kan antagligen (understatement) inte räkna ut vad som fattas.

 

Alltså: Ju mer komprimerad informationen är, desto "värdefullare" blir den, och desto mer skada orsakar ett bortfall. Likadant är det med vanligt språk: Språket har ett överflöd av information som "garanterar" att överföringen av "huvudinformationen" sker på ett korrekt sätt, även om mottagaren inte uppfattar alla bokstäverna/orden.

 

"Olle gick vilse i skogen och frös ihjäl".

"Oll ick vils i skoen o rös hjäl"

 

Vissa skriftspråk saknar vokaler, har enbart konsonanter. Exempelvis hebreiskan. På sätt och vis kan man säga att hebreiskan är mer "komprimerad" i och med att man tagit bort vokalerna. Men vad händer om en eller flera konsonanter faller bort? -Antagligen blir meningen/ordet oförståeligt. Samma sak med komprimerad data. -Ju fler bitar du har för att "säga" samma sak, desto redundantare blir det.

 

 

 

 

 

 

 

 

 

 

 

Länk till kommentar
Dela på andra webbplatser

Nu slänger jag bara in ett svar här i tråden...

 

Gör ett antagande om att det är någon form av film eller liknande som ska packas upp då inlägget ligger under CD-bränning.

 

Filmer som ligger uppdelade i ett x antal rar-filer är inte komprimerade. Anledningen till rar-filerna är att det är lättare att plocka hem en fil på ett par MB än att dra ner hela filmen igen...

 

 

Tillägg till övriga diskussionen...

 

Om man har komprimerat boken på 500 sidor till 50 sidor så borde det alltså ta enm tiondel så lång tid att ladda hem den. Med lite logiskt tänkande så borde det uppstå tio gånger så många fel på filen som är okomprimerad.

 

Länk till kommentar
Dela på andra webbplatser

Arkiverat

Det här ämnet är nu arkiverat och är stängt för ytterligare svar.

×
×
  • Skapa nytt...