Fürs Länger-Zeit-Archivieren sicherlich prima, und ~3G*B in ~10M*B stopfen klingt - ich möcht sagen -- zu gut um wahr zu sein.
- Ich seh halt nur das Problem in der Daten'haltung'. Da hat man also sein 10MB großes Archiv, welches ~3GB Daten rekonstruieren kann oder können soll und entsprechend ist dann natürlich jedes einzelne Bit significant für die (erfolgreiche und fehlerfreie) Rekonstruktion des Originals.
- Allerdings kippen grad bei dauerhaftem Speichern einzelne Bits schonmal um. Kommt vor, läßt sich nicht vermeiden. Normal merkt man das auch so gut wie nicht, da steht dann in der Textdatei eben statt "Winfuture" "Winfutvre" weil die das letzte Bit des kleinen u (0111 0100) umgekippt war (0111 0101) und nun eben den ASCII-Code für 'v' hatte. Wenn sowas aber in so einem hochkomprimierten Archiv passiert, dann wird das schon wahnsinnig kritisch, und wenn der Algorithmus noch ein, zwei solcher Bitflips mitmacht, irgendwann war's das dann aber trotzdem.
- Kurz, auf optischen Medien wo Bits gefühlt alle paar Minuten umklappen und nach paar Jahren erst gar nicht mehr lesbar sind, würde ich solche Daten dann doch nicht speichern wollen. Ausgerechnet da dann doch lieber mit redundanter Recovery-Information.

Hilfe
Neues Thema
Antworten




Nach oben


