Kategoria: Pomoce

Kompresja plikow

2009 Marzec 15 – 16:35

Robiac backupy na wielu serwerach, stwierdzilem ze wypada zrobic test programow kompresujacych, aby uzyskac najlepszy stosunek wielkosci pliku do czasu kompresowania (obciazenia procesora).

W kazdym wypadku pomiary dokonywane beda na ztarowanych plikach lub katalogach (wyjatkiem sa zrzuty baz danych, ktore juz sa w jednym pliku). Tarowanie jest ogolnie oczywiste, aby uniknac problemow z prawami plikow oraz operacjami kompresowania na wielu plikach lub katalogach.

Do testow poszly:

  • gzip
  • bzip2
  • zip
  • rar
  • 7zip
  • lzma

Maszyna testowa:

  • Debian Lenny 5 stabilny (dziwne :D)
  • Intel Core2Duo 2×2,80 GHz
  • 2Gb RAM

Procedura: 3 pomiary, srednia zaokraglona do trzeciego miejsca (w przypadku jednego mocno odstajacego pomiaru, seria powtorzona).

Wyniki 1

Testowany plik: 10Mb plik, TAR serwera murmur (kod, binarki, zadnych obrazkow ani filmikow)

Czas kompresji (im mniej tym lepiej, ustawienia standardowe):

Wielkosc pliku wyjsciowego (w % pliku wejsciowego, im mniej tym lepiej, ustawienia standardowe):

Wyniki 2

Testowany plik: ~45Mb zrzut bazy danych (sam tekst, pojedynczy plik)

c.d.n… 🙂

TO DO

  • stosunek czas kompresji/wielkosc pliku
  • porownanie maksymalnych ustawienia kompresji
  • kompresja zrzutow baz danych

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *