Google verspricht bessere Datenkompression durch Algorithmus „Zopfli“

Noch kleinere Dateien beschleunigen die Datenübertragung und das Laden von Webseiten. Die Archive sind kompatibel zu anderen Packprogrammen. Da die stärkere Kompression selbst mehr Zeit erfordert, eignet sich Zopfli vor allem für statische Inhalte.

Google hat einen neuen Kompressionsalgorithmus namens „Zopfli“ vorgestellt, der Dateien noch mehr verkleinern können und damit die Datenübertragung und das Laden von Webseiten beschleunigen soll. Er eignet sich allerdings vor allem für statische Inhalte, da die Kompression zunächst mehr Zeit erfordert.

google_lupe

Entwickelt wurde Zopfli von einem Softwareentwickler, der in Zürich für Google tätig ist. Das dürfte auch die Namensgebung erklären, die von einem Schweizer Brotrezept abgeleitet ist. Lode Vandevenne interessiert sich besonders für Kompressionsalgorithmen und hat für die Arbeit an Zopfli die 20 Prozent der Arbeitszeit genutzt, die Google-Mitarbeiter für eigene Nebenprojekte verwenden dürfen. Zopfli steht als Open Source unter der Apache-Lizenz 2.0 zur Verfügung.

Ausführliche Tests mit typischen Webinhalten ergaben, dass mit Zopfli komprimierte Dateien zwischen 3,7 und 8,3 Prozent kleiner ausfallen als Dateien, die mit Gzip, 7-zip oder Kzip bei maximaler Kompressionseinstellung gepackt wurden. Die höchstmögliche Kompression erfordert aber auch mehr Zeit und belastet die CPU stärker. „Die höhere Datendichte wird durch gründlichere Kompressionstechniken erreicht“, erklärte Vandevenne in einem Blogeintrag. „Das verlangsamt die Kompression wesentlich, was sich aber nicht auf das Entpacken auswirkt.“

Zopfli dient ausschließlich der Kompression, da vorhandene Software die Dateien entpacken kann. Es ist Bitstream-kompatibel zur Kompression, wie sie beispielsweise in Gzip, ZIP, PNG und HTTP-Requests eingesetzt wird.

„Die kleinere komprimierte Größe erlaubt bessere Speicherplatznutzung, schnellere Datenübertragung und kürzere Ladezeiten von Webseiten“, nennt Vandevenne die Vorteile. Weitere Vorzüge könnten sich für die Nutzer von Mobilgeräten durch reduzierte Gebühren für das Datenvolumen sowie eine geringere Beanspruchung des Akkus ergeben.

Der neue Algorithmus sei aber keine Allzwecklösung, räumt sein Entwickler ein: „Da die Kompression selbst die zwei- bis dreifache CPU-Zeit beansprucht wie Zlib bei maximaler Qualität, eignet sich Zopfli vor allem für Anwendungen, bei denen Daten einmal komprimiert und vielfach über ein Netzwerk geschickt werden, wie es etwa bei statischen Inhalten im Web der Fall ist.“

[mit Material von Steven Musil, News.com]

Tipp: Wie gut kennen Sie Google? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.

Themenseiten: Google, Internet, Open Source, Software

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Google verspricht bessere Datenkompression durch Algorithmus „Zopfli“

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *