zlib är en helt hyfsad komprimeringslibrary. Inte den snabbaste eller den som komprimerar mest men den duger gott och väl till det mesta. Licensen är också mycket enkel ( http://www.gzip.org/zlib/zlib_license.html ) och har gjort att zlib har blivit mycket utbrett.
Det hela fungerar så att webbläsaren skickar en förfrågan till servern om en sida och skickar samtidigt med information om sig själv och vad den är kapabel att hantera.
GET / HTTP/1.1
Host: www.99mac.se
User-Agent: Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.5) Gecko/20031007
Accept: text/xml,application/xml,application/xhtml+xml,text/html;q=0.9,
text/plain;q=0.8,image/png,image/jpeg,image/gif;q=0.2,*/*;q=0.1
Accept-Language: en-us,en;q=0.5
Accept-Encoding: gzip,deflate
Accept-Charset: ISO-8859-1,utf-8;q=0.7,*;q=0.7
...
När servern ser att mottagaren kan hantera material i gzip kodning, komprimerar den sidorna som skickas. Om inte läsaren meddelar något om kodning skickas texten okomprimerat.
Komprimering sker alltså på servern och dekomprimering sker hos webbläsaren.
De sajter som har mycket trafik och som vill minska på bandbreddskostnaderna bör använda zlib. 99mac har jag för mig komprimerar sidorna (hoppas det iaf ) . Stora sajter som slashdot.org, Lunarstorm, cnn.com osv komprimerar garanterat allt de kan.
En liten sajt som bara har ett par hundra sidvisningar per månad har knappast så mycket nytta av komprimering, men det skadar inte heller att ha den på.
Ligger din sajt på en webbhotell kommer du inte att ha någon större nytta av denna information då konfiguration av komprimeringen styrs av serveradmin, men har du en egen maskin så bör du överväga att använda komprimering.
Kom ihåg bara att komprimering fungerar bäst på ren text. Bilder och annat komprimeras bara lite eller inte alls. (Kommer inte ihåg exakt). Har du mycket bilder kommer det att gå lika slött som förut. Fundera på att göra om bilderna i så fall.