Öh, wget eller curl kanske skulle fungera? Curl finns i din terminal och wget kan du få via t.ex. http://www.gnu.org/software/wget/
Å andra sidan så tror jag det är denna lilla fil som stoppar er. Ja robots.txt som definerar vad du får ta ner. Du kan å andra sidan gå förbi den men då bör du ha koll på vad du gör annars kan du få bannor.
# robots.txt for http://www.wikipedia.org/ and friends
#
# Please note: There are a lot of pages on this site, and there are
# some misbehaved spiders out there that go _way_ too fast. If you're
# irresponsible, your access to the site may be blocked.
.........
# Some bots are known to be trouble, particularly those designed to copy
# entire sites. Please obey robots.txt.
User-agent: sitecheck.internetseer.com
Disallow: /
User-agent: Zealbot
Disallow: /
User-agent: MSIECrawler
Disallow: /
User-agent: SiteSnagger
Disallow: /
User-agent: WebStripper
Disallow: /