Crawl ist ein kleiner und effizienter Web-Crawler. Er beginnt eine Tiefensuche durch das WWW an den angegebenen URLs. Er speichert alle JPEG-Bilder, die die konfigurierten Bedingungen erfüllen. Crawl ist recht schnell. Nach der Beendigung von Crawl ist es möglich, an der Stelle zu starten, an der er aufhörte. Er hält eine persistente Datenbank, die mehrere Crawls ermöglicht, ohne Webseiten mehrfach zu besuchen. (non)