Eine Webseite auf den lokalen Rechner kopieren

Locked
Message
Author
stephan
Posts: 427
Joined: 05. Aug 1999 12:52
Location: nähe Köln
Contact:

Eine Webseite auf den lokalen Rechner kopieren

#1 Post by stephan »

Hi Leute !

Ich habe vor, von einer Webseite Daten auf meinen Rechner zu kopieren. Es sind eine unmenge von Dateien. Ich könnte alle anklicken und einzelnd speichenr (es sind bilder). Aber das ist einfach zu mühselig.
Ich habe reinen HTTP-Zugriff. Mit welchem Programm kann ich das realisieren ?! Und wie sind die genauen Optionen ?!

Danke ... Stephan !

schlops
Posts: 102
Joined: 17. Feb 2000 12:12

Re: Eine Webseite auf den lokalen Rechner kopieren

#2 Post by schlops »

Aehm, schon mal an wget gedacht?

Stay Rude!

rakl
Posts: 194
Joined: 17. Jun 2000 21:23
Location: Beckum
Contact:

Re: Eine Webseite auf den lokalen Rechner kopieren

#3 Post by rakl »

Hallo

die möglichen Optionen für wget erhälst Du, wenn Du in der Konsole wget --help eingibst.

Ungefähr sollten sie so lauten: wget -c -R http:www.irgendwas

Es gibt noch eine Option, um die Rekursionstiefe einzustellen, um nicht das gesamte Internet downzuladen. <img src="http://www.pl-forum.de/UltraBoard/Images/Happy.gif" border="0" align="middle">
Schau mal nach.
Das -c steht für continue, und das -R für Rekursiv.
Gruß
rakl

Lexua

Re: Eine Webseite auf den lokalen Rechner kopieren

#4 Post by Lexua »

Es geht mit Netscape auch recht gut.
Wenn man über File->Open Page... die WWW-Seite eingibt und diese mit "Open in Composer" öffnen läßt, und diese dann anschließend in einem separaten Ordner abspeichert, hat man auch so vieles von der Seite (Bilder,Icons,Links) mit gespeichert.
Dann kann man einfach aus dem Ordner die html Seite aufrufen wo drunter man vorher abgespeichert hatte. Siehe da die Seite wird so ziemlich komplett angezeigt !

stephan
Posts: 427
Joined: 05. Aug 1999 12:52
Location: nähe Köln
Contact:

Re: Eine Webseite auf den lokalen Rechner kopieren

#5 Post by stephan »

Hi !

Habe wget ausprobiert. Allerdings gibt es da ein Problem (was vermutlich keines ist).

Wenn ich wget -c -r http://www.irgendwas.de/irgendwo/ eingebe, also ein Unterverzeichnis angebe, dann soll er nur dieses Unterverzeichnis kopieren. Und nicht die gesamte Domain. Beim Beispiel XOOM wäre da sicherlich ganz schnell meine Platte voll.

Weiss da jemand Rat ?!

Danke ...Stephan!

schlops
Posts: 102
Joined: 17. Feb 2000 12:12

Re: Eine Webseite auf den lokalen Rechner kopieren

#6 Post by schlops »

Hm, hab gerade kein wget zur Hand, aber IMHO kann man die Rekursionstiefe mit angeben. Einfach wget --help eingeben und durchlesen <img src="http://www.pl-forum.de/UltraBoard/Images/Wilk.gif" border="0" align="middle">
Das -c kannst du Dir uebrigens beim ersten download sparen, das brauchst du erst wenn der DL unterbrochen wurde und du ihn fortsetzten willst. Du kannst auch eine Option mitangeben, damit alle absoluten Links auf die Seite zu relativen werden. Wie gesagt: wget --help

Stay Rude!

Stefan

Re: Eine Webseite auf den lokalen Rechner kopieren

#7 Post by Stefan »

Hallo!

Mit wget mache ich das so:

wget -r -l 1 http://www.irgenwas.de

Das lädt die Seite mit allem Zeugs und folgt allen Links mit einer Rekursionstiefe von 1.
Funktioniert tadellos. Die Sachen sind dann im aktuellen Verzeichnis, von wo aus ich wget aufgerufen habe.
Aber zusätzliche Optionen gibts natürlich in Massen. Bei mir (mit Suse 6.4) erzeugt
"wget --help" eine wunderschöne deutsche Hilfe mit allen Schaltern.

Stefan

Stefan

Re: Eine Webseite auf den lokalen Rechner kopieren

#8 Post by Stefan »

Ach, ich habe was vergessen:

wget -r -l 1 http://www.irgendwas.de/irgendwo

müßte vermutlich die Datei index.html (falls vorhanden) mit allen Links holen. Also nicht das komplette irgendwas.de downloaden.

Zudem erlaubt "-I" eine Liste der erlaubten Verzeichnisse anzugeben.

Stefan

Locked