Hinweis: Das Forum wird geschlossen! Neue Registrierungen sind nicht mehr möglich!

 Zurück zu Pro-Linux   Foren-Übersicht   FAQ     Suchen    Mitgliederliste
Eine Webseite auf den lokalen Rechner kopieren

 
Dieses Forum ist gesperrt, Sie können keine Beiträge editieren, schreiben oder beantworten.   Dieses Thema ist gesperrt, Sie können keine Beiträge editieren oder beantworten.    Pro-Linux Foren-Übersicht -> Linux-Forum (alt)
Vorheriges Thema anzeigen :: Nächstes Thema anzeigen  
Autor Nachricht
stephan



Anmeldungsdatum: 05.08.1999
Beiträge: 427
Wohnort: nähe Köln

BeitragVerfasst am: 26. Jul 2000 14:25   Titel: Eine Webseite auf den lokalen Rechner kopieren

Hi Leute !

Ich habe vor, von einer Webseite Daten auf meinen Rechner zu kopieren. Es sind eine unmenge von Dateien. Ich könnte alle anklicken und einzelnd speichenr (es sind bilder). Aber das ist einfach zu mühselig.
Ich habe reinen HTTP-Zugriff. Mit welchem Programm kann ich das realisieren ?! Und wie sind die genauen Optionen ?!

Danke ... Stephan !
 
Benutzer-Profile anzeigen Private Nachricht senden E-Mail senden Website dieses Benutzers besuchen

schlops



Anmeldungsdatum: 17.02.2000
Beiträge: 102

BeitragVerfasst am: 26. Jul 2000 14:49   Titel: Re: Eine Webseite auf den lokalen Rechner kopieren

Aehm, schon mal an wget gedacht?

Stay Rude!
 
Benutzer-Profile anzeigen Private Nachricht senden E-Mail senden

rakl



Anmeldungsdatum: 17.06.2000
Beiträge: 194
Wohnort: Beckum

BeitragVerfasst am: 26. Jul 2000 20:04   Titel: Re: Eine Webseite auf den lokalen Rechner kopieren

Hallo

die möglichen Optionen für wget erhälst Du, wenn Du in der Konsole wget --help eingibst.

Ungefähr sollten sie so lauten: wget -c -R http:www.irgendwas

Es gibt noch eine Option, um die Rekursionstiefe einzustellen, um nicht das gesamte Internet downzuladen.
Schau mal nach.
Das -c steht für continue, und das -R für Rekursiv.
Gruß
rakl
 
Benutzer-Profile anzeigen Private Nachricht senden E-Mail senden Website dieses Benutzers besuchen

Lexua
Gast





BeitragVerfasst am: 26. Jul 2000 20:19   Titel: Re: Eine Webseite auf den lokalen Rechner kopieren

Es geht mit Netscape auch recht gut.
Wenn man über File->Open Page... die WWW-Seite eingibt und diese mit "Open in Composer" öffnen läßt, und diese dann anschließend in einem separaten Ordner abspeichert, hat man auch so vieles von der Seite (Bilder,Icons,Links) mit gespeichert.
Dann kann man einfach aus dem Ordner die html Seite aufrufen wo drunter man vorher abgespeichert hatte. Siehe da die Seite wird so ziemlich komplett angezeigt !
 

stephan



Anmeldungsdatum: 05.08.1999
Beiträge: 427
Wohnort: nähe Köln

BeitragVerfasst am: 27. Jul 2000 9:46   Titel: Re: Eine Webseite auf den lokalen Rechner kopieren

Hi !

Habe wget ausprobiert. Allerdings gibt es da ein Problem (was vermutlich keines ist).

Wenn ich wget -c -r http://www.irgendwas.de/irgendwo/ eingebe, also ein Unterverzeichnis angebe, dann soll er nur dieses Unterverzeichnis kopieren. Und nicht die gesamte Domain. Beim Beispiel XOOM wäre da sicherlich ganz schnell meine Platte voll.

Weiss da jemand Rat ?!

Danke ...Stephan!
 
Benutzer-Profile anzeigen Private Nachricht senden E-Mail senden Website dieses Benutzers besuchen

schlops



Anmeldungsdatum: 17.02.2000
Beiträge: 102

BeitragVerfasst am: 27. Jul 2000 10:44   Titel: Re: Eine Webseite auf den lokalen Rechner kopieren

Hm, hab gerade kein wget zur Hand, aber IMHO kann man die Rekursionstiefe mit angeben. Einfach wget --help eingeben und durchlesen
Das -c kannst du Dir uebrigens beim ersten download sparen, das brauchst du erst wenn der DL unterbrochen wurde und du ihn fortsetzten willst. Du kannst auch eine Option mitangeben, damit alle absoluten Links auf die Seite zu relativen werden. Wie gesagt: wget --help

Stay Rude!
 
Benutzer-Profile anzeigen Private Nachricht senden E-Mail senden

Stefan
Gast





BeitragVerfasst am: 27. Jul 2000 11:37   Titel: Re: Eine Webseite auf den lokalen Rechner kopieren

Hallo!

Mit wget mache ich das so:

wget -r -l 1 http://www.irgenwas.de

Das lädt die Seite mit allem Zeugs und folgt allen Links mit einer Rekursionstiefe von 1.
Funktioniert tadellos. Die Sachen sind dann im aktuellen Verzeichnis, von wo aus ich wget aufgerufen habe.
Aber zusätzliche Optionen gibts natürlich in Massen. Bei mir (mit Suse 6.4) erzeugt
"wget --help" eine wunderschöne deutsche Hilfe mit allen Schaltern.

Stefan
 

Stefan
Gast





BeitragVerfasst am: 27. Jul 2000 11:48   Titel: Re: Eine Webseite auf den lokalen Rechner kopieren

Ach, ich habe was vergessen:

wget -r -l 1 http://www.irgendwas.de/irgendwo

müßte vermutlich die Datei index.html (falls vorhanden) mit allen Links holen. Also nicht das komplette irgendwas.de downloaden.

Zudem erlaubt "-I" eine Liste der erlaubten Verzeichnisse anzugeben.

Stefan
 

Beiträge vom vorherigen Thema anzeigen:   
     Pro-Linux Foren-Übersicht -> Linux-Forum (alt) Alle Zeiten sind GMT + 1 Stunde
Seite 1 von 1

 
Gehen Sie zu:  

Powered by phpBB © phpBB Group
pro_linux Theme © 2004 by Mandaxy