Weil es ein paar Seiten gibt die man nicht alt zu oft ansurft oder Sie einfach vergisst obwohl Sie vll. interessant sein könnten? Ich finds toll. In meiner Bookmarkliste befinden sich bald 400 Einträge wenn ich nur von den Wichtigen Seiten die änderungen bekommen würde wäre mir jedenfalls damit geholfen ohne jedesmal allesdurch zugehen, denn irgendwann wirds unuebersichtlich.
Wie sieht es bei Seiten aus, die dynamisch bei jedem Aufruf generiert werden, und somit leicht im Inhalt variieren (zB. aktuelles Datum in der Fußzeile)?
Genau auf das Problem bin ich auch gerade gestoßen. An und für sich eine nette Idee, nur bekomme ich bei jedem update eine Mail zugeschickt dass sich Inhalt geändert hat, zB. bei der Seite: http://wiki.splitbrain.org/wiki%3Achanges Schade, so ist das Programm für mich kaum zu gebrauchen.
So ein System bekommt man mit ein paar Zeilen Shell-Skript ja auch hin:
1.) mit wget Seite holen 2.) mit sed nur die interessanten Teile des HTML exrahieren 3.) md5 bilden und beim nächsten Durchlauf vergleichen (alternativ diff).
Ich hab es eben ausprobiert und es funktionierte auf Anhieb! Danke für den Tip. Das es so einfach auch geht, war zumindest mir bis jetzt nicht bewusst.
Gruß
http://sniperbeamer.de/webmonx/
Specto
http://code.google.com/p/specto/
Specto kann darüber hinaus noch weitaus mehr...
www.pro-linux.de
www.holarse.net
www.heise.de
www....
Wozu Arbeit doppelt machen ?
Schade, so ist das Programm für mich kaum zu gebrauchen.
1.) mit wget Seite holen
2.) mit sed nur die interessanten Teile des HTML exrahieren
3.) md5 bilden und beim nächsten Durchlauf vergleichen (alternativ diff).
Das sollte auch bei Wikis funktionieren