Login
Newsletter

Thema: Interessante Webseite im Blick mit watch_web

10 Kommentar(e) || Alle anzeigen ||  RSS
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
0
Von daniel am Di, 5. Juni 2007 um 18:51 #
ansonsten "update scanner" für firefox -> https://addons.mozilla.org/de/firefox/addon/3362
[
| Versenden | Drucken ]
0
Von geode am Di, 5. Juni 2007 um 19:24 #
WebMonX
http://sniperbeamer.de/webmonx/

Specto
http://code.google.com/p/specto/

Specto kann darüber hinaus noch weitaus mehr...

[
| Versenden | Drucken ]
  • 0
    Von Irgendso ein Typ am Mi, 6. Juni 2007 um 00:07 #
    Noch wichtigere Alternativen:
    www.pro-linux.de
    www.holarse.net
    www.heise.de
    www....

    Wozu Arbeit doppelt machen ?

    [
    | Versenden | Drucken ]
    • 0
      Von Robert Tulke am Mi, 6. Juni 2007 um 01:46 #
      Weil es ein paar Seiten gibt die man nicht alt zu oft ansurft oder Sie einfach vergisst obwohl Sie vll. interessant sein könnten? Ich finds toll. In meiner Bookmarkliste befinden sich bald 400 Einträge wenn ich nur von den Wichtigen Seiten die änderungen bekommen würde wäre mir jedenfalls damit geholfen ohne jedesmal allesdurch zugehen, denn irgendwann wirds unuebersichtlich.
      [
      | Versenden | Drucken ]
      • 0
        Von Leggo am Mi, 6. Juni 2007 um 09:46 #
        Wozu hat man 400 Lesezeichen und woher weiß man bei 400 Lesezeichen welche man überhaupt hat?
        [
        | Versenden | Drucken ]
0
Von chrm am Mi, 6. Juni 2007 um 08:07 #
Wie sieht es bei Seiten aus, die dynamisch bei jedem Aufruf generiert werden, und somit leicht im Inhalt variieren (zB. aktuelles Datum in der Fußzeile)?
[
| Versenden | Drucken ]
  • 0
    Von Exxter am Mi, 6. Juni 2007 um 12:19 #
    Genau auf das Problem bin ich auch gerade gestoßen. An und für sich eine nette Idee, nur bekomme ich bei jedem update eine Mail zugeschickt dass sich Inhalt geändert hat, zB. bei der Seite: http://wiki.splitbrain.org/wiki%3Achanges
    Schade, so ist das Programm für mich kaum zu gebrauchen.
    [
    | Versenden | Drucken ]
    • 0
      Von chrm am Mi, 6. Juni 2007 um 13:33 #
      So ein System bekommt man mit ein paar Zeilen Shell-Skript ja auch hin:

      1.) mit wget Seite holen
      2.) mit sed nur die interessanten Teile des HTML exrahieren
      3.) md5 bilden und beim nächsten Durchlauf vergleichen (alternativ diff).

      Das sollte auch bei Wikis funktionieren ;-)

      [
      | Versenden | Drucken ]
      • 0
        Von infognom am Mi, 6. Juni 2007 um 16:24 #
        Ich hab es eben ausprobiert und es funktionierte auf Anhieb! Danke für den Tip. Das es so einfach auch geht, war zumindest mir bis jetzt nicht bewusst.
        [
        | Versenden | Drucken ]
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten