Login
Newsletter
Werbung

Thema: Rope: Filterbeschreibungssprache für IPTables

5 Kommentar(e) || Alle anzeigen ||  RSS
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
0
Von pz am Do, 2. Dezember 2004 um 03:06 #
Schaut nach einem mächtigen Werkzeug aus, dass iptables noch weiter aufmotzt.
Eigentlich stellt sich noch die Frage nach der Performance.

Schade ist, dass ROPE im Moment nur 2.4er Kernels unterstützt.

ciao

[
| Versenden | Drucken ]
0
Von radionacht am Do, 2. Dezember 2004 um 16:01 #
Salve,

Bestimmte Inhalte gezielt und bequem ausfiltern
zu können ist cool, aber gibt es auch Tools
mit denen man bestimmte Inhalte ändern,
bzw Formate konvertieren kann?

A - von bestimmten Seiten überflüssige Menüs, keywords ... ausfiltern?


B - automatisch
real -> mpg
doc -> pdf/ps

Und gibt es Metabrowser/Proxies, die z.B. mit einer Mozilla Engine
mit Javascript/Cockie verunstalteten Webseiten umgehen können und
die Seiten textbrowserfreundlich übersetzen?

Oder für hartnäckige Browserweichen-Pages genau bei dieser Page als
Proxi fungieren und unabhänig vom Client einen w3c kompatiblen Zugriff
(nach konfiguration) ermöglichen?

C JavaScript unabhänig vom Client filtern und ungültige oder unmögliche
Routienen (Unendliche Schleifen) erkennen und ablehnen?

D Automasch Webseiten auf w3c Konformität testen, einige Fehler selber
beheben können, andere Fehler deaktivieren?

Gruss
rob

[
| Versenden | Drucken ]
  • 0
    Von Ingo Blechschmidt am Do, 2. Dezember 2004 um 17:36 #
    Zu C.: Was du beschreibst ist das erwiesernermaßen unlösbare Halteproblem [Wikipedia].
    [
    | Versenden | Drucken ]
    • 0
      Von radionacht am Do, 2. Dezember 2004 um 18:05 #
      Ich bin erschüttert ;) -Danke für den Hindweis - auf eine Terminiertheit wollte ich nicht hinaus, sondern "einfach" ein Skript ablehnen, daß zugroße Arrays oder zuviele Schleifen bzw zu lange braucht oder zuviel Speicher verbrät, sowie alles, was bekannte Schwachstellen behinhaltet. Ein anderer Ansatz wäre das eine Initative sich die Mühe macht und eine White und Blacklist von Webservern pflegt die definitiv OK bzw definiv schlechten/gefährlichen JavaScriptcode beinhalten und vielleicht den Code per Hashwert mit den bekannten überprüften vergleichbar macht. Am liebsten wäre es mir natürlich, wenn man von Webservern nur Daten und keine Skripte bekommt, sondern die Skripte man (per apt-get) aus vertrauenswürdiger Quelle besorgt. BTW wieso muß jede Seite einen eigenen Skriptmist haben, kann man nicht einpaar Standardlösungen anbieten, die entweder durch eine Signierung abgesichert sind oder eben lokal vorhanden sind?

      Etwas OT, es geht hierbei nicht um Sicherheit , aber um usability, die ein Proxy/Konverter vielleicht lösen könne: Ich ärgere mich sehr über die Bibliotheksseite meiner Hochschule: http://opac.bth.rwth-aachen.de Wird man mit cURL troz Javaskript diese Seiten ohne Firefox nutzen können, oder welche Tools/Scriptsprachen nimmt man am besten um solche Seiten auch mit Textbrowser nutzen zu können (links2 scheitert)?

      Gruß rob

      [
      | Versenden | Drucken ]
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten
Werbung