Ich bin erschüttert -Danke für den Hindweis - auf eine Terminiertheit wollte ich nicht hinaus, sondern "einfach" ein Skript ablehnen, daß zugroße Arrays oder zuviele Schleifen bzw zu lange braucht oder zuviel Speicher verbrät, sowie alles, was bekannte Schwachstellen behinhaltet. Ein anderer Ansatz wäre das eine Initative sich die Mühe macht und eine White und Blacklist von Webservern pflegt die definitiv OK bzw definiv schlechten/gefährlichen JavaScriptcode beinhalten und vielleicht den Code per Hashwert mit den bekannten überprüften vergleichbar macht. Am liebsten wäre es mir natürlich, wenn man von Webservern nur Daten und keine Skripte bekommt, sondern die Skripte man (per apt-get) aus vertrauenswürdiger Quelle besorgt. BTW wieso muß jede Seite einen eigenen Skriptmist haben, kann man nicht einpaar Standardlösungen anbieten, die entweder durch eine Signierung abgesichert sind oder eben lokal vorhanden sind?
Etwas OT, es geht hierbei nicht um Sicherheit , aber um usability, die ein Proxy/Konverter vielleicht lösen könne: Ich ärgere mich sehr über die Bibliotheksseite meiner Hochschule: http://opac.bth.rwth-aachen.de Wird man mit cURL troz Javaskript diese Seiten ohne Firefox nutzen können, oder welche Tools/Scriptsprachen nimmt man am besten um solche Seiten auch mit Textbrowser nutzen zu können (links2 scheitert)?
Etwas OT, es geht hierbei nicht um Sicherheit , aber um usability, die ein Proxy/Konverter vielleicht lösen könne: Ich ärgere mich sehr über die Bibliotheksseite meiner Hochschule: http://opac.bth.rwth-aachen.de Wird man mit cURL troz Javaskript diese Seiten ohne Firefox nutzen können, oder welche Tools/Scriptsprachen nimmt man am besten um solche Seiten auch mit Textbrowser nutzen zu können (links2 scheitert)?
Gruß rob