Login
Login-Name Passwort


 
Newsletter
Werbung

Mi, 22. Oktober 2008, 00:00

Der Linux-Kongress 2008 in Hamburg

Der 15. Internationale Linux-Kongress brachte zum zweiten Mal in Hamburg Entwickler aus dem Linux-Umfeld zusammen. Dieser Artikel gibt eine Übersicht über die Themen und Vorträge.

Vorwort

Der nahezu einzige Hinweis auf den Kongress hätte etwas ordentlicher ausfallen können

Hans-Joachim Baader (hjb)

Der nahezu einzige Hinweis auf den Kongress hätte etwas ordentlicher ausfallen können

Vom 7. bis 10. Oktober 2008 fand an der Universität Hamburg der 15. Internationale Linux-Kongress statt. Nachdem der Kongress im letzten Jahr zusammen mit dem Kernel Summit als LinuxConf Europe in England stattfand, kehrte die Traditionsveranstaltung in die Stadt zurück, in der sie 2005 schon einmal gastierte. Wieder war für den 15. Kongress (oder den 14. nach der Zählung derjenigen, die den letztjährigen nicht als offiziellen Linux-Kongress ansehen) wieder die Universität Hamburg der Gastgeber. Im Gegensatz zu 2005 war aber nicht das Foyer des Uni-Hauptgebäudes am Bahnhof Dammtor, sondern das einen Kilometer entfernte Foyer des Geomatikums der Veranstaltungsort. Dieses Hochhaus, das von außen einen stark sanierungsbedürftigen Eindruck macht, gehört zum Meteorlogischen Institut, das in der internationalen Klimaforschung eine bedeutende Rolle spielt. Doch das nur nebenbei.

Tutorien: Dienstag und Mittwoch, 7. und 8. Oktober

Der Kongress bestand aus zwei Tagen mit Tutorien sowie zwei Tagen mit Vorträgen in zwei parallelen Reihen und Keynotes. Die Tutorien waren teils einen, teils zwei Tage lang. Im Einzelnen wurden die folgenden Tutorien von rund 80 Teilnehmern besucht:

  • Network Monitoring With Open Source Tools (2 Tage)
  • Creating a single sign-on infrastructure with Kerberos and LDAP (2 Tage)
  • Building a virtualization cluster based on Xen and iSCSI-SAN (2 Tage)
  • Linux-HA (aka Heartbeat) v2 Setup and Administration (1 Tag)
  • DRBD + Heartbeat + Xen: HA Virtualization Environment (1 Tag)
  • VoIP Jumpstarting - getting through the initial hurdles (1 Tag)
  • Linux @Layer2 (1 Tag)

Erster Konferenztag: Donnerstag, 9. Oktober

Die Vorträge begannen am Donnerstag, den 7.10.2008 um 9.30 Uhr mit einer Keynote von James Bottomley über den Wert von Open Source. Von dieser durften sich die gestressten Teilnehmer danach erst einmal in einer Kaffeepause mit belegten Brötchen erholen.

In den Pausen trafen sich alle im Foyer

Hans-Joachim Baader (hjb)

In den Pausen trafen sich alle im Foyer

Um 11 Uhr ging es weiter mit einem Vortrag von Glauber Costa in Raum 1 »There can be only one - The unified x86 architecture«. Er erläuterte die Vereinigung der Architekturen i386 und x86_64, die inzwischen vollzogen, aber noch lange nicht beendet ist. Die Vortragsunterlagen (PDF) sind verfügbar. Im Raum 2 referierte Daniel Kobras über »Scalable filesystems boosting Linux storage solutions«. Sein Thema waren Storage-Lösungen, die skalieren. Herkömmliches NAS und NFS sind für ihn veraltet und skalieren nicht. Die CPU-Leistung kann mit der Last, die eine größere Zahl von Clients verursacht, nicht mithalten. Ein einzelner Server bietet auch zuwenig Bandbreite zu den Daten. Die Lösung sind Cluster, für die jedoch Dateisysteme wie NFS und CIFS unkomfortabel sind.

So entstanden mehrere Cluster-Dateisysteme, freie (hauptsächlich GFS und Lustre) wie proprietäre. In einem SAN-Dateisystem wie GFS müssen die Clients Dateisperren setzen. Der Locking-Service kann leicht zu einem Engpass werden. Die zugrundeliegenden Blockgeräte sind »dumm«. Bei anderen Dateisystemen sind die Daten über mehrere Blockgeräte verteilt, die als »intelligent« bezeichnet werden können. Für deren Verwaltung ist ein Metadatenserver nötig, der hochverfügbar ausgelegt werden muss. Solch ein Dateisystem skaliert gut und ist flexibel, aber natürlich auch komplex.

Anwendungen findet dieses Setup nicht nur bei Hochleistungsrechnern. Auch in Unternehmen ist es sinnvoll. Clustered CIFS ist mit Samba 3.2 nun standardmäßig möglich, da CTDB integriert wurde. Das zugrundeliegende Clusterdateisystem ist bei IBM GPFS, aber auch GFS und Lustre sind möglich. Für NFS ist eine Clusterversion in Entwicklung. Ein anderer Ansatz, NFS zu parallelisieren, ist pNFS, das im kommenden NFS 4.1 als Erweiterung enthalten sein soll.

Die Vorteile der verteilten Dateisysteme, die durchaus eine Größe von Petabytes erreichen können, liegen auf der Hand: Bandbreite und Kapazität sind fast beliebig erweiterbar, indem man neue Server und Festplatten hinzufügt. Die Benutzer merken von der Erweiterung nichts und müssen sich nicht mit einer Vielzahl von Servern und Pfaden herumschlagen, sondern haben ein einzelnes Dateisystem mit einheitlichem Namensraum vor sich. Soll eine Datei verschoben werden, ist dafür kein aufwendiges Kopieren nötig, sondern es kann augenblicklich ausgeführt werden. Problematisch ist das Backup solch riesiger Dateisysteme. Die erforderlichen Snapshots sind noch nicht für alle Dateisysteme verfügbar.

Linux wird laut Kobras die führende Plattform für verteilte und Cluster-Dateisysteme. Es bietet zwar nicht unbedingt alle Features von proprietären Lösungen, ist dafür aber sehr flexibel. Ähnlich wie Mitte der 90er-Jahre Linux-Cluster den Standard für Hochleistungsrechner setzten, wird Linux nun die gleiche Rolle in verteilten Dateisystemen einnehmen.

Kommentare (Insgesamt: 0 || Kommentieren )
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten
Werbung