Wohlschmeckende Nürnberger Kost Dirk Wetter Zum 13. Mal hat die GUUG e.V. den alljährlichen internationalen Linux-Kongress veranstaltet. Nach Hamburg 2005 hatte der Veranstalter diesmal Nürnberg als Tagungsort auserkoren, die gastgebende Tagungsstätte war die Georg-Simon-Ohm-Fachhochschule. Der Namensgeber -- für eine Zeit selbst in Nürnberg weilend -- der FH ist genau der, der sich u.a. durch sein Gesetz und die elektrische Einheit für den elektrischen Widerstand sich in die Köpfe vieler gebrannt hat. So viel "Widerstand" gab es allerdings gar nicht, nach Nürnberg zu kommen. Insgesamt fanden rund 240 Besucher den Weg dorthin. Vorteilhaft auf die Besucherzahl wirkte sich sicherlich die Tatsache aus, dass eine große deutsche Firma -- ehemals mit grüner Kröte^WChamelëon als Maskottchen, nun eher werbend mit einem großen roten N des Onkels aus den Staaten -- quasi in Katzensprungentfernung ihren Hauptsitz hat. Aber auch sonst hatte die Stadt Nürnberg, der Kongress selber natürlich und das Rahmenprogramm einiges zu bieten. Wie auf den meisten GUUG-Konferenzen üblich, war das Programm in zeitlicher Hinsicht zweigeteilt: An den ersten beiden Tagen -- Dienstag und Mittwoch -- gabs Ganztagstutorien rund um die Themen Netz- und Systemadministration, die die GUUG in ähnlicher Form während des Frühjahrsfachgesprächs 2006 anbot, Daneben waren auch neue "Kandidaten" mit im Rennen wie "extreme hacking", "Asterisk", "Configuring and Deploying Linux-HA" vom Begründer des Linux-HA-Projekts Alan Robertson persönlich. Ted Ts'o war wie in 2004 wieder mit zwei Tutorien vertreten: "Inside the Linux Kernel" und "Recovering from Hard Drive Disasters". Wer entweder ein Tutorium oder einen Vortrag gehalten, oder die Konferenz gesponsort hatte -- mit Geld wie Google oder mit Arbeitseinsatz wie andere, ohne dem der Kongress auch nicht möglich gewesen wäre -- war beim üblichen "Speakers Dinner" am Mittwoch Abend dabei. Essen gabs satt (nur des Autors "Suppennachlieferungs-Request" ward mit Ignoranz zweier Angestellter abgetan, wahrscheinlich hatten die Gehirnregionen, auf dem das Trouble-Ticket-System lief, gerade ein Wartungsfenster). Aufgefahren hatte das Etablissement wohl typische Nürnberger Spezialitäten, also deftiges mit verschiedenem Kohl, Würstchen und Braten. Am nächsten Morgen -- Donnerstag -- gings denn mit dem Konferenzteil weiter, der auf einem anderen Teil des Campus' stattfand als die Tutorien. Die Keynote des Konferenzteils hielt Alan Cox, auf dem Linux-Kongress bisher seltener Gast. Er sprach allerdings nicht über eins seiner technischen Steckenpferde, sondern über "Collaboration, Community and Future Technology". Anhand vieler Beispiele, einige davon fiktiver Natur, versuchte er Analogien herzustellen zwischen der Entwicklung freier Software und "Content" -- was alles durch gemeinschaftliche Arbeit vorangebracht wurde -- mit Forschung, Gesellschaft und einigen anderen mehr oder weniger realen Dingen. Stellenweise waren die Gedankengänge etwas abgehoben, z.B. verglich Alan ein Stuhl mit einem Web-Service. Der Stuhl kam eh immer wieder drin vor: Ob es nun darum ging, den zu replizieren via "Santa-Claus-Maschine" oder der nun auf dem Holodeck stand. Apropos: Dies traf auch auf Startrek und entsprechende Technologien zu. Vielleicht lässt beides ja Rückschlüsse auf seine Freizeitgestaltung neben der Kernelprogrammierung zu ;-). Meistens hatten die Analogien jedoch einen tieferen Sinn wie z.B. das RepRap-Projekt, dessen Maschine via Rapid Prototyping in die Lage versetzt werden soll, sich selbst zu replizieren; das gesamte Projekt steht unter GPL. Auf jedenfall hatte Alan eine Menge nachdenklicher Lacher auf seiner Seite. Ernsthafter waren dann die Ausführungen zur gegenwärtigen Qualität des Linux-Kernels. Am Anfang, so Alan Cox, sei es relativ einfach gewesen, den Code zu verbessern, da der Code wesentlich weniger komplex und auch weniger gut war. Einfache Code-Schnipseln brachten den Kernel ein ganzes Stückchen voran, was nun nicht mehr so einfach sei. Ähnliches sei heute bei speziellen Themen in Wikipedia zu beobachten. Die Abschlusspointe war denn die obligatorische Frage, ob wir jemals freies Bier durch Replikation bekommen. Leider blieb die Frage zu der Zeit unbeantwortet. Vielleicht ist nun hinzuzufügen, dass man nur hoffen sollte, dass wenn es soweit kommt, der Replikator auch mit einem Braurezept aus dem richtigen Land programmiert wird. Dem/Derjenigen, der sich um die Pausenverpflegung gekümmert hat, gebührt an dieser Stelle ein dickes Lob. Sowohl die belegten Brötchen, als auch Kuchen und Getränke: Alles sah nicht nur gut aus, sondern schmeckt auch so. Ein Mittagessen war insofern an beiden Tagen verzichtbar. Die, die das Angebot der Mensa wahrgenommen hatten, kolportierten, dass dessen Angebot trotz hohem Preis qualitativ hinter dem der GUUG-Häppchen zurückblieb. "Arme Nima" Zum Thema Linux-Kernel und Code-Qualität gab es später den Vortrag "Best Practices in Linux Kernel Testing", der dies näher beleuchtete, "vorgesungen" erfreulicherweise mal von einer östrogenproduzierenden Menschenspezies -- leider eine Seltenheit auf derlei Events. Dies in Form einer kleinen, aber beeindruckenden Inderin namens "Poornima B N". Poornima berichtet über ihre Arbeit in den IBM Linux Technoloy Center in Bangalore, wo sie systematisch "Open Source-Testing" durchführt, was vielleicht dem ersten Eindruck nach nicht als besonders spannend klingt, jedoch sich als ganz anders herausstellte. Mit einem zwangsläufigerweise indischen Akzent, der den Autor lustigerweise an einen Großteil der New Yorker Taxifahrer und Hotelabsteigebesitzer dort erinnerte, stellte sie zunächst einmal die problematische Situation in der Linux-PC-Welt dar: Es gäbe zu viele Treiber und zu wenig "Maintainer" dafür. Die Anzahl der Hardwarekombinationen sei in der letzten Zeit explodiert, und die Qualität werde derzeit einfach schlechter. Ihr IBM-Lab testet den Vanilla- sowie -rc-Kernel mit verschiedenen Methoden und Testfällen sehr systematisch und automatisch auf einer Reihe von Hardware und Prozessorarchitekturen. Automatisiert werden dabei aktuelle Kernel heruntergeladen, verschiedene ".config" stünden bereit. Nach Übersetzen, Installieren und Neustart des Kernels muss die Maschine dann eine ganze Reihe von Stresstests auch unter hoher Last über sich ergehen lassen, die so ziemlich allen Subsystemen des Kernels auf den Zahn fühlen. Vom Herunterladen bis zum Stresstest geschieht alles "unattended", also automatisch ohne menschliches Zutun. Auf die Weise hat das Lab schon eine Anzahl Fehler gefunden, und viel wichtiger: durch Einreichen von Patches auch beseitigt. Traue keinem Benchmark... Ein weiterer interessanter wie gutbesuchter Vortrag am ersten Tag: Felix von Leitner (Spitzname Fefe) präsentierte I/O-Benchmarks für verschiedene Betriebssysteme, im Fokus standen Netzwerkstacks und Dateisysteme. Bei letzteren waren alle gängigen von Linux dabei (ext2/3, reiser3/4, XFS, JFS), verschiedene BSDs (Dateisysteme mit und ohne Softupdates), NTFS bei Windows Server 2003 und, um den Zoo zu vervollständigen, ZFS von OpenSolaris, alles auf drei x86- bzw. x86_64-Rechnern. Fefe testete das Auspacken von Dateien, einmal 3 Millionen Bilder in 21 GB, Test 2 waren 67000 Bilder in 300 MB sowie HTTP-Anfragen in einem einzelnen Thread und 32 Instanzen. Das Ganze war gut rübergebracht, abgesehen davon, dass nicht alle Betriebssysteme auf jeder Hardware funktionieren wollten , gab es auch ein paar Überraschungen, z.B., dass ext2 in manchen Disziplinen langsamer als ext3 war, was am "directory hashing" laut Ted Ts'o liege. Bei allen Tar-Archiven war der schnellste Testkandidat reiser4. Bei den kleinen Archiven lag denn UFS1 von NetBSD auf Platz 2, gefolgt von XFS und ZFS, bei den großen war ZFS auf Platz 2, ext3 auf Platz 4. Der "rm"-Benchmark förderte Eigenarten ans Tageslicht: Während die meisten Dateisysteme im 10-30 Minutenbereich lagen, um sich des ausgepackten Tar-Archivs zu entledigen, brauchte Microsofts 2003 145 Minuten (!), reiser4 ganze 68 Minuten und ext2 glänzte mit gut 7 Minuten. Bei ZFS war das rm-Kommando gar sofort abgearbeitet, aber der Dateisystemplatz nicht sofort wieder freigegeben (war da nicht irgendein Hinweis, was das Löschen auf ZFS angeht bei Uli Gräfs Präsentation während des FFGs 2006?). Bei den Netzdurchsatzmessungen kürte Fefe Linux als Gewinner, anders als BSDler vielleicht erwartet hätten, obwohl ein Einfluss des Dateisystems bemerkbar war. Was gabs sonst noch am ersten Tag? Heinz Mauelshagens Vortrag "dm-raid45 - A Device-Mapper target for RAID4 and RAID5 mappings" war wie immer schön zuzuhören. Er erklärte anschaulich wie sein "dmraid4/5", was mittlerweile in vielen Distributionen Einzug gehalten hat, funktioniert. Als Einleitung nahm er diejenigen mit ins Boot, die sich nicht sicher waren, was nun RAID 3,4, oder 5 genau ist und zeigte, was man alles tolles mit dem "setup tool" dmsetup anstellen kann. Marcel Holtmann war auch dabei. "Wie könnte es anders sein" mag man denken, mit einem Bluetooth-Thema. Es ging um das Zusammenspiel mit dem Nachrichten- bzw. IPC-System D-Bus mit Bluetooth in Embedded-Geräten. Vorträge über die Hype-Themen Xen (Jeff Dike: "Linux as a Hypervisor") und iSCSI ("iSCSI in Linux" von Hannes Reinecke) fehlten nicht. Volker Lendecke berichtete über den Status von Samba. Über den wurde auf dem Gang noch eine amüsante Geschichte erzählt: Eine amerikanische "Ausschauhalterin" von Google, Hauptsponsor und wie immer auf der Suche nach Leuten, wollte Volker irgendwie zertifizieren (CA-Cert oder PGP-Signing). Beim Blick auf sein Geburtsort im Perso entgegnete Sie wohl mit toternster Miene "Bielefeld?? That doesn't exist". Der gesellige Abend fand in der Altstadt von Nürnberg statt. Auch hier gabs reichlich für den Magen auch mit Nürnberger Kost, das Ganze in gemütlicher Brauhausatmosphäre. Irgendwie entschied sich aber das Personal die Lichtstärke verfrüht gegen 23:30 Uhr abrupt zu erhöhen und schon einmal anzufangen, bei depopulierten Nachbartischen die Stühle hochzustellen. Trotzdem ein netter Abend mit viel Gelegenheit auch zum "geek chat". Die GUUG baute während des Kongresses am zweiten Tag ein WLAN auf, nur leider war der oder die APs auf Kanal 13 eingestellt, was dummerweise mit WLAN-Karten aus den Vereinigten Staaten nicht harmonierte. (Dort erlauben die Behörden zwar die übelsten Kreuz- und Querfunker wie -sender jeglicher Art, nur nicht WLAN-Karten, die die Möglichkeit bieten, mit Kanälen >11 zu funken.) Wie erwähnt, war Google während des Konferenzteils mit einem HR-Stand vertreten, Lehmanns aus Hamburg bot Fachliteratur feil. Teds Quattro Play Auch bei den Vorträgen war Ted Ts'o doppelt vertreten, vielleicht um sein einziges Fehlen letztes Jahr in Hamburg in all den Jahren Linux-Kongress zu entschädigen: Den zweiten Tag läutete er ein mit einer zweiten Keynote "How is it being developed and what's coming next?" ein. Er gab zunächst "einfach" einen geschichtlichen Abriss von Linux gewürzt mit vielen Detailinformationen aus der Anfangszeit, die er vor knapp 15 Jahren ja mit gestartet hätte. Einige werden sich noch an nic.funet.fi (Linus' Abladestation für Linux-Kernelquellen) und Teds Mirror tsx-11.mit.edu erinnern. Schön war, dass er mit historischen Belegen -- z.B. eine historische E-Mail von Linus an Ted aus den Anfängen von Linux -- und Folien (solche aus alten Vorträgen) lebhaft vergegenwärtigte, was zu welcher Zeit passiert ist. Geendet hat sein Abriss mit dem gegenwärtigen Status. Die Frage, wann denn die 2.7er Linie aufgemacht würde, konnte Ted allerdings auch nicht beantworten. Wie immer ein schöner Vortrag von Ted und gut rübergebracht. Weils so gut war Sein zweiter Streich "Real-Time Linux" ging technisch etwas "härter" zur Sache. Ted erläuterte zunächst die Einteilung in Hard-RT (mathematischer Beweis, strikte "deadline") und Soft-RT ("best effort"). Aber selbst im Enterprise-Bereich spräche man heute von RT, da hoher I/O-Durchsatz (Disk, Netz) stellenweise nur ein Kriterium sei, sondern es auch auf Latenz in einigen Bereichen ankäme, was er mit "Enterprise-RT" betitelte. Er beleuchtete die Möglichkeiten, die Linux derzeit bietet, näher, inklusive der bereits im Kernel vorhandenen Optionen (CONFIG_PREEMPT) und externer, allen voran Ingo Molnars/Montavistas Patchset (CONFIG_PREEMPT_RT), der sich schon halb im Laufe dieses Jahres in den Mainline-Kernel reingeschlichen hat. Letzter schafft es immerhin bei einer Durchschnittslast von 200, verursacht durch 10 Mal gleichzeitiges Kernel übersetzen, einem "flood ping" und eine Menge Disk-I/O, reproduzierbar innerhalb 20 Mikrosekunden zu antworten. Keck sagte Ted dazu "whether you call this soft RT or not, it's useful!". Auf Interesse stoß das, woran sein Arbeitgeber IBM werkelt: Real-Time Java! Tatsächlich gibts das wohl schon seit Ende August 2006 (IBM Websphere Real-Time v1.0). Die Motivation dabei ist, dass viele Militärprogramme in Ada verfasst wurden, und Ada-Programmierer von Jahr zu Jahr rarer werden. Auch für die Garbage-Collection gibts folgerichtig Verbesserungen namens Metronome, ein RT-Garbage Collector, leider wohl nicht obligatorisch (wie soll das ohne gehen?). Allerdings war die Erwähnung von Java Anlass genug zum beliebten "Java-bashing". Über PHP könnte man ja auch genug lästern. Ähnlich interessant und schön zuzuhören war Andi Kleens Vortrag "Where is the kernel memory going? Memory usage in the 2.6 kernel". Er beleuchtete, warum es aus einer ganzen Reihe von Gründen, auch in Zeiten der billigen Gigabyte-Riegel wichtig für Kernel-Entwickler ist, auf den Speicherplatzverbrauch zu achten. Es spart zum Beispiel Zeit auf der CPU, besonders der L1-Cache ist klein und Zyklen außerhalb kosten mehr Zeit. Bei Virtualisierungen, sei es nun Xen, VMWare oder auf IBM's S390 steht manchmal nur 128 MB Hauptspeicher zur Verfügung bzw. jedes im Kernel verschwendete Kilobyte zählt mehrfach in den VMs, auch beim "pagen". Alte Hardware wie i486 seien nicht so interessant, da sie ja auch alte Programme laufen ließen. Eine ähnliche Meinung hatte er leider bzgl. Embedded-Linux-Geräten, da die ja speziell gepatchte Kernel hätten und daher nicht für seine Betrachtungen relevant wären. "Au contraire!" entfleuchte dem Autor da. Die Empfehlung und die anschließende Demo dem Kernel bei der Allozierung von Speicherseiten mit "slabtop" auf die Finger zu schauen, war recht lehrreich. Der Vortragsstil von Andi Kleen war gefällig wie schnell. Schade nur, dass Lars-Marowski-Brées Vortrag (auch Suse GmbH) über Linux HA v2 parallel lief. In einem Raum gabs ein Problem mit beiden Beamern, sodass der Vortrag "Managing enterprise data-centers with openQRM" von Matthias Rechenburg dort kurzerhand vom um 180 Grad gedrehten Laptop stattfand, nachdem Wiederbelebungsversuche fehlgeschlagen waren. Da alle ein zwangsläufigerweise ein wenig näher zusammenrückten, sah das für außenstehende ein wenig nach Lagerfeuerstimmung aus, nichtsdestotrotz tat es dem Vortrag keinen Abbruch, im Gegenteil: Dem Vortrag war trotz der Enge gut zuzuhören. Ein wenig irritierte vielleicht, dass von "Iscsi" die Rede war, die Großschreibung also so schien, als wenn jemand zum falschen Moment auf "Caps Lock" gedrückt hatte. Zum Thema: openQRM ist ein (Open Source-)Systemmanagement-System bzw. ein auf JSPs (Tomcat) basierendes Framework dafür. Es ist vornehmlich fürs Rechenzentrum bzw. große Umgebungen gedacht, der Server läuft auf einer Anzahl Unices, und vereinfacht dem Vortrag nach Provisioning, Monitoring, Reporting und HA-Funktionalitäten. Andere Technologien wie Virtualisierung und iSCSI-Unterstützung seien oder sind bereits über die Plugin-Architektur integrierbar. Ein wenig skeptisch waren die Zuhörer, weil vielleicht openQRM zu viel nach heile Welt aussah und es zu wenig "zum Anfassen" gab. Am Ende gab es zumindest Live-CDs zum Ausprobieren, sodass sich jeder selber eine Meinung drüber bilden konnte bzw. kann. In der letzten zweigeteilten Session konkurrierte Marcel Holtmann mit dem Opensuse-Build-Service von " Michael Schröder", ein sehr interessantes Projekt für die Allgemeinheit -- das soll es zumindest werden -- zum Paketebauen für die gängigsten Linux-Distros (Opensuse und SLES selbstverständlich, Fedora Core, Mandiva, Ubuntu und Debian). Marcels Vortrag "Old Scewl Hacking" übers Kompromittieren von Hotel-TV- u.a. -anlagen war kurzfristig anberaumt worden. Eigentlich war es, wie er anfangs erzählte, auch gar nicht sein Vortrag, sondern Adam Lauries von einer der letzten DEFCONs in Las Vegas. Da die Sicherheit im Regelfall auf dem Client (TV) stattfindet, reiche es meistens um alle Programme zu sehen, eine TV-Karte dazwischen zu schleifen. Der TV-Server wär aber viel interessanter, da man die persönlichen Menüs der Gäste modifizieren kann, angefangen von der Begrüßung bis z.B. nur nicht-jugendfreie Filme anzubieten, die Preise in der Minibar für ein Bier unerschwinglich zu machen, die Verfügbarkeit von leichter Drogen zu suggerieren oder um einen Gast zu frühschlafender Stunde zu wecken. Allerdings lesen wohl auch viele Manager sträflicherweise ihre E-Mails über ein kompromittierbares TV-System im Hotel, was Anlass zu einer Reihe von Anekdoten gab. Die Konferenz endete mit Maddogs (Jon "maddog" Hall) leichten Schlussbemerkungen. Da Jon nun als Altvater der Linux-Evangelisten gilt und demnach schon eine lange Zeit dabei ist, und dies auf fast auf allen größeren Linux-Veranstaltungen, war der Vortrag ein kleiner geschichtlicher Abriss mit einer Menge Humor angereichert. Zusätzlich lenkte er die Aufmerksamkeit auf einige interessante Projekte wie z.B. linuxchix.org. Unterm Strich: Ein sehr gelungener Linux-Kongress dieses Jahr. "Schuld" hat sicherlich auch das Programmkommittee um Jos Vos, Kurt Garloff und Heinz Mauelshagen, die es geschafft haben, in der Zeit nun einiger Konkurrenzveranstaltung trotzdem viele hochklassige Redner aus Europa, Asien und USA in die Frankenhauptstadt zu bekommen. Mehr Details zu den Vorträgen ist den in allen Lehmanns Fachbuchhandlungen erhältlichen Tagungsband (ISBN 3-86541-170-3) zu entnehmen.