Loops und Samples

25. August 2010

Bei jeder neuen Technologie von Belang, die eingeführt wird, ist das eigentlich Interessante nicht die neuen technischen Möglichkeiten, sondern die kulturellen Veränderungen, die durch diese Möglichkeiten ausgelöst werden.

Das trifft auch auf den Einfluss der Computertechnologie auf die Musik zu. Dabei meine ich weniger die neuen Möglichkeiten von Verbreitung und Konsum, mir geht es vielmehr um neue künstlerische Ausdrucksformen, die durch elektronische Datenverarbeitung erst möglich geworden sind.

Dass technische Verbesserungen die Entwicklung der Musik beeinflussen, ist keineswegs neu. Die temperierte Stimmung (Link weist auf ein Word-Dokument) – im Kern ein technisches Verfahren – hat den Bau und die Einsatzmöglichkeit vieler Instrumente beeinflusst. Und wer schon mal eine Aufnahme mit originalen oder original nachgebauten Instrumenten aus der Barockzeit gehört hat, wird zustimmen, dass viel von der Musik der Romantik mit diesem Instrumentarium kaum spielbar gewesen wäre.

Der erste nennenswerte Einfluss des Computers auf das Musikschaffen besteht in neuen Klangformen. Erstmals ist es möglich, Töne zu erzeugen, die nicht auf physikalischen Schwingungen beruhen. Dabei waren die neuen Klangformen zunächst eher durch die eingeschränkten technischen Möglichkeiten als durch freie Wahl des Künstlers geprägt. Die Angehörigen der Generation C64 werden sich mit mir noch an den spezifischen, wiedererkennbaren Klang des SID, des C64-Soundchips erinnern. Auch viele Synthesizer haben durch ihre spezifischen Eigenschaften den Klang vieler Musikstücke mitgeprägt.

Seit dem SID ist mittlerweile ein Vierteljahrhundert vergangen. Heute wäre es technisch möglich (davon gehe ich einfach mal aus), auch den komplexen Klang einer Violine rein synthetisch zu erzeugen. Aber was wäre damit gewonnen? Man würde letztlich nichts anderes erreichen, als was Violinisten seit Jahrhunderten tun. Nur dass man statt eines Studiomusikers einen Computerexperten beschäftigt.

Andererseits ermöglicht es der Computer, praktisch beliebige Klänge zu erzeugen. Aber die Erfahrung lehrt, dass die meisten Zuhörer beliebige Klänge nicht mögen. Der spektakulär geringe Erfolg weiter Teile der atonalen Musik, sich wirklich nennenswert auf die allgemeinen Hörgewohnheiten auszuwirken, spricht eine deutliche Sprache.

Neben der Klangerzeugung selbst hat auch die Nachbearbeitung von Musik durch die Computertechnologie eine Veränderung erfahren. Zwar war es schon mit Mehrspur-Tonband und Mischpult möglich, Musik neu zusammenzustellen und abzumischen, doch erst die Computerisierung dieser Möglichkeiten hat die entscheidenden Erleichterungen und Verbesserungen mit sich gebracht, dass sich der Remix von einem technischen Verfahren zu einer Möglichkeit des Kunstschaffens entwickelt hat.

Aufmerksam auf diese neue Form der Musik bin ich kurz vor der letzten Bundestagswahl durch den Wahlwerbespot der Piratenpartei, der so ein Musikstück als Hintergrundmusik verwendet. Es handelt sich um ein Werk des australischen Musikers Pogo, der bei den meisten seiner Musikstücke Klangschnipsel aus einem bekannten Kinofilm nimmt und sie zu einer völlig neuen, faszinierenden Klangwelt zusammenstellt, die mit der ursprünglichen Filmmusik kaum etwas gemein hat, aber erstaunlich viel von der Grundstimmung des verwendeten Films transportiert. Im Piratenwerbespot wurde das Werk Expialidocious verwendet, das aus Disneys Mary Poppins entstanden ist. Pogo selbst darf dieses Musikstück aufgrund eines Übereinkommens mit Disney nicht mehr verbreiten, was interessant ist, weil gerade die Piratenpartei ja – ach was, die politische Seite hebe ich mir für einen späteren Artikel auf.

Es ist aber dennoch bei Youtube noch online. Einbetten möchte ich aber ein neueres Werk von ihm, das erstmals allein aus selbst aufgenommenem Material besteht und eine Hommage an die Mutter des Künstlers und ihren Garten darstellt:

Dass diese Art von Musik auch live funktioniert, habe ich auf dem diesjährigen Bardentreffen erlebt. Der Fürther Musiker Schimmy Yaw trat dort auf, bzw. er saß auf der Bühne hinter einem kleinen Tisch, auf dem die versammelte Technik aufgebaut war, und sampelte und loopte sich live durch einige seiner Songs. Das Ganze kam recht Nerd-haft rüber, zumal Schimmy Yaw wenig Bühnenpräsenz rüberbrachte. Das erzeugte allerdings den interessanten Effekt, dass der Künstler hinter seinem Werk zurücktrat und die Musik ganz in den Vordergrund rückte. Einige der Samples, aus denen seine Werke bestehen, nahm er live auf. Mehrstimmigkeit erzeugte er, indem er die Stimmen nacheinander ins Mikrophon sang und jeweils als Loop weiterlaufen ließ. Dabei entstanden interessante und faszinierende Klanggebäude.

Obwohl sich der Künstler dabei sicher an einen vorgefertigten Ablauf hielt, hatte man das Gefühl, bei der Entstehung eines Werkes live dabei zu sein. Insgesamt war sein Auftritt ein sehr ungewohntes Erlebnis, was aber keineswegs negativ gemeint ist.

Die Kunstform, mit Loops und Samples aus vorhandenen Aufnahmen neue Werke entstehen zu lassen, muss sich nicht auf die Musik beschränken. Der britische Künstler Cyriak produziert Vergleichbares mit bewegten Bildern. Sein liebenswert-skurriles Werk Cycles sei hier beispielhaft gezeigt:

Ich bin mir dessen bewusst, dass ich von der aufstrebenden Remix-Szene nur einen kleinen Bruchteil kenne. Ich denke dennoch, dass hier eine neue Kunstform entsteht, die neue künstlerische Ausdrucksmöglichkeiten erschafft und verwendet, und dass hier dank elektronischer Datenverarbeitung der Raum für tatsächlich neue, künstlerisch hochwertige Werke geschaffen wird. Was da entsteht, mag ungewohnt sein, ist aber durchaus gefällig und hat das Potenzial, sich einen festen Platz in der Welt der Musik zu erarbeiten.

Advertisements

Elektroauto

29. November 2008

Vor über zehn Jahren nahm ich während meines Studiums an einem Seminar „Elektrische Antriebe für Straßenfahrzeuge“ teil. Man sagt ja immer, Technik entwickele sich sehr schnell. Beim Elektroauto ist davon nichts zu spüren.

Schon damals gab es funktionierende Prototypen für verschiedene Konzepte des Hybridantrieb, und schon damals war klar, dass sie den durchschnittlichen Wirkungsgrad des Verbrennungsmotor deutlich steigern können. Die serienreifen Hybride kann man zehn Jahre später an einer Hand abzählen.

Beim Wasserstoffantrieb wird immer noch die Art der Erzeugung, Speicherung und Verwendung des Wasserstoffs diskutiert — im wesentlichen mit den gleichen Argumenten und Ergebnissen wie damals. Der große Durchbruch der Brennstoffzelle, der damals angeblich kurz bevor stand, scheint zwischenzeitlich abgesagt worden zu sein.

Nennenswerte Fortschritte gab es lediglich beim Traktionsakkumulator. Befeuert durch Handy- und Notebookboom hat die Entwicklung von der Akkumulatortechnologie deutlich an Fahrt aufgenommen. Es ist mittlerweile klar, dass dabei auch geeignete Systeme für das Elektroauto abfallen. Das war vor zehn Jahren noch nicht abzusehen. Damals sprach man vom Bleiakku, von Nickel-Cadmium und von Nickel-Metallhydrit. Alle drei Technologien haben Schwächen, die ihre Eignung für ein Elektroauto zumindest fraglich erscheinen lassen. Daneben gab es Prototypen für Hochtemperaturakkus, die heute nicht näher an der Marktreife sind wie damals.

Die Verwendung von Lithium als Energieträger scheint hier doch neue Möglichkeiten zu öffnen. Besonders erwähnt sei dabei der Lithium-Eisen-Phosphat-Typ, der zwar noch recht jung und teuer ist, aber für den Elektroantrieb ideale Eigenschaften zu haben scheint.

Schon damals wurden zwei grundlegend verschiedene Konzepte für Elektroautos diskutiert: Einmal der Umbau, bei dem man ein existierendes Serienfahrzeug mehr oder minder stark verändert und mit dem Elektroantrieb ausstattet, und zum anderen das „Full Custom“, eine komplette Neuentwicklung, die ganz auf den Elektroantrieb ausgelegt wird und i. a. nicht als Version mit Verbrennungsmotor gebaut wird. Wir waren uns damals einig, dass Umbauten selbst in Serienproduktion viel zu teuer wären, noch dazu bei verringertem Nutzwert, und deshalb nicht wirtschaftlich erfolgreich sein können. Das Elektroauto kann nur als Full Custom ein Markterfolg werden. Tatsächlich sind die einzigen beiden in Deutschland erhältlichen Elektroautos Full Customs. Sie stammen übrigens nicht von großen Automobilkonzernen, bei denen die Entwicklung eines solchen Fahrzeuge fast schon nebenher laufen könnte, sondern von mutigen und innovativen Start-Up-Firmen. Was das über den unternehmerischen Mut und die Innovationskraft in der gesamten etablierten Automobilindustrie aussagt, brauche ich nicht weiter auszuführen.

Eigentlich passt der Elektroantrieb viel besser zum Anforderungsprofil eines PKW als der Verbrennungsmotor. Er baut sehr kompakt, ist beim Beschleunigen kurzfristig hoch überlastbar und liefert bei niedriger Drehzahl und im Stillstand sein höchstes Drehmoment. Angesichts des riesigen Angebots auf dem Markt ließe er sich fast schon aus dem Katalog bestellen. Ich denke, die großen Hersteller elektrischer Antriebstechnik würden sich darum reißen, Zulieferer für Elektroautos zu werden. Man kann sich kaum eine bessere Werbung vorstellen. Der Erfolg des Elektroautos hängt deshalb ganz entscheidend an der Akkutechnologie. Die zwei Hauptprobleme sind die Kosten und die Ladezeit.

Bei den Akkukosten zeichnet sich ein wichtiger Durchbruch ab. Mit den neuesten Typen wie z. B. dem bereits erwähnten Lithium-Eisen-Phosphat-Akku lassen sich Akkupacks herstellen, deren Lebensdauer groß genug für ein ganzes Autoleben ist. Bisher mussten Akkus meist schon nach einigen 10.000 km getauscht werden. Was nützt schon ein geringer Energieverbrauch, wenn der „Akkuverbrauch“ die Betriebskosten auf unwirtschaftlich hohe Werte treibt?

Das heißt aber nicht, dass der Traktionsakku nicht der größte Kostenfaktor bleibt. Man kann davon ausgehen, dass bei einem gut ausgelegten und praxistauglichen Elektroauto die Akkus etwa so viel kosten wie der ganze Rest des Fahrzeugs. Das führt dazu, dass der Energieverbrauch entscheidenden Einfluss auf die Anschaffungskosten hat.

Das ist beim Auto mit Verbrennungsmotor so nicht der Fall. Die Preisunterschiede zwischen den verschiedenen Fahrzeugklassen entstehen eher durch die Ausstattung als durch die installierte Leistung. Die Mehrkosten für einen Motor mit 100 kW gegenüber einem Motor mit 40 kW sind vergleichsweise gering. Besonders sparsame Antriebe sind meist sogar teuerer in der Anschaffung.

Ein VW Golf wiegt heute in der leichtesten Variante 1142 kg. Das ist für ein Auto dieser Klasse eigentlich ein guter Wert. Für diese Fahrzeugmasse gibt es geeignete, hoch optimierte Verbrennungsmotoren, die jeder Hersteller im Programm hat. Alles beste Voraussetzungen für ein gutes Preis-Leistungs-Verhältnis, zumindest was den Anschaffungspreis betrifft.

Für das Preis-Leistungs-Verhältnis eines Elektroautos wäre schon dieses Gewicht eine Katastrophe. Bei halbwegs brauchbarer Reichweite wäre der Traktionsakku nicht bezahlbar. Dazu kommt, dass das gleiche Fahrzeug als Elektroauto sogar noch deutlich schwerer wäre.

Die Gewichts-Obergrenze für ein bezahlbares Elektroauto dürfte für lange Zeit deutlich unter 1000 kg bleiben, das Optimum würde ich eher bei 500 kg ansetzen. Daran wird auch die Weiterentwicklung der Akkutechnologie auf längere Sicht nichts ändern, weil höhere Kapazitäten viel dringender für größere Reichweiten gebraucht werden als zur Ermöglichung einer höheren Fahrzeugmasse.

Die Problematik hat noch einen Seiteneffekt auf die Höchstgeschwindigkeit. Bei hoher Geschwindigkeit steigt die benötigte Energie stark an und die Reichweite geht zurück. Der Effekt wird bei Autos mit Verbrennungsantrieb dadurch abgeschwächt, dass der Wirkungsgrad eines Verbrennungsmotors leistungsabhängig ist. Im Teillastbereich geht die Effizienz deutlich zurück. Deshalb verbraucht ein PKW bei 120 km/h nicht wesentlich mehr als bei 90 km/h. Beim Elektroauto sind die Unterschiede viel deutlicher. Es gilt: Wer weit kommen will, muss langsam fahren. Eine Reisegeschwindigkeit über 100 km/h ist mit dem Elektroauto kaum zu erreichen.

Auch bei der Ladezeit gibt es Fortschritte bei den Akkus. Die Zeiten, in denen sie sich nur über Nacht komplett laden lassen, sind längst vorbei. Ob sich jedoch in der Praxis Zeiten erreichen lassen, die ein mit dem Verbrennungsantrieb vergleichbares Nutzungskonzept ermöglichen, ist noch nicht absehbar.

Die Reichweite eines PKW spielt bei der Kaufentscheidung normalerweise keine nennenswerte Rolle. Es macht einfach keinen großen Unterschied, ob man alle 500 km oder alle 1000 km eine Tankstelle anfahren muss. Das Tanken selbst ist in ein bis zwei Minuten erledigt. Dabei werden große Mengen an Energie übertragen, die Übertragungsleistung einer Zapfsäule beträgt etwa 20 Megawatt. Wenn man den durchschnittlichen Wirkungsgrad des Verbrennungsmotors mit 25 % annimmt, müsste eine elektrische Zapfsäule eine elektrische Leistung vom 5 MW zur Verfügung stellen, um die gleiche Menge an Traktionsenergie zu liefern, also in etwa die Leistung einer Elektrolokomotive. Das ist bei einer von technischen Laien bedienten Anlage wenig realistisch. Zum Vergleich: Eine normale Steckdose liefert etwa 3,7 kW.

Zur Beruhigung: Es gibt noch keine Akkutechnologie, die mit dieser Leistung geladen werden kann. Dennoch wird unmittelbar klar, dass ein leistungsfähiges Elektroauto für eine schnelle „Betankung“ eine Elektroinstallation benötigt, wie sie kaum irgendwo standardmäßig vorhanden ist. Selbst wenn der Akku für eine Schnellstladung im Minutenbereich geeignet ist, wird auf absehbare Zeit keine dazu passende, flächendeckende Infrastruktur entstehen.

Das hat eine entscheidende Konsequenz für den Einsatz von Elektroautos: Langstreckenfahrten über die Reichweite des Fahrzeugs hinaus sind in den meisten Fällen nicht möglich.

Mit den heutigen technischen Möglichkeiten könnte ein Elektroauto eine Höchstgeschwindigkeit von 120 km/h haben und eine Reichweite von 150 bis 200 km. Diese Strecke könnte realistischerweise nur wenige Male am Tag zurückgelegt werden, selbst wenn Lademöglichkeiten vorhanden sind. Das Gewicht des Fahrzeugs würde zwischen 500 und 700 kg liegen.

Ein Fahrzeug mit diesen Daten ist für einen kommerziellen Erfolg immer noch deutlich zu teuer. Ich rechne aber schon damit, dass sich das bald ändert. Viel bedeutender ist jedoch, dass ein solches Fahrzeug das übliche Betriebsprogramm eines PKW nicht voll abdecken kann. Es ist nicht in der Lage, fünf Personen zu transportieren. Größere Gepäckmengen sind auch nicht möglich. Und erst recht nicht Langstreckenfahrten am Stück.

Für 95 % aller Fahrten ist dies auch nicht nötig. Die meisten Fahrten mit dem PKW werden mit einem, maximal zwei Insassen und sehr wenig Gepäck durchgeführt und sind kürzer als 100 km. Das kann ein Elektroauto auch heute schon leisten. Mit anderen Worten: Das Elektroauto ist für alle Leute geeignet, denen ein Fahrzeug für 95 % aller Fahrten ausreicht. Das gilt z. B. für Familien, die zwei Autos benötigen; da kann das Zweitauto durchaus eine 95 % Lösung sein. Oder für Singles, die längere Strecken sowieso lieber mit dem Zug zurücklegen. Für den geringen Restbedarf bietet sich hier ein Mietwagen an.

Das bedeutet aber auch ein deutliches Umdenken, was die Anschaffung des eigenen KFZ betrifft. Es ist einfach ungewohnt, bestimmte Nutzungsmöglichkeiten beim Kauf bewusst auszuklammern. Es fühlt sich falsch an, viel Geld für etwas auszugeben, was für die mutmaßlichen Bedürfnisse gar nicht ausreichend ist. Dabei ist es in Wirklichkeit viel unwirtschaftlicher, erheblich mehr Geld auszugeben für einen Mehrwert, den man nur sehr selten braucht und im Bedarfsfall relativ günstig auch so bekommt.

Bei allen noch verbliebenen technischen Problemen: Die große Herausforderung beim Elektroauto ist die Durchsetzung eines Fahrzeuges am Markt, das nicht das komplette Nutzungsprofil abdeckt. Nicht dass ich das für unmöglich halten würde. Für eine gute Werbeagentur sollte das ein herausfordernder, aber machbarer und auch sehr interessanter Auftrag sein. Ich sehe nur den Auftraggeber nicht. Die kleinen Startups, die hervorragende neue Fahrzeugkonzepte entwickeln, haben nicht das Geld für eine große Kampagne. Und die großen Automobilhersteller haben offensichtlich noch kein Interesse. Dabei könnte ein Elektroauto mit den angegebenen Daten in wenigen Jahren reif für richtig große Stückzahlen sein. Sofern es jemand baut.

Die Probleme mit Rissen in Radsatzwellen reißen nicht ab. Die Bahn AG geht mit Zugausfällen und Notfahrplänen in die nächste Runde. Da lasse ich mich nicht lumpen und schiebe ebenfalls eine Fortsetzung nach.

Denn inzwischen beginnen die Schuldzuweisungen. In einer Pressemitteilung der Bahn AG wird der Vorstandsvorsitzende Mehdorn zitiert: „Wir sehen uns von der Industrie im Stich gelassen, die uns mit nicht belastbaren und unklaren Angaben konfrontiert.“ Fast könnte er einem leid tun. Denn schließlich hat die Bahnindustrie die Züge vom Typ ICE 3 und ICE T entworfen und gebaut. Sie mögen die damals gültigen Normen und Vorschriften voll erfüllt haben, dennoch sind sie zweifellos mangelhaft.

Schienenfahrzeuge werden üblicherweise für eine Lebensdauer von 30 Jahren ausgelegt. Alle mechanischen Konstruktionsteile sind entweder Verschleißteile und müssen nach Ablauf bestimmter Fristen ausgetauscht werden, oder sie sind dafür ausgelegt, das gesamte Fahrzeugleben zu halten. Die Radsatzwellen sind keine Verschleißteile, ein Austausch war nicht vorgesehen. Wenn sie jetzt schon, nach weniger als einem Drittel der veranschlagten Lebensdauer, zu gefährlicher Rissbildung neigen, dann ist das ein erheblicher Mangel, den eindeutig der Hersteller zu vertreten hat.

Hartmut Mehdorn hat also formal gesehen Recht, wenn er den Herstellerfirmen die Schuld am derzeitigen Notfahrplan gibt. Es nützt ihm nur nichts. Und zwar gleich aus mehreren Gründen:

Zunächst ist die Bahn AG als zugelassenes Eisenbahnverkehrsunternehmen nach dem Allgemeinen Eisenbahngesetz für die Sicherheit ihrer Züge selbst verantwortlich. Gebrochene Radsatzwellen liegen also nach den gesetzlichen Bestimmungen nicht in der Verantwortung der Hersteller, sondern der Bahn AG. Bei einem schweren Unfall wäre also die Bahn AG zivilrechtlich haftbar und ihre Mitarbeiter gegebenenfalls sogar in der strafrechtlichen Verantwortung. Sie hätte allenfalls versuchen können, die Hersteller in Regress zu nehmen. Natürlich kann sie sich zur Lösung von Sicherheitsproblemen die Unterstützung der Hersteller holen, aber nicht die Verantwortung auf sie abwälzen.

Zweitens kann der Bahnchef schimpfen so viel er will, das Problem mit den Notfahrplänen und den verärgerten Kunden hat er und nicht die Bahnindustrie. Und auch der Image-Schaden trifft nicht die für die meisten Bahnkunden weitgehend unbekannten Herstellerkonsortien, sondern das Eisenbahnverkehrsunternehmen, das seine zugesagten Leistungen — den Fahrplan — nicht erfüllen kann. Das ohnehin schlechte Image der Bahn wird durch die jüngsten Ereignissen sicher nicht besser.

Zuletzt hätten die Radsatz-Probleme die Bahn AG nicht unvorbereitet treffen dürfen. Die Radsatzwellen gehören in den letzten Jahren zu den Konstruktionsteilen, die am häufigsten Probleme machen. Die meisten Neigetechnik-Züge waren schon betroffen und durften zeitweise nur mit abgeschalteter Neigetechnik oder reduzierter Geschwindigkeit unterwegs sein. Es zeichnet sich schon länger ab, dass die Bahnindustrie die Langzeitstabilität bei hoch belasteten Radsatzwellen nicht so richtig im Griff hat. Und höhere Belastungen als beim ICE 3 (schnellster Zug) und ICE T (schnellster Zug mit Neigetechnik) gibt es bei deutschen Schienenfahrzeugen wohl kaum.

Wenn die Bahn AG pünktliche und bequeme Fernzüge anbieten will, ist sie auf die Zuverlässigkeit der Fahrzeuge entscheidend angewiesen. Das zeigt sich zur Zeit überdeutlich. Und wer auf die Qualität von Zulieferungen derart angewiesen ist, tut gut daran, seinen Lieferanten genau auf die Finger zu schauen. So kenne ich das von der Firma, in der ich arbeite: Die Qualität der Zulieferungen wird ständig überprüft, und man nimmt auch gern schon mal bei bekannten Problemen direkten Einfluss auf die Prozesse und Entscheidungen bei den Lieferanten. Ohne diese Maßnahmen können wir keine ausreichende Qualität unserer eigenen Produkte erreichen.

Genau das gleiche muss natürlich auch die Bahn AG mit den Schienenfahrzeug-Herstellern tun, wenn sie auf die pünktliche und zuverlässige Beförderung ihrer Fahrgäste Wert legt. Das gilt um so mehr, wenn es sich wie bei hoch belasteten Radsätzen nicht um Standardprodukte handelt, sondern um technisch höchst anspruchsvolle Komponenten, mit denen es zuvor schon mehrfach Probleme gegeben hat. Die Zuverlässigkeit der Fahrzeuge ist das ureigenste Interesse der Bahn AG. Niemand wird dieses Interesse für sie wahrnehmen, wenn sie es nicht selbst tut, und zwar mit Einsatz und Nachdruck tut.

Nun ist die eingangs zitierte Aussage Teil einer Presse-Erklärung, und Hartmut Mehdorn ist nicht gerade für diplomatische Worte bekannt. Was in den unteren Etagen der Konzerne an Zusammenarbeit und gegenseitiger Kontrolle läuft, ist von außen natürlich nicht zu beurteilen. Angesichts der erheblichen Historie an Radsatzproblemen tut die Bahn AG aber sicher gut daran, sich des Themas mit der Kompetenz im eigenen Hause anzunehmen. Oder wenn diese nicht existiert, sie schleunigst aufzubauen. Denn die Bahn AG ist verantwortlich für die sichere und pünktliche Durchführung des Bahnverkehrs. Und niemand sonst.

Zur Zeit kommt es zum wiederholten Mal zu Unregelmäßigkeiten im Schienenfernverkehr, weil zahlreiche ICE-Züge vorzeitig zur Wartung müssen. Die Ursache sind Probleme mit den Radsatzwellen. Am 9. Juli ist nämlich ein ICE in Köln wegen einer gebrochenen Radsatzwelle entgleist. Zum Glück fuhr der Zug nur sehr langsam, so dass keine Menschen zu Schaden kamen, und auch der Sachschaden war relativ gering.

Da die Radsätze naturgemäß für die sichere Fahrt eines Zuges von entscheidender Bedeutung sind, werden die Radsatzwellen eigentlich so ausgelegt, dass sie auch nach jahrzehntelanger Belastung noch bruchsicher sind. Wenn eine trotzdem bricht, dann ist irgend etwas schief gegangen. Zum Beispiel wäre es denkbar, dass man die Eigenschaften des Materials, einer hochfesten Stahllegierung, oder die Belastungen im Betrieb falsch eingeschätzt hat, oder es könnte sich um Fremdeinwirkung handeln, z. B. dass ein hochgeschleuderter Gegenstand die Welle beschädigt hat.

Um solche Risiken auszuschließen, werden die Radsätze regelmäßig untersucht. Beim ICE der betroffenen Baureihe war das bis zum Juli alle 300.000 km der Fall. Das klingt nach viel, bedeutet aber bei vollem Einsatzprogramm immerhin zwei Untersuchungen pro Jahr. Stahl bricht nicht von einem Moment auf den anderen, sondern es bildet sich erst ein Riss, der sich im Laufe der Zeit vergrößert, bis die übrig gebliebene Materialstärke zu schwach für die auftretenden Kräfte ist. Mit solchen Untersuchungen will man einen Riss entdecken, bevor er gefährlich tief wird.

Der Unfall in Köln zeigt, dass sich an einem hochgradig sicherheitsrelevanten Bauteil nicht nur Risse gebildet haben, sondern dass die sich sogar so schnell gebildet haben, dass vom Auftreten des Risses bis zum Bruch weniger als ein halbes Jahr vergangen ist. Das Eisenbahn-Bundesamt — es ist in solchen Fällen für Unfall-Untersuchungen zuständig — hat zudem keine Hinweise auf äußere Einflüsse gefunden, so dass ein Konstruktionsmangel durchaus möglich ist, und auch andere Radsatzwellen betroffen sein könnten. Die einzige sinnvolle Maßnahme ist in solchen Fällen eine Verkürzung der Untersuchungsfristen, zunächst auf 120.000 km.

Mittlerweile hat man bei diesen Untersuchungen mindestens einen weiteren Riss entdeckt. Der war zudem noch so tief (ich habe irgendwas von 2 mm gelesen, nur um mal die Größenordnung zu verdeutlichen), dass das Eisenbahn-Bundesamt die Bahn AG zu noch kürzeren Untersuchungsfristen verdonnert hat. Teilweise müssen die Züge nun alle 30.000 km in die Werkstatt, also etwa alle 3 Wochen.

Das heißt zunächst mal, dass alle Triebzüge, die seit der letzten Untersuchung mehr als 30.000 km zurück gelegt haben, zuerst überprüft werden müssen, bevor sie wieder Fahrgäste befördern dürfen. Aber auch wenn das erledigt ist: Untersuchungen alle 3 Wochen bedeuten, dass ständig ein nennenswerter Teil der Fahrzeuge in der Werkstatt ist. Was uns zum zweiten Stichwort bringt: Reserven.

Betroffen von dem Problem sind ja eigentlich nur zwei Typen von ICE-Triebzügen. Die ganze übrige Fahrzeugpalette der Bahn AG steht weiterhin zur Verfügung. Wenn da nicht die Schnellfahrstrecke Frankfurt-Köln wäre.

Die ist nämlich aus Kostengründen mit großen Steigungen trassiert worden. Für die ICE vom Typ 3, die da üblicherweise fahren, kein Problem. Aber bei den ICE-Zügen der ersten beiden Baureihen, sowie für lokbespannte Züge besteht die Gefahr, dass in den Steigungen die Räder durchdrehen und der Zug liegen bleibt. Man hat den ICE 3 und die Schnellfahrstrecke Frankfurt-Köln perfekt aufeinander abgestimmt und damit viele Millionen an Baukosten gespart. Der Preis dafür ist, dass es keinen Ersatz für den ICE 3 auf dieser Strecke gibt.

Natürlich hat man ein paar Züge mehr bestellt, als man für die Strecke unbedingt braucht. Aber auch ICE-Züge sind sehr teuer, und ein gekaufter Zug, der für das normale Einsatzprogramm nicht gebraucht wird, ist totes Kapital. Ob die gekauften Reservezüge ausreichen, um die verkürzten Untersuchungsintervalle zu kompensieren, weiß ich nicht. Ich habe da meine Zweifel.

In der Art und Weise, wie Eisenbahnstrecken betrieben werden, hat es in den letzten Jahrzehnten eine entscheidende Änderung gegeben. Früher wurde jeder Zug zunächst so geplant, dass er für die Zeiten mit den geringsten Fahrgastzahlen ausreichend ist. In der Hauptverkehrszeit hat man dann zusätzliche Wagen hinzugefügt, genauso zu Zeiten mit besonderen Belastungsspitzen, z. B. zur Urlaubszeit. Dafür standen Unmengen von Reservefahrzeugen zur Verfügung. Alte Wagen, die man für das normale Betriebsprogramm nicht mehr gebraucht hat, wurden nicht gleich verschrottet, sondern standen für Sonder- und Entlastungszüge bereit.

Heute werden Züge häufig für einen bestimmten Einsatzzweck angeschafft. Dabei muss der Fall des größten Fahrgastaufkommens berücksichtigt werden, inklusive einer kleinen Reserve. Die hohen Kosten für die Fahrzeuge führen dazu, dass diese Reserve nicht sehr groß sein kann. Wenn dann etwas unvorhergesehenes passiert, ist diese Reserve sehr schnell aufgebraucht, und die Fahrzeuge reichen nicht mehr aus.

Die ICE-Problematik ist da nur ein besonders deutliches Beispiel. Ähnliche Probleme gibt es überall. Auch die Infrastruktur ist betroffen. Es ist natürlich verständlich, dass man keine zusätzliche Bahnhofsgleise baut, wenn der Bedarf dafür nicht da ist. Aber die Bahn AG war in den letzten Jahren sehr fleißig darin, alle gerade nicht benötigten Gleise stillzulegen, um Wartungskosten zu sparen. Wenn die Nachfrage wieder steigt, weil z. B. mehr Güter befördert werden sollen, ist das aufgrund mangelnder Gleisanlagen oft nicht mehr möglich. Die Verlagerung des Güterverkehrs von der Straße auf die Schiene, selbst wenn man sie ernsthaft angehen wollte, ist vielerorts gar nicht mehr möglich, weil die übrig gebliebenen Streckenkapazitäten bereits zu 100 % ausgelastet sind.

Mit anderen Worten: Die Bahn hat in den letzten Jahrzehnten viel von ihrer Flexibilität eingebüßt. Störungen breiten sich schneller im Netz aus, und auf Nachfragespitzen oder Fahrzeugausfälle kann immer schlechter reagiert werden.

Man mag von der Führung der Bahn AG halten, was man will, aber für diese Situation sind die Bahnvorstände höchstens teilweise verantwortlich. Letztlich setzt Herr Mehdorn auch nur Vorgaben aus der Politik um. Ja, der Bahnbetrieb muss nach marktwirtschaftlichen Gesichtspunkten erfolgen, aber der Schienenverkehr gehört auch zur Grundversorgung an Infrastruktur und fällt damit unter die Hoheitsaufgaben des Staates. Es mag schon sein, dass eine Staatsbahn wie die frühere Bundesbahn doch entschieden zu viel „Staat“ enthält, aber mir schwingt das Pendel zur Zeit viel zu sehr in die andere Richtung. Ein bisschen mehr politischer Einfluss, vielleicht gepaart mit ein bisschen mehr Weitblick, würde dem Eisenbahnwesen in Deutschland gut tun.

Um mit einem positiven Gedanken abzuschließen: Die Reaktionen auf die Probleme zeigen immerhin, dass das Eisenbahn-Bundesamt dazu bereit und in der Lage ist, auch sehr unangenehme Entscheidungen durchzusetzen, wenn es die Sicherheit der Fahrgäste gefährdet sieht.

Der Transrapid ist schon ein faszinierendes Stück Technik. Zum berührungslosen Trag- und Führungssystem kommt ja noch die Tatsache, dass der Antrieb im Wesentlichen nicht im Fahrzeug, sondern im Fahrweg installiert ist. Das heißt, man kann große Antriebsleistung dort installieren, wo sie gebraucht wird, z. B. zum Beschleunigen oder in Steigungen. Und man muss diese Antriebsleistung, die ja auch Gewicht bedeutet, nicht ständig mittransportieren.

Die Hersteller tun sich aber offensichtlich schwer, aus dem faszinierenden Stück Technik auch ein faszinierendes Stück finanzieller Erfolg zu machen. Mit München ist bereits der dritte Versuch gescheitert, die Magnetschwebetechnik in Deutschland kommerziell einzusetzen. Nach Bekanntwerden der letzten Preiskalkulation hat es interessanterweise nur Stunden gedauert, bis das Projekt endgültig gestorben war. Und Wiederbelebungsversuche hat es auch keine nennenswerten gegeben. Es scheint, als wären einige Politiker und Manager nicht gerade unglücklich darüber, das zum Millionengrab gewordene Prestigeprojekt endlich los zu sein.

Nichtsdestotrotz hat es eine kurze, aber heftige Suche nach dem Schuldigen gegeben, und jeder der Beteiligten hat natürlich die Verantwortung für das Scheitern des Projekts weit von sich gewiesen. Und reflexartig setzt ein allgemeines Lamentieren darüber ein, dass es so furchtbar schwer sei, in Deutschland Hochtechnologie durchzusetzen.

Was ist denn eigentlich Hochtechnologie? Natürlich bin ich als Ingenieur (wer hätte es gedacht) fasziniert von der Magnetschwebetechnik. Bei meiner Reise nach Shanghai hatte ich die Gelegenheit, im Transrapid mitzufahren: Ein Erlebnis!

Aber die Aufgabe der Technologie ist es doch nicht, Zirkusattraktionen für Technikbegeisterte zu bauen. Technologie muss immer einen Zweck erfüllen. Dieser Zweck kann ja durchaus sein, Menschen zu unterhalten und ein Zeitvertreib zu sein, z. B. in einem Vergnügungspark. Dafür ist der Transrapid aber nicht gedacht und außerdem ein wenig zu teuer. Der natürliche Zweck des Transrapid ist es, Menschen von A nach B zu transportieren. Und zwar extrem schnell über Distanzen mittlerer Länge und für Menschen, denen der Zeit- und Komfort-Gewinn auch ein etwas höherer Fahrtpreis wert ist.

Das trifft fast alles auf Deutschland zu: Die Entfernungen sind nicht allzu groß, die Menschen nicht allzu arm, und wir haben ja alle keine Zeit. Das einzige Problem des Transrapid in Deutschland ist das „von A nach B“. Die Magnetschwebetechnik eignet sich besonders für Punkt-zu-Punkt-Verbindungen. So wie in Shanghai die Verbindung zwischen dem Bankenzentrum und dem internationalen Flughafen.

Es ist unbestritten, dass der Transrapid die mit Abstand schnellste und auch die praktischste Verbindung zwischen dem Münchner Hauptbahnhof und dem Flughafen im Erdinger Moos darstellt. Von Punkt zu Punkt eben. Da hatte Stoiber mit seinen äh, äh, äh, 10 Minuten schon recht.

Aber wer will den schon genau vom Hauptbahnhof zum Flughafen? Sicher gibt es ein paar Leute, die in der unmittelbaren Umgebung des Hauptbahnhofs wohnen oder Geschäfte machen. Aber die allein werden keinen Transrapid füllen. Für alle Anderen ist der Abschnitt vom Hauptbahnhof zum Flughafen nur ein Teilstück, für viele sogar ein Umweg. Relevant ist für jeden Einzelnen die Zeit, die er von seinem Wohnort oder Arbeitsplatz zum Flughafen braucht. Und nur für einen (vermutlich kleinen) Teil dieser Menschen ist eine schnelle Punkt-zu-Punkt-Verbindung zwischen Hauptbahnhof und Flughafen wirklich die beste Lösung.

Was ist denn nun Hochtechnologie anderes als die Lösung realer Probleme mit den modernsten Mitteln der Technik? Das mit den modernsten Mitteln der Technik ist ja schön und gut. Ich arbeite immer gern mit den modernsten Mitteln der Technik. Aber was nützen mir die, wenn ich damit das gegebene Problem nicht lösen kann? Technische Lösungen, die am eigentlichen Problem vorbeigehen, sind meiner Meinung nach keine Hochtechnologie. Sie sind Geldverschwendung. Und sie sind eines guten Ingenieurs nicht würdig.

Ingenieurmäßig ist die Lösung des Problems mit möglichst einfachen, eleganten Mitteln. Der Rest ist Spielerei. (Nichts gegen Spielerei, ich liebe technische Spielereien, aber mag man dafür mehrere Milliarden an öffentlichen Geldern ausgeben?)

Ich denke, es ist gut, dass der Transrapid in München vom Tisch ist. Damit ist nämlich auch ein gewisses Nachdenkverbot vom Tisch. Jetzt kann wieder laut und konstruktiv über die beste von vielen möglichen Lösungen zur Anbindung des Münchner Flughafens nachgedacht werden. Das Beispiel Frankfurt zeigt, wie hervorragend ein Flughafen in das Schienennetz eingebunden werden kann. Aber vielleicht ist ein Fernverkehrsbahnhof gerade für München nicht das richtige. Immerhin hat gerade die Verbindung zwischen München und Nürnberg gezeigt, dass auch Regionalzüge mit 200 km/h verkehren können, und 160 km/h sind längst üblich. Damit lässt sich bei entsprechender Trassierung eine Verbindung zwischen Flughafen und Hauptbahnhof in unter 20 Minuten erreichen — und zusätzlich noch ein paar schnelle Verbindungen zu ein paar anderen Knotenpunkten in Bayern. Die derzeitige Anbindung allein per S-Bahn ist jedenfalls unzureichend. Man darf gespannt sein.

Aber eines gilt weit über München hinaus: Die Antwort für die Verkehrsprobleme in Deutschland ist nicht die Punkt-zu-Punkt-Verbindung, sondern das Netz — und damit nicht die Magnetschwebetechnik, sondern das Rad-Schiene-System. Und gerade das Rad-Schiene-System hat in Deutschland über die Jahrzehnte viel Hochtechnologie hervorgebracht. Hochtechnologie, die sich auch schon vielfach und erfolgreich ins Ausland hat verkaufen lassen.

Vor einigen Jahren kam es im Block 7 des Kohlekraftwerks Heilbronn zu einem Kurzschluss im Haupttransformator. Durch die freiwerdende Energie wurde der viele Tonnen schwere Deckel des Transformators hochgehoben, die Stahlwand des Trafohauses aus der Verankerung gerissen, und das Kühlmittel des Transformators fing an zu brennen. Dieses Ereignis hatte eine Schnellabschaltung des Kraftwerks, einen Feuerwehreinsatz und einen Bericht im Regionalteil der Heilbronner Stimme zur Folge.

Bei einer Werksführung wenige Monate später wurde uns offen und ausführlich erklärt, welche Sicherheitseinrichtungen vorgesehen und notwendig sind, damit ein solcher Vorfall keine schwerwiegenden Folgen hat. Der defekte Transformator muss sofort vom Strom-Verbundnetz getrennt werden, um Stromausfälle zu verhindern. Außerdem muss er sofort vom Generator getrennt werden, damit die außergewöhnlichen Kräfte, die durch den hohen Kurzschlussstrom im Generator entstehen, diesen nicht beschädigen. Damit fällt aber für die immer noch unter Dampf stehende und mit 3000 U/min rotierende Turbine die Last weg. Damit diese nicht auf unzulässige Drehzahlen beschleunigt und als Folge durch die hohen Fliehkräfte zerstört wird, muss die Dampfzufuhr sofort abgestellt werden. Der Dampf strömt dann über Sicherheitsventile ins Freie. Dabei muss der Kessel noch so lange mit Speisewasser versorgt werden, bis die Kohlenstaubbrenner abgeschaltet haben und somit keine Wärme mehr erzeugt wird. Alle diese Sicherheitsmaßnahmen haben bei dem Heilbronner Störfall seinerzeit perfekt funktioniert.

Jeder weiß, dass es überall da, wo Strom fließt, auch zu einem Kurzschluss kommen kann. Zu Hause sieht man vielleicht einen kleinen Funken und hört einen leisen Knall, dann hat der Sicherungsautomat längst den Stromkreis getrennt und weitere Schäden verhindert. Natürlich nimmt sich so ein Ereignis bei einem Großkraftwerk mit 700.000 kW Leistung weitaus dramatischer aus als bei einer 16-Ampere-Haushaltssicherung mit 3,7 kW Nennleistung. Dennoch gehört die Beherrschung eines Kurzschlusses hier wie dort zu den Standardaufgaben bei Konstruktion und Betrieb elektrischer Anlagen. Der Feuerwehreinsatz beim 700.000-kW-Kurzschluss ist dabei genauso eine normale, erwartete Folgehandlung wie das Wiedereinschalten der Sicherung beim 3,7-kW-Kurzschluss.

Kürzlich kam es im Kernkraftwerk Krümmel zu einem Störfall, der dem seinerzeit in Heilbronn recht ähnlich war. Natürlich bestehen erhebliche technische Unterschiede zwischen einem Kern- und einem Kohlekraftwerk, die Wirkungskette beim Ausfall des Haupttransformators ist aber im wesentlichen die gleiche. Der Hauptunterschied besteht meiner Meinung nach darin, dass es ein derartiger Störfall in einem Kernkraftwerk in die Hauptnachrichten der Tagesschau schafft.

In der Folge ist es anscheinend in Krümmel zu Missverständnissen beim Kraftwerkspersonal und ein oder zwei eher harmlosen Fehlbedienungen gekommen. Das ist unschön und muss ohne Zweifel untersucht werden. Das ist aber nicht unverständlich, immerhin kommt ein Ausfall des Haupttransformators nicht alle Tage vor. (Vermutlich war es für alle unmittelbar Beteiligten das erste Mal.) Das Problem liegt im Wort „anscheinend“. Von den Betreiben einer Kernenergie-Anlage wird zurecht ein besonderes Maß an Vertrauenswürdigkeit erwartet. Das Zurückhalten von Informationen zerstört Vertrauen stärker und nachhaltiger als Rauchwolken und Feuerwehreinsätze. Und wenn die zuständige Aufsichtsbehörde einen Durchsuchungsbefehl braucht, um an ihrer Meinung nach wichtige Informationen zu kommen, ist so etwas wie der Informationspolitische GAU längst erreicht. Auch wenn man beim ursprünglichen Störfall vom technischen GAU meilenweit entfernt war.

Der Ausfall des Haupttransformators ist in einem Kernkraftwerk – bei aller Dramatik der Bilder – eine vergleichsweise kleine Panne. Der Ausfall jeder vernünftigen Informationspolitik seitens des Betreibers einer so sensiblen Anlage ist eine richtig große Panne. Von der Führungsebene eines Kraftwerksbetreibers würde ich erwarten, zwischen kleinen und großen Pannen unterscheiden zu können.