Querverweis

13. März 2016

Der letzte Eintrag in diesem Blog liegt nun schon fast zweieinhalb Jahre zurück. Aus gegebenem Anlass habe ich mich entschlossen, einen Neuanfang zu wagen. Mein neuer Blog soll persönlicher werden und sich mehr auf ein Thema konzentrieren. Außerdem möchte ich kürzere Einträge schreiben, dafür aber häufiger posten. Neugierig geworden? Hier gehts zu meinem neuen Blog Herz im Wandschrank.

Und hier? Zunächst möchte ich mich auf meinen neuen Blog konzentrieren und habe keine konkreten Pläne für Einträge auf dieser Seite. Trotzdem: „Das Wesen der Dinge“ ist nicht tot, sondern schläft nur. Vielleicht habe ich irgendwann Muße, diesen Blog wieder aufzuwecken und mich wieder in gewohnter Weise über das Wesen einiger recht unterschiedlicher Dinge auszulassen.

Bischof auf Bewährung

28. Oktober 2013

Vor einigen Tagen entschied Papst Franziskus, dass der Limburger Bischof „eine Zeit außerhalb der Diözese“ verbringen solle. Eine kluge und vielleicht auch ein wenig grausame Entscheidung.

Klug weil der Papst damit einer klerikalen Dolchstoßlegende vorbeugt. Der arme Bischof von einer „Medienkampagne“ erdolcht, die Vorwürfe eine „Erfindung von Journalisten“. So hat sich schon Erzbischof Müller geäußert, und so würden viele konservative Kräfte den ganzen Skandal liebend gerne betrachten.

Die Auszeit eröffnet die Möglichkeit, Vorwürfe durch Fakten zu ersetzen, bevor endgültige Entscheidungen getroffen werden. Da ist der von der Staatsanwaltschaft Hamburg beantragte Strafbefehl wegen falscher eidesstattlicher Erklärung, über den das zuständige Gericht noch nicht entschieden hat. Da sind die Strafanzeigen wegen Untreue, zu denen die Staatsanwaltschaft Limburg noch nicht einmal entschieden hat, ob überhaupt Ermittlungen aufgenommen werden. Und da ist natürlich noch die Prüfungskommission der Deutschen Bischofskonferenz, die erst kürzlich ihre Arbeit aufgenommen hat.

Dass die Medien sich auf jeden neuen Vorwurf und jedes neu bekannt gewordene Detail stürzt, ist ihr Recht und ihre Aufgabe. Der Papst hat sich das Recht genommen und es sich zur Aufgabe gemacht, im Fall Tebartz-van Elst erst dann zu entscheiden, wenn die Fakten offenkundig auf dem Tisch liegen. Das ist nicht nur klug, das ist auch ehrenwert.

Ein wenig grausam ist dies für das betroffene Bistum und die Mitarbeiter dort. Nach Monaten des Chaos kommen Monate in der Schwebe. Das sind keine schönen Aussichten. Leider gibt es in Krisen selten einfache Auswege. Die Bistumsmitarbeiter sind die Hauptleidtragenden, müssen aber gerade deshalb ihren Teil zur Aufarbeitung des Skandals beitragen. Wer will es ihnen verdenken, wenn sich da auch manches an Groll und Bitterkeit aufgestaut hat. Aber Groll und Bitterkeit können sehr hinderlich sein, wenn man im Weinberg des Herrn arbeiten will.

Kommen wir zur Hauptfigur des Skandals. Als Bischof vom Papst auf Eis gelegt zu werden, ist kein schönes Erlebnis, zumal Tebartz-van Elst jetzt aus der Ferne beobachten muss, was andere — Staatsanwaltschaften, Kommissionen, Bistumsmitarbeiter und nicht zuletzt der neue Generalvikar Rösch — aus seinem Lebenswerk machen. Im Bistum wird laut Spiegel Online bereits darüber nachgedacht, die Bischofsresidenz als Obdachlosenheim und Suppenküche zu benützen.

Eine besondere Bedeutung kommt wohl Wolfgang Rösch zu, den Tebartz-van Elst selbst für die Aufgabe des Generalvikar ausgesucht hat. Als Vertreter des Bischofs kann er diesem aus erster Hand davon berichten, wie man im Bistum den Führungsstil Tebarts-van Elsts empfindet. Und als Vertrauter des Bischofs hat sein Wort mehr Gewicht als alle Kritik in den Medien.

Eigentlich sehr gute Voraussetzungen für das, was Tebarts-van Elst jetzt am dringendsten braucht: Dass er sich von Gott den Stolz brechen und Demut lehren lässt. Denn ich vermute, dass nur ein von Grund auf veränderter Mensch Tebarts-van Elst noch eine Chance hat, weiterhin Bischof Tebarts-van Elst zu sein. Und sage bitte keiner, dass das nicht möglich ist. Vielleicht nicht nach menschlichem Ermessen, aber für Gott ist das Alltag. Menschen von Grund auf zu verändern — das macht Gott jeden Tag.

Wer jetzt mit Häme und Schadenfreude an den Bischof auf Eis denkt, hat den Sinn des Ganzen noch nicht verstanden. Denn Stolz brechen und Demut lehren gehören fest zu Gottes Ausbildungsprogramm für jeden von uns. Und wer sich über Tebartz-van Elst überhebt, beweist damit nur, dass er dieses Ausbildungsprogramm besonders nötig hat. Ein bisschen Tebartz-van Elst steckt in jedem von uns — Sowohl was die Krankheit als auch was deren Heilung betrifft.

Dank Edward Snowden wissen wir mal wieder ein gutes Stück mehr, wie sehr wir mittlerweile von Sicherheitsbehörden aller Art überwacht werden. Es ist noch nicht vollständig klar, wie umfangreich die Maßnahmen und wie beteiligt die angegebenen Internet-Konzerne tatsächlich sind. Offensichtlich ist jedoch, dass PRISM ein schlagkräftiges Machtinstrument für eine Diktatur wäre. Denn ein wichtiges Kennzeichen von totalitären Staaten ist gerade, dass staatliches Handeln stets im Geheimen geschieht, der Staat sich aber möglichst unmittelbaren Zugriff auf die Informationen aller Bürger verschafft. In der Demokratie ist staatliches Handeln stets öffentlich, so lange im konkreten Fall keine gewichtigen Gründe dagegen sprechen. Tun und Lassen des Bürgers hingegen gehen den Staat nur etwas an, so weit es dafür eine konkrete, hinreichende Notwendigkeit gibt.

Die Kritik aus Deutschland an PRISM reicht quer durch das politische Spektrum. Interessanterweise beteiligen sich dabei auch die politischen Kräfte, die seit längerem für die Wiedereinführung der anlasslosen Vorratsdatenspeicherung kämpfen. Von geradezu erfrischender Ehrlichkeit sind dabei die Äußerungen des Chefs der Deutschen Polizeigewerkschaft Rainer Wendt, die Sascha Lobo dankenswerterweise völlig richtig einordnet.

Aber wie kommt es, dass gerade die Ämter, die den Bestand unserer freiheitlich-demokratischen Ordnung sicherstellen sollen, immer wieder Strukturen hervorbringen, die zum Aufbau einer Diktatur geeignet sind? Das liegt in erster Linie an der Natur der Grundrechte selbst, die der demokratische Staat, hier wie in den USA, seinen Bürgern garantiert.

Diese sind nämlich gerade kein Auftrag des Staates zu Schutz und Hege seiner Bürger. Vielmehr handelt es sich um Verteidigungsrechte des Bürgers gegen den Staat. Die Staatsmacht darf eben nicht alles (vermeintlich) Notwendige zur Erfüllung ihrer Aufgaben tun, sondern nur das, was ihr von Gesetz wegen explizit erlaubt ist. Und die Grundrechte stellen absolute Grenzen staatlichen Handelns dar, die auch mithilfe von Gesetzen nicht überwunden werden können.

Das gilt auch und besonders für die Teile des Staatsapparats, die für die Aufrechterhaltung der freiheitlich-demokratischen Staatsordnung zuständig sind: Die Sicherheitsbehörden werden genau durch die Grundrechte, die sie verteidigen sollen, in ihrer Handlungsfähigkeit eingeschränkt. Das ist kein Fehler, der behoben werden muss, das ist vielmehr ein unverzichtbares Grundprinzip der freiheitlich-demokratischen Ordnung.

Es ist verständlich, dass Menschen, die Verantwortung tragen, die Grenzen ihrer Handlungsfähigkeit erweitern wollen. Und es ist nicht verwerflich, insbesondere wenn es um die Sicherheit der Bevölkerung geht. Es ist jedoch nicht akzeptabel, wenn dabei die Beschädigung oder gar Zerstörung des eigentlichen Schutzziels als Kollateralschaden in Kauf genommen wird, wenn zum Schutz der Grundrechte dieselben ausgehöhlt und verwässert werden. Leider zeigen fast alle Sicherheitsbehörden dieser Welt diese Tendenz. PRISM ist nur ein besonders gravierendes Beispiel dafür, die Äußerungen von Rainer Wendt ein weiteres.

Von den Organen eines freiheitlich-demokratischen Staates erwarte ich besonderen Respekt vor den Rechten seiner Bürger und bewusste Selbstbescheidung angesichts dieser Rechte. Leider, so fürchte ich, ist diese Erwartung wenig realistisch, denn Behördenleiter und hochrangige Politiker sind – wie man so schön sagt – auch nur Menschen, sogar Menschen mit überdurchschnittlichem Wunsch nach Macht, sonst hätten sie nie die Ämter erstrebt, die sie innehaben.

Das entscheidende Element für die langfristige Bewahrung der Grundrechte ist deshalb nicht der Staatsapparat, auch wenn er durch eine funktionierende Gewaltenteilung auf vielen Ebenen viel dazu beitragen kann. Entscheidend ist vielmehr, dass die Zivilgesellschaft diese Rechte immer und immer wieder einfordert. Das schließt auch ein gesundes Misstrauen gegenüber der Staatsmacht mit ein. Man könnte sagen, der Bürger eines freiheitlich-demokratischen Staates sei geradezu von Staats wegen dazu verpflichtet, den Organen dieses Staates zu misstrauen.

Um diese Verpflichtung zu erfüllen, ist neben viel Engagement auch nötig, dass man sich über die Handlungen der Staatsorgane umfassend informieren kann. Geheimhaltung ist deshalb gleich in zweifacher Hinsicht undemokratisch: Der Staat setzt sich dabei nicht nur über die Rechte seiner Bürger hinweg, er nimmt ihnen zugleich auch die Mittel, sich gegen diese Übergriffe zu wehren. Das gilt auch für das PRISM-Programm: Der eigentliche Skandal besteht nicht aus den durchgeführten Überwachungsmaßnahmen, auch wenn diese selbst wohl erschreckend genug sind. Der eigentliche Skandal ist die Einstufung des ganzen Programms als streng geheim und damit die Absicht, ein aus Sicht der Grundrechte derart problematisches Programm dauerhaft ohne Wissen der Bürger durchzuführen. Dies ist unabhängig von jeder Gesetzes- und Rechtslage ein direkter Angriff auf die freiheitlich-demokratische Grundordnung.

„Was ich nicht weiß, macht mich nicht heiß“, sagt der Volksmund. Mit der Geheimhaltung leben beide Seiten bequemer: Die Staatsvertreter, die sich nicht zu rechtfertigen brauchen, und die Bürger, die sich nicht beunruhigen müssen. Wenn wir unsere freiheitlich-demokratische Grundordnung wertschätzen, dürfen wir uns diese Bequemlichkeit nicht erlauben.

Protest 21

3. Oktober 2010

Der Protest gegen das Eisenbahn-Großprojekt Stuttgart 21 wurde schon mit den Demonstrationen in der damaligen DDR im Herbst 1989 verglichen. Ich glaube nicht, dass der Vergleich möglich ist. Zu den beiden Volksaufständen in der DDR, dem erfolglosen von 1953 und dem erfolgreichen von 1989, gibt es in der deutschen Nachkriegsgeschichte nichts Vergleichbares und wird es auch hoffentlich in der Zukunft nicht geben.

Das Problem ist: Mit was soll man die Proteste und Demonstrationen in Stuttgart sonst vergleichen? Der Widerstand gegen Stuttgart 21 erhebt sich aus der Mitte der Gesellschaft, und das ist (zumindest für deutsche Verhältnisse) eher ungewöhnlich. Dass bei dem gewaltsamen Polizeieinsatz am vergangenen Donnerstag auch Kinder und alte Leute verletzt wurden, liegt schlicht daran, dass auch Familien mit Kindern und alte Leute sich gegen das Projekt einsetzen. Dazu gehören auch die alteingesessenen Stuttgarter, die in den Jahren nach dem zweiten Weltkrieg lieber gefroren haben, als die Bäume des traditionsreichen Stuttgarter Schlossgartens zu verheizen. Sie sind für mich ein Symbol dafür geworden, aus welchen Motivationen sich der Widerstand speist.

Ungewöhnlich ist auch der Ort. Auch wenn eine gewisse kritische Distanz zur Obrigkeit bei den Schwaben zur Tradition gehört: Als beliebter Standort für Proteste ist Stuttgart nun wirklich nicht bekannt. Der Einsatz von Wasserwerfern in den vergangenen Tagen war in dieser Stadt der erste seit über 40 Jahren. Was treibt zehntausende von braven Schwaben neuerdings so regelmäßig auf die Straße?

Ich glaube, für viele Stuttgarter ist das Maß einfach voll. Auch die Stadtverschandelung hat in Stuttgart mittlerweile Tradition. Schon vor 25 Jahren hat der schwäbische Historiker und Mundartautor Gerhard Raff angesichts verschiedener städtebaulicher Maßnahmen den Begriff „Beton-Württemberg“ geprägt. Mit dem Bonatz-Bau und vor allem dem traditionsreichen Schlossgarten werden nun wieder zwei Symbole Stuttgarts teilweise zerstört, um einer weiteren Beton-Monströsität Platz zu schaffen. Natürlich spielen auch die großen Kosten eine Rolle – Geld, das an anderer Stelle dringend benötigt wird – aber ich glaube, die Stuttgarter fürchten vor allem um die Seele ihrer Stadt. Wo es um die Heimat von Menschen geht, reichen Nützlichkeitserwägungen alleine nicht aus.

Damit setzen sich die Stuttgarter Bürger an die Spitze einer Bewegung, die sich in Deutschland schon länger abzeichnet. Die Krise um Stuttgart 21 ist nämlich auch eine Krise der repräsentativen Demokratie. Viele Bürger fühlen sich durch ihre Repräsentanten nicht mehr repräsentiert. Auch wenn sich in Baden Württemberg die CDU und die Grünen als Protagonisten des Konflikts gebärden, geht der Riss doch nicht nur zwischen den Parteien hindurch. Er trennt mehr und mehr den Apparat der Parteiendemokratie vom Volk, das dieser eigentlich repräsentieren sollten.

Die Parteien haben nach dem Grundgesetz den Auftrag, an der politischen Willensbildung mitzuwirken. Leider entsteht mittlerweile immer häufiger der Eindruck, dass die Parteien die politische Willensbildung unter sich ausmachen, und der Bürger nur noch alle vier oder fünf Jahre das Ergebnis abzunicken hat. Die Folge: Wir fühlen uns ohnmächtig, und das ist kein der Demokratie förderliches Gefühl. Die gewaltsame Räumung des Schlossgartens mag rechtlich sogar in Ordnung gewesen sein, sie ist jedoch zu einem Fanal der Ohnmacht des Volkes gegenüber der selbst gewählten Regierung geworden.

Das alles wirft die Frage auf, wie Demokratie funktioniert, wie Demokratie funktionieren soll. Wir müssen uns mal wieder überlegen, was wir unter Demokratie verstehen, und wie wir uns Demokratie wünschen. Das ist kein neuer Vorgang. Unsere freiheitlich-demokratische Grundordnung ist immer eine gefährdete. Dabei sind Gewohnheit und verkrustete Strukturen auf Dauer nicht weniger schlimm als Populismus und Machtkonzentration. Der ehemalige Richter am Bundesverfassungsgericht Ernst Wolfgang Böckenförde sagte einmal: „Der freiheitliche säkularisierte Staat lebt von Voraussetzungen, die er selbst nicht garantieren kann.“ Diese Voraussetzungen zu erhalten und ständig neu zu schaffen ist Aufgabe einer jeden demokratischen Gesellschaft. Ein Teil davon findet zur Zeit in Stuttgart statt.

Die Revolution ist ein wesenseigener Anteil jeder funktionierenden Demokratie. Wo Revolution nicht als kontinuierlicher Vorgang gelingt, muss sie als wiederkehrende Phase auftreten. Nachdem die Väter und Mütter des Grundgesetzes der Demokratie in Westdeutschland einen gelungenen Start bereitet haben, waren die 68er eine erste solche Phase. Man mag über die damaligen Inhalte denken, was man will: Das hinterfragen von Autorität und Staatsmacht in der damaligen Zeit war sie für unsere Demokratie überlebenswichtig.

Die glücklichste Revolution in Deutschland war zweifellos die Wende in der DDR, die vor 20 Jahren zur Wiedervereinigung des geteilten Deutschlands geführt hat. Sie mag – zumindest was das Ziel politischer Veränderungen aus bundesrepublikanischer Sicht betrifft – als verpasste Chance gewertet werden. Andererseits musste unser Volk ohnehin mit gewaltigen Veränderungen zurechtkommen, so dass politische Stabilität auf der Basis des Bewährten vermutlich die bessere Wahl war.

Wiederum sind 20 Jahre vergangen, und es wird meiner Meinung nach Zeit, mal wieder eine gute Portion Revolution zu wagen. Wir werden darüber nachdenken müssen, wie angesichts veränderter Werte, veränderter Kultur und einer veränderten Medienlandschaft eine repräsentative Demokratie am besten funktionieren kann. Und wir werden uns damit auseinandersetzen müssen, wie unser Volk angesichts vielfach begrenzter Ressourcen den Begriff Lebensqualität definiert.

Wir dürfen diese Fragen nicht dem Parteiengezänk überlassen. Wir müssen gesellschaftliche Debatten zurück in die Gesellschaft tragen. Vergessen wir nicht, dass wir der Souverän und Politiker auch nicht mehr als normale Bürger sind. Ein Hoch auf die Stuttgarter, die uns das gerade in Erinnerung rufen.

Das anthropische Prinzip

19. September 2010

Eigentlich ist unsere gute alte Erde ein ganz angenehmer Ort – zumindest wenn man sie mit den anderen Himmelskörpern unseres Sonnensystems vergleicht. Da gibt es welche, die sind glühend heiß, andere sind bitter kalt. Manche haben keine Atmosphäre, andere noch nicht mal eine Oberfläche.

Aber warum ist denn die Erde so ein angenehmer Ort? Nun, wir wären nicht hier, wenn es nicht so wäre. Die Frage, warum es einen Ort gibt, an dem intelligentes Leben möglich ist, kann nur gestellt werden, wenn es einen solchen Ort gibt. Oder anders formuliert: Da es intelligentes Leben auf der Erde gibt, ermöglicht sie intelligentes Leben.

Möglicherweise bedarf es einer extrem feinen Abstimmung verschiedener Randbedingung, um aus der Erde erst einen Planeten zu machen, auf dem Wesen wie wir existieren können. Es mag noch so erstaunlich sein, dass genau die Erde diese Vielzahl an Bedingungen erfüllt, aber aufgrund unserer Anwesenheit muss es einfach so sein. Die Existenz menschlichen Lebens setzt die Existenz eines geeigneten Planeten voraus. Und da wir hier sind, ist die Erde so ein Planet.

Man könnte auch sagen, wir haben eine selektive Wahrnehmung. Da wir nur auf einem lebensfreundlichen Ort existieren können, sehen wir auch nur Randbedingungen, die zu einem lebensfreundlichen Ort gehören. Wenn zum Beispiel von den vielen verschiedenen Größen von Sternen nur eine bestimmte Größenklasse Leben in ihrer Umlaufbahn ermöglicht, dann kann dieses Leben nun mal nur diese Größenklasse aus nächster Nähe beobachten und untersuchen.

Dieser Gedankengang wird seit den Siebziger Jahren als anthropisches Prinzip bezeichnet, und es gibt ihn in zwei Varianten: Bei der schwachen Variante geht man davon aus, dass es unter den vielen Planeten bestimmt den einen oder anderen gibt, der intelligentes Leben ermöglicht. Wenn es solche Orte also sowieso gibt, dann ist es nur logisch, dass wir uns an einem solchen Ort befinden. Die außergewöhnlich freundlichen Eigenschaften der Erde sind also kein erstaunlicher Zufall, sondern lediglich ein Produkt aus einfacher Statistik und der schlichten Tatsache, dass intelligentes Leben nun mal nur da existiert, wo es existieren kann. In diesem Fall kann das anthropische Prinzip vollständig erklären, warum gerade unser Planet so angenehme Eigenschaften hat.

Wenn man nun annimmt, dass die Eigenschaften der Erde wirklich extrem ungewöhnlich sind, so ungewöhnlich, dass es schon erstaunlich ist, dass überhaupt ein solcher Planet im Universum existiert, dann sind wir beim starken anthropischen Prinzip angelangt. Es gilt immer noch die Aussage, dass die Erde ein lebensfreundlicher Ort sein muss, weil wir sonst nicht hier wären, um über diese Tatsache nachzudenken. Aber es taugt nicht mehr als Erklärung, warum die Erde so ist, wie sie ist. Die Frage, warum gerade unser Planet so angenehme Eigenschaften hat, wird zurückgeführt auf die Frage, warum überhaupt ein Planet hinreichend angenehme Eigenschaften hat. Im Gegensatz zum schwachen anthropischen Prinzip bleiben aber beide Fragen unbeantwortet.

Das anthropische Prinzip lässt sich auf alle Eigenschaften und Vorgänge anwenden, die mutmaßlich dazu beigetragen haben, dass wir Menschen existieren als eine Spezies, die das anthropische Prinzip formulieren und darüber nachdenken kann. Es geht um die Enstehung der Arten wie um die Entstehung des Lebens an sich. Man kann es auf die Existenz unseres Sonnensystems sowie auf die Existenz des ganzen Universums anwenden. Es geht um unsere Existenz an sich. Damit hat die Frage, ob es sich um das schwache oder das starke anthropische Prinzip handelt, zutiefst philosophische Bedeutung. Wenn sich alle Fragen unserer Existenz auf das schwache Prinzip zurückführen lassen würden, wäre der Glaube an einen Schöpfergott (rein aus logischer Sicht) überflüssig. Umgekehrt wäre der Nachweis, dass man das starke anthropische Prinzip zur Erklärung unserer Existenz benötigt, ein starkes Indiz für die Existenz eines solchen Schöpfers.

Kein Wunder also, dass sich naturwissenschaftlich interessierte Atheisten und Christen gerne über genau dieses Problem streiten – stark oder schwach, das ist hier die Frage. Dabei geht es bei der Unterscheidung zwischen den beiden Prinzipien in erster Linie um Fragen der Statistik.

Nehmen wir uns einmal die Existenz der Erde vor. Sagen wir, es gäbe P verschiedene denkbare Planeten, also P verschiedene Möglichkeiten, wie die Eigenschaften eines Planeten sein könnten. Dann seien PL die verschiedenen Möglichkeiten, wie ein Planet sein könnte, der intelligentes Leben ermöglicht. Dann sei die Wahrscheinlichkeit, dass ein beliebig zufällig ausgewählter Planet intelligentes Leben ermöglicht, PL/P.

Allein diese Behauptung ist schon in zweierlei Hinsicht problematisch. Erstens müssen die verschiedenen Möglichkeiten innerhalb von P gleichverteilt sein, das heißt, alle möglichen Planeten innerhalb von P sind gleich wahrscheinlich. Das lässt sich mit ein wenig Mathematik schon so hinrechnen, aber es setzt voraus, dass wir genügend Kenntnisse über die Wahrscheinlichkeit verschiedener Planeteneigenschaften haben.

Zweitens haben wir noch gar nicht geklärt, welche Art von Wahrscheinlichkeit wir eigentlich meinen. Es gibt nämlich prinzipiell zwei Arten: Die A-priori-Wahrscheinlichkeit schließt aus den Eigenschaften des Systems auf die Wahrscheinlichkeit bestimmter Ereignisse, bevor diese eintreten. Die A-posteriori-Wahrscheinlichkeit wird aus der Verteilung der tatsächlich eingetretenen Ereignisse berechnet, ohne dass man dazu die Eigenschaften des Systems kennen muss. Dafür braucht man allerdings eine hinreichend große Zahl von Ereignissen, die bereits stattgefunden haben.

Bei einem gut gearbeiteten Würfel gehen wir zum Beispiel davon aus, dass alle Zahlen gleich wahrscheinlich sind. Das wäre eine A-priori-Wahrscheinlichkeit. Es gibt aber auch gezinkte Würfel, die sich äußerlich nicht von normalen Würfeln unterscheiden, bei denen aber gerade nicht alle Zahlen gleich wahrscheinlich sind. Das heißt, die A-priori-Wahrscheinlichkeit versagt bei gezinkten Würfeln, weil wir die Systemeigenschaften nicht genau genug kennen. Die Unterscheidung zwischen gezinkten und nicht gezinkten Würfeln gelingt nur über eine A-posteriori-Wahrscheinlichkeit, wobei ein besserer Mathematiker als ich sagen müsste, wie oft man den Würfel werfen müsste, um eine zuverlässige Aussage zu bekommen. Das kann selbst bei einem so einfachen System wie einem Würfel leicht mal in die Tausende gehen.

Es liegt in der Natur der Sache, dass wir uns beim anthropischen Prinzip normalerweise nicht auf eine A-posteriori-Wahrscheinlichkeit beziehen können. Das heißt, wir brauchen genaue Kenntnisse über das betrachtete System. Das heißt auch, dass eine übersehene Systemeigenschaft unsere ganze schöne Rechnung über den Haufen werfen kann.

Für die Bestimmung des anthropischen Prinzips brauchen wir noch eine dritte Zahl, nämlich die Zahl der Exemplare N. Bezogen auf das obige Beispiel wäre das die Zahl der Planeten im Universum. Daraus lässt sich so eine Art anthropische Kennzahl berechnen: N·(PL/P). Ist diese Zahl deutlich größer als 1, so handelt es sich bei dem betrachteten Beispiel um das schwache anthropische Prinzip, ist die Zahl deutlich kleiner als 1 (also nahe 0), handelt es sich um das starke anthropische Prinzip.

Dass in vielen praktischen Beispielen die Zahlen N, P und PL (oder zumindest ein Teil davon) unendlich sind, ist kein prinzipielles Hindernis, erschwert die Sache aber zusätzlich, da mit Grenzübergängen gerechnet werden muss, wofür man möglicherweise zusätzliche Kenntnisse über die Eigenschaften des betrachteten Beispiels benötigt. Es reicht aber auch nicht, einfach N als unendlich anzunehmen, weil gerade in diesen Fällen auch PL/P gleich 0 sein kann.

Ein Beispiel für die Berechnung einer solchen Kennzahl findet sich in dem Buch „Evolution: Ein kritisches Lehrbuch“ von Reinhard Junker und Siegfried Scherer. Die Autoren schätzen darin aufgrund von einschlägigen bekannten Wahrscheinlichkeiten die Kennzahlen für einen einzelnen Evolutionsschritt ab. Dabei verwenden sie an vielen Stellen Werte, die bis zur äußersten Grenze des Glaubwürdigen auf ein möglichst großes Ergebnis von N·(PL/P) ausgewählt wurden. Sie kommen dabei auf eine Wahrscheinlichkeit PL/P für den Evolutionsschritt von 10–75. Bei einer Gesamtzahl N an jemals existiert habenden Exemplaren der betrachteten Lebewesen von 1046 ergibt sich N·(PL/P) zu 10–29. Damit müsste man für dieses Beispiel vom starken anthropischen Prinzip ausgehen.

Die Rechnung von Junker und Scherer ist dahingehend faszinierend, als sie zumindest zum Teil auf A-posteriori-Wahrscheinlichkeiten zurückgreifen kann, was bei Berechnungen zum anthropischen Prinzip leider sehr selten der Fall ist. Wie groß die Unsicherheiten innerhalb dieser Berechnung dennoch ist, zeigt die Tatsache, dass die Änderung von drei Detailannahmen die Kennzahl von 10–29 auf 10–94 abstürzen lässt. Viel relevanter für das anthropische Prinzip sind allerdings die Einwände derer, die das Ergebnis für zu klein halten.

So betrachten Junker und Scherer tatsächlich nur einen möglichen Evolutionsweg, nämlich den, den die Lebewesen auf der Erde tatsächlich eingenommen haben (sollen). Es ist sinnvoll anzunehmen, dass es viele verschiedene Möglichkeiten gibt, wie sich das Leben entwickeln könnte. Die Berechnung bezieht sich aber nur auf die verschiedenen Möglichkeiten, wie ein ganz bestimmter Evolutionsschritt von Statten gegangen sein könnte. PL ist zu klein gewählt und müsste noch mit der Anzahl der möglichen Evolutionsschritte mit zumindest ähnlichem Ergebnis multipliziert werden. Ein sehr schwer zu bestimmender, meiner Meinung nach hoch spekulativer Faktor.

Damit bewegen wir uns aber weg von A-posteriori-Wahrscheinlichkeiten und hin zu A-priori-Wahrscheinlichkeiten, die zudem in diesem Beispiel von besonders unsicherer und spekulativer Natur sind. Wenn wir PL mit einer wie auch immer zustande gekommenen Zahl von möglichen Evolutionsschritten multiplizieren, kommen wir zwar zu einem realistischeren Wert, entfernen uns aber gleichzeitig von bekannten Tatsachen. Ein Dilemma.

Selbst bei einem sehr einfachen, fassbaren Beispiel landen wir bei einer Zahl N·(PL/P), die mit Unsicherheiten von mehreren dutzend Größenordnungen behaftet ist, mit Unsicherheiten, die selbst schon jenseits jeder Vorstellungskraft liegen. Ob dem Ergebnis dann noch eine Aussagekraft zuzurechnen ist, darf bezweifelt werden.

Das heißt nicht, dass es falsch ist, sich mit diesen Zahlen zu beschäftigen. Aber es erklärt, warum man prinzipiell skeptisch sein sollte, wann immer jemand die Frage nach dem starken oder schwachen anthropischen Prinzip eindeutig in die eine oder andere Richtung entschieden zu haben glaubt. Das gilt auch, wenn dieser Jemand ein zweifellos brillanter Mathematiker und Physiker wie Stephen Hawking ist.

Der beschreibt zusammen mit Leonard Mlodinow hier und wohl auch in ihrem neuen Buch „The Grand Design“, dass er wichtige Fragen über Existenz und Struktur des Universums im Sinne des schwachen anthropischen Prinzips erklären kann. Ich zweifle nicht daran, dass seine Erklärungen genau so logisch und überzeugend sind wie Junkers und Scherers Berechnungen. Aber die zu Grunde liegende Physik enthält auch nicht weniger A-priori-Annahmen und mehr oder minder spekulative Theorien wie bei Junker und Scherer.

Will man das anthropische Prinzip in Bezug auf das ganze Universum untersuchen, braucht man nämlich eine einheitliche, in sich konsistente Theorie der vier Grundkräfte: der elektromagnetischen, schwachen und starken Wechselwirkung und der Gravitation. Zwar gibt es eine vereinheitlichte Theorie der elektromagnetischen und schwachen Wechselwirkung, die sich im Experiment vielfach bewährt hat, an einer Vereinheitlichung mit der starken Wechselwirkung ist man bisher aber ebenso gescheitert, wie an einer Quantentheorie der Gravitation. (Die ist nötig für eine einheitliche Theorie aller vier Kräfte.)

Nicht dass es dafür keine vielversprechenden Theorien und Hypotesen gäbe, aber die wenigen möglichen experimentellen Ansätze, um diese Theorien zu belegen, brachten bisher keine nennenswerten Erfolge. So fehlt zum Beispiel trotz extrem aufwändiger Experimente immer noch der Nachweis des Protonenzerfalls, der für eine einheitliche Theorie von elektromagnetischer, schwacher und starker Wechselwirkung unabdingbar zu sein scheint.

Hawking und Mlodinow können ihre Überlegungen also nur auf Theorien stützen, die von einer experimentellen Bestätigung noch sehr weit entfernt sind. Es ist natürlich legitim zu überlegen, welche Folgen die gängigen Theorien für die Frage nach dem anthropischen Prinzip haben. Wenn die beiden aber angeben, daraus eine Aussage über die Existenz Gottes ableiten zu können, hat das mehr mit gezielter Provokation und geschicktem Marketing zu tun als mit solider Physik.

Das ist natürlich nur eine Reaktion auf die Argumentationsweise der „Gegenseite“. Denn es gibt leider gerade auf der theistischen Seite eine zunehmende Tendenz, mehr oder minder spekulativen Berechnungen sehr kleiner „anthropischer Kennzahlen“ zu einem Beweis für die Existenz Gottes hochzustilisieren. Es würde natürlich beiden Seiten gut anstehen, auf dem Boden der wissenschaftlichen Tatsachen zu bleiben, aber warum sollte der Atheist Hawking das tun, wenn manche Teile der kreationistischen Szene diesen Boden nicht mal mehr mit dem Fernglas entdecken können.

Zu guter wissenschaftlicher Arbeit gehört immer die offene Kommunikation über die Grenzen der eigenen Theorien und die Unsicherheiten in den eigenen Annahmen. Ein guter Wissenschaftler erklärt nicht nur, warum er seine Theorie für zutreffend hält (allein schon das Wort „richtig“ wäre zu viel), sondern beschreibt auch die Argumente und Ansatzpunkte, mit denen gegebenenfalls nachgewiesen werden kann, dass seine Theorie falsch ist. Um eine Theorie zu überprüfen, sind nämlich gerade die Zweifel und Unsicherheiten das eigentlich wissenschaftlich Interessante.

Diese Zweifel kommen leider gerade in populärwissenschaftlichen Büchern, die häufig entweder aus der theistischen oder aus der atheistischen Sicht geschrieben werden, viel zu wenig vor. Immerhin verzichten sowohl Junker und Scherer als auch Hawking in ihren Schriften auf billige Polemik und lassen diese Zweifel zumindest gelegentlich auch mal zu Wort kommen. Das ist ein Anfang und macht ihre Bücher recht lesenswert, aber für eine echte wissenschaftliche Auseinandersetzung ist das noch zu wenig.

Was wissen wir denn über die Geschichte des Universums, das uns umgibt, und dessen Teil wir sind? Wesensmerkmal des anthropischen Prinzips – in beiden Formen – ist ja gerade die Beschränktheit unseres Horizontes. Unsere unmittelbare Wahrnehmung ist auf Lebensräume beschränkt, die unsere Existenz zulassen. Der Anteil des indirekten, des erst durch komplexe Schlussfolgerungen Zugänglichen an dem, was wir Wissen über das Universum nennen, ist enorm. Das am weitesten von uns entfernte von Menschen gemachte Objekt ist die Raumsonde Voyager 1. Die Entfernung beträgt unvorstellbare 17 Milliarden Kilometer. Trotzdem hat sie noch nicht einmal unser Sonnensystem verlassen. Der nächste Stern ist über 2000 mal weiter entfernt.

Schon in dieser (kosmologisch so geringen) Entfernung können uns neue Rätsel begegnen. Die etwas weniger weit entfernten Pioneer-Sonden wiesen vor dem Abreißen der Kommunikation eine winzige, aber messbare Abweichung von der berechneten Flugbahn ab, für die es noch keine Erklärung gibt. (Bei den Voyager-Sonden konnte der Effekt noch nicht nachgewiesen werden, weil die Sonden komplexer und damit die Störgrößen vielfältiger sind) Noch wird es als sehr unwahrscheinlich angesehen, dass sich hinter der Pioneer-Anomalie eine bisher unbekannte physikalische Kraft verbirgt. Aber dennoch zeigt das Phänomen, dass selbst in (kosmologisch gesehen) so geringer Entfernung mit neuen Erkenntnissen gerechnet werden muss. Dennoch ist die Entfernung so groß, dass gezielte wissenschaftliche Experimente in diesem Abstand zur Erde zwar vielleicht noch technisch möglich, aber doch zumindest auf absehbare Zeit völlig unbezahlbar sind.

Ich möchte keinesfalls klein reden, was die Menschheit in technischer und naturwissenschaftlicher Hinsicht erreicht hat. der Erkenntnisgewinn gerade des 20. Jahrhundert ist in jeder Hinsicht beeindruckend und verdient höchsten Respekt. Die vergebliche Suche nach dem Protonenzerfall, die aus kosmologischer Sicht so lächerlich kleine Reichweite der Raumsonden und viele andere große, aufwändige und teuere Experimente mit begrenzten Ergebnissen zeigen neben dem technisch-naturwissenschaftlichem Fortschritt auch die Grenzen des Machbaren und damit letztlich auch die Grenzen des menschlichen Erkenntnisvermögens. Manche mögen der Ansicht sein, dass die Frage nach dem starken oder schwachen anthropischen Prinzip bald geklärt würde oder sogar schon geklärt sei. Angesichts der Vielzahl der offenen Fragestellungen halte ich eine solche Ansicht für reichlich naiv.

Dabei könnte man sogar noch einen Schritt weitergehen. Man könnte argumentieren, dass die naheliegende Gleichsetzung des schwachen anthropischen Prinzips mit Atheismus und des starken anthropischen Prinzips mit Theismus keinesfalls zwingend ist. Dass ein Schöpfer als Erklärung nicht notwendig ist, heißt nicht, dass er nicht existiert. Und dass ein Ereignis unwahrscheinlich ist, heißt eben gerade nicht, dass es nicht eintreten kann. Zugegeben: Wenn die Wahrscheinlichkeit für ein Ereignis ausreichend hoch ist, ist es klug, davon auszugehen, dass es eintritt. Und wenn die Wahrscheinlichkeit ausreichend niedrig ist, kann man eigentlich davon ausgehen, dass es sicher nicht eintritt. Aber wo will man die Grenze ziehen? Wahrscheinlichkeiten sind tückisch. Sie können ein extrem starkes Argument darstellen. Ich möchte nur davor warnen, sie zum einzigen Argument zu machen.

Schließlich scheitern alle anthropischen Prinzipien und alle Weltanschauungen an der Erklärung der Existenz an sich. Jeder Versuch führt zu einem unendlichen Regress, jede Ursache ist wiederum Wirkung einer vorgelagerten Ursache. Hawking spricht von der spontanen Entstehung von Universen, muss sich aber auf ein gewisses Maß auf präexistente Naturgesetzen stützen, um dies begründen zu können. Und auch die christliche Lehre bietet hier keine wirkliche Antwort. Die Existenz des Universums wird auf die Existenz Gottes zurückgeführt, und die wiederum ist schlicht unerklärbar. Der unendliche Regress wird also nicht aufgelöst, sondern – wenn man so will – künstlich abgebrochen. Die Existenz selbst bleibt unerklärbar – unabhängig vom anthropischen Prinzip.

Ohnehin wird ein vernünftiger Mensch die Frage nach der Existenz Gottes nicht mit naturwissenschaftlichen Mitteln zu beantworten versuchen. Die Naturwissenschaft mag (und darf gerne) Indizien und Hinweise liefern. Außerdem ist sie sehr nützlich, verkehrte Weltanschauungen zu entlarven und verdrehte Gottesbilder zu korrigieren. Aber mit der Frage nach Gott insgesamt ist sie überfordert. Nein, nicht überfordert, die Naturwissenschaft ist dazu einfach das falsche Mittel. Wer wissen will, ob Gott existiert, muss einen anderen Erkenntnisprozess wählen, als den der Naturwissenschaft. Dieser Erkenntnisprozess mag weniger exakt und reproduzierbar sein als der naturwissenschaftliche, aber er ist in der Praxis viel wichtiger, viel universeller einsetzbar, viel realistischer. Er hat viele Namen, man könnte ihn die Gewinnung subjektiver Überzeugungen nennen oder schlicht und einfach auch Glaube.

Ich meine damit nicht nur den Glauben an Gott. Es handelt sich dabei um einen Erkenntnisprozess, der uns das Zurechtkommen im Alltag erst ermöglicht. Die wenigsten Erkenntnisse sind wissenschaftlich exakt. Viele können es aus ganz praktischen Gründen nicht sein, andere dürfen es sogar gar nicht sein, weil sie sich dadurch selbst entwerten würden. Dieser Erkenntnisprozess ist gegenüber der Naturwissenschaft nicht minderwertig, er ist nur anders. Er hat auch einen anderen Anwendungsbereich. Und es ist wichtig zu wissen, wann man welchen Erkenntnisprozess anzuwenden hat.

Der Verzicht auf die naturwissenschaftliche Denkweise mag höchst dumm sein und uns in die Steinzeit zurückkatapultieren. Der (konsequent zu Ende geführte) Verzicht auf Glauben als Denkweise dagegen macht lebensunfähig führt geradewegs in die Psychatrie. Und die richtige, angemessene Verwendung beider Denkweisen führt uns zur Erkenntnis Gottes. Davon bin ich überzeugt.

Loops und Samples

25. August 2010

Bei jeder neuen Technologie von Belang, die eingeführt wird, ist das eigentlich Interessante nicht die neuen technischen Möglichkeiten, sondern die kulturellen Veränderungen, die durch diese Möglichkeiten ausgelöst werden.

Das trifft auch auf den Einfluss der Computertechnologie auf die Musik zu. Dabei meine ich weniger die neuen Möglichkeiten von Verbreitung und Konsum, mir geht es vielmehr um neue künstlerische Ausdrucksformen, die durch elektronische Datenverarbeitung erst möglich geworden sind.

Dass technische Verbesserungen die Entwicklung der Musik beeinflussen, ist keineswegs neu. Die temperierte Stimmung (Link weist auf ein Word-Dokument) – im Kern ein technisches Verfahren – hat den Bau und die Einsatzmöglichkeit vieler Instrumente beeinflusst. Und wer schon mal eine Aufnahme mit originalen oder original nachgebauten Instrumenten aus der Barockzeit gehört hat, wird zustimmen, dass viel von der Musik der Romantik mit diesem Instrumentarium kaum spielbar gewesen wäre.

Der erste nennenswerte Einfluss des Computers auf das Musikschaffen besteht in neuen Klangformen. Erstmals ist es möglich, Töne zu erzeugen, die nicht auf physikalischen Schwingungen beruhen. Dabei waren die neuen Klangformen zunächst eher durch die eingeschränkten technischen Möglichkeiten als durch freie Wahl des Künstlers geprägt. Die Angehörigen der Generation C64 werden sich mit mir noch an den spezifischen, wiedererkennbaren Klang des SID, des C64-Soundchips erinnern. Auch viele Synthesizer haben durch ihre spezifischen Eigenschaften den Klang vieler Musikstücke mitgeprägt.

Seit dem SID ist mittlerweile ein Vierteljahrhundert vergangen. Heute wäre es technisch möglich (davon gehe ich einfach mal aus), auch den komplexen Klang einer Violine rein synthetisch zu erzeugen. Aber was wäre damit gewonnen? Man würde letztlich nichts anderes erreichen, als was Violinisten seit Jahrhunderten tun. Nur dass man statt eines Studiomusikers einen Computerexperten beschäftigt.

Andererseits ermöglicht es der Computer, praktisch beliebige Klänge zu erzeugen. Aber die Erfahrung lehrt, dass die meisten Zuhörer beliebige Klänge nicht mögen. Der spektakulär geringe Erfolg weiter Teile der atonalen Musik, sich wirklich nennenswert auf die allgemeinen Hörgewohnheiten auszuwirken, spricht eine deutliche Sprache.

Neben der Klangerzeugung selbst hat auch die Nachbearbeitung von Musik durch die Computertechnologie eine Veränderung erfahren. Zwar war es schon mit Mehrspur-Tonband und Mischpult möglich, Musik neu zusammenzustellen und abzumischen, doch erst die Computerisierung dieser Möglichkeiten hat die entscheidenden Erleichterungen und Verbesserungen mit sich gebracht, dass sich der Remix von einem technischen Verfahren zu einer Möglichkeit des Kunstschaffens entwickelt hat.

Aufmerksam auf diese neue Form der Musik bin ich kurz vor der letzten Bundestagswahl durch den Wahlwerbespot der Piratenpartei, der so ein Musikstück als Hintergrundmusik verwendet. Es handelt sich um ein Werk des australischen Musikers Pogo, der bei den meisten seiner Musikstücke Klangschnipsel aus einem bekannten Kinofilm nimmt und sie zu einer völlig neuen, faszinierenden Klangwelt zusammenstellt, die mit der ursprünglichen Filmmusik kaum etwas gemein hat, aber erstaunlich viel von der Grundstimmung des verwendeten Films transportiert. Im Piratenwerbespot wurde das Werk Expialidocious verwendet, das aus Disneys Mary Poppins entstanden ist. Pogo selbst darf dieses Musikstück aufgrund eines Übereinkommens mit Disney nicht mehr verbreiten, was interessant ist, weil gerade die Piratenpartei ja – ach was, die politische Seite hebe ich mir für einen späteren Artikel auf.

Es ist aber dennoch bei Youtube noch online. Einbetten möchte ich aber ein neueres Werk von ihm, das erstmals allein aus selbst aufgenommenem Material besteht und eine Hommage an die Mutter des Künstlers und ihren Garten darstellt:

Dass diese Art von Musik auch live funktioniert, habe ich auf dem diesjährigen Bardentreffen erlebt. Der Fürther Musiker Schimmy Yaw trat dort auf, bzw. er saß auf der Bühne hinter einem kleinen Tisch, auf dem die versammelte Technik aufgebaut war, und sampelte und loopte sich live durch einige seiner Songs. Das Ganze kam recht Nerd-haft rüber, zumal Schimmy Yaw wenig Bühnenpräsenz rüberbrachte. Das erzeugte allerdings den interessanten Effekt, dass der Künstler hinter seinem Werk zurücktrat und die Musik ganz in den Vordergrund rückte. Einige der Samples, aus denen seine Werke bestehen, nahm er live auf. Mehrstimmigkeit erzeugte er, indem er die Stimmen nacheinander ins Mikrophon sang und jeweils als Loop weiterlaufen ließ. Dabei entstanden interessante und faszinierende Klanggebäude.

Obwohl sich der Künstler dabei sicher an einen vorgefertigten Ablauf hielt, hatte man das Gefühl, bei der Entstehung eines Werkes live dabei zu sein. Insgesamt war sein Auftritt ein sehr ungewohntes Erlebnis, was aber keineswegs negativ gemeint ist.

Die Kunstform, mit Loops und Samples aus vorhandenen Aufnahmen neue Werke entstehen zu lassen, muss sich nicht auf die Musik beschränken. Der britische Künstler Cyriak produziert Vergleichbares mit bewegten Bildern. Sein liebenswert-skurriles Werk Cycles sei hier beispielhaft gezeigt:

Ich bin mir dessen bewusst, dass ich von der aufstrebenden Remix-Szene nur einen kleinen Bruchteil kenne. Ich denke dennoch, dass hier eine neue Kunstform entsteht, die neue künstlerische Ausdrucksmöglichkeiten erschafft und verwendet, und dass hier dank elektronischer Datenverarbeitung der Raum für tatsächlich neue, künstlerisch hochwertige Werke geschaffen wird. Was da entsteht, mag ungewohnt sein, ist aber durchaus gefällig und hat das Potenzial, sich einen festen Platz in der Welt der Musik zu erarbeiten.

Minarette und Kruzifixe

20. Februar 2010

Vor über 15 Jahren zog ich zwecks Erlangung eines akademischen Grades aus dem heimatlichen Württemberg ins Bundesland Bayern. Nicht lange danach erließ das Bundesverfassungsgericht seinen Kruzifix-Beschluss, und der Freistaat erzitterte unter einem Sturm der Entrüstung.

Diese Entrüstung war für mich ebenso unverständlich, wie die Entscheidung des Verfassungsgerichtes für mich offensichtlich richtig war. Ich komme aus einer eigentlich recht frommen Gegend. Wir hatten an der Schule einen sehr aktiven Schülerbibelkreis, der von allen Seiten, insbesondere von der Schulleitung stets nach Kräften unterstützt wurde. Zeitweise soll es sogar einen Lehrergebetskreis gegeben haben. Trotzdem wäre die Schulleitung nicht im Traum auf die Idee gekommen, sich in Religionsfragen inhaltlich einzumischen und von offizieller Seite Partei zu ergreifen. Und nichts anderes stellt das Aufhängen spezifisch christlicher Symbole in den Klassenräumen einer öffentlichen Schule dar.

Ich finde es gut, wenn der Staat (wie in Deutschland) „religiöse Betätigung“ großzügig unterstützt. Es ist aber für mich eine Selbstverständlichkeit, dass er sich in inhaltlichen Fragen raushält und keinesfalls Partei ergreift, egal ob für mich oder gegen mich. Das ergibt sich nicht nur aus meinem Verständnis von Religionsfreiheit als Menschenrecht, damit verteidige ich auch meine ureigensten Interessen als Christ.

Es geht ja schon damit los, dass Artikel 7, Absatz 3, Sätze 1 und 2 des BayEUG, in denen die Kruzifixfrage geregelt ist, mit meinem Verständnis des christlichen Glaubens nicht viel zu tun hat. Das ist ganz normal: Wenn der Staat sich christliche Positionen zu eigen macht, sind das sehr selten die Positionen, die von den lebendigen Christen vertreten werden. Wenn es nicht sowieso um reine Machtfragen geht, sind es Traditionen und eher abstrakte Werte, die hochgehalten werden. Und nicht selten hat sich das Staatschristentum mit Unterdrückung und Verfolgung gegen die Nachfolger Jesu gewandt. Ein vom Staat getragenes Christentum hat noch nie funktioniert und ist auch im Neuen Testament so nicht vorgesehen.

Der vieldiskutierte Untergang des christlichen Abendlandes ist in Wahrheit eine Anpassung an die Realitäten. Er mag unseren Dienst als Christen schwieriger machen. Wir sollten aber nicht den Fehler machen, diese sterbenden Traditionen künstlich am Leben zu halten; nicht nur weil es sich dabei um ein Rückzugsgefecht handelt, das dem offensiven Charakter des Evangeliums nicht gerecht wird, sondern weil es Kräfte bindet, die zur Verkündigung lebendiger Wahrheiten viel besser und nachhaltiger eingesetzt wären.

Die normale Position der Christen in einer Gesellschaft ist die einer Minderheit. Das ist nicht schön und noch viel weniger wünschenswert, aber es ist die Realität, und die müssen wir akzeptieren. Mehr noch, wir müssen diese Position aktiv besetzen.

Das gilt auch und gerade angesichts von Diskussionen wie der um die Minarettfrage. Man denke an die vieldiskutierten Volksabstimmung in der Schweiz vor ein paar Monaten, nach der Minarette verboten werden sollen. Dabei handelte es sich nicht um einen Triumph des christlichen Glaubens, sondern um die Niederlage einer religiösen Minderheit. Das kann uns als Christen genau so treffen. Teilweise trifft es uns auch schon, wenn wie in Marburg im vergangenen Jahr starker politischer Druck ausgeübt wurde, um Referentenauswahl und Inhalte eines christlichen Kongresses zu beeinflussen.

Auch wenn wir den Islam in Glaubensfragen nur als unseren Gegner betrachten können: In Fragen der Religions- und Meinungsfreiheit muss es unser Verbündeter sein. Freiheitsrechte sind nicht teilbar. Wenn sie nur für bestimmte Bevölkerungsgruppen und Denkrichtungen gelten, gelten sie gar nicht mehr. Und dieselben Rechte, die für unseren ungehinderten Dienst als Christen wichtig sind, müssen wir auch für andere Glaubensgemeinschaften einfordern.

Diejenigen, die in dem Verzicht auf Minarette gar ein Zeichen von Integration sehen, verwechseln all zu leicht Integration mit Anpassung. Unter dem Deckmantel der Integration wird eine Gesellschaft propagiert, in der das Andere, das Fremde, auch das unbequeme und das Abstoßende keinen Platz hat. Eine solche Gesellschaft läuft Gefahr, ihre kulturelle Kraft zu verlieren. Sie ersetzt tendenziell Ethik durch Tradition. Und sie verliert an Widerstandskraft gegen Machtmissbrauch und Diktatur.

Dabei wird oft vergessen, dass „integrieren“ eigentlich kein reflexives sondern ein transitives Verb ist: Nicht der Fremdling integriert sich in die Gesellschaft, sondern die Gesellschaft integriert den Fremdling in ihrer Mitte. Natürlich muss dafür eine gewisse Bereitschaft vorhanden sein. Und natürlich muss die Gesellschaft auch in der Lage sein zu reagieren, wenn diese Bereitschaft bei Migranten fehlt. Aber der aktive Part bei der Integration kommt den Einheimischen zu. Deshalb ist das Fehlen von Minaretten kein Zeichen erfolgreicher Integration. Der Anteil an Muslimen im örtlichen Gesangs- oder Schützenverein wäre ein viel besseres Maß.

Das friedliche Nebeneinander von Minarett und Kreuz ist kein Verrat an der Bibel. Es ist vielmehr die Anerkennung einer biblischen Wahrheit, nämlich dass wir das, was wir uns von anderen wünschen, auch selbst bieten müssen. Das schließt insbesondere Offenheit und Gesprächsbereitschaft über den Glauben des Anderen mit ein. Es ist ja nicht so, dass wir eine inhaltliche Auseinandersetzung zu fürchten hätten. Religionsfreiheit heißt, dass jeder frei entscheiden darf, an wen oder was er glauben will. Es gibt so viele gute Argumente, sich für Jesus zu entscheiden. Lasst uns auf die schlechten verzichten.

Restrisiko

25. Oktober 2009

Das „Aktionsbündnis Amoklauf Winnenden“ sammelte vor etwa einer Woche in Stuttgart so genannte Killerspiele. Es hatte dazu einen großen Container aufgestellt, in den man die Spiele werfen konnte, um sie der Vernichtung zuzuführen. Das Bündnis wollte damit auf seine Forderung nach demVerbot von „Computer-Killerspielen“ hinweisen.

Der unmittelbare Erfolg der Aktion war eher bescheiden, wie dieses Video zeigt:

Bis zum Ende der Aktion sollen es noch etwa zwei Dutzend Spiele geworden sein.

Ich möchte mich weiterer Häme enthalten, immerhin handelt es sich bei den Mitgliedern des Aktionsbündnisses um Angehörige der Opfer. Was die Aktion jedoch deutlich zeigt, ist die Hilflosigkeit, mit der auch und gerade die Betroffenen dem Phänomen Amoklauf gegenüberstehen.

Das Jahr 2009 hat uns bereits zwei Schul-Amokläufe gebracht, einen in Winnenden am 11. März und einen in Ansbach am 17. September. Beide haben nicht nur unsägliches Leid über die Opfer bzw. deren Hinterbliebenen gebracht, sie haben auch eine große Diskussion in der Gesellschaft angestoßen.

Amokläufe haben viel gemeinsam mit Terroranschlägen. Nicht nur dass sie meist geplant sind und häufig viele Opfer fordern. Beide Verbrechen richten sich in erster Linie gegen völlig unbeteiligte. Dass es unschuldige trifft, ist kein Versehen und auch kein Nebenprodukt der Tat. Nein, gerade das (weitgehend) wahllose Töten ist Programm, ist Kernpunkt des Tatgeschehens.

Das trifft allerdings unser Sicherheitsbedürfnis bis ins Mark. Wenn ganz normale Schüler an einer ganz normalen Schule fürchten müssen, ohne erkennbare Vorwarnung einfach so ermordet zu werden, kann sich keiner mehr sicher fühlen. Es ist, als wäre ein Stück Unschuld für immer verloren gegangen. Zurück bleibt Ohnmacht und Hilflosigkeit.

Nüchtern betrachtet ist das natürlich Unsinn. Das Risiko, bei einem Amoklauf getötet zu werden, ist verschwindend gering. Die größten Gefahren für Leib und Leben dürften für Schüler der Straßenverkehr auf dem Schulweg mit sich bringen. An zweiter Stelle der Todesursachen in der Schule stehen entweder Drogen oder Suizid wegen Mobbing. Bei aller Dramatik und bei allem Respekt vor den Opfern gehören Amokläufe an deutschen Schulen in der Summe zu den kleineren Problemen.

Was uns dabei so sehr trifft, ist das Versagen der üblichen Verdrängungsmechanismen. Wir leben in einem Land, in dem die meisten Menschen im hohen Alter sterben, „alt und lebenssatt“, wie die Bibel das nennt. Das lässt uns leicht vergessen, dass Leben immer gefährdet ist. Und nebenbei verschiebt es unsere Prioritäten.

Die meisten von uns sind in der Gewissheit aufgewachsen, dass jeder einzelne Mensch zählt, und dass das Leben eines jeden einzelnen Menschen geschützt werden muss. Das ist wahr, aber keinesfalls selbstverständlich. Das Recht auf Leben und körperliche Unversehrtheit steht an prominenter Stelle, nämlich in Artikel 2, Absatz 2, in unserem Grundgesetz. Bis dorthin hat es einen sehr langen Weg zurückgelegt. Und es ist längst noch nicht überall in unserer Gesellschaft angekommen. Es gibt immer noch Menschen, die gegen dieses Recht verstoßen, mehr noch, Menschen, für die dieses Recht nur einen geringen oder gar keinen Stellenwert hat. Zwar sind das immer weniger (die Fallzahlen sind bei den meisten Gewalttaten seit Jahren rückläufig), aber jeder Einzelfall ist natürlich einer zu viel. Das gilt auch und insbesondere für Amokläufe an Schulen.

Das Recht auf Leben und körperliche Unversehrtheit ist ein hohes Recht, allerdings ist es nicht das höchste. Das sahen auch die Väter und Mütter des Grundgesetz so, die das Recht zur freien Entfaltung der Persönlichkeit, allen voran aber die Würde des Menschen und ihre Unverletzlichkeit noch vor Leben und körperliche Unversehrtheit gesetzt haben. Ein Gedanke, der gerade uns Christen keinesfalls fremd sein sollte, auch wenn wir es vielleicht anders formulieren, anders gewichten würden. Es gibt Überzeugungen und Werte, für die es sich zu sterben lohnt. Und es gibt Schicksale und Konsequenzen, die schlimmer sind als der Tod.

Menschen, die diese Ansicht berechtigterweise in die Tat umgesetzt haben, nennen wir Märtyrer. Und man muss kein Christ sein, um die Entscheidungen von Märtyrern zu respektieren und die dahinter verborgene Lebensleistung anzuerkennen. Aber man muss die Schranken des Wertes von Leben und körperlicher Unversehrtheit akzeptieren. Setzen wir diesen Wert absolut, degradieren wir den Märtyrer zum dummen Trottel, der seine Prioritäten auf fatale Weise nicht richtig zu setzen wusste.

Prioritäten: Der Begriff ist schon gefallen. Es geht um den Stellenwert von Werten und Überzeugungen. Es ist nun mal so, dass man persönlich und auch in der Gesellschaft immer wieder zwischen verschiedenen Rechten und Überzeugungen abwägen muss. Der Wert, alles Leben zu schützen, muss eine sehr hohe Priorität haben, aber er darf nicht die höchste haben. Mit anderen Worten: Es gibt Situationen, in denen wir in Kauf nehmen müssen, dass unschuldige Menschen sterben.

Hundertprozentige Sicherheit ist — wenn überhaupt — nur zum Preis von hundertprozentiger Unfreiheit zu erreichen. Das wird bei kaum einen Beispiel so deutlich, wie bei den Schul-Amokläufen. Gäbe es ein einfaches oder zumindest praktikables Mittel gegen diese Taten, es wäre längst umgesetzt. Aber zu unterschiedlich sind die einzelnen Fälle, zu unvorhersehbar die einzelnen Taten. Gerade in Ansbach wurde immer wieder betont, dass das Gymnasium Carolinum eigentlich gerade nicht der Typ Schule ist, an dem man eine solche Tat erwarten würde.

Natürlich sind manche Vorschläge und Vorstöße zum Thema in erster Linie durch Populismus geprägt. Aber gerade dem Aktionsbündnis Amoklauf Winnenden kann dieser Vorwurf nicht gemacht werden. Wer kann mehr Interesse an echten, wirksamen Maßnahmen haben, als die Angehörigen der Opfer? Trotzdem muss die Frage erlaubt sein, welchem Wertesystem die vorgeschlagenen Maßnahmen entsprungen sind.

Wir müssen uns mit dem Gedanken eines Restrisikos vertraut machen. Es werden weiterhin Menschen ohne eigenes Verschulden, ohne Vorwarnung, ja sogar in eigentlich sicherer Umgebung ihr Leben verlieren. Und der Preis für eine tatsächliche und effektive Beseitigung des Restrisikos wird objektiv zu hoch sein, auch und selbst wenn der Preis für das Opfer so extrem hoch ist. Jede ernsthafte Diskussion zu diesem Thema gleicht einer Gratwanderung, bei der sich auf beiden Seiten die Abgründe der Menschenverachtung auftun.

Noch viel wichtiger: Wir müssen uns mit dem Gedanken vertraut machen, dass wir in diesem Kalkül jederzeit selbst Opfer werden können — und fast jederzeit selbst Täter. Es gibt keinen sicheren Platz, keine Nische, in die wir uns zurückziehen können. Wo immer wir über Sicherheit diskutieren, müssen wir über Restrisiken diskutieren. Darüber, welche Restrisiken wir bereit sind zu tolerieren und warum. Und auch wenn wir Restrisiken nicht akzeptieren, haben wir über die Gründe Rechenschaft abzulegen.

Die ergebnisoffene Diskussion über Restrisiken gehört dazu, wenn wir über die Vermeidung von Schul-Amokläufen reden. Auch wenn das für die Opfer und Hinterbliebenen bitter und schwer erträglich ist, und wir unbeteiligte gut daran tun, mit einem Höchstmaß an Takt und Einfühlungsvermögen vorzugehen. Die ergebnisoffene Diskussion über Restrisiken gehört auch dazu, wenn wir über viele andere Themen sprechen: über Terrorbekämpfung, über Kernkraft, über Mobilität. Sie berührt die Lebensbereiche aller Menschen. Sie gehört zum Alltag.

Es ist klug, wenn wir versuchen, die Restrisiken im Alltag zu verkleinern. Es ist unklug, die Restrisiken aus unserem Bewusstsein zu verbannen.

Absonderlichkeiten

16. August 2009

Parteiungen und Spaltungen innerhalb der Christenheit sind schon fast so alt wie die Christenheit selbst. Der Leib Christi präsentiert sich heute als bunter Strauß unterschiedlicher Kirchen, Gemeinden und Denominationen. Die Lage ist zuweilen recht unübersichtlich. Sie wird auch dadurch nicht einfacher, dass die Bibel bloße Parteiungen ablehnt, eine deutliche Trennung von Irrlehrern aber ausdrücklich empfiehlt. Wie nur das eine vom anderen unterscheiden?

Lassen wir doch mal Jesus selbst zu Wort kommen. In Matthäus 12, 30 z. B. sagt er: „Wer nicht mit mir ist, der ist gegen mich, und wer nicht mit mir sammelt, der zerstreut.“ Die umgekehrte Formulierung findet sich in Markus 9, 40: „Wer nicht gegen uns ist, der ist für uns.“

Beide Aussagen stehen im Zusammenhang mit der Dämonenaustreibung. Im ersten Fall beweist Jesus, dass (erfolgreiche) Dämonenaustreibungen nicht vom Teufel kommen können, sondern immer ein Beleg für göttliche Autorität sind. Im zweiten Fall gilt das sogar, wenn die handelnde Person nicht mal ein Nachfolger Jesu ist. Allein die Berufung auf seinen Namen genügt.

Für das Prädikat „für Jesus“ genügen also zwei schlichte Kriterien: Die Berufung auf den Namen Jesu und das Zurückdrängen der Macht des Teufels. Alle Personen, Werke und Gemeinden, die diese Kriterien erfüllen, haben laut Jesus zumindest eine wohlwollende Duldung verdient.

Die beiden Bibelstellen führen mich direkt zu drei Grundsätze für die Gemeinde Jesu:

  1. Wer „für Jesus“ sein will, muss Jesus in den Mittelpunkt stellen und muss die Gute Nachricht von seinem Kommen verkündigen.
  2. Wer „für Jesus“ sein will, muss das übernatürliche Wirken des Heiligen Geistes erwarten.
  3. Wer „für Jesus“ sein will, darf sein Gehirn nicht ausschalten. Sowohl der verbohrten Selbstgefälligkeit der Pharisäer als auch der anmaßenden Überheblichkeit seiner Jünger begegnet Jesus mit schlichter Logik.

Der geneigte Leser erkennt sicher schon, worauf ich hinaus will. Es geht um die Gute Nachricht, die Gaben des Heiligen Geistes und die Freiheit des Denkens. Wer „für Jesus“ sein will, muss evangelisch, charismatisch und liberal sein. Das ist kein Widerspruch. Das ist die Grundlage eines jeden Dienstes für Jesus.

Problematisch wird es erst, wenn einer dieser drei Grundsätze auf Kosten der anderen überbetont wird. Spätestens wenn einer der drei Grundsätze über Bord geworfen wird, hat man den Boden biblischer Lehre verlassen und ist bei der Irrlehre angekommen.

Und ganz bitter wird es, wenn aus den drei Grundsätzen Kampfbegriffe werden. (Wobei „evangelisch“ hier gern durch den Anglizismus „evangelikal“ ersetzt wird.) Der Liberale lehnt den Evangelikalen als Fundamentalisten ab, der Evangelikale den Charismatiker als Schwärmer und der Charismatiker den Liberalen als Ungläubigen. Und keiner merkt, dass jeder an dem Ast sägt, auf dem er sitzt. Denn durch die Ablehnung des Anderen als Irrlehrer macht sich jeder selbst zum Irrlehrer. Schlimmer noch, man läuft Gefahr, den „für Jesus“-Status zu verlieren. Wer sich um jeden Preis von anderen absondern will, wird schnell absonderlich.

Und was ist mit der Reinheit der Lehre? Zuerst müssen wir anerkennen, dass es sie so in der Praxis nicht gibt. Der Exeget der Bibel tut gut daran, mit dem eigenen Irrtum zu rechnen. Wer seine eigene Fehlbarkeit ausblendet, hat den ersten Fehler schon gemacht.

Gerade deshalb darf man nicht vergessen, wie niedrig Jesus die Schwelle zumindest für eine wohlwollende Duldung setzt. Noch nicht mal Jesus nachzufolgen ist dafür Vorraussetzung. Natürlich sieht das im eigenen Verantwortungsbereich ganz anders aus. Für mangelnde Sorgfalt bei der Bibelauslegung gibt es keine Ausreden.

Zwischen der „wohlwollenden Duldung“ und dem „eigenen Verantwortungsbereich“ gibt es viele Abstufungen von Zusammenarbeit und Unterstützung. Deshalb tut jede Gemeinde und jedes Werk gut daran festzulegen, was sie oder es für die unverzichtbaren theologischen Grundlagen hält. Und die meisten kennen eine solche Festlegung. Meist handelt es sich um Glaubensbekenntnisse, und als solche haben sie eine lange Tradition und sich sehr bewährt. Auch für die übergemeindliche Zusammenarbeit gibt es verbreitete Dokumente wie z. B. das der Evangelischen Allianz.

Und ab da gilt die einfache Regel: Wer bereit ist, sich dem jeweils einschlägigen Dokument zu unterstellen, darf mitmachen. Und wenn dann Gemeinden oder Personen mitmachen, die bisher nicht gerade durch saubere Bibelauslegung aufgefallen sind, heißt das nicht „um so schlimmer für uns“, sondern um so besser für sie“.

Nicht vergessen: Überall wo im Namen Jesu die Macht des Teufels zurückgedrängt wird, wirkt Gott. Und wer möchte sich schon dem Wirken Gottes entgegenstellen?

Elektroauto

29. November 2008

Vor über zehn Jahren nahm ich während meines Studiums an einem Seminar „Elektrische Antriebe für Straßenfahrzeuge“ teil. Man sagt ja immer, Technik entwickele sich sehr schnell. Beim Elektroauto ist davon nichts zu spüren.

Schon damals gab es funktionierende Prototypen für verschiedene Konzepte des Hybridantrieb, und schon damals war klar, dass sie den durchschnittlichen Wirkungsgrad des Verbrennungsmotor deutlich steigern können. Die serienreifen Hybride kann man zehn Jahre später an einer Hand abzählen.

Beim Wasserstoffantrieb wird immer noch die Art der Erzeugung, Speicherung und Verwendung des Wasserstoffs diskutiert — im wesentlichen mit den gleichen Argumenten und Ergebnissen wie damals. Der große Durchbruch der Brennstoffzelle, der damals angeblich kurz bevor stand, scheint zwischenzeitlich abgesagt worden zu sein.

Nennenswerte Fortschritte gab es lediglich beim Traktionsakkumulator. Befeuert durch Handy- und Notebookboom hat die Entwicklung von der Akkumulatortechnologie deutlich an Fahrt aufgenommen. Es ist mittlerweile klar, dass dabei auch geeignete Systeme für das Elektroauto abfallen. Das war vor zehn Jahren noch nicht abzusehen. Damals sprach man vom Bleiakku, von Nickel-Cadmium und von Nickel-Metallhydrit. Alle drei Technologien haben Schwächen, die ihre Eignung für ein Elektroauto zumindest fraglich erscheinen lassen. Daneben gab es Prototypen für Hochtemperaturakkus, die heute nicht näher an der Marktreife sind wie damals.

Die Verwendung von Lithium als Energieträger scheint hier doch neue Möglichkeiten zu öffnen. Besonders erwähnt sei dabei der Lithium-Eisen-Phosphat-Typ, der zwar noch recht jung und teuer ist, aber für den Elektroantrieb ideale Eigenschaften zu haben scheint.

Schon damals wurden zwei grundlegend verschiedene Konzepte für Elektroautos diskutiert: Einmal der Umbau, bei dem man ein existierendes Serienfahrzeug mehr oder minder stark verändert und mit dem Elektroantrieb ausstattet, und zum anderen das „Full Custom“, eine komplette Neuentwicklung, die ganz auf den Elektroantrieb ausgelegt wird und i. a. nicht als Version mit Verbrennungsmotor gebaut wird. Wir waren uns damals einig, dass Umbauten selbst in Serienproduktion viel zu teuer wären, noch dazu bei verringertem Nutzwert, und deshalb nicht wirtschaftlich erfolgreich sein können. Das Elektroauto kann nur als Full Custom ein Markterfolg werden. Tatsächlich sind die einzigen beiden in Deutschland erhältlichen Elektroautos Full Customs. Sie stammen übrigens nicht von großen Automobilkonzernen, bei denen die Entwicklung eines solchen Fahrzeuge fast schon nebenher laufen könnte, sondern von mutigen und innovativen Start-Up-Firmen. Was das über den unternehmerischen Mut und die Innovationskraft in der gesamten etablierten Automobilindustrie aussagt, brauche ich nicht weiter auszuführen.

Eigentlich passt der Elektroantrieb viel besser zum Anforderungsprofil eines PKW als der Verbrennungsmotor. Er baut sehr kompakt, ist beim Beschleunigen kurzfristig hoch überlastbar und liefert bei niedriger Drehzahl und im Stillstand sein höchstes Drehmoment. Angesichts des riesigen Angebots auf dem Markt ließe er sich fast schon aus dem Katalog bestellen. Ich denke, die großen Hersteller elektrischer Antriebstechnik würden sich darum reißen, Zulieferer für Elektroautos zu werden. Man kann sich kaum eine bessere Werbung vorstellen. Der Erfolg des Elektroautos hängt deshalb ganz entscheidend an der Akkutechnologie. Die zwei Hauptprobleme sind die Kosten und die Ladezeit.

Bei den Akkukosten zeichnet sich ein wichtiger Durchbruch ab. Mit den neuesten Typen wie z. B. dem bereits erwähnten Lithium-Eisen-Phosphat-Akku lassen sich Akkupacks herstellen, deren Lebensdauer groß genug für ein ganzes Autoleben ist. Bisher mussten Akkus meist schon nach einigen 10.000 km getauscht werden. Was nützt schon ein geringer Energieverbrauch, wenn der „Akkuverbrauch“ die Betriebskosten auf unwirtschaftlich hohe Werte treibt?

Das heißt aber nicht, dass der Traktionsakku nicht der größte Kostenfaktor bleibt. Man kann davon ausgehen, dass bei einem gut ausgelegten und praxistauglichen Elektroauto die Akkus etwa so viel kosten wie der ganze Rest des Fahrzeugs. Das führt dazu, dass der Energieverbrauch entscheidenden Einfluss auf die Anschaffungskosten hat.

Das ist beim Auto mit Verbrennungsmotor so nicht der Fall. Die Preisunterschiede zwischen den verschiedenen Fahrzeugklassen entstehen eher durch die Ausstattung als durch die installierte Leistung. Die Mehrkosten für einen Motor mit 100 kW gegenüber einem Motor mit 40 kW sind vergleichsweise gering. Besonders sparsame Antriebe sind meist sogar teuerer in der Anschaffung.

Ein VW Golf wiegt heute in der leichtesten Variante 1142 kg. Das ist für ein Auto dieser Klasse eigentlich ein guter Wert. Für diese Fahrzeugmasse gibt es geeignete, hoch optimierte Verbrennungsmotoren, die jeder Hersteller im Programm hat. Alles beste Voraussetzungen für ein gutes Preis-Leistungs-Verhältnis, zumindest was den Anschaffungspreis betrifft.

Für das Preis-Leistungs-Verhältnis eines Elektroautos wäre schon dieses Gewicht eine Katastrophe. Bei halbwegs brauchbarer Reichweite wäre der Traktionsakku nicht bezahlbar. Dazu kommt, dass das gleiche Fahrzeug als Elektroauto sogar noch deutlich schwerer wäre.

Die Gewichts-Obergrenze für ein bezahlbares Elektroauto dürfte für lange Zeit deutlich unter 1000 kg bleiben, das Optimum würde ich eher bei 500 kg ansetzen. Daran wird auch die Weiterentwicklung der Akkutechnologie auf längere Sicht nichts ändern, weil höhere Kapazitäten viel dringender für größere Reichweiten gebraucht werden als zur Ermöglichung einer höheren Fahrzeugmasse.

Die Problematik hat noch einen Seiteneffekt auf die Höchstgeschwindigkeit. Bei hoher Geschwindigkeit steigt die benötigte Energie stark an und die Reichweite geht zurück. Der Effekt wird bei Autos mit Verbrennungsantrieb dadurch abgeschwächt, dass der Wirkungsgrad eines Verbrennungsmotors leistungsabhängig ist. Im Teillastbereich geht die Effizienz deutlich zurück. Deshalb verbraucht ein PKW bei 120 km/h nicht wesentlich mehr als bei 90 km/h. Beim Elektroauto sind die Unterschiede viel deutlicher. Es gilt: Wer weit kommen will, muss langsam fahren. Eine Reisegeschwindigkeit über 100 km/h ist mit dem Elektroauto kaum zu erreichen.

Auch bei der Ladezeit gibt es Fortschritte bei den Akkus. Die Zeiten, in denen sie sich nur über Nacht komplett laden lassen, sind längst vorbei. Ob sich jedoch in der Praxis Zeiten erreichen lassen, die ein mit dem Verbrennungsantrieb vergleichbares Nutzungskonzept ermöglichen, ist noch nicht absehbar.

Die Reichweite eines PKW spielt bei der Kaufentscheidung normalerweise keine nennenswerte Rolle. Es macht einfach keinen großen Unterschied, ob man alle 500 km oder alle 1000 km eine Tankstelle anfahren muss. Das Tanken selbst ist in ein bis zwei Minuten erledigt. Dabei werden große Mengen an Energie übertragen, die Übertragungsleistung einer Zapfsäule beträgt etwa 20 Megawatt. Wenn man den durchschnittlichen Wirkungsgrad des Verbrennungsmotors mit 25 % annimmt, müsste eine elektrische Zapfsäule eine elektrische Leistung vom 5 MW zur Verfügung stellen, um die gleiche Menge an Traktionsenergie zu liefern, also in etwa die Leistung einer Elektrolokomotive. Das ist bei einer von technischen Laien bedienten Anlage wenig realistisch. Zum Vergleich: Eine normale Steckdose liefert etwa 3,7 kW.

Zur Beruhigung: Es gibt noch keine Akkutechnologie, die mit dieser Leistung geladen werden kann. Dennoch wird unmittelbar klar, dass ein leistungsfähiges Elektroauto für eine schnelle „Betankung“ eine Elektroinstallation benötigt, wie sie kaum irgendwo standardmäßig vorhanden ist. Selbst wenn der Akku für eine Schnellstladung im Minutenbereich geeignet ist, wird auf absehbare Zeit keine dazu passende, flächendeckende Infrastruktur entstehen.

Das hat eine entscheidende Konsequenz für den Einsatz von Elektroautos: Langstreckenfahrten über die Reichweite des Fahrzeugs hinaus sind in den meisten Fällen nicht möglich.

Mit den heutigen technischen Möglichkeiten könnte ein Elektroauto eine Höchstgeschwindigkeit von 120 km/h haben und eine Reichweite von 150 bis 200 km. Diese Strecke könnte realistischerweise nur wenige Male am Tag zurückgelegt werden, selbst wenn Lademöglichkeiten vorhanden sind. Das Gewicht des Fahrzeugs würde zwischen 500 und 700 kg liegen.

Ein Fahrzeug mit diesen Daten ist für einen kommerziellen Erfolg immer noch deutlich zu teuer. Ich rechne aber schon damit, dass sich das bald ändert. Viel bedeutender ist jedoch, dass ein solches Fahrzeug das übliche Betriebsprogramm eines PKW nicht voll abdecken kann. Es ist nicht in der Lage, fünf Personen zu transportieren. Größere Gepäckmengen sind auch nicht möglich. Und erst recht nicht Langstreckenfahrten am Stück.

Für 95 % aller Fahrten ist dies auch nicht nötig. Die meisten Fahrten mit dem PKW werden mit einem, maximal zwei Insassen und sehr wenig Gepäck durchgeführt und sind kürzer als 100 km. Das kann ein Elektroauto auch heute schon leisten. Mit anderen Worten: Das Elektroauto ist für alle Leute geeignet, denen ein Fahrzeug für 95 % aller Fahrten ausreicht. Das gilt z. B. für Familien, die zwei Autos benötigen; da kann das Zweitauto durchaus eine 95 % Lösung sein. Oder für Singles, die längere Strecken sowieso lieber mit dem Zug zurücklegen. Für den geringen Restbedarf bietet sich hier ein Mietwagen an.

Das bedeutet aber auch ein deutliches Umdenken, was die Anschaffung des eigenen KFZ betrifft. Es ist einfach ungewohnt, bestimmte Nutzungsmöglichkeiten beim Kauf bewusst auszuklammern. Es fühlt sich falsch an, viel Geld für etwas auszugeben, was für die mutmaßlichen Bedürfnisse gar nicht ausreichend ist. Dabei ist es in Wirklichkeit viel unwirtschaftlicher, erheblich mehr Geld auszugeben für einen Mehrwert, den man nur sehr selten braucht und im Bedarfsfall relativ günstig auch so bekommt.

Bei allen noch verbliebenen technischen Problemen: Die große Herausforderung beim Elektroauto ist die Durchsetzung eines Fahrzeuges am Markt, das nicht das komplette Nutzungsprofil abdeckt. Nicht dass ich das für unmöglich halten würde. Für eine gute Werbeagentur sollte das ein herausfordernder, aber machbarer und auch sehr interessanter Auftrag sein. Ich sehe nur den Auftraggeber nicht. Die kleinen Startups, die hervorragende neue Fahrzeugkonzepte entwickeln, haben nicht das Geld für eine große Kampagne. Und die großen Automobilhersteller haben offensichtlich noch kein Interesse. Dabei könnte ein Elektroauto mit den angegebenen Daten in wenigen Jahren reif für richtig große Stückzahlen sein. Sofern es jemand baut.