Kay Nehm ist der Meinung, dass auch beim autonomen Fahren Leben nicht gegen Leben abgewogen werden darf.
Kay Nehm ist der Meinung, dass auch beim autonomen Fahren Leben nicht gegen Leben abgewogen werden darf. | Foto: dpa

Kay Nehm über autonomes Fahren

„Die Maschine ist besser als der Mensch“

Kay Nehm ist Präsident des Deutschen Verkehrsgerichtstags. Außerdem sitzt der ehemalige Generalbundesanwalt in einer Kommission, die für Bundesverkehrsminister Alexander Dobrindt ethische Leitlinien für die Programmierung autonomer Fahrsysteme erarbeiten soll. BNN-Redaktionsmitglied Julius Sandmann hat er erzählt, warum sich die Frage nach der Verantwortung im Straßenverkehr grundlegend ändern könnte.

Würden Sie im Straßenverkehr Ihr Schicksal und das Ihrer Familie in die Hände eines Computers legen?

Nehm: Grundsätzlich ja, denn rund 90 Prozent aller Verkehrsunfälle beruhen auf menschlichem Versagen. Der Computer wird diese Quote mit Sicherheit erheblich senken. Er kann in Sekundenbruchteilen richtig entscheiden. Dem Menschen ist dies durch die Schrecksekunde und durch Fehlverhalten nicht möglich. Insoweit bedeutet autonomes Fahren einen wesentlichen Fortschritt.

Aber es gibt dieses Dilemma beim autonomen Fahren: Ein Auto fährt auf einer Straße und muss einem Hindernis ausweichen. Links steht ein Rentner, rechts ein Kind. Wie entscheidet sich das Fahrzeug?

Nehm: Das Fahrzeug entscheidet selbst überhaupt nicht. Über dessen Reaktion muss der Programmierer, der den Wagen verantwortlich auf die Straße gebracht hat, vorab befinden. Bei der genannten Dilemma-Situation sehe ich einen erheblichen Unterschied zwischen Theorie und Praxis. Ich fahre seit meinem 18. Lebensjahr Auto und habe eine derartige Situation noch nie erlebt. Eins steht fest: In einem wahrhaft tragischen Konflikt kann sich auch der Mensch nur falsch entscheiden.

Wie weiß eine emotionslose Codezeile, was das Schlimmste ist?

Nehm: Das Schlimmste sind Personenschäden. Deswegen wird darauf hinzuwirken sein, das Fahrzeug frühzeitig mit aller Macht abzubremsen oder unter Umständen auch verträglich ausweichen zu lassen. Eine Programmierung, die zwischen Kind und Rentner entscheidet, ist schon nach der Entscheidung des Bundesverfassungsgerichts zum Luftsicherheitsgesetz nicht zulässig. Leben darf nicht gegen Leben aufgewogen werden.

Allerdings ist im Mai der Fahrer eines Tesla-Wagens mit Autopilotfunktion gestorben. Er stieß mit einem Lkw zusammen, weil die Sensoren die weiße Seitenwand des Aufliegers nicht vom hellen Himmel unterscheiden konnten.

Nehm: Der Tesla-Unfall bedeutet einen enormen Rückschritt im Bewusstsein der Bevölkerung. Aus meiner Sicht handelt es sich hier jedoch um grobes menschliches Versagen. Die Tatsache, dass ich einautonomes Fahrzeug erprobe, heißt doch nicht, dass ich es in der Testphase völlig autonom fahren lasse.

Was bringt mir autonomes Fahren, wenn ich dennoch aufpassen muss?

Nehm: Zunächst müssen wir zwischen der Testsituation und der Situation im künftigen autonomen Straßenverkehr unterscheiden. Im Echtbetrieb muss sichergestellt sein, dass das Fahrzeug regelkonform programmiert wurde und dass seine Computer so funktionieren, wie die Programmierer es vorgegeben haben. Erst dann kann ich ein autonomes Fahrzeug auf die Straße bringen.

Und dann während des Fahrens auch meine E-Mails checken?

Nehm: Das hängt zunächst von den Entwicklungsschritten ab. Derzeit reden wir noch vom automatisierten Fahren. Hier soll der Fahrer nach den Vorstellungen des Verkehrsministers wahrnehmungsbereit sein. Das sehe ich kritisch. Nach Messungen der Automobilhersteller erfordert die Übernahme des Steuers in ernsten Situationen bis zu acht Sekunden. In dieser Zeit kann viel passieren.

Also ist für Sie die Ideallösung, dass der Mensch irgendwann überhaupt nicht mehr eingreift?

Nehm: Die Maschine ist, sofern sie gut programmiert wurde, besser als der Mensch. Nach Angaben des Statistischen Bundesamtes sind nur ein Prozent der Unfälle auf technisches Versagen zurückzuführen. Wenn wir mit dem autonomen Fahren diese Zahl erreichen oder unterbieten, werden sich die Probleme relativieren. Falls dann doch etwas passiert, was bei keiner noch so ausgeklügelten Technik auszuschließen ist, werden wir auch das hinnehmen müssen. Zuvor wird jedoch das Straf- und Zivilrecht die Frage der individuellen Verantwortung für das technische Versagen zu klären haben.

Also die Verantwortung wird dann zum Hersteller hin verlagert?

Nehm: Ja, es wird einen Paradigmenwechsel vom Fahrer und Halter auf die Hersteller und die Zulassungsbehörden geben müssen. Aber auch Halter und Fahrer bleiben in der Verantwortung, wenn sie ein Fahrzeug in den Verkehr bringen, das technisch oder in der konkreten Situation nicht autonom betrieben werden darf.

Welche Rolle spielt Karlsruhe mit seinem Testfeld für autonomes Fahren in dieser Entwicklung?

Nehm: Autonomes Fahren lässt sich nicht allein am Computer simulieren. Man braucht den Echtbetrieb. Das Testfeld in Karlsruhe gibt der Wissenschaft und der Industrie eine ausgezeichnete Gelegenheit, im Verbund mit anderen die Komponenten des autonomen Fahrens zu entwickeln und zu erproben.