Die ethischen Entscheidungen beim autonomen Fahren

„Sich nicht zu entscheiden ist garantiert die falsche Entscheidung.“ (Klaus Seibold) In der heutigen Zeit, in der die Technik auch schon in der automoblität Einzug erhält, fahren immer mehr hochmoderne Fahrzeuge auf unseren Straßen. Diese Fahrzeuge sind auch schon vermehrt mit autonomen Fahrerassistenzsystemen ausgestattet.
Heutzutage fahren im öffentlichen Verkehr nur Fahrzeuge mit Spurhalteassistent und Bremsassistent. Solche Assistenzssysteme Funktionieren nur wenn der Fahrer anwesend ist und dies dem Auto durch Betätigung eines Signals, wie das Lenkrad zu berühren, mitteilt. Jedoch soll es auch bald Autos geben die komplett selbstständig fahren. Diese übernehmen durch Kameras, Sensoren und GPS Daten die Autofahrt von ganz alleine ohne, dass der Mensch noch überhaupt etwas tun muss.
Wenn man jetzt davon ausgeht, dass ein Mann auf einen Baum zu fährt, die Bremsen seines Autos haben noch dazu versagt. Eine Kollision würde seinen sicheren Tod bedeuten. Er könnte ausweichen, müsste dann aber ein Kind überfahren, das gerade über die Straße läuft. Wer sollte diesen Unfall überleben ?
Man kann sagen, dass der Mensch mit seiner einen Sekunde Reaktionszeit überhaupt nicht in der Lage wäre, zu entscheiden wie er handeln würde. Jedoch reicht die Rechenleistung der autonom fahrenden Fahrzeugen aus, dass diese auf jeden fall in der Lage wären sehr schnell zu entscheiden wie sie reagieren würden. Nun müssten solche Entscheidungen trotzdem von Menschen getroffen werden. Nämlich von den Ingenieuren, die solche Autos programmieren.
Das Auto könnte darauf programmiert werden, dass es für sich immer den besseren Weg sucht. Das heißt, dass es die Entscheidung trifft, die für seine Insassen und sich selbst am besten ist. Jedoch könnte dies wieder zu Problemen führen wenn irgendwann mal nur noch autonome Autos auf den Straßen unterwegs sind, die genauso Programmiert sind. Eine andere Möglichkeit wäre dem Auto die Fähigkeit einzuprogrammieren, dass es einzelne Personengruppen erkennt und dann quasi moralisch abwägt, ob es das Kind überfährt oder den Erwachsenen Insassen tötet. Dies wäre auch auf das Zitat von Klaus Seibold zurückzuführen, denn wenn sich das Auto gar nicht entscheidet war es, obwohl es im Gegensatz zum Menschen in der Lage wäre eine Entscheidung zu treffen, die falsche Entscheidung.
Ich finde, wenn ein Unfall unausweichlich ist, sollte man nicht nach Alter, Geschlecht, körperlicher oder geistiger Bewandtnis entscheiden. Man sollte solche Autos mit intelligenten Bremssystemen ausstatten und wenn diese versagen sollte man autonome Autos so programmieren, dass sie beim ausweichen niemals ein weiteres Leben gefährden.

Quellen: https://www-spiegel-de.cdn.ampproject.org/v/s/www.spiegel.de/wissenschaft/technik/unfaelle-mit-selbstfahrenden-autos-wer-soll-leben-wer-soll-sterben-a-1234901-amp.html?amp_js_v=a2&amp_gsa=1&usqp=mq331AQCKAE%3D#aoh=15780652564838&referrer=https%3A%2F%2Fwww.google.com&amp_tf=Von%20%251%24s&ampshare=https%3A%2F%2Fwww.spiegel.de%2Fwissenschaft%2Ftechnik%2Funfaelle-mit-selbstfahrenden-autos-wer-soll-leben-wer-soll-sterben-a-1234901.html https://www.zitate.de/search in=Quotes&q=Entscheidung

6 Kommentare

Kommentieren →

Hejsan ihr Lieben,
Ein, wie ich finde, sehr guter Text. Das Erstaunliche: Die Entscheidung, die das “Auto“ trifft, ist quasi keine, aus einem Reflex hinaus entstandenen, sondern eine bereits schon Vorprogrammierte, d.h., dass es nach den ethischen und moralischen Grundsätzen der Ingenieure, bzw. der Gesetze folgt. Doch wer legt diese fest? Ein Staat, bzw. dessen Institutionen können sich unmöglich über das Leben stellen, und abwägen, welches, in einer Extremsituation, wichtiger ist. Die Entscheidung, wer überlebt, ist demnach ja bereits, im übertragenem Sinne, wie eine Art “Schicksal“ festgelegt. Man könnte eigentlich von einem fremdbestimmten und im Voraus festgelegtem Zufall sprechen (und dessen Opfer), sowie einen fremdbestimmten Ausgang.

Servus Leute,
Ich bin hier der Meinung, dass durch das Fördern von autonom fahrenden Autos in unseren Straßen wir uns moralisch einfach Probleme hinzufügen, welche unmöglich zu lösen sind. Es gibt ja mittlerweise verschiedene Teste im Internet, wo man sich in unterschiedliche Unfallsituationen hineinversetzen kann und dann abwägen muss ob bei meinen Unfall z.B ein kleines Kind oder eine ältere Dame verunglückt. Laut GG ist jede dieser Entscheidungen falsch und dann sollen wir diese Entscheidung noch einem vorprogrammierten Computer in unserem Auto überlassen? Natürlich ist das autonome Fahren die Zukunft der Automobilbranche aber ist wirft nur weitere Probleme auf die einfach unmöglich zu lösen sind. In Planung sind ebenso Zufallsgeneratoren die in Unfallsituationen zufällig entscheiden, ob das Auto nun gerade in eine Wand fährt und dabei die Insassen sterben oder ob es ausweicht und dabei ein Passant tödlich verunglückt. Selbst diese Idee kann diese Dilemmasituation nicht lösen und sie kann auch nie komplett gelöst werden.

Guten Tag!
Ich finde das Thema ,,autonomes Fahren“ äußerst spannend und finde es sehr gut, dass du es thematisiert hast. Meiner Meinung nach sollte man solche verantwortungsbewussten Dinge nicht einem Computer, bzw. einer künstlichen Intelligenz überlassen, da wie wir alle wissen, solche Systeme sehr oft auch anfangen können zu spinnen, wobei durch normales Fahren unzählige Unfälle vermieden werden. Das Schlimmste bei solchen Situationen ist, dass sie unerwartet auftreten. Beispielsweise unser Mercedes hatte mal einen Ausfall von der Bremse, die elektronisch funktioniert hat, und wir hatten fast einen Unfall. Des Weiteren wird es dann viel schwieriger ein Auto zu reparieren falls irgendetwas falsch läuft, denn dann müsste man auch noch Programmierer zu Rate ziehen und nicht einfach zum Mechaniker gehen. Naja, das ist aber für die Automobilhersteller eher ein Vorteil, denn diese bekommen dadurch mehr Geld, weil man sich zwingend an sie wenden muss. Zudem, wenn man das Auto entscheiden lässt, wie es in einer Unfallsituation agiert, dann entzieht man dem Fahrer die Verantwortung und das finde ich nicht gut, denn dies bedeutet eine weitere Rückentwicklung des Menschen in seinen geistigen Fähigkeiten. Jedoch könnte dies auch anders gesehen ein Vorteil für Jugendliche sein, denn dann wird möglicherweise das Alter für den Führerschein hinuntergesetzt, wobei ich aber präferiere, dass es beim Normalen Fahren bleibt.

Hallo,
Ich finde du hast hier ein sehr wichtiges Thema angesprochen. Mir persönlich fällt es sehr schwer darüber zu entscheiden was ich besser fände. Sollte man die Entscheidung im voraus treffen aber diese Entscheidung wenigen Leuten überlassen oder sollte jeder für sich in einer solchen Situation spontan entscheiden? Und wenn man es vorprogrammiert, wie programmiert man es vorallem auch wenn beispielsweise mehr Personen im Auto sitzen als man bei einem Ausweichen überfahren würde? Solche Entscheidungen kann man doch nicht einem einfachen Programmierer überlassen. Sollte sich hier vielleicht sogar die Politik mit einmischen? Ein sehr spannendes Thema mit vielen offenen Fragen, die nicht leicht zu beantworten sind. Zudem regt das Thema einen selber zum nachdenken an. Wie würde man sich selbst spontan entscheiden in einer Situation ob man gegen die Wand fährt oder ausweicht und dabei jemanden überfahren könnte?

Hallo Rumpsteakstielchen 😊
Ich finde dein gewähltes Thema sehr interessant, da wir uns ja immer weiter entwickeln und immer mehr in die Bequemlichkeit rutschen. Genau deshalb denke ich, dass die Entwickler auch schon sehr bald Antworten auf deine aufgeworfenen Fragen finden werden, die ihrer Meinung nach richtig sind. Aber wie du es auch schon angesprochen hast gibt es meiner Meinung nach keine richtige Antwort. Soll davon ausgegangen werden, dass das Auto handeln soll wie ein Großteil der Autofahrer es tun würde, so würde es immer den besten Weg für sich selbst suchen. So ist es auch schon in Studien bewiesen, der Fahrer lenkt immer von sich weg. Jedoch wollen wir unser Leben ja nicht nur mit zum Beispiel autonomen fahren erleichtern sondern auch verbessern. Geht man also davon aus, dass das Leben bzw. das Zusammenleben sich verbessern soll, so wäre eine moralische Entscheidung die bessere Lösung, wie auch in deinem Beispiel. Somit wäre es für mich persönlich logischer, wenn das Auto moralisch entscheiden würde, da das autonome fahren uns somit nicht nur mehr Bequemlichkeit, sondern auch mehr Moral bringen würde.

Hallo Rumpsteakstielchen,
Ich bin im allgemeinen für das autonome fahren, da dies nicht nur viel bequemer wäre, sondern vermutlich auch viel unfallfreier. Die wenigsten Unfälle heutzutage passieren aufgrund von dem technischen Versagen unserer Fahrzeuge, sondern meist wegen Unaufmerksamkeit und Fahrfehlern. All diese Unfälle könnten durch autonomes fahren verhindert werden da eine Maschiene besser reagieren kann und Gefarensituationen durch Kameras besser sieht, da wir Menschen eine große Reaktionszeit benötigen. Es wird nur in den wenigsten Fällen zu der Entscheidung kommen ob man nun gegen eine Wand fährt, oder beim Ausweichen eine Person überfährt. Und selbst wenn sich das Auto dann dazu entcheidet eine Person zu überfahen, um das Leben der Insassen zu retten, muss sich der Fahrer weniger Schuldgefühle mehr machen, da ja nicht er, sondern sein Auto diese Entscheidung getroffen hat. Trotzdem handelt es sich hierbei um ein sehr schwieriges Thema, weshalb eine solche Frage wahrscheinlich nur sehr schwer zu beantworten bleibt.

Schreibe einen Kommentar