Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

Derzeit machen Unfälle mit dem Autopiloten des Tesla die Runde, einer davon endete tödlich. Das führt nun allerorts zu beherzten Debatten, die geführt werden müssen, die aber eines vergessen: Beta-Software gehört nicht in den Straßenverkehr, sagt Andreas Link in dieser Kolumne.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten
 
AW: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

Ich würde ja gerne noch hier mehr Ausführungen geben,
aber der Artikel spiegelt leider zu 100% meine Meinung zu dem Thema wieder. :(
 
AW: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

Also nach der Kolumne geht autonomes fahren nicht solange autos an der seite parken da diese etwas verdecken.

Ich würde auch niemals 100% autonom zulassen. Hände bleiben einfach beim lenkrad und blick nach vorne. Ein schiff kann auch autonom fahren trotzdem trinkt sie crew nicht durchgehen rum und schert sich nichts um die fahrt.

Ich denke beta wird es immer bleiben da man keine 100% sicherheit geben wird.
 
AW: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

Tjo, also nix mehr mit navigieren mit Google Maps, oder?

afaik war dessen Navigation noch nie aus dem Beta Stadium raus.
 
AW: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

Also mal bitte nicht Vergessen Tesla weißt eindeutig darauf hin das man selbst während der fahrt mim Autopiloten nicht die Hände vom Lenkrad zu nehmen.

Dann hat der Tödlich Verunglückte zu allem Überfluß noch einen Film während der fahrt geschaut.

Also einmal nicht an die Vorgaben gehalten und dann noch nicht mal auf den Verkehr geachtet bzw wo sein Auto hinfährt.Ich möchte hier tesla nicht von der Schuld des unfalls freisprechen aber der fahrer hatt nun mal eine Hohe Eigenschuld am Tödlichen Unfall.Und so wirds bei den meisten Unfällen wohl auch gewesen sein.

Die Leute verlassen sich zu sehr auf die Technik,einfach mal die Birne einschalten und aufpassen.Telsa weißt ja auch drauf hin das es alles noch in der Betaphase ist.
 
AW: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

Der Knackpunkt ist, dass es bekanntlich keine absolut 100% fehlerfrei funktionierende Lösung gibt und geben wird. Egal um welches Gebiet es geht, ist es entscheidend, im gesellschaftlichen Diskurs auszuloten, welche Fehlerquote akzeptabel ist. Beispiel: 1 von 10 Raketen einer Weltraummission detoniert schon kurz nach dem Start = akzeptabel für den größten Teil der Gesellschaft. 1 von 10 Atomkraftwerken detoniert kurz nach der Inbetriebnahme = inakzeptabel für den größten Teil der Gesellschaft. In dem Kontext muss man auch Begriffe wie Beta-Software/Beta-Phase sehen. Wie wird denn definiert, was Beta und Final ist? Jeder von uns kann vermutlich aus dem Stegreif unzählige Programme aufzählen, die laut Hersteller fertig, offensichtlich aber stark fehlerbehaftet sind. Die Einstufung erfolgt subjektiv.

Da wir uns aktuell in einer Übergangsphase befinden und nicht davon auszugehen ist, dass derartige Software-Systeme aus Automobilen verschwinden werden, geht es meines Erachtens in den nächsten Jahren darum zu bestimmen, welche Mindestanforderungen derartige Assistenzsysteme/Autopiloten erfüllen müssen. Das Abnicken von Disclaimern wird sich spätestens dann als unzureichend erweisen, wenn neben dem Nutzer eines Assistenssystems/Autopiloten andere Verkehrsteilnehmer ums Leben kommen. Der Verweis auf reine Statistik (durchschnittlich X Kilometer unfallfrei, höher als der menschliche Durchschnittswert) wird spätestens dann nicht mehr reichen, wenn Unfälle passieren, die ein Mensch (der sich nicht auf ein solches System verlässt) mit hoher Wahrscheinlichkeit hätte verhindern können.

Wie die Rechtslage/Prüfverfahren aktuell aussehen weiß ich zwar offen gesagt nicht, aber es würde mich wundern, wenn wir in der Hinsicht keine Änderungen sehen würden. In den USA dürfte es eher darauf hinauslaufen, die Hersteller durch sehr hohe im Raum stehende Zahlungen im Schadensfall zur Optimierung zu bewegen, während für den europäischen Raum eher die Zulassung durch Prüfverfahren erschwert werden dürfte.
 
AW: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

Ganz gleich, ob nun ein Fehler der Technik oder des Fahrers vorlag, hat es doch einen Beigeschmack, wenn sich ein Unternehmen für möglicherweise von ihm verursachte Unfälle aufgrund mangelhafter Software vollständig aus der Haftung nimmt. Ganz gleich, wie sehr man Tesla mag oder nicht.Beta-Software hat im Straßenverkehr nichts zu suchen, das sollte der Konsens aus der aktuell laufenden Debatte sein. Die Entwicklung ist ohne Frage zu befürworten, die Betatests aber auf Fahrer abzuwälzen und zu sagen, der Autopilot lerne noch, ist hier ebenso falsch wie Beta-Tests bei Spielen auf den Kunden auszulagern. Immerhin kommt bei Letzterem niemand in Lebensgefahr.

Ob man Tesla mag oder nicht spielt hierbei keine Rolle, da es eine grundsätzliche "Problematik" bzw. Fragestellung ist. Selbstlenkende Systeme mit Abstandsradar, (City) Notbremsfunktion, Spurhalteassistent usw. gibt es auch bei anderen Herstellern, und nur weil dort nicht "BETA" dran steht, sind sie nicht automatisch fehlerfrei(er). Die Tatsache das Tesla einen "On the fly" Datenaustausch nutzt, und die Daten auswertet, um ebenso "On the fly" über Updates die Funktionen ggf. zu verbessern, kann rein logisch betrachtet auch nicht schlechter sein, als Fahrzeuge dessen Fähigkeiten und Funktionen nach der Produktion nicht mehr verändert/upgedatet werden (können).

Sich hier an der mMn einfach nur ehrlichen Bezeichnung "BETA" zu stören, finde ich etwas kurzsichtig gedacht. Auch darf sehr stark bezweifelt werden, das seit Jahren erhältliche Assistenzsysteme der Konkurrenz weder vom Fahrer missbraucht wurden/werden, noch das sie aufgrund dieses Missbrauchs noch keine Unfälle mit verschuldet haben. Ein simpler Tempomat kann verantwortungslose/fahrlässige Fahrer schon dazu "ermuntern", nicht mehr mit der nötigen Aufmerksamkeit hinterm Steuer zu sitzen. Meiner Meinung nach fährt immer noch der Fahrer das Fahrzeug, und egal welche Assistenzsysteme er alles im Auto hat, er hat seine Aufmerksamkeit deswegen nicht zu reduzieren. Nutzt man diese System so wie sie gedacht sind, als Ergänzung und nicht als Ersatz, dann stellt sich die Schuldfrage auch nicht.

Zu dem anderen "Crash" heißt es übrigens:
Anyone who has driven on the Pennsylvania Turnpike knows that its narrow shoulders and concrete medians leave little margin for driver error. There's not enough evidence to indicate that Tesla's Autopilot malfunctioned.
Der Fahrer befuhr also einen Streckenabschnitt, der als problematisch bekannt ist, und hat dennoch die Kontrolle dem Fahrzeug/Computer überlassen. Wenn das nicht fahrlässig ist, was dann? Und es macht mMn einen Unterschied ob der "Spurhalteassistent" eines Fahrzeuges (egal welcher Marke) in einer Kurve die Spur nicht mehr halten kann, zb. weil er nichts mehr erkennt, oder ob der Wagen tatsächlich plötzlich einfach so nach links/rechts lenkt. Die selben Diskussionen gab es auch schon beim ABS, ESP, Airbag, dem Anschnallgurt usw. Fahrlässige Fahrer können jedes einzelne dieser Systeme dazu "missbrauchen", um die gewonnene Sicherheit durch ein risikoreicheres Fahrverhalten auch ins Negative zu kehren (und viele tun dies auch jeden Tag!). Das macht aber nicht die Systeme selbst zur Gefahr.
 
AW: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

Als ich die Überschrift gelesen habe, dachte ich sofort, dass die Betaversion eines Autopiloten genauso in den Straßenverkehr gehört, wie die Betaversion von Spielen auf die Computer der Spieler.

Lustigerweise habe ich dann dies gelesen:
...ist hier ebenso falsch wie Beta-Tests bei Spielen auf den Kunden auszulagern.

Da haben der Autor und ich wohl sehr unterschiedliche Meinungen :ugly:

Viele Fehler sind in den Entwicklungsstudios mit relativ kleiner Mannstärke eben kaum aufzufinden, da braucht es Tests auf einer größeren Skala. Dasselbe gilt natürlich auch bei Autos. Es gibt so unendlich viele Situationen, in die man geraten kann... Da kann unmöglich jeder Sonderfall im Studio abgedeckt werden.

Und wie jemand schon im anderen Thread geschrieben hat: Der Autopilot muss nicht fehlerfrei seien, bevor man ihn guten Gewissens auf die Straße lassen kann, er sollte nur weniger Fehler machen als Menschen am Steuer.
 
AW: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

Andreas Link also soll mal die Pferde im Stall lassen. In meine Augen, ist der Fahrer, der gestorben ist, selbst schuld.
In der Fahrschule lernt man:
Dass man sich nicht auf Leuchtsignale verlassen soll, z.B.: Bahnübergang. Warum soll man denn da schauen, es gibt doch Signale??
Antwort: Die können ja auch mal versagen.
Warum kommen den nicht so viele mit dem Grünen Pfeil klar??? Weil man da denken muss. Es zählt als untergeordnetes Stopp-Schild bei Rot.
Herr Andreas Link, es ist z.Z. nicht möglich alles zu erkennen von diesen "Autopiloten". Und Beta-Software ist diese Kolumne.
Selbst eine Pilot kann sich nicht komplett auf den Autopiloten verlassen, da er niemals alles erkenne und abarbeiten kann.

Jedes mal wenn man den "Autopiloten", steht da dass:
Man die Hände am Steuer lassen soll und den Verkehr beobachten soll.
Dass alle Verkehrsregeln den Autopiloten vorgehen und man jederzeit eingreifen soll.
Bei unsicheren Situationen, den "Autopiloten" deaktivieren soll, da es dieser nicht einschätzen kann (Logisches Denken).
U.S.W...........
Logisches Denken sollte beim Verkauf dieses Autos als Voraussetzung sein, da dieser einen nicht das Fahren abnimmt, sondern nur UNTERSTÜTZT!

In diesem Video wird immer darauf hingewiesen, das es unterstützt und nicht alles erkennen kann.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
AW: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

PCGH schrieb:
Manch einer argumentiert damit, dass Menschen das schwächste Glied im Straßenverkehr sind. Das kann man grundsätzlich so sehen, sie sind aber nicht risikoreicher wie ein Stück Software gekoppelt an Sensoren - insbesondere im Mischbetrieb.


Das würde ich gerne genau wissen, immerhin ist der Mensch für 94% der Unfälle verantwortlich.

PCGH schrieb:
Am Ende fragt man sich ernsthaft, warum die Behörde da die Typengenehmigung erteilt hat, wo man doch sonst so penibel ist. Der TÜV trägt

Das Ding ist kein Autopilot, sondern ein Abstandstempomat in Verbindung mit einem Spurhalteassistenten, der auch abbiegende Autos erkennen kann. Von daher ist das Teil erlaubt.

PCGH schrieb:
Versicherungen werden keinesfalls dabei zusehen, wie Autopiloten tödliche Fehler machen, für die sie dann haften müssen.

Versicherungen dürften die Treibende Kraft sein wenn es darum geht den Menschen vom Lenkrad zu verbannen. Immerhin sind diese Verrückten für 94% der Unfälle verantwortlich.
 
AW: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

Das Ding ist kein Autopilot, sondern ein Abstandstempomat in Verbindung mit einem Spurhalteassistenten, der auch abbiegende Autos erkennen kann. Von daher ist das Teil erlaubt.
Tesla vermarktet es aber so.
 
AW: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

Was soll denn das für eine Blog sein? Völliges Schwarz-Weißdenken, was sie hier an den Tag legen. Sie erzählen in der Einleitung was von "Fakten", die beide Seiten der Debatte immer vergessen würden aber hier im Blog kann ich sogut wie keine Fakten erkennen :schief: Ich teile mir dienstlich einen Tesla S mit meinem Arbeitskollegen und nun die Sicht eines Tesla-Fahrers (nach 8.000 km) auf diesen Blog:

Wir haben in der Firma seid letzten Monat unseren dritten Tesla S in der 90D-Variante in den Firmenfuhrpark eingeflottet. Insgesamt kann ich also auf drei Teslas mit zusammen 35.000 km zurückblicken. Klingt nicht viel aber wenn man mal bedenkt, dass wir im dichten Straßenjungel von NRW unterwegs sind, sind es dann noch relativ viele Kilometer in relation zur Unfallgefahr.

Ich fahre sehr oft mit dem ACC (adaptive cruise control). Es funktioniert erstaunlich genau und direkt. Man könnte wirklich denken, dass man nebenbei noch anderen tätigkeiten nachgehen kann. Doch da irrt man sich, denn es ist nicht mit der StVO vereinbar. Mit dem Handy spielen, Büroarbeit erledigen oder eben mal etwas ablesen ... all das ist auch mit eingeschalteten ACC grob fahrlässig, da das Fahrzeug zu jeder Zeit sicher geführt werden muss. So stehts auch in der StVO!!! Diese Regelung gibt es auch in fast allen US-Bundestaaten. Ebenfalls warnt Tesla in dem Disclaimer nochmal ausdrücklich davor und muss vom Fahrer bestätigt werden. Wer dann noch unachtsam mit eingeschalteten ACC ist, handelt bewusst grob fahrlässig und ist in meinen Augen völlig falsch auf der Straße.

Nun zu ihnen Herr Link:

PCGH schrieb:
"Intuition, was labert der Typ",

Genau ... Was erzählen sie denn da? Intuition? Völliger Quatsch :daumen2: Die panische Reaktion bei einer Gefahrensituation zudem die meist völlig überforderten Menschen ... all das verknüpfen sie mit Intuition? Mal ein Beispiel: Ich fahre ohne Assistenz-Systemen auf einer Landstraße in einem wäldchen. Es ist dunkel und auf einmal springt mir ein kleines Reh auf die Fahrbahn. Bis ich es realisiert habe und diesen Teil des tatsächlichen Bremsweges bereits hinter mir habe wäre dieser viel zu kurz. Also würde ich, wie mehr als 75% aller Fahrer in dieser Situation, nach links oder rechts ziehen und versuchen auszuweichen ... Blöd nur, dass dort ein Baum steht. BUUM. Oder Stadtverkehr: Ich fahre entlang parkenden Autos. Ein kleiner Junge kommt zwischen den Autos hervorgerannt. Bis ich die Situation beurteilen konnte, sind bereits 10m zurückgelegt ... bis ich eine Entscheidung finden konnte wieder 5m. Doch zu Bremsen wäre jetzt schon zu spät. Ich weiche aus und komme auf die Gegenfahrbahn ... doch da kommt mir ein Auto entgegen das nur noch Bremsen kann. BUUM.

Bei beiden Situationen ist die Fehlerquellen: Mensch die großte.

Jetzt habe ich aber leider keine Zeit den Beitrag noch zu beenden ... Fortsetzung folg...
 
AW: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

Es ist kein Autopilot, sonder ein ACC, das weniger leistet als die Konkurrenz.
Wird hier schön erklärt Klartext: Teslas Toter

Eben, wie es dort auch heißt:
Heise schrieb:
Wenn derselbe Unfall sich in einem A8 ereignet hätte, würde keine Sau darüber sprechen, ob der Tempomat angeschaltet war. Es würde überhaupt niemand über diesen Unfall sprechen.

Es wird sich nur an den Worten BETA und Autopilot aufgehangen. Dass das kein richtiger "Autopilot" ist, es Stand heute gar kein in Serie gefertigtes "autonomes" Auto gibt, das sollte eigentlich jeder wissen, der die zum Erhalt eines Führerscheins nötige Intelligenz besitzt. Ob die Werbung es Autopilot, Superpilot oder HAL9000 nennt, spielt hier eigentlich keine Rolle. Das Werbung gerne mal dicker aufträgt ist auch kein Phänomen von gestern.

Mercedes Benz Aktiver Spurhalte Assistent, Aktiver Totwinkel Assistent - YouTube

ADAC Vergleich: Fahrspurassistenten - YouTube

Die Systeme der anderen Hersteller arbeiten auch nicht 100% fehlerfrei, und das müssen sie auch gar nicht, da sie - wie auch der "Autopilot" des Tesla - kein Ersatz für einen Fahrer sind, sondern lediglich eine Ergänzung. Und was anderes hat, zumindest soweit mir bekannt, auch Tesla/Musk nie gesagt.

Dazu kommt:
PCGH-Artikel schrieb:
Manch einer argumentiert damit, dass Menschen das schwächste Glied im Straßenverkehr sind. Das kann man grundsätzlich so sehen, sie sind aber nicht risikoreicher wie ein Stück Software gekoppelt an Sensoren - insbesondere im Mischbetrieb.
Das kann ja wohl nicht ernst gemeint sein. Schon auf Youtube kann man sich mittlerweile tausende/zehntausende Videos anschauen, die ganz genau zeigen, wie "risikoreich" der Mensch sich (nicht nur um Straßenverkehr) verhält. Es wird sogar bewusst das Leben anderer Verkehrsteilnehmer gefährdet, sehr oft mit tödlichem Ausgang, nur um ein paar Sekunden früher am Zielort zu sein - oder oft sogar einfach nur aus Spaß/für den schnellen "Kick". Genau das würde "ein Stück Software gekoppelt an Sensoren" niemals absichtlich bzw. "bewusst" tun.
Tesla vermarktet es aber so.
Zitat:
Autopilot-Komfortmerkmale

Dank dem Autopiloten kann das Model S mehr als nur die Spur halten. Ein Antippen des Blinkerhebels genügt, und das Model S wechselt automatisch die Spur. Auch die Geschwindigkeit wird vollkommen autonom geregelt, denn die verkehrsadaptive Tempomatik passt sich perfekt dem Verkehrsfluss an. Ihr Auto erkennt sogar passende Parklücken für Sie und parkt danach vollkommen automatisch ein.
Quelle: Tesla-Webseite

Tesla hat, soweit mir bekannt, nie damit geworben das deren "Autopilot" den Fahrer in irgendeiner Weise ersetzen kann bzw. soll. Oder das man mit eingeschaltetem "Autopilot" in der Zeitung lesen / mit dem Smartphone o.ä spielen, die Hände vom Lenkrad nehmen kann. Und das bekommt auch jeder noch mal ausdrücklich gesagt, wenn er einen solchen Wagen kauft, und die Einweisung in das Fahrzeug erhält.

Das die Bezeichnung "Autopilot" für manche vielleicht mehr suggeriert als aktuell dahinter steckt, das steht ja völlig außer Frage. Aber sich (ob als Fahrer eines solchen Fahrzeuges, oder als Außenstehender) dahinter zu verstecken, und zu sagen "Ich dachte weil es Autopilot heißt kann ich jetzt beim Autofahren Filme anschauen, die Füße aus dem Fenster hängen, ein Nickerchen machen", damit macht man es sich mMn zu einfach. Die Verantwortung liegt nach wie vor beim Menschen. Und wenn der durch sein fahrlässiges Verhalten das Risiko wieder erhöht, welches die Assistenzsysteme versuchen zu reduzieren, dann ist es falsch sich hinter einem "Autopiloten" zu verstecken, sollte dann doch etwas schiefgehen.
 
AW: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

Der Fahrer befuhr also einen Streckenabschnitt, der als problematisch bekannt ist, und hat dennoch die Kontrolle dem Fahrzeug/Computer überlassen. Wenn das nicht fahrlässig ist, was dann? Und es macht mMn einen Unterschied ob der "Spurhalteassistent" eines Fahrzeuges (egal welcher Marke) in einer Kurve die Spur nicht mehr halten kann, zb. weil er nichts mehr erkennt, oder ob der Wagen tatsächlich plötzlich einfach so nach links/rechts lenkt. Die selben Diskussionen gab es auch schon beim ABS, ESP, Airbag, dem Anschnallgurt usw. Fahrlässige Fahrer können jedes einzelne dieser Systeme dazu "missbrauchen", um die gewonnene Sicherheit durch ein risikoreicheres Fahrverhalten auch ins Negative zu kehren (und viele tun dies auch jeden Tag!). Das macht aber nicht die Systeme selbst zur Gefahr.

Es macht einen verdammt großen Unterschied, ob ein Nutzer sein eigenes Risiko durch Fehlverhalten steigern kann, oder auch das seiner Mitmenschen. In diesem Fall gab es eine massive Mittelabsperrung, wäre der gleiche Fehler auf einer Landstraße gegeben, hätte der Tesla einen Frontalcrash im Gegenverkehr und mit hoher Wahrscheinlichkeit Tote verursacht. Und von "als problematisch bekannt" lese ich da nichts. Es wird nur darauf hingewiesen, dass die Straße mit !drei! Spuren je Richtung nicht auch noch zusätzlich Auslaufzonen links und rechts davon hat. Offensichtlich sind diese drei Spuren für die Automatiken eines Teslas schon zu eng, wenn er sich derart verfährt (ein leichtes Touchieren der Leitplanke auf einer sehr engen Spur -falls es das dort geben sollte- hätte den Wagen jedenfalls nicht quer über die Fahrbahn geschleudert. Da hat das System entweder ein extremes Gegenlenkmanöver gemacht oder es ist von vorneherein in einem gar-nicht-mal-so-flachen Winkel von der Fahrbahn abgekommen. Beides übrigens Dinge, die einem nüchternen Menschen nicht mal eben so passieren.)


Und wie jemand schon im anderen Thread geschrieben hat: Der Autopilot muss nicht fehlerfrei seien, bevor man ihn guten Gewissens auf die Straße lassen kann, er sollte nur weniger Fehler machen als Menschen am Steuer.

Präzision: Er sollte in einer vergleichbaren Situation weniger Fehler machen, als ein Mensch. Diese Bedingungen wurden hier und im letzten Fall nicht erfüllt. Das System hat in beiden Fällen nicht einmal registriert, dass es mit den Bedingungen nicht fertig wird/den Fahrer vorgewarnt.


Ich fahre sehr oft mit dem ACC (adaptive cruise control). Es funktioniert erstaunlich genau und direkt. Man könnte wirklich denken, dass man nebenbei noch anderen tätigkeiten nachgehen kann.

Mal eine Frage aus Interesse: Wie gut lässt sich ACC eigentlich nutzen, wenn man die Hände am Lenkrad und die Füße auf der Bremse hat (wie man es bei Tesla scheinbar immer haben sollte)? Löst man da leicht selbst Steuermanöver aus (und deaktiviert so das System), oder hat es noch einen realen Nutzen solange man sich nicht zurücklehnt (und damit nicht mehr der StVO genüge tut)?

Genau ... Was erzählen sie denn da? Intuition? Völliger Quatsch :daumen2: Die panische Reaktion bei einer Gefahrensituation zudem die meist völlig überforderten Menschen ... all das verknüpfen sie mit Intuition? Mal ein Beispiel: Ich fahre ohne Assistenz-Systemen auf einer Landstraße in einem wäldchen. Es ist dunkel und auf einmal springt mir ein kleines Reh auf die Fahrbahn. Bis ich es realisiert habe und diesen Teil des tatsächlichen Bremsweges bereits hinter mir habe wäre dieser viel zu kurz. Also würde ich, wie mehr als 75% aller Fahrer in dieser Situation, nach links oder rechts ziehen und versuchen auszuweichen ... Blöd nur, dass dort ein Baum steht. BUUM. Oder Stadtverkehr: Ich fahre entlang parkenden Autos. Ein kleiner Junge kommt zwischen den Autos hervorgerannt. Bis ich die Situation beurteilen konnte, sind bereits 10m zurückgelegt ... bis ich eine Entscheidung finden konnte wieder 5m. Doch zu Bremsen wäre jetzt schon zu spät. Ich weiche aus und komme auf die Gegenfahrbahn ... doch da kommt mir ein Auto entgegen das nur noch Bremsen kann. BUUM.

Bei beiden Situationen ist die Fehlerquellen: Mensch die großte.

Der Mensch ist in diesen Fällen eine größere Fehlerquelle, als z.B. die Bremstechnik - ja.
Aber ist er auch eine größere Fehlerquelle, als ein System, dass tagsüber (nicht nachts) auf einer mehrspurigen, geraden Straße (nicht einer kurvenreichen deutschen Landstraße oder einer engen Innenstadtstraße) ohne Hindernisse am Fahrbahnrand (weder Bäume noch parkende Autos) einen "auf einmal" hervor"springenden"/"rennenden" Traktor samt Anhänger (man stelle sich an dieser Stelle die Sprichwörtliche Traktor-Sprunghaftigkeit vor) nicht rechtzeitig bemerkt, um auch nur die Geschwindigkeit zu drosseln oder ein Ausweichmanöver zu versuchen?
Irgendwie scheint das extrem fehlerhafte System "Mensch" noch mit Abstand das beste zu haben, was es derzeit auf dem Markt gibt. Der fährt zwar im Dunkeln/bei schlechtem Wetter/glattem Untergrund/... alles andere als fehlerfrei, beherrscht aber zumindest sonnige, gerade, trockene, gut ausgebaute Straßen.



Es wird sogar bewusst das Leben anderer Verkehrsteilnehmer gefährdet, sehr oft mit tödlichem Ausgang, nur um ein paar Sekunden früher am Zielort zu sein - oder oft sogar einfach nur aus Spaß/für den schnellen "Kick". Genau das würde "ein Stück Software gekoppelt an Sensoren" niemals absichtlich bzw. "bewusst" tun.

Nö. Solche Leute würden aber auch nie ein Stück Software die Kontrolle über ihren Wagen überlassen, womit sich an dieser Stelle nicht die Frage nach einem entweder/oder stellt.

Zitat:

Quelle: Tesla-Webseite

Tesla hat, soweit mir bekannt, nie damit geworben das deren "Autopilot" den Fahrer in irgendeiner Weise ersetzen kann bzw. soll.

Also "automatische Spurwechsel" und "Tempokontrolle", wie in deinem eigenen Zitat beschrieben, ersetzen wohl einige Funktionen des Fahrers. Z.B. die Reduzierung des Tempos bei Hindernissen auf der Fahrbahn.

Oder das man mit eingeschaltetem "Autopilot" in der Zeitung lesen / mit dem Smartphone o.ä spielen, die Hände vom Lenkrad nehmen kann. Und das bekommt auch jeder noch mal ausdrücklich gesagt, wenn er einen solchen Wagen kauft, und die Einweisung in das Fahrzeug erhält.

Als Mod solltest du wissen, wie lange einmalige Einweisungen (z.B. Forenregeln bei der Anmeldung) vorhalten :ugly:

Das die Bezeichnung "Autopilot" für manche vielleicht mehr suggeriert als aktuell dahinter steckt, das steht ja völlig außer Frage. Aber sich (ob als Fahrer eines solchen Fahrzeuges, oder als Außenstehender) dahinter zu verstecken, und zu sagen "Ich dachte weil es Autopilot heißt kann ich jetzt beim Autofahren Filme anschauen, die Füße aus dem Fenster hängen, ein Nickerchen machen", damit macht man es sich mMn zu einfach. Die Verantwortung liegt nach wie vor beim Menschen. Und wenn der durch sein fahrlässiges Verhalten das Risiko wieder erhöht, welches die Assistenzsysteme versuchen zu reduzieren, dann ist es falsch sich hinter einem "Autopiloten" zu verstecken, sollte dann doch etwas schiefgehen.

Das klingt jetzt so ähnlich wie "nicht Waffen töten Menschen, sondern Menschen töten Menschen"...
 
AW: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

...sie sind aber nicht risikoreicher wie ein Stück Software...
:wall: AUA :wall: AUA :wall: AUA!
Wenn schon der Komparativ eine unüberwindliche Hürde ist... :schief:

Zum Thema: Der Fahrer ist ein glühender Tesla-Fan, der Hersteller verwendet bewusst den irreführenden Begriff "Autopilot" für ein Assistenzsystem, das gar nicht mal so viel mehr kann als die Assistenzsysteme in meinem Golf 7. Natürlich hätte der Fahrer wissen müssen (und wusste es vermutlich auch), dass er die Kontrolle über das Fahrzeug nicht allein dem vermeintlichen Autopiloten überlassen durfte. Aber es heißt eben Autopilot, was der übliche Begriff für ein autonom steuerndes elektronisches System in Flugzeugen ist (die Landen mittlerweile sogar schon autonom), was allein schon eine enorme suggestive Kraft entwickeln muss, insbesondere bei so einem Technikfreak. Und es funktionierte ja offensichtlich auch im Rahmen seiner Möglichkeiten bis zum Unfall ganz prima. Technikbegeisterung trifft auf irreführende Werbung trifft auf blindes Vertrauen in die Technik.

Für letzteres Problem gibt es unzählige Beispiele. Das geht los mit der Titanic und hört mit Fukushima noch lange nicht auf. Da fällt mir spontan ein ähnlich gelagerter Fall wie dieser ein: Als die Navis noch eine ganz neue Technologie waren, fuhr einer der ersten Nutzer mit seinem Auto in die Weser. Sein Navi hatte eine Brücke angezeigt, wo tatsächlich aber ein Fähranleger war. Die Fähre lag gerade am gegenüber liegenden Ufer. Die Karte im Navi war schlicht fehlerhaft. Für so einen bizarren Unfall weiß ich keine andere Erklärung als blindes Vertrauen in die Technik.

Noch ein Beispiel: Ein Amerikaner kauft sich ein Wohnmobil mit Tempomat. Er fährt damit auf den Highway, schaltet den Tempomaten ein, steht auf, geht nach hinten und kocht sich einen Kaffee. Der Kaffee wurde leider nicht ganz fertig. :ugly: Gut, dies ist auch ein Beispiel für unglaubliche Blödheit, aber der Kern des Problems liegt auch hier meiner Meinung nach vor allem im blinden Vertrauen in die Technik.

Es ist und bleibt natürlich eine Tatsache, dass der Fahrer sich aus der Steuerung des Wagens nicht komplett hätte zurückziehen dürfen und auf keinen Fall hätte er auch noch einen Film schauen dürfen (ist das eigentlich mittlerweile verifiziert worden?). Aber ebenso ist es eine Tatsache, dass Tesla mit seiner Werbung falsche Erwartungen schürt und mir kann keiner erzählen, dass das nicht bewusst geschieht, Disclaimer hin oder her.

Autonome Fahrzeuge werden kommen, ganz sicher, aber sie sind eben zur Zeit noch nicht ganz serienreif und die rechtlichen Grundlagen sind noch nicht gegeben. Ich frage mich schon eine Weile, welche Fehlerquote letzten Endes gesellschaftlich akzeptabel sein werden? Denn fehlerfrei werden die Systeme nie sein, keine Chance. Allein schon, weil es Situationen gibt, in denen es nur die Wahl zwischen lauter schlechten Entscheidungen gibt. Wenn gleichzeitig eine nette Omi von links und eine Mutter mit Kinderwagen von rechts blind auf die Straße laufen, wen soll das autonome Auto dann wegputzen dürfen? Wie entscheidet man so etwas, bzw. wer soll das gesetzlich festlegen? Spontan würde man wohl sagen, besser die Oma wird angefahren, denn ein Kind ist besonders schützenswert, aber wer will derjenige sein, der gesetzlich festlegt, dass Senioren im Zweifel zu sterben haben? Oder, anderes Beispiel, ist ein autonomes Fahrzeug serienreif, wenn es so viele Fehler wie ein Mensch macht? Wäre doch eigentlich fair, denn wir leben ja auch ständig mit der Gefahr, von der Straße gefegt zu werden, weil irgend jemand sich wieder mal überschätzt hat. Warum sollte man bei einem autonomen Fahrzeug nicht ähnliche Maßstäbe anlegen? Nicht, dass ich das tatsächlich so vertreten würde, das ist nur mal als Diskussionsanstoß gemeint. Es mag ja sein, dass die aktuell fahrenden autonomen Fahrzeuge tatsächlich eine geringere Fehlerquote als Menschen haben (jedenfalls liest man das so), aber ob das auch so bleiben wird, wenn sämtliche Hersteller das in Massen bauen? Ich habe da ernste Zweifel.

Munter bleiben!
 
AW: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

Und von "als problematisch bekannt" lese ich da nichts.
Haarspalterei. :D Wenn es heißt "that its narrow shoulders and concrete medians leave little margin for driver error", dann klingt es nicht gerade nach einem Streckenabschnitt, denn man sein Auto fahren lassen sollte.
Mal eine Frage aus Interesse: Wie gut lässt sich ACC eigentlich nutzen, wenn man die Hände am Lenkrad und die Füße auf der Bremse hat (wie man es bei Tesla scheinbar immer haben sollte)?
Auch wenn es nicht an mich ging, warum? Wer sagt das man den Fuß ständig auf bzw. am Bremspedal haben sollte? Man soll einfach nur aufmerksam bleiben, damit man (wie auch ohne irgendwelche Assistenten) schnell reagieren kann. Der Abstands-Regel-Tempomat soll dir nur das ständige Beschleunigen und Bremsen abnehmen, sonst nichts.
Nö. Solche Leute würden aber auch nie ein Stück Software die Kontrolle über ihren Wagen überlassen, womit sich an dieser Stelle nicht die Frage nach einem entweder/oder stellt.
Welche Leute? Die die Assistenzsysteme missbrauchen? Die der ABS/ESP usw. Software vertrauen? Der voll elektrisch gesteuerten Lenkung? Nur Besitzer von ca. 30 Jahre alten PKW verhalten sich im Straßenverkehr wie "Assis"?
Also "automatische Spurwechsel" und "Tempokontrolle", wie in deinem eigenen Zitat beschrieben, ersetzen wohl einige Funktionen des Fahrers. Z.B. die Reduzierung des Tempos bei Hindernissen auf der Fahrbahn.
Genau so funktionieren Assistenzsysteme nicht. Sie ersetzen überhaupt nix. Sie ergänzen den Fahrer. Sie entlasten den Fahrer. Aber sie ersetzen ihn in keinster Weise. Genau wie der Typ der dem versetzt stehenden Transporter auf der linken Spur aufgefahren ist. Er hat die Gefahrensituation erkannt, und trotzdem nichts gemacht. Siehe das schon 5x erwähnte Beispiel mit dem tödlich verunglückten Tesla-Fahrer, und seinem vor 3 Monaten aufgenommenen Video. Der Tesla-Fahrer (beide Fahrer, auch der im LKW) macht einen Fehler (war abgelenkt), das Auto weicht dem blind einscherenden weißen LKW aus. Falsch ist, wenn der Fahrer aufgrund des Assistenzsystems abgelenkt war (ach der Computer fährt mich schon), und deswegen die Gefahr nicht selbst erkannt hat. Richtig ist, wenn er aus einem anderen Grund unachtsam war, und dann das Assistenzsystem schlimmeres verhindert. Diese Systeme sollen Gefahrensituationen reduzieren die immer mal vorkommen können, aber nicht selbst den Fahrer dazu animieren, solche Gefahrensituationen (aufgrund falsch verstandener Sicherheit, fahrlässigkeit) zu generieren.
Als Mod solltest du wissen, wie lange einmalige Einweisungen (z.B. Forenregeln bei der Anmeldung) vorhalten :ugly:
:D Das ist aber ein unfairer/unpassender Vergleich. Der User muß die Forenregeln nicht zur Gänze kennen, wenn ihm allgemeingültige Verhaltensregeln bekannt sind, dann reicht das normal. Ich persönlich zb. bräuchte weder durch die Einweisung, noch sonst irgendwoher irgendwelche Hinweise bzgl. "Tesla-Autopilot". Das was einem da mitgeteilt wird, sagt mir mein gesunder Menschenverstand schon vorher. Ich fahre zb. auch nicht mit einem Finger am Lenkrad auf der Autobahn, weil ich genau weiß was passieren kann, wenn mir doch mal gerade dann zb. ein Vorderreifen flöten geht (Objekt auf der Fahrbahn).
Das klingt jetzt so ähnlich wie "nicht Waffen töten Menschen, sondern Menschen töten Menschen"...
WTF? Weil der "Autopilot" zum töten gedacht ist?:ugly:
Man kann quasi alles als Waffe missbrauchen. Wie sieht es dann aus? Buttermesser töten Menschen? Ziegelsteine? USB-Kabel? Schnürschuhe? Oder vielleicht doch Menschen? ^^

Ich geh jetzt unseren Hund in der Waschmaschine waschen, und dann im Trockner trocknen. Mir hat schließlich nie jemand gesagt dass das nicht geht, und die Bezeichnung Waschmaschine und Trockner suggeriert mir, dass das möglich sein müsste. Wenn ich so drüber nachdenke, warum hab ich das Gefühl dass das schon mal jemand ausprobiert hat... :ugly:

Aber ebenso ist es eine Tatsache, dass Tesla mit seiner Werbung falsche Erwartungen schürt und mir kann keiner erzählen, dass das nicht bewusst geschieht, Disclaimer hin oder her.
Aber ist das nicht überall in der Werbung so? QVC usw(bewusst überspitzt): Nehmen sie unsere Vitaminpillen und sie werden 386 Jahre alt. Wenn sie diese Hautcreme nur anschauen sieht ihr Gesicht wieder aus wie 17. Melden sie sich auf unserer Webseite an, und ruckizucki knallen sie die geilsten Models (<Model S^^) bis ihnen der Piephahn abfällt. Kaufen sie diesen SUV, weil der durch jedes Flussbett durchkommt. Mit unseren Frühstücksflocken macht ihr Kind mit 11 schon das Abitur. Wenn sie unser Wick Medinait bis 23Uhr einreiben, sind sie am nächsten morgen ab 7Uhr wieder kerngesund.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet:
AW: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

Zitat:
Autopilot-Komfortmerkmale
Dank dem Autopiloten kann das Model S mehr als nur die Spur halten. Ein Antippen des Blinkerhebels genügt, und das Model S wechselt automatisch die Spur. Auch die Geschwindigkeit wird vollkommen autonom geregelt, denn die verkehrsadaptive Tempomatik passt sich perfekt dem Verkehrsfluss an. Ihr Auto erkennt sogar passende Parklücken für Sie und parkt danach vollkommen automatisch ein.
Quelle: Tesla-Webseite

Dann hättest du bei deiner Quelle nur mal etwas weiter lesen müssen und schon hättest du gesehen das Tesla sehr wohl etwas von autonomen fahren schreibt:

Aktive Sensoren in Kombination mit GPS und hochauflösenden Digitalkarten bilden ein Aggregat sich gegenseitig überwachender Systeme. Dank ihnen kann das Model S Autobahnen auch bei Kolonnenverkehr vollkommen autonom befahren - ohne von der Spur abzuweichen. Die kontinuierlichen Echtzeit-Rückmeldungen von der gesamten Tesla-Flotte gewährleisten, dass das System permanent lernt und sich verbessert.

Also meine Meinung ist die.
Ganz klar die Fahrer sind an den Unfällen alles andere als unschuldig, insbesondere haben sie der Technik viel zu sehr vertraut und ihre Aufmerksamkeit zu sehr vom Straßenverkehr abschweifen lassen.

Ich sehe aber auf der anderen Seite auch Tesla und die Medien die Tesla indirekt bewerben in der Schuld.
Kein anderer Hersteller bewirbt seine Assistenzsysteme so als "Autopilot" und "autonomes Fahren" wie Tesla.

Ich fahre z.B. einen Audi A3, welcher ebenfalls über ACC und Spurhalteassistent verfügt und ein Stück weit selbstständig fahren kann.
Trotzdem bewirbt Audi diese Systeme nirgends als Autopilot oder gar, dass das Fahrzeug autonom fahren könnte. Ganz im Gegenteil.

Tesla tut das aber und das obwohl sie sich bewusst sein müssten, dass sie noch Meilen davon entfernt sind ein wirklich autonom fahrendes Auto auf den Markt zu bringen.

Und noch eine bescheidene Meinung zum autonomen Fahren.
Autonomes Fahren macht meiner Meinung nur dann Sinn, wenn der Fahrer sich wirklich vollständig auf das System verlassen kann und man von den Pflichten als Fahrer entbunden wird.
Wenn dies nicht möglich ist, braucht man kein autonomes Fahrzeug, da der Fahrer sonst mehr und mehr die Aufmerksamkeit verliert und im entscheidenden Moment eben nicht eingreifen wird.

Bei Piloten stellt man dieses Phänomen übrigens auch fest.
 
AW: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

Dann hättest du bei deiner Quelle nur mal etwas weiter lesen müssen und schon hättest du gesehen das Tesla sehr wohl etwas von autonomen fahren schreibt: "Aktive Sensoren in Kombination mit GPS und hochauflösenden Digitalkarten bilden ein Aggregat sich gegenseitig überwachender Systeme. Dank ihnen kann das Model S Autobahnen auch bei Kolonnenverkehr vollkommen autonom befahren - ohne von der Spur abzuweichen. Die kontinuierlichen Echtzeit-Rückmeldungen von der gesamten Tesla-Flotte gewährleisten, dass das System permanent lernt und sich verbessert."
Hm, ok, der Part mit "vollkommen autonom" zusammen mit "auch bei Kolonnenverkehr" suggeriert in der Tat, zumindest dem technisch nicht so versierten Fahrer, dass das System hier quasi schon fehlerfrei arbeitet - und dadurch selbständiger wirkt (und dadurch weniger Aufmerksamkeit erfordert) als es tatsächlich ist. Diesen Punkt der Werbeaussagen hatte ich so nicht auf dem Schirm.
Ich sehe aber auf der anderen Seite auch Tesla und die Medien die Tesla indirekt bewerben in der Schuld.
Kein anderer Hersteller bewirbt seine Assistenzsysteme so als "Autopilot" und "autonomes Fahren" wie Tesla.
Da muß ich mich dann wie gesagt doch geschlagen geben. Ich bin zwar immer noch der Meinung, das einem der eigene Verstand schon sagen sollte, das man seinem PKW bzw. desses Assistenzsystemen nicht zu viel zutrauen sollte, egal was die Werbung erzählt. Aber mit:
Ich fahre z.B. einen Audi A3, welcher ebenfalls über ACC und Spurhalteassistent verfügt und ein Stück weit selbstständig fahren kann.
Trotzdem bewirbt Audi diese Systeme nirgends als Autopilot oder gar, dass das Fahrzeug autonom fahren könnte. Ganz im Gegenteil.
Tesla tut das aber und das obwohl sie sich bewusst sein müssten, dass sie noch Meilen davon entfernt sind ein wirklich autonom fahrendes Auto auf den Markt zu bringen.
... hast du in der Tat nicht ganz unrecht.
Und noch eine bescheidene Meinung zum autonomen Fahren.
Autonomes Fahren macht meiner Meinung nur dann Sinn, wenn der Fahrer sich wirklich vollständig auf das System verlassen kann und man von den Pflichten als Fahrer entbunden wird. Wenn dies nicht möglich ist, braucht man kein autonomes Fahrzeug, da der Fahrer sonst mehr und mehr die Aufmerksamkeit verliert und im entscheidenden Moment eben nicht eingreifen wird.
Autonomes Fahren setzt ja voraus, dass das Fahrzeug quasi alles von alleine erledigen kann. Ansonsten wäre es ja nur "teil-autonom". Und da hast du schon recht, hier ging die Werbung von Tesla dann doch etwas zu weit.
 
AW: Beta-Software gehört nicht in den Straßenverkehr - Kommentar zum Tesla-Autopiloten

Es gibt eben irgendwie zwei Extreme.
Die etablierten Fahrzeughersteller sind oftmals zu konservativ.
Z.b schaltet sich mein Spurhalteassistent nach ca. 5 Sekunden aus wenn er meint das man die Hände nicht am Lenkrad hat.
Das ist manchmal auch nervig. Auf geraden Autobahnabschnitten kommt die Meldung auch obwohl man die Hände dran hat und man eben schlicht nix zum lenken hat.
Oder für eine Flasche Wasser in die Hand nehmen ist es auch manchmal zu kurz.
Da könnte man definitiv nach oben gehen. In der Anleitung steht ja auch, dass es nur den Fahrer unterstützt und nicht den Lenkeingriff komplett ersetzt.
Enge Kurven funktionieren z.B. nicht.
Mit dieser Konservativen Haltung fahren diese Hersteller aber eben recht gut.
Man verspricht bei solch sicherheitsrelevanten Themen nicht zu viel und riskiert somit wenig.

Tesla wiederum ist eben das andere Extrem und verspricht oder suggeriert zumindest bei den Assistenzsystemen schlicht Dinge die es nicht oder nicht zuverlässig halten kann.
Das wirkt zwar im ersten Moment innovativ, birgt aber eben die Gefahr, dass wenn so ein System mal versagt, der Ärger vorprogrammiert ist.

Zumindest in der USA kann so etwas schnell zu Millionenklagen der Opfer oder Hinterbliebenen führen.
Ich bin wirklich gespannt wie das weitergeht.

Ich weiß z.B. von Audi, dass diese in der nächsten Zeit das autonome Fahren auf Autobahnen ermöglichen werden.
Heißt also komplett ohne Fahrereingriff. Das Lenkrad wird, zumindest im Testfahrzeug, sogar ein Stück weit eingefahren, damit man mehr Platz hat.
Das wird sich aber wirklich nur dann durchsetzen, wenn ich als Fahrer einen Mehrwert davon habe.
Heißt a. ich muss mich 100%ig darauf verlassen können.
Das denke ich werden sie hinbekommen. Bestimmte Verkehrssituationen werden mit Sicherheit auch vom autonomen Betrieb ausgeschlossen sein. Das wird mindestens Starkregen, Schneefall und Nebel betreffen.
Und b. die Gesetze müssen so angepasst werden, dass der Fahrer für die Zeit des autonomen Fahrens komplett von seinen Pflichten entbunden wird.
Denn sonst bringt das nix. Wenn ich trotzdem auf den Verkehr achten muss kann ich gleich selbst fahren. Vor allem wird die Reaktionszeit durch das autonome Fahren zwangsläufig steigen.
Hier ist der Gesetzgeber gefragt und wenn ich das richtig verfolgt habe, sieht es genau hier nicht so gut aus.

Es bleibt also spannend.
 
Zurück