Tesla: In den USA gibt es nun "Full Self-Driving"

Das können Flugzeuge schon lange, aber trotzdem ist eine Crew Pflicht und die haftet auch dafür und so wird es auch beim autonomischen Fahren sein, der Führer des Fahrzeuges wird dann in die Pflicht genommen, wie auch bei der autonomischen Einparkhilfe
 
Flugzeug-Crews werden auch extra für Überwachungsaufgaben und Notfallübernahmen traininer und müssen relgemäig Nachweisen, dass sie die Anforderunen noch erfüllen.


Da gebe ich dir vollkommen recht. Im Grunde genommen wollte ich das Gleiche ausdrücken, aber hätte es ruhig etwas generischer beschreiben sollen. Meine Grundaussage ist, dass es so so lange schwierig ist autonome Systeme potenziell fehlerfrei zu entwickeln, wie es nicht-deterministische Objekte bei der Perzeption zu tracken gilt. Da jedoch die durchschnittlich höhere Relativgeschwindigkeit von sich bewegenden Fahrzeugen mit menschlichem Fahrer auf bspw. der Autobahn mAn eine Gefahr größeren Ausmaßes stellen kann, empfinde ich das als einen entsprechend wichtigen Faktor. Hier darf natürlich wieder diskutiert werden, ob man Gefahren anhand der Menge an Betroffenen bewerten kann. Meine eigenen Arbeiten bewegen sich zudem größtenteils auf der Autobahn, daher lege ich meinen persönlichen Fokus auf diesen Bereich.

Gerade das Fahren auf der Autobahn ist eine sehr simple Situation, weswegen auch alle Selbstfahrprojekte seit den 70er/80er Jahren damit angefangen haben und dort die größten Erfolge verzeichnet haben. Das ganze Konzept Autobahn ist nur darauf ausgelegt, das Fahren so simpel wie möglich zu machen und hat nicht umsonst die bei weitem geringste Unfallrate pro gefahrenem Kilometer. Herausforderungen gibt es auf der Autobahn nur zwei: Die teilweise geforderten, kurzen Reaktionszeiten – aber das ist eine Stärke von elektronischen Systemen. Und im Sonderfall Deutschland der so weit reichende Raum, den man überblicken muss, da auch weit entfernte Objekte aufgrund der hohen Relativgeschwindigkeiten wichtig sein könnten. Aber nachdem sich alle Autokonzerne einig geworden sind, ihr Geld künftig mit Software zu verdienen, steht jetzt ja die Einfühung von Tempo 130 an. Gegenüber den 85 km/h, die die LKW fahren, gibt es dann nur noch selbstfahr-freundliche 45 km/h Relativgeschwindigkeit, was weniger als im typischen Stadtverkehr mit 0 km/h Fußgängern und real 60 km/h fahrenden Autos ist. Das anhaltend größte Problem ist aber immer noch die Erkennung von Objekten, die nicht in das relativ enge Formen- und Größenraster "PKW" passen. Ein Autofahrer muss einfach mit allem umgehen können, das auftaucht, nicht nur mit Objekten, mit denen er mal trainiert wurde.

Wie auch immer, ethisch entscheidet so ein autonomes System trotzdem noch nicht. Wenn ich mit Kollegen diskutiere, komme ich immer mit demselben Szenario: Das autonome System hat die Wahl - entweder es kracht in ein Fahrzeug und tötet 4 Menschen oder es weicht aus und tötet die Mutter mit ihrem Kind. Was soll die bessere Entscheidung sein? Nun, ein autonomes System hat da evtl. noch eine größere Zeitspanne als ein Mensch um zu entscheiden, was es durchführen soll oder abwägen kann, was die sicherste Option ist, aber es erscheint mir trotzdem noch moralisch sehr verwerflich und fragwürdig, wie man damit umgehen kann/wird.

Ich spreche außerdem von rein konzeptionellen Ansätzen und Denkweisen, nicht über Teslas Strategie. Darüber kann man sich streiten.

Auch ein menschlicher Fahrer entscheidet in so einer Situation nicht ethisch, sondern nach den gleichen Prinzipien wie ein Selbstfahrsystem: Kollision möglichst ganz vermeiden, wenn nicht möglich die Geschwindigkeit soweit wie möglich reduzieren. Nach "Vollbremsung" und "irgendwie doch noch ausweichen" hat ein Mensch überhaupt keine Zeit mehr, Leben gegen Leben aufzurechnen, weil er längst eingeschlagen ist. Eine KI könnte zwar schneller Szenarien durchspielen, hat umgekehrt aber auch viel mehr Parameter zu möglichen Fahrmanövern als exakte Zahlen vorliegen, sodass sich praktisch immer eine eindeutige Antwort ergibt.
 
Das ist eine Übergangsphase, die ethisch nunmal erforderlich ist.


"some of you may die but that is a sacrifice i am willing to make"


Jetzt mal Butter bei die Fische: Alles was Tesla bisher an "Autopilot", "Full self driving" und ähnlichem gebracht hat ist offensichtlich nicht dazu geeignet ein Auto selbstständig zu fahren. Dass Tesla mit ihren Beta Tests unbeteiligte Dritte gefährden darf ist für mich nicht mal lächerlich, sondern einfach nur traurig.
 
Ich verstehe den Sinn hinter autonomen Fahren eh nicht so wirklich.
Klar kann die K.I. einspringen wenn ich Sekundenschlaf bekomme, aber wie wäre es wenn ich wirklich etwas schlafen könnte? Oder wie wäre es wenn ich mit 0,8 Promille mich heim fahren lasse?
Aber nein, der "Pilot" muss ja ständig einsatzbereit sein.
Ich hätte nichts gegen autonomes Fahren, wenn ich wirklich abschalten dürfte. So aber kann ich auch gleich selbst fahren, ..... und darf nachwievor nichts trinken.^^
 
Hab das 3 Auto hintereinander mit Tempomaten. Wenn etwas vor die Sensoren fliegt dann entschleunigt das Fahrzeug von alleine oder löst ne Notbremsung aus.

Wenn das bei Tesla auch so ist dann würde es heißen dass ich jederzeit eingreifen müsste sobald ein Blatt davor fliegt oder jemand denkt er muss bei 130 2m vor mir einscheren.
 
Das achso tolle autonome fahren läuft am Ende nur auf die totale Kontrolle hinaus...
Die schöne neue Welt mit Mautzonen aka Grünen Zonen , wo nur noch die Reichen hinein "dürfen" und Maut/Eintritt per RFID direkt vom Konto gebucht werden... bis dahin wird es weiterhin Verkehrstote geben, die als freiwillige oder unfreiwillige Betatester herhalten müssen. :)
 
Ist doch egal - Hauptsache ich komm am Ziel an
na gut. Also du nicht, nur eine Kopie von dir. Und ich würd aufpassen, manchmal ging da am Anfang was schief. Lass die Early Adopter das Betatesten übernehmen
Ich verstehe den Sinn hinter autonomen Fahren eh nicht so wirklich.
Klar kann die K.I. einspringen wenn ich Sekundenschlaf bekomme, aber wie wäre es wenn ich wirklich etwas schlafen könnte? Oder wie wäre es wenn ich mit 0,8 Promille mich heim fahren lasse?
Aber nein, der "Pilot" muss ja ständig einsatzbereit sein.
Ich hätte nichts gegen autonomes Fahren, wenn ich wirklich abschalten dürfte. So aber kann ich auch gleich selbst fahren, ..... und darf nachwievor nichts trinken.^^
Übergang nennt sich das
 
Zuletzt bearbeitet:
Ich verstehe den Sinn hinter autonomen Fahren eh nicht so wirklich.
Klar kann die K.I. einspringen wenn ich Sekundenschlaf bekomme, aber wie wäre es wenn ich wirklich etwas schlafen könnte? Oder wie wäre es wenn ich mit 0,8 Promille mich heim fahren lasse?
Aber nein, der "Pilot" muss ja ständig einsatzbereit sein.
Ich hätte nichts gegen autonomes Fahren, wenn ich wirklich abschalten dürfte. So aber kann ich auch gleich selbst fahren, ..... und darf nachwievor nichts trinken.^^

Autonomes Fahren gemäß Stufe 5 soll genau das bringen. Das Problem ist, dass die Hersteller gerne suggerieren, sie wären quasi schon soweit. Ich glaube, Elon Musk hatte komplett autonome Taxis erstmals für 2018 versprochen. Praktisch hat man in den letzten 10-15 Jahren aber wenig mehr erreicht, als das zuvor nur experimentell Mögliche auch als bezahlbare Großserientechnik umzusetzen, aber an der Spitze der Forschung sind die Fortschritte eher winzig. Es könnte noch Jahrzehnte dauern, ehe ganz auf eine Überwachung verzichtet werden kann. Besonders gefährlich in meinen Augen: Schon lange vorher wird es gemäß Stufe 3 Systeme geben, die einem zum Beispiel das Fahren auf Autobahnen abnehmen, in schwierigen Fällen aber den Menschen als Fallback nehmen. Menschen, die dann keine Fahrroutine unter guten Bedingungen mehr haben, sondern von jetzt auf gleich mit besonders problematischen Situationen fähig werden müssen.
 
Zuletzt bearbeitet:
Und wenn die 4 Menschen was falsch gemacht haben und die 2 Unschuldogen gehen drauf ist das für Dich in Ordnung, für ander aber nicht.
Das war auch eher ein theoretisches (schlechtes) Beispiel. Sorry. In der Praxis hat man eigentlich überhaupt keine Zeit um das moralisch abzuwägen. Nur noch irgendwie eine Kollision zu vermeiden. Wie Schinken und Thorsten geschrieben haben.

Anderes Szenario: Das berühmte Flugzeug mit Passagieren an Board, was von Terroristen gekapert wird und z.B Kurs auf ein vollbesetztes Stadion nimmt. Da muß dann von Menschen entschieden werden ob sie die Maschine abschiessen oder nicht.
Das aber ist auch nur theoretisch und wird hoffentlich nie Realität.

Ich selber möchte auch nie in eine solche Situation kommen, dass ich über Menschenleben entscheiden muß.

Aber wie ich hier Anfangs schon geschrieben habe und um zum Thema zurückzukommen: ich würde einer K.I. nicht die vollständige Kontrolle über mein Auto anvertrauen. Dafür ist das alles viel zu komplex.
 
Zuletzt bearbeitet:
Wie kommst du den darauf? Es ist aktuell noch ein Betatest. FSD befindet sich immer noch in der Trainingsphase für das neuronale Netz. Allerdings macht FSD Fortschritte.
Man sollte das nicht mit der Version in Deutschland vergleichen.
Bei der Nutzung von FSD, wie auch dem Autopilot in Deutschland, muss man zwingend die Hände am Lenkrad haben. Ob bei FSD schon über die Innenkamera geprüft wird ob der Fahrer aufmerksam ist, weiß ich nicht. Bevor sich Leute darüber aufregen, die Nutzung der Innenkamera zu diesen Zwecke verwenden auch deutsche Hersteller, ich glaube Mercedes z.B..


Das ist solange der Fall, bis man die KI soweit trainiert hat, dass man sich sehr sicher ist, dass es auch ohne geht. Darüber hinaus muss das in den jeweiligen Ländern auch erstmal freigegeben werden. Selbst in der USA ist es meines Wissens aktuell nur zu Testzwecken in wenigen Bundesstaaten erlaubt ohne Hände am Lenkrad mit einem Fahrassistenten zu fahren.


Was aber hier teilweise wieder an FUD verbreitet wird, ist der Grund für den "safety score" den Tesla jetzt zur Nutzung der Beta voraussetzt. Ich habe den Eindruck, dass sich ein Großteil hier weder mit dem System von Tesla, noch mit der Thematik allgemein tiefer beschäftigt hat. Hauptsache aber gegen solche System und Tesla meckern.
Objektive Kritik konnte ich ehrlich in den meisten Kommentaren kaum finden.

Übrigens hat FSD seit einem Jahr mit ca. 2000 Benutzern und ca. 2 Millionen Meilen, keinen einzigen Unfall hingelegt.

Auch die anderen Unfälle mit dem Vorgänger (Autopilot) sind sehr selten, ca. alle 4,1 Millionen Meilen. Allerdings wird jeder einzelner Unfall, jedes Problem mit dem Autopiloten medial gepusht ohne Ende. Häufig bevor alle Informationen und Untersuchungen vorliegen. Daraus ergibt sich für Leute die sich wenig oder gar nicht mit dem Beschäftigen, ein negatives Bild des Autopilotens.

Natürlich sind die Begriffe nicht so toll gewählt. Das gehört aber zu Leuten wie Musk und entspricht auch dem amerikanischem Geist. Man steckt sich hohe Ziele, gerne auch mit Begriffen, die noch nicht stimmen. Im schlimmsten Fall scheitert man, aber lieber werden hohe Ziele gesteckt als immer auf Nummer sicher zu gehen.
Kann man ********************* finden, ist aber einfach eine andere Mentalität als z.B. in Deutschland.


Vielleicht wird ja einer der Förderer solcher Technologien zum Kollertaral Schaden weil ihn die hoch gelobte Tech. nach 4,321 mil. km und 50m in einen Unfall verwickelt ---- ich würd mich totlachen.........

Also ich bin gegen diese neuerung bis sie bewiesen hat das ihr Einsatz keine Menschen in Gefahr bringen kann.....
 
das ganze thema ist noch so weit im argen, dass die begeisterung der menschen dafür kaum nachvollziehbar ist
- schon der name "full self-driving" ist falsch - es ist das genaue gegenteil! marketing wird es folglich als "mehr freiheit" anpreisen
- genaugenommen ist es so spannend, wie mit bus oder bahn zu fahren, nur dass man mehr zahlt und selber sauber machen darf und früher oder später das gaspedal abgeschafft wird.
- wer hier von KI spricht, der führt auch gespräche mit alexa oder siri - ein paar simple routinen zur trajektorenberechnung plus ein neuronales netz zur situationseinordnung mit vorhersagewahrscheinlichkeit auf basis von orthogonaler systemreduzierung und dahinter eine staatlich abgesegnete entscheidungsmatrix machen noch keine KI, sondern nur ein programm, bei dem man hoffen muss, dass die programmierer wirklich intelligent genug sind, alle relevanten situationen abzudecken - und dagegen würde ich euer aller leben verwetten
 
Die brauchen gar nicht testen, Modell Y ist bereits Mangelhaft und das schlechteste Auto, sogar weit hinter Opel Popel.

Tesla Model Y im Test: Die furzende Familienkutsche​


Zudem dürfte die Ressourcenknappheit schon beginnen, bevor die Großkonzerne überhaupt so richtig ins E-Auto-Geschäft eingestiegen sind.
Argentienien war bereits vor 1-2 Jahren in den Abbauregionen schon richtig schön ökologisch ruiniert, da wurde angekündigt den Abbau um das 10fache steigern zu wollen.
Irgendwann geht solchen Ländern einfach die LAndmasse aus, wo sich die arme Bevölkerung noch irgendwie hinretten kann, um grundlegende Nahrungsmittel herstellen zu können und überhaupt genießbares Wasser fördern zu können.
Ich meine, nehmt hier die Kläranlagen weg, baut Brunnnen hin, pumpt die Gülle direkt dort hinein und wartet ab, wie lange es euch gefällt.
Jeder der sich ein fettes vom Steuerzahler subventioniertes SUV-E-Auto kauft, sollte zur Strafe dort hinziehen müssen.
Ich hoffe die Preise und vor allem die Verknappung steigt isn Unermessliche, damit den Politikern irgendwann einmal ein Licht aufgeht, dass die Wirtschaftslobby und so richtig kräftig verarscht hat udn sich auf Kosten anderer noch mehr bereichert hat.

Akkutechnik: Lithiumknappheit führt zu Rekordpreisen​

 
Zurück