News Autonomes Fahren bei Tesla: 8.000 Euro FSD "kostenlos" freigeschaltet durch Hack

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Autonomes Fahren bei Tesla: 8.000 Euro FSD "kostenlos" freigeschaltet durch Hack

Ein Hack macht's möglich. Das autonome Fahrassistenzsystem FSD von Tesla kann gratis genutzt werden, statt 8.000 Euro extra zu zahlen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Autonomes Fahren bei Tesla: 8.000 Euro FSD "kostenlos" freigeschaltet durch Hack
 
Es ist unklar, ob für den Hack ein direkter Zugriff zum E-Auto erforderlich ist.
Könnte mir der Autor bitte erklären, wie das folgende ohne physischen Zugriff auf das Fahrzeug möglich sein soll:
Durch die Verwendung mehrerer Verbindungen zur Stromversorgung, zum BIOS-SPI-Chip und zum SVI2-Bus konnte ein Spannungsfehlerinjektionsangriff durchgeführt werden.
 
Es gibt jetzt schon genug autofahrende Idioten nun gibt es zukünftig im Auto spielende Idioten und einen künstlichen Fachidioten der das Auto steuert. Ich versuche mich jetzt schon mal darauf einzustellen mich während der Autofahrt in Vollzeit aufzuregen.

Immerhin kann man künftig Streitigkeiten bei einer Runde CoD austragen sofern das Infotainment noch funktioniert :-D
 
Das habe ich auch in der Form gehört / gelesen aber das gilt wohl nur, solange der "eigentliche Fahrer" immer bereit ist und eingreift, wenn das Auto nicht mehr weiter weiß.

Und gerade da sehe ich einen Haufen nasepopelnde, zeitunglesende, auf dem smartphone wischende, masturbierende, bier trinkende, sexy time machende Leute die eben nicht eingreifen wenn es nötig wäre.

Woher stammt dieses Narrativ, dass autonom fahrende Autos sicherer fahren als normale Fahrer? Auf welche Situationen bezieht sich dies? Wird einparken und kleine Rempler da mit eingeschlossen in die Statistik? Wie sieht es mit schweren Unfällen aus und wie ist die Quote aufgeschlüsselt in Bezug auf Unfälle mit Personen, Radfahrern, Kfz.

Das wären alles Dinge, die man bedenken müsste. Ich habe jetzt keine Quelle aber vielleicht ist das vor allem Marketinggerede.

Bayer / Monsanto findet Roundup auch gut und es gibt genug Wissenschaftler die für Geld so ziemlich alles bestätigen was die Industrie publiziert haben möchte.


Vorstellen, dass Menschen fehleranfälliger sind als Maschinen kann ich mir sehr gut. In vielen Bereichen ist dies auch 100% gegeben.

Allerdings ist der fließende Verkehr mit so vielen Variablen und unwegbaren Situationen gespickt, dass eine KI da nie 100% richtige Entscheidungen treffen wird. Menschen natürlich auch nicht, aber die können vielleicht besser abwägen in der ein oder anderen Situation.
 
Ich würde niemals Systeme "jailbreaken" die sich auf das Fahrzeug auswirken - was wenn etwas passiert? Hersteller und Versicherung werden sicher keine Haftung übernehmen....
 
Hersteller und Versicherung werden sicher keine Haftung übernehmen....
Dies gilt insbesondere für die Versicherung des Unfallgegners, die jeden Anspruch mit Verweis auf dein "gecracktes" Fahrzeug, welches laut KBA keine Typgenehmigung mehr hat, abprallen lassen wird. Auch wenn du zu 100% keine Schuld am Unfall hattest.
auf dem smartphone wischende
Mir ist lieber, wenn die Leute in einem autonomen Fahrzeug vor sich hinwischen als -wie aktuell praktiziert- in einem eigentlich manuell zu bedienenden Auto.

Woher stammt dieses Narrativ, dass autonom fahrende Autos sicherer fahren als normale Fahrer?
Das basiert auf Beobachtungen des desolaten Zustandes der Fahrkünste von Menschen.
 
Zudem konnte man kostenpflichtige Funktionen gratis freischalten, etwa den früher Autopilot genannten Assistenten namens Full-Self-Driving.
Quelle?

Das Team welches den Jailbreak gemacht hat, besagt das es möglich sein solle, jedoch dafür noch mehr Analyse und Arbeit benötigt wird.

Darüber hinaus soll es mit Hilfe der Schlüssel-Extraktion möglich sein, Grenzen zu überwinden, die Tesla auf der Basis von GPS-Koordinaten für manche Funktionen setzt. Das bekannteste Beispiel dafür ist die Autopilot-Option FSD: Die kann man auch in Europa kaufen, aber bislang nur in Nordamerika können Kunden tatsächlich die gleichnamige Beta-Software nutzen, die weitgehend automatisches Fahren auch auf Stadtstraßen unterstützt. Der eigene Angriff könne dazu beitragen, ein Auto von solchen Restriktionen zu befreien. Dafür sei allerdings noch mehr Analyse-Arbeit nötig, sagte das Team-Mitglied.
Artikel vom 3. August.
Cool da implementiert hoffentlich mal einer Car Play. Dieser Tesla Entertainment Müll ist unbenutzbar.
Tesla selbst will zumindest AirPlay 2 integrieren in naher Zukunft.
Das habe ich auch in der Form gehört / gelesen aber das gilt wohl nur, solange der "eigentliche Fahrer" immer bereit ist und eingreift, wenn das Auto nicht mehr weiter weiß.

Und gerade da sehe ich einen Haufen nasepopelnde, zeitunglesende, auf dem smartphone wischende, masturbierende, bier trinkende, sexy time machende Leute die eben nicht eingreifen wenn es nötig wäre.

Woher stammt dieses Narrativ, dass autonom fahrende Autos sicherer fahren als normale Fahrer? Auf welche Situationen bezieht sich dies? Wird einparken und kleine Rempler da mit eingeschlossen in die Statistik? Wie sieht es mit schweren Unfällen aus und wie ist die Quote aufgeschlüsselt in Bezug auf Unfälle mit Personen, Radfahrern, Kfz.

Das wären alles Dinge, die man bedenken müsste. Ich habe jetzt keine Quelle aber vielleicht ist das vor allem Marketinggerede.

Bayer / Monsanto findet Roundup auch gut und es gibt genug Wissenschaftler die für Geld so ziemlich alles bestätigen was die Industrie publiziert haben möchte.


Vorstellen, dass Menschen fehleranfälliger sind als Maschinen kann ich mir sehr gut. In vielen Bereichen ist dies auch 100% gegeben.

Allerdings ist der fließende Verkehr mit so vielen Variablen und unwegbaren Situationen gespickt, dass eine KI da nie 100% richtige Entscheidungen treffen wird. Menschen natürlich auch nicht, aber die können vielleicht besser abwägen in der ein oder anderen Situation.
https://www.tesla.com/VehicleSafetyReport
Hier alle Zahlen zum nachlesen und auch die art und weise wie diese erfasst werden.
 
Logisch, dass diese Hacks irgendwann möglich sind. Für mich klingt das nach einem neuen Versicherungsfeld, wenn man mit einem durch einen Hack freigeschalteten Auto einen Unfall mit einem "normalen" Auto hat.

VG,
 
Könnte mir der Autor bitte erklären, wie das folgende ohne physischen Zugriff auf das Fahrzeug möglich sein soll:

Dieser physische Zugriff war nötig, um bestimmte Schlüssel abzugreifen und die gespeicherten Informationen zu entschlüsseln. Ob man die gleichen Keys auch vom Zielfahrzeug braucht, um die Freischaltung einzuspielen, geht nicht aus den bislang von mir gelesenen Berichten hervor. Dieser zweite Schritt könnte deutlich einfacher ausfallen.


Das habe ich auch in der Form gehört / gelesen aber das gilt wohl nur, solange der "eigentliche Fahrer" immer bereit ist und eingreift, wenn das Auto nicht mehr weiter weiß.

Und gerade da sehe ich einen Haufen nasepopelnde, zeitunglesende, auf dem smartphone wischende, masturbierende, bier trinkende, sexy time machende Leute die eben nicht eingreifen wenn es nötig wäre.

Woher stammt dieses Narrativ, dass autonom fahrende Autos sicherer fahren als normale Fahrer? Auf welche Situationen bezieht sich dies? Wird einparken und kleine Rempler da mit eingeschlossen in die Statistik? Wie sieht es mit schweren Unfällen aus und wie ist die Quote aufgeschlüsselt in Bezug auf Unfälle mit Personen, Radfahrern, Kfz.

Berichte mit dieser Aussage gehen immer auf die Selbstdarstellungen der Hersteller zurück, denn nur deren Überwachung ist engmaschig genug, um getrennte Statistiken über die selbstlenkende Fahrkilometer zu erstellen. Die Definition von "Unfall" orientiert sich dabei normalerweise an den jeweiligen (also primär US-)Vorgaben und wird sowohl auf manuellen als auch auf automatisierten Betrieb angewendet, sodass jeweils die gleiche Art von Verstößen berücksichtigt wird oder eben nicht.

Unbrauchbar wegen systematischer Fehler sind diese Statistiken in meinen Augen dennoch: Die aktuellen Assistenzsysteme lassen sich nur unter optimalen Bedingungen einschalten. Es sind keine Unfälle wegen schlechtem Wetter dabei, weil bei schlechtem Wetter manuell gefahren werden muss. Es sind keine Unfälle in Baustellen dabei, weil in Baustellen manuell gefahren werden muss. Es sind keine Unfälle in Städten, mit Fußgängern/Radfahrern, auf engen Landstraßen, von Bereichen ohne Fahrbahnmarkierungen, bei Eisglätte, bei Schnee, ... dabei weil auch das ebenfalls alles Ausschlusskriterien für Automatik-Einsatz sind. In den Vergleichszahlen zur Gesamtunfallrate sind all diese Risikofaktoren aber natürlich enthalten. Bislang hat kein Hersteller eine Statistik "Unfälle bei manuellem Fahren unter Bedingungen, die Selbststeuerung ermöglicht hätten" veröffentlicht.

Stattdessen wird als Bezugspunkt gerne die allgemeine, durchschnittliche Unfallrate im Gesamtverkehr herangezogen. Da kommen als weitere systematische Fehler dann noch das Alter und damit der Zustand hinzu (Fahrzeuge mit dem neuen Feature "selbstlenkend" können logischerweise nicht alt sein) sowie die Fahrzeugart und die Zielgruppe – Tesla, als dominierender Anbieter für selbstlenkende Systeme, baut weder Kleintransporter für übermüdete Kuriere, noch Pseudorennwagen für Landstraßenraser, noch Familienvans für maximale Fahrerablenkung. Stattdessen gilt die Kundschaft als umweltbewusst (ob zu recht oder nicht, sei dahingestellt), was einen ruhigen, vorausschauenden und somit unfallärmeren Fahrstil nahelegt.

Oder verkürzt ausgedrückt: Das der Hypermiler bei Tempo 100 auf der rechten Autobahnspur in seinem 4 Monate alten Model 3 an einem warmen Sommertag ein geringeres Unfallrisiko hat, als der unter Zeitdruck stehende Pizzaausfahrer auf einer überfrierenden Landstraße in kalter Herbstnach hitner dem Steuer eines durchgerosteten Golf III, dessen Reifen eigentlich zwei Monate nach dem letzten TÜV vor 1,5 Jahren hätte gewechselt werden müssen, liegt nicht unbedingt daran, dass ersterer einem Assistenzsystem die Lenkung überlässt. Wer möchte kann das Beispiel noch um typischerweise mit dem Alter skalierende Risikofaktoren beziehungsweise nicht-Risikofaktoren wie "hat noch nicht viel Fahrpraxis", "fährt von einer Disko nach Hause", "hat Restalkohol vom Vortag im Blut" und "kann sich einen Tesla leisten" erweitern.

Einen objektiveren Blick auf Unfallrisiken haben für gewöhnlich Versicherungen. Meinem Wissen nach gibt es da noch keinen unabhängigen Anbieter, der Teslas mit FSD günstigere Tarife als solchen ohne anbietet. Erstere scheinen also bei Nutzung des FSD nicht weniger Unfälle zu bauen als letztere in gleicher Situation mit manueller Lenkung. Oder aber die FSD-Nutzer verlieren soviel an Fahrpraxis und Erfahrung, dass sie in den Situationen, in denen es darauf ankommt und die Automatik sich abschaltet, dass sie in der Summe trotz etwaiger Vorteile genauso viele Unfälle haben.
 
Irgendwann gibt es auch Hackerangriffe auf solche Fahrzeuge.
Dann können sämtlichen Funktionien manipuliert werden.
Schlimmstensfalls auch Unfälle verursacht oder das Auto als Waffe mißbraucht werden.
 
Die aktuellen Assistenzsysteme lassen sich nur unter optimalen Bedingungen einschalten. Es sind keine Unfälle wegen schlechtem Wetter dabei, weil bei schlechtem Wetter manuell gefahren werden muss. Es sind keine Unfälle in Baustellen dabei, weil in Baustellen manuell gefahren werden muss. Es sind keine Unfälle in Städten, mit Fußgängern/Radfahrern, auf engen Landstraßen, von Bereichen ohne Fahrbahnmarkierungen, bei Eisglätte, bei Schnee, ... dabei weil auch das ebenfalls alles Ausschlusskriterien für Automatik-Einsatz sind. In den Vergleichszahlen zur Gesamtunfallrate sind all diese Risikofaktoren aber natürlich enthalten. Bislang hat kein Hersteller eine Statistik "Unfälle bei manuellem Fahren unter Bedingungen, die Selbststeuerung ermöglicht hätten" veröffentlicht.

Da haben wir den Grund warum die autonom fahrenden Autos so gut abschneiden in der Statistik. Wieder mal ein Beispiel wie Statistiken das Bild verzerren.

Von Dir lese ich hier ohnehin meistens die stimmigsten und sachlichsten Einschätzungen unabhängig vom Thema. Danke für die Bereicherung!
 
Es sind keine Unfälle wegen schlechtem Wetter dabei, weil bei schlechtem Wetter manuell gefahren werden muss. Es sind keine Unfälle in Baustellen dabei, weil in Baustellen manuell gefahren werden muss. Es sind keine Unfälle in Städten, mit Fußgängern/Radfahrern, auf engen Landstraßen, von Bereichen ohne Fahrbahnmarkierungen, bei Eisglätte, bei Schnee, ... dabei weil auch das ebenfalls alles Ausschlusskriterien für Automatik-Einsatz sind. In den Vergleichszahlen zur Gesamtunfallrate sind all diese Risikofaktoren aber natürlich enthalten. Bislang hat kein Hersteller eine Statistik "Unfälle bei manuellem Fahren unter Bedingungen, die Selbststeuerung ermöglicht hätten" veröffentlicht.
Da haben wir den Grund warum die autonom fahrenden Autos so gut abschneiden in der Statistik. Wieder mal ein Beispiel wie Statistiken das Bild verzerren.

Das hier stimmt zumindest für Tesla nicht vollständig.
Die FSD Beta ist funktionell bei leichtem Regen z.B.
Auch in Baustellen oder Quartieren etc. fährt die FSD Beta.
Bei starkem Regen oder Schneefall ist die FSD deaktiviert.

Auch sind im Artikel unstimmigkeiten.
Siehe mein oberer Kommentar.

Quelle?

Das Team welches den Jailbreak gemacht hat, besagt das es möglich sein solle, jedoch dafür noch mehr Analyse und Arbeit benötigt wird.


Artikel vom 3. August.

Tesla selbst will zumindest AirPlay 2 integrieren in naher Zukunft.

https://www.tesla.com/VehicleSafetyReport
Hier alle Zahlen zum nachlesen und auch die art und weise wie diese erfasst werden.


In den im Artikel verlinkten Quellen wird ebefalls erwähnt, dass "nur" lokale Funktionen wie der Beschleunigungsboost und die Hintere Sitzheitzung damit freigeschaltet werden konnte.

Tesla Model Y Long Range owners can also pay $2,000 for Acceleration Boost, which decreases the 0-60 times of the vehicle from 4.8 seconds to just 4.2 seconds. Pricier options include Enhanced Autopilot, which costs $6,000, and Full Self-Driving, priced at an eye-searing $15,000. In an email to Tom's Hardware, one of the researchers clarified that not all Tesla software upgrades are accessible, so it remains to be seen if those premium options will also be ripe for picking.
Aus eurer Quelle: https://www.tomshardware.com/news/tesla-mcu-amd-asp-flaw-jailbreak
 
Zuletzt bearbeitet:
Zurück