ruyven_macaran
Trockeneisprofi (m/w)
Desto mehr ihr über Fliegen diskutiert, desto mehr erinnert mich das an meinen Roomba. Aber DAS Verhalten will ich definitiv nicht von meinem Auto sehen.
2D SW Bilder verarbeiten und die dazugehörigen Reaktionen lernen sehe ich an sich als kein großes Problem, das kann ein CNN durchaus ansehnlich. Aber daraus eine unerwartete Situation extrapolieren? Das wird schon schwerer. Und als Verkäufer des CNN nachweisen dass es "immer" auch nur mit nicht all zu fatalen Fehlern reagieren wird nahezu unmöglich.
Es geht darum, dass ein Großteil von Informationen, die Menschen eine bekanntermaßen schon nicht immer auszureichende Wahrnehmung der Umgebung erlauben, von selbstfahrenden Autos gar nicht erst erhoben wird. Wir hatten den Tesla-Unfall, in dem ein LKW für ein weit entferntes Schild gehalten wurde, weil keine Tiefeninformationen erfasst wurden. Uber hat eine Frau totgefahren, weil die Lichtempfindlichkeit von Kameras nicht zur Auswertung unbeleuchteter Bereiche reicht und im Scheinwerferkegel nur wenige Pixel einen undeutlichen Matschhaufen bildeten, die Software mindestens sich abhebende Arme oder Beine für eine korrekte Identifikation gebraucht hätte, aber kein Fuß-großes Objekt erkennen konnte. Und mehrere Untersuchungen haben gezeigt, dass schon einfache schwarze Schmierereien auf einem rot-weißen Verkehrsschild reichen, damit dieses nicht mehr erkannt wird.
Natürlich muss ein echtes autonomes Auto nicht auf die gleichen Sensorsysteme wie ein Mensch zurückgreifen, aber die schlechteste Idee wäre es aufgrund der Auslegung unsers Straßensystems nicht. Und man arbeitet eben kaum mit Alternativen, sondern man schneidet einfach ersatzlos einen Großteil der Dinge weg, die ein menschlicher Fahrer macht.
Ein wenig untergegangen ist der Aspekt des vorausschauenden Fahrens: Ein menschlicher Fahrer ist in der Regel (Leichtsinn, Ablenkungen, Müdigkeit und Unfug mal außen vor) in der Lage, bestimmte potentielle Gefahren im Voraus zu erkennen: Abschüssige Straße, Nässe, Volksfest in der Nähe, Schulschluss oder Vollmond bedeuten erhöhte Vorsicht, Fahrverhalten anpassen!
Das kann eine Fliege gar nicht und die meisten jetzigen autonomen Fahrsysteme ebenfalls nicht. Sie erkennen potentielle Gefahren nur, wenn auf diese mittels Verkehrszeichen hingewiesen wird (z.B. abschüssige Straßen) oder sie sich sensorisch erfassen oder über Infodienste übermitteln lassen (z.B. Nässe oder Glätte) oder im Kartenmaterial als sensible Gebiete gekennzeichnet sind (z.B. Schulen oder Wildwechsel). Aber daran, aus augenblicklichen Eindrücken, abrufbaren Informationen und persönlichen Erfahrungen operativ eine Risikoeinschätzung vorzunehmen, daran scheitern KI bzw. VI derzeit noch.
Anders gesagt: Autonome Fahrsysteme können beispielsweise nicht unterscheiden, dass ein unidentifizierbares Geflatter auf herbstlicher Landstraße höchstwahrscheinlich nur aufgewirbelte Blätter sind, aber ein unidentifizierbares Geflatter bei frühlingshaften Temperaturen in der Innenstadt wohl eher ein Kind, dass mit offener, wehender Jacke über die Straße wetzt. Das wäre aber nötig, um weder einmal zu viel noch einmal zu wenig zu bremsen.
Die Berücksichtigung abschüssiger Straßen wäre über Lagesensoren und selbst grobes Kartenmaterial sehr einfach zu bewerkstelligen, da dass Auto sehr direkt die Auswirkungen erfasst die ein Mensch gar nicht so fein wahrnimmt, ist das aber kein Problem. Genauso würde ich erwarten, dass die meisten Fahrer sogar schlechter über Volksfeste, Schulabschlüsse und Mondphasen informiert sind, als Google. Laub wäre eher ein Thema, aber das ist keine Frage des Vorausdenkens, sondern des erkennens. Und hier haben selbstfahrende Autos eben enorme Defizite, die können Laub genausowenig auflösen wie eine Herde Lemminge. Aus der Erkennung die richtigen Schlüsse zu ziehen wäre dann aber ein leichtes. (Das fällt eher Menschen schwer, wenn ich an die Unfähigkeiten im Umgang mit Schnee denke )