Habe ich sowieso nicht verstanden wieso der Fokus so auf Kameras gesetzt wurde. Bei Regen, Dunkelheit und vorallem Nebel und Schnee können die ja gar nicht so gut sein wie Lidar.
Gerade bei Schnee, teils auch bei Regen, schneidet Lidar schlechter als Kameras ab. Bei Nebel wäre eher Radar ein Fortschritt gegenüber optischen Systemen. Teslas offizielles Argument vor ein paar Jahren war allerdings, dass man Autos nachweislich gut auf Basis zweier beweglich angebrachten optischen Sensoren steuern kann und dass sie versuchen wollen, dieses menschliche Wahrnehmungssystem nachzuahmen. Vielleicht wollte man damit nur eine Einsparmaßnahme schön reden, aber sachlich war die Feststellung richtig. Alternative Techniken haben zwar Vorteile, wenn man in Sonderfällen besser fahren will als der Mensch. Aber sie haben auch Nachteile in Situationen, in denen Augen (oder vergleichbare Kameras) gut zu Recht kommen und im Moment sind die Entwickler selbstfahrender Autos noch damit beschäftigt, erst einmal Gleichstand in den meisten Situationen zu erreichen. Bei Schneefall weiter "gucken" zu können ist überflüssig, wenn man auf verschneiter Fahrbahn gar nicht fahren kann beziehungsweise alles auf den, mangels Fahrpraxis genauso ungeeigneten, Menschen vorn links abwälzt.
Bislang funktioniert bei Tesla wohl nicht einmal die Verkehrsschilderkennung richtig, aber auch andere Hersteller verlassen sich bei dieser simplen Aufgabe primär auf Navi-Daten. Keine einzige Marke kann Baustellenmarkierungen richtig deuten oder gar die Orientierung auf einer markierungslosen Fahrbahn behalten. Hier wäre Lidar gar nichts ändern. Auch bei der Erkennung schmaler Radfahrer abseits von Autobahnen oder halb hinter Motorhauben verdeckter Kinder im Stadtverkehr kann die hohe Auflösung von Kameras mehr wert sein als die integrierte Tiefenmessung von Lidar. (Die Autohersteller "lösen" letzteres Problem zunehmend durch Motorhauben, die auch große Kinder zuverlässig komplett verdecken.) Auf Autobahnen wiederum sind dem Vernehmen nach Falschauslösungen von Notbremsfunktionen ein häufiges Assistenzproblem. Verantwortlich dafür sind fast immer Fehlmeldungen der Radarsensoren.
Womit wir beim Integrationsproblem wären: Wenn Sensor A meldet "NOTFALL! Sofort STOP! Auch wenn ein Auffahrunfall des (zu dicht) folgenden die unvermeidbare Folge ist" und Sensor B meldet "null Problemo, frei Fahrt für mindesten eine weitere Minute", was macht man dann? Bislang verbaut kein Hersteller auch nur zwei geschweige denn drei Sensorarten in so großer Zahl, dass jeder einzelne davon ein komplettes Bild der Umgebung liefern würde. Radar und Lidar dienen immer nur als Ergänzung, um die Bildauswertung der Kameras zu beschleunigen. Deren Erkenntnissen widersprechen können sie aber nicht, sie werden im Zweifelsfall schlicht ignoriert. (Was bei Tesla, aber auch bei Uber, bekanntermaßen schon Menschenleben gekostet hat.)