News Digitalkamera: Belichtungszeiten von 67 Pikosekunden zeigen sogar Lichtteilchen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Digitalkamera: Belichtungszeiten von 67 Pikosekunden zeigen sogar Lichtteilchen

Bildgebende Techniken wurden in den vergangenen Jahren immer weiter verbessert. Mit einer nun auf der Summer Science Exhibition der Royal Society vorgestellten Kamera lassen sich sogar Lichtteilchen im Raum abbilden. Die Kamera erreicht das durch eine Belichtungszeit von lediglich 67 Pikosekunden.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: Digitalkamera: Belichtungszeiten von 67 Pikosekunden zeigen sogar Lichtteilchen
 
Die Zukunft wird voll krass, das seh ich auch wenn ich phys.org lese :D

Leider wird es wohl patentiert und am Anfang sauteuer sein ...
 
zu diesem "um die Ecke gucken": ich frage mich, wie das genau gehen soll, denn so wie es im Video beschrieben wurde, sieht man nur die zweidimensionale Ebene senkrecht zur "Blickrichtung", es gibt also keinerlei Tiefeninformationen etc.

Leider wird es wohl patentiert und am Anfang sauteuer sein ...
vermutlich nicht nur am Anfang sau teuer ;)
 
Man darf solche Verfahren nicht auf die reine Pixelzahl reduzieren, hier ist Statistik am werk. (Im Grunde Real-Life Supersampling :D )
Die Tiefeninformationen sind in der Zeit enthalten, die das Licht benötigt um eine gewisse Strecke zurückzulegen.

Die Idee ist an sich nicht neu, auch die Technik gibt es so oder so ähnlich schon.
Ramesh Raskar: Imaging at a trillion frames per second - YouTube
 
Zuletzt bearbeitet:
Die Tiefeninformation die du meinst, ist die senkrecht zu Kamera, oder?
Ich meine aber die parallel zur Kamera :)
 
Man spricht in der Regel von Breite, Höhe und Tiefe. Breite und Höhe ergeben das übliche 2D Bild, über die Laufzeit des Lichts bekommt man hier die zurückgelegte Strecke heraus (v=s/t => s=v*t).
Mit parallel ist wohl "parallel zur Blickrichtung" gemeint? Also die Richtung in die die Kamera zeigt?

Durch die Auswertung der Zeitauflösung erhält man gewissermaßen den Querschnitt. Also nach 10ns hat das Licht 3m zurückgelegt, bei einer Belichtungszeit von 1ns hätte mal also Licht eingefangen dass 3 m bis 3,3 m zurückgelegt hat. Falls der Laser auf der Höhe der Kamera sitzt und man bekommt ein Signal entspricht das einem Objekt in grob 1,5 m Abstand -> Tiefeninformation.
 
Das verstehe ich nicht ganz...
Also ich meine das so :
Man guckt mit der Kamera in eine Richtung
Der Laser strahlt das Licht Senkrecht zu dieser "Blickrichtung" aus
Die Höheninformartion bleibt erhalten, da man nur die Photonen betrachtet, die Parallel zur Erdoberfläche und senkrecht zur Blickrichtung "fliegen"
Die Breiteninformartion (die breite des Objekts in Relation zur Blickrichtung) erhält man durch die von dir genannte Formel, die Strecke ist abhängig von der vergangenen Zeit und der Lichtgeschwindigkeit.
Man erhält aber keinerlei Tiefeninformationen (Breite des Objekts in Relation senkrecht zu der Blickrichtung)

Oder was übersehe/verstehe ich nicht? :)
 
Ich glaube, dass es hier ein Missverständnis gibt.
Im Video im Artikel verläuft ein Laserstrahl praktisch senkrecht zur Blickrichtung der Kamera. Durch die kurze Belichtungszeit ist es möglich, einem kurzen Lichtpuls - sozusagen einem kompakten Paket vieler Photonen - praktisch "zuzusehen", wie er sich im Raum bewegt.

Beim um die Ecke schauen ist die Ausgangssituation eine andere. Hier wird der Puls in Blickrichtung - also parallel - gesendet um über die Laufzeit Tiefeninformationen zu gewinnen. Das wird im Video von meinem ersten Post beschrieben. Das ganze kann man bestimmt auch auf die Situation übertragen, in der der Laser eine andere Position hat, das macht es aber nicht leichter, da das Timing SEHR präzise stimmen muss und die Kabellänge entsprechend klein sein muss.
Außerdem kann eben nicht beliebiges Licht auswerten, dass um die Ecke kommt, da man zu wenig Informationen darüber hat. Das mit dem Laser funktioniert auch nur, weil die Intensität so hoch ist, dass man den Strahl praktisch mit den Augen in der Luft verfolgen kann, sodass der Hintergrund vernachlässigt werden kann. Für die 3D-Information muss ich wissen, wie lange das Licht unterwegs ist und auch von wo es ausgeht, das ist nur über entsprechende Laser möglich, mit denen die Kamera synchronisiert ist. Mit dieser Technik wird man kaum die Position einer Glühbirne hinter einer Ecke bestimmen können, von nicht selbst leuchtenden Elementen ganz zu schweigen.

Es stellt sich nebenbei auch die Frage, wann welcher Pixel aktiv ist, da es nicht möglich ist, die Pixel mit diesen theoretischen 15 mrd FPS auszulesen. Entweder die Pixel werden während einer Aufnahme nacheinander aktiviert - was ich nicht unbedingt für sinnvoll halte - oder man macht viele Aufnahmen bei denen der zeitliche Abstand zwischen dem Schuss des Lasers und dem aktivieren der Pixel variiert wird -> man erhält ein räumlich aufgelöstes Bild mit zusätzlichen Zeitinformationen, also praktisch einen Film, bei dem die einzelnen Bilder für verschiedene Durchgänge des Experiments geschossen werden.

Ich hoffe, dass ich hier jetzt selber nicht durcheinandergebracht habe und alles möglichst verständlich ist :)
 
Zurück