Crop und Blende. Was wird wie beeinflusst?

DataDino

Freizeitschrauber(in)
Ich habe da mal eine Frage, die ich auch nach wochenlanger Recherche nicht so richtig schlüssig als beantwortet sehe.

Also folgendes: Canon APS-C 25 MP Sensor gegen Panasonic MFT 16 MP Sensor (wahrscheinlich ein Sony-Sensor). Crop 1,6 zu Crop 2,0.
Bei MFT ist ja bekannt, das Freistellen eine offenere Blende benötigt. Das liegt daran, das die Blendenöffnung die Größe des Schärfekreises beeinflusst und durch den kleineren Sensor dieser in Relation gesehen dadurch größer wird. Ich hoffe das habe ich soweit richtig verstanden. Aber beeinflusst der Crop wirklich die allgemeine Lichtstärke oder hängt dies eher mit der Pixelgröße auf dem Sensor zusammen? Wenn ich einen 25 MP APS-C Sensor mit einem Vollformatsensor mit 25 MP vergleiche. dann steigt natürlich auch die Pixelgröße an und der einzelne Pixel bekommt natürlich mehr Licht. Da passt das ja noch alles. Aber wenn ich jetzt einen 16 MP MFT Sensor mit einem 25 MP APS-C Sensor vergleiche, dann sind die Pixel gerechnet ja bei MFT fast genauso groß wie bei einem APS-C Sensor.

Nun die Frage: Beeinflusst also der Crop-Faktor wirklich Lichtstärke und Schärfekreis? Oder beeinflusst er nur den Schärfekreis und die Lichtstärke ist von der Pixelgröße auf dem Sensor abhängig?
Denn eigentlich fällt auf den Sensor ja weiterhin die selbe Menge Licht.

Ich kam auf diese Frage, weil es mich wundert, warum Tele-Zoom-Objektive für MFT oder EF-S immer mit der selben Blendenzahl angeboten werden. Bis 500 € sind alle bis auf eine Ausnahme Blende 4.0 - 5.6. Auch Nikon F bietet für APS-C überwiegend die 4.0 - 5.6 an, wobei es hier ein paar Mehr Ausnahmen existieren. Die meisten MFT Kamera's haben 16 MP Sensoren und nur die höherpreisigen haben 20 MP. Aber dann ist auch Schluss. Die häufigste Aussage, die man dazu findet ist: Sensor um Faktor X-Kleiner = Blende um den selben Faktor größer. Aber hat dies bei abweichender Auflösung und somit abweichender Pixelgröße auch weiterhin bestand oder gilt bei Parität der Pixelgröße die Regel nurnoch für den Schärfekreis?
 
Ich hatte mir schon einmal überlegt, über das Thema einen PCGHX-Blogeintrag zu verfassen :)


Pixel und Pixelgröße

Die Pixelgröße an sich ist eigentlich relativ irrelevant, es sei denn du willst croppen (und dann sind mehr Pixel immer besser als weniger). Wenn du ein Bild drucken willst, aufgenommen einmal mit 10MP und einmal mit 40MP, dann nehmen 4 Pixel von der 40MP-Kamera genauso viel Platz auf dem Papier ein, wie 1 Pixel von der 10MP-Kamera. Das heißt, obwohl das Rauschen der höher auflösenden Kamera pro Pixel höher sein mag, gleichen sich die vielen kleinen Pixel wieder aus, sodass am Ende trotzdem ungefähr die gleiche Bildqualität entsteht.

Bonus: Der oben beschriebene Teil trifft je nach Kameramodell nicht auf Video zu. Bei einer 12MP-Kamera hast du z.B. exakt 4K, wenn du das Bild oben und unten auf 16:9 beschneidest. Bei einer Kamera mit mehr Auflösung muss hier getrickst werden. Wenn die Rechenleistung stimmt, werden diese Pixel einfach zusammengerechnet und du hast das weiter oben beschriebene Szenario: Viele kleine Pixel zusammen ergeben einen großen Pixel. Wenn die Rechenleistung der Kamera nicht hoch genug ist, müssen Pixel übersprungen werden - dann bist du tatsächlich im Nachteil. Am besten sieht man das an der Sony A7rII, die 4K in Vollformat und in APS-C beherrscht. Der APS-C Modus liefert das bessere Bild, da hier die ca. 18MP auf 8MP zusammengerechnet werden können, während die Kamera aber nicht genug Rechenleistung hat, um das gleiche Kunststück mit 42MP im Vollformat-Modus zu schaffen. Dort werden Linien verworfen, was zu einem schlechteren Bild führt.


MFT vs APS-C vs VF

Bei gleichem Abstand, gleicher Brennweite und gleicher Blende gibt es keinen Unterschied im Bokeh zwischen den verschiedenen Sensorgrößen, egal ob Smartphone oder Mittelformat. Allerdings nehmen kleinere Sensoren einen kleineren Teil im Bild ein, d.h. gefühlt ist man näher am Objekt:

1003472-crop-und-blende-wird-wie-beeinflusst-crop-factor-aps-c-vs-full-frame-sensors-4-ilhp.jpg

(Bildquelle)

Um diesen Unterschied wieder auszugleichen, muss man bei gleicher Brennweite mit einem kleineren Sensor weiter weg oder eine kleinere Brennweite verwenden. Brennweite und Abstand verändern aber die Schärfentiefe (also der Teil, der im Fokus ist) bzw. das Bokeh. Wenn wir also an einer MFT-Kamera das gleiche Bild wie an einer VF-Kamera haben wollen, müssen wir die Brennweite ändern (da ein anderer Abstand die Perspektive verändern würde). Jetzt hat sich unsere Schärfentiefe verändert aber das kann ausgeglichen werden, indem wir eine größere Blende verwenden.

Jetzt kommt der Witz an der ganzen Sache:
Die Sensorgröße beeinflusst weder das Rauschverhalten, noch die Schärfentiefe, noch die Größe des Objektivs (ich warte schon auf eure Antworten, Forenkollegen :ugly: ). Wenn du dir das Bild oben einmal ansiehst, wirst du merken, dass der Vollformatsensor beim gleichen Objektiv mehr Licht abbekommt, einfach weil er mehr Fläche einnimmt. Das erklärt, warum ein solcher Sensor beim gleichen ISO-Wert weniger rauscht.
Aber was passiert, wenn wir den großen Bildkreis mit einem sogenannten Speed Booster auf APS-C oder MFT komprimieren würden? Dann würde die gleiche Menge Licht auf einen kleineren Kreis fallen. Ein Vollformat 100mm f/2.8 würde bei einem 2x Speed Booster zu einem MFT 50mm f/1.4 werden. Moment, damit haben wir ja alle Nachteile des kleineren Sensors ausgeglichen! Und übrigens auch alle Vorteile, wenn es um Größe und Gewicht geht ;) Natürlich haben wir damit die optischen Eigenschaften des Objektivs verändert (Brennweite, Bildkreis und Blende), in der Praxis macht das aber keinen Unterschied.
 

Anhänge

  • Crop-factor-APS-C-vs-Full-Frame-sensors-4-iLHP.jpg
    Crop-factor-APS-C-vs-Full-Frame-sensors-4-iLHP.jpg
    115,1 KB · Aufrufe: 529
Zuletzt bearbeitet:
Du hast mir jetzt genau das gleiche heruntergebetet, was ich schon in hundertfacher Ausführung gefunden habe. Aber beantwortet ist die Frage weiterhin nicht.

Ich rede nicht von der Pixelgröße bei der Ausgabe oder von der Gesamt-Pixelanzahl. Ich rede von der Pixelgröße auf dem Sensor, der theoretisch in der Lage ist, je größer er ist, mehr Licht einzufangen. Ein ~16 Megapixel MFT Sensor hat eine nahezu identische Pixelgröße auf dem Sensor wie ein ~24/25 Megapixel Canon APS-C Sensor. Der theoretische Unterschied zwischen beiden liegt bezogen auf die Gesamtfläche des Sensors bei einer Blendenstufe. Gleicht die Pixelgröße nun die eine Blendenstufe im Bezug auf die Helligkeit aus? Das sie den Schärfekreis nicht ausgleichen kann, ist klar.

Oder anders erklärt: Wenn ich ein Bild bei MFT bei ~16 MP nativ mit 200mm und mit Canon APS-C bei ~24/25 MP nativ mit jeweils Blende 5.6 fotografiere, ist dann das Bild der MFT eine Blendenstufe dunkler oder sind beide gleich hell?

Es geht nur um eine Verständnisangelegenheit. Das hat jetzt nichts mit Freistellung/Bokeh oder was auch immer zu tun, oder ob ich ein Bild auf ein Poster oder auf einen Schlüsselanhänger drucken will.
 
Nun die Frage: Beeinflusst also der Crop-Faktor wirklich Lichtstärke und Schärfekreis?
Ich würde sagen nein. Die lichtstärke wird sowieso nicht beeinflußt und die schärfentiefe nur in dem sinn, das du mit crop mehr abstand zum objekt haben mußt um bei identischer brennweite, im vergleich zu kleinbild, den selben bildausschnitt zu haben. Allerdings wächst mit zunehmender distanz auch die schärfentiefe...
Und noch zum thema lichtstärke, dieser faktor ist nach meiner meinung nur ein relativer und kein absoluter wert. (also der blendwert vom objektiv) Anders kann ich es mir einfach nicht erklären, das ich bei identischen lichtverhältnissen, blende und brennweite unterschiedliche belichtungszeiten zwischen einem pentax FA* 80-200 2.8 und einem tokina ATX Pro 80-200 2.8 habe. Dabei fängt das pentax irgendwie mehr licht ein und produziert entsprechend etwas kürzere belichtungszeiten am selben body wie das tokina.
Die Sensorgröße beeinflusst weder das Rauschverhalten, noch die Schärfentiefe, noch die Größe des Objektivs (ich warte schon auf eure Antworten, Forenkollegen :ugly: ).
Da gehe ich mt...
Wenn du dir das Bild oben einmal ansiehst, wirst du merken, dass der Vollformatsensor beim gleichen Objektiv mehr Licht abbekommt, einfach weil er mehr Fläche einnimmt. Das erklärt, warum ein solcher Sensor beim gleichen ISO-Wert weniger rauscht.
Hier aber nicht, denn letztlich muß der kleinbild-sensor (aka vollformat was es aber nicht gibt, oder was ist dann das größere mittelformat?) mit dem mehr an licht auch mehr fläche befeuern. Da sehe ich die pixelgröße als entscheidenden faktor, denn ein größerer pixel fängt auch mehr licht ein.
Dein speed-booster (gibt es den? Kenne ich nicht...:ka:) "komprimiert" dagegen das licht von kleinbild-größe auf APSC. Allerdings müßte er dann auch das bild verzerren, da beide formate unterschiedliche seitenverhältnisse haben.

Edit:
Oder anders erklärt: Wenn ich ein Bild bei MFT bei ~16 MP nativ mit 200mm und mit Canon APS-C bei ~24/25 MP nativ mit jeweils Blende 5.6 fotografiere, ist dann das Bild der MFT eine Blendenstufe dunkler oder sind beide gleich hell?
Wenn man in allen belangen, also pixeldichte, lichtausbeute des objektives und signalverstärkung des bildprozessors, gleichheit unterstellt, würde ich sagen ja.
Allerdings gibt es von allem so viele varianten, das du immer irgendwo leichte vor- oder nachteile wirst messen können.
 
Zuletzt bearbeitet:
Ein ~16 Megapixel MFT Sensor hat eine nahezu identische Pixelgröße auf dem Sensor wie ein ~24/25 Megapixel Canon APS-C Sensor. Der theoretische Unterschied zwischen beiden liegt bezogen auf die Gesamtfläche des Sensors bei einer Blendenstufe. Gleicht die Pixelgröße nun die eine Blendenstufe im Bezug auf die Helligkeit aus?
Wie soll das funktionieren? Durch das Objektiv kommt bei gleicher Sensorfläche gleich viel Licht an. Egal, ob außen herum noch weitere Sendorfläche vorhanden ist oder nicht.

Oder anders erklärt: Wenn ich ein Bild bei MFT bei ~16 MP nativ mit 200mm und mit Canon APS-C bei ~24/25 MP nativ mit jeweils Blende 5.6 fotografiere, ist dann das Bild der MFT eine Blendenstufe dunkler oder sind beide gleich hell?
Ja, ob der Sensor oder die EBV das Bild auf mFT Format beschneiden ist egal. Auf dermFT-Bildfläche kommt in beiden Fällen gleich viel Licht an.

Alles bezogen auf das fertige Bild natürlich nur rein theoratisch, da Sensoren (inkl. der Elekrotnik) unterschiedlich lichtempfindlich sein können und die Kamera sowas nicht immer exakt ausgleicht. Genauso wie Du für so ein Experiment das exakt identische Objektiv nutzen müsstest, oder wenigstens eins mit identischer T-Blende. Wer einmal bei Canon z.B. vom 70-200/2.8L IS (bei 200mm) auf ein 200/2.8L gewechselt hat wird dies am eigenne Leib erfahren (die FB ist um fast 173 Blende heller).
 
Ich rede nicht von der Pixelgröße bei der Ausgabe oder von der Gesamt-Pixelanzahl. Ich rede von der Pixelgröße auf dem Sensor, der theoretisch in der Lage ist, je größer er ist, mehr Licht einzufangen. Ein ~16 Megapixel MFT Sensor hat eine nahezu identische Pixelgröße auf dem Sensor wie ein ~24/25 Megapixel Canon APS-C Sensor. Der theoretische Unterschied zwischen beiden liegt bezogen auf die Gesamtfläche des Sensors bei einer Blendenstufe. Gleicht die Pixelgröße nun die eine Blendenstufe im Bezug auf die Helligkeit aus? Das sie den Schärfekreis nicht ausgleichen kann, ist klar.
Ich glaube, jetzt habe ich es verstanden. Die elektrische Ladung ist bei einem größeren Pixel auf dem Sensor natürlich größer (wenn alles andere gleich bleibt), weil er mehr Photonen abbekommt. Jetzt stellt sich die Frage, wie das ganze interpretiert und in binäre Daten umgewandelt wird. Dazu muss man erst wissen, dass der Sensor keine eigentliche Empfindlichkeit hat, wie man es vom Film kennt. Alles, was (ganz grob) passiert, ist dass die Photonen in elektrische Ladung umgewandelt und erst einmal gespeichert werden. Dann werden sie ausgelesen und mit einem Analog-Digital-Wandler in einen Helligkeitswert umgewandelt. Welche Ladung welcher Helligkeit entspricht, ist komplett dem Hersteller überlassen. Und alles was bei einer höheren ISO-Einstellung passiert, ist eine Signalverstärkung und/oder eine Reinterpretation dieser Ladung. Der Sensor selbst wird aber nie empfindlicher sondern "saugt" einfach alles auf, was er bekommt.
Keine Ladung entspricht schwarz und volle Ladung weiß. Wenn ich also einen Kondensator eines Pixels zu 50% gefüllt habe, dann habe ich beispielsweise 50% Helligkeit (wie gesagt, Hersteller überlassen). Wie viele Photonen jetzt wirklich angekommen sind, ist in der Gesamthelligkeit eigentlich egal, allerdings bedeuten mehr Photonen (bzw. größere Kondensatoren) natürlich mehr Informationen, d.h. feinere Abstufungen zwischen den Helligkeitswerten.
Dadurch ergibt sich dann auch die Antwort: Obwohl bei verschiedenen Sensoren und verschiedenen Pixelgrößen verschiedenen Mengen an Licht ankommen, bedeutet das nicht, dass diese immer gleich interpretiert werden.


Edit:
kleinbild-sensor (aka vollformat was es aber nicht gibt, oder was ist dann das größere mittelformat?)
Stimmt, mein Fehler :)
Hier aber nicht, denn letztlich muß der kleinbild-sensor (aka vollformat was es aber nicht gibt, oder was ist dann das größere mittelformat?) mit dem mehr an licht auch mehr fläche befeuern. Da sehe ich die pixelgröße als entscheidenden faktor, denn ein größerer pixel fängt auch mehr licht ein.
Beispiel: Du hast eine Sensorfläche von 1cm * 1cm. Ob du diese Fläche in 10 * 10 oder 1.000 * 1.000 Pixel unterteilst, ist eigentlich egal - es kommt insgesamt immer die gleiche Menge an Energie an. Anders ist es, wenn deine Fläche 10cm * 10cm beträgt, dann hast du tatsächlich mehr Energie, die du in Bildinformationen umwandeln kannst.
Dein speed-booster (gibt es den? Kenne ich nicht...
noahnung.gif
) "komprimiert" dagegen das licht von kleinbild-größe auf APSC. Allerdings müßte er dann auch das bild verzerren, da beide formate unterschiedliche seitenverhältnisse haben.
Ein Speed Booster ist im Prinzip ein Telekonverter in umgekehrter Richtung. Metabones baut solche beispielsweise. APS-C und KB haben das gleiche Seitenverhältnis, MFT hat 3:4 statt 2:3 afaik. Das Bild wird bei einem anderen Seitenverhältnis nicht verzerrt.
 
Zuletzt bearbeitet:
Stimmt, mein Fehler :)
Macht nix. Ich hab nur etwas gegen das werbewort "vollformat". Das suggeriert nur, das danach nix größeres mehr kommt und das stimmt so halt nicht. Es ist und bleibt nunmal ein "mikriges" kleinbild.
Beispiel: Du hast eine Sensorfläche von 1cm * 1cm. Ob du diese Fläche in 10 * 10 oder 1.000 * 1.000 Pixel unterteilst, ist eigentlich egal - es kommt insgesamt immer die gleiche Menge an Energie an. Anders ist es, wenn deine Fläche 10cm * 10cm beträgt, dann hast du tatsächlich mehr Energie, die du in Bildinformationen umwandeln kannst.
DataDino ging aber von einer identischen pixeldichte der beiden sensoren aus. Ergo sind die pixel ungefähr gleich groß und fangen auch die selbe menge licht ein.
Ein Speed Booster ist im Prinzip ein Telekonverter in umgekehrter Richtung. Metabones baut solche beispielsweise.
Hmmm... das kannte ich nocht nicht. Leider bringt es mir auch nix, da die kaum etwas für pentax haben und ich dann mittelformat-objektive kaufen müßte für meine K1. :ugly:
APS-C und KB haben das gleiche Seitenverhältnis, MFT hat 3:4 statt 2:3 afaik. Das Bild wird bei einem anderen Seitenverhältnis nicht verzerrt.
Ups, da lag ich falsch. Wieso ich jetzt aber für APSC und kleinbild ein unterschiedliches seitenverhältniss im kopf hatte weiß ich aber auch nicht. :hmm:
 
DataDino ging aber von einer identischen pixeldichte der beiden sensoren aus. Ergo sind die pixel ungefähr gleich groß und fangen auch die selbe menge licht ein.
Ja gut ok so hätte ich es auch ausdrücken können. Wäre wahrscheinlich eindeutiger gewesen. :D

Hmmm... das kannte ich nocht nicht. Leider bringt es mir auch nix, da die kaum etwas für pentax haben und ich dann mittelformat-objektive kaufen müßte für meine K1. :ugly:
Die Dinger werden auch öfter als Fokal-Reduktoren bezeichnet. Die sind im MFT-Bereich sehr beliebt. Aber die Metabones sind da schon sehr kostspielig. Aber die gibt es auch von Viltrox und anderen Herstellern für deutlich günstiger. Aber der Autofokus läuft bei allen mehr oder weniger schlechter als mit originalen Objektiven. Und an einer Kleinbild-Kamera bringt es eh nichts. Selbst von KB zu APS-C ist es nicht wirklich sinnig. Da sich bei APS-C noch recht gut mit Blende 1.2 bzw. 1.4 (1.8/1.9 oder 2.2/2.3 Äquivalent) freistellen lässt und auch UWW preislich vertretbar sind, muss man da nicht zwangsläufig auf die Art nachhelfen. Aber bei MFT ist so ein 0,7er Speed-Booster (von 2.0 auf 1.3) durchaus mal ein Segen.

Ich selbst warte auch noch auf einen gut verarbeiteten günstigen passiven Reduktor mit 0,6 oder gar 0,7 für vollmanuelle Objektive (am leibsten EF/EF-S zu MFT). Wenn also jemand einen Tip hat ;)
 
Um das ganze also mal kurz abzuschließen. Der Cropfaktor verringert nicht die Lichtstärke (das wurde mir auch mittlerweile endlich von mehreren bestätigt), sondern nur die Schärfeebene, die auf Grund des Crops in Form des Schärfekreises mehr Fläche in Relation zu einem KB einnimmt. Das scheinen aber wohl viele nicht so richtig zu verstehen und geben das auch immer so weiter. Das ist irgendwie gruselig, wenn das die Leute für voll nehmen.

Und noch ein kleiner Hinweis zum Thema Fokal-Reduktoren/Speedbooster:
Metabones hat mittlerweile eine Firmware gebracht, die einem die Kamera nicht abschießt, wenn man die Brennweite ändert. Auch Viltrox hat seit dem letzten Update gerade bei Sigma-Objektiven deutlich bessere AF-Performance. Commlite bringt eine neue Version ihres Reduktors, die nochmal ein paar Schippen drauflegt. Außerdem hatte ich einen Fehler. Ein 0,71er Reduktor ändert den Crop nicht von 2 auf 1,3, sondern auf 1,42. Jetzt wird es doch interessant. Ein Sigma 10-20mm/3.5 oder die 50mm/1.4 und 35mm/1.4 wären für mich schon ein kleines Träumchen. Da müsste ich ja bei Blende 1.0 fürs Licht und 2.0 bei der Schärfeebene rauskommen. Das ist für einen MFT Sensor ja schon ordentlich ;)
 
Um das ganze also mal kurz abzuschließen. Der Cropfaktor verringert nicht die Lichtstärke (das wurde mir auch mittlerweile endlich von mehreren bestätigt),
Für diese rein theoretische Erkenntnis hättest Du auch einfach Deine Physikkenntnisse (Optik, normalerweise 7. oder 8. Klasse) aus Schulzeiten ausgraben sollen.

sondern nur die Schärfeebene, die auf Grund des Crops in Form des Schärfekreises mehr Fläche in Relation zu einem KB einnimmt. Das scheinen aber wohl viele nicht so richtig zu verstehen und geben das auch immer so weiter. Das ist irgendwie gruselig, wenn das die Leute für voll nehmen.
Es ist halt die Frage, was man als Ziel des Vergleichs hat. Da ich meine 8 MPix Crop-Kamera schon lange in die Vitrine verbannt habe, vergleiche ich halt in der Realität nicht das Ergebnis einer 8 MPix Crop-Kamera mit dem 8 MPix Crop-Ausschnitt meiner 16 MPix KB-Kamera. Sondern ist vergleiche schlicht die 16 MPix KB mit den 16 MPix Crop. Und schon sieht es auf Grund der Senselgröße mit der Lichtausbeute (=Rauschen/Farbqualität) je Pixel ganz anders aus.

Genau das ist für mich praxisrelevant. Kann ich meine Crop-Kamera mit dem kleichten 70-200/2.8 nutzen oder muss es die KB-Kamera mit dem 300/2.8 sein um an Ende die gleiche Detailschärfe je Bildwinkel zu haben. Danach kmmt für mich in der Praxis die Frage, wie ich mit der gleich hoch auflösenden Crop.Kamera die Freistellung von KB errerreichen kann.
 
Für diese rein theoretische Erkenntnis hättest Du auch einfach Deine Physikkenntnisse (Optik, normalerweise 7. oder 8. Klasse) aus Schulzeiten ausgraben sollen.
Wie können Menschen so sein. Ich verstehe es nicht. :nene:

Es tut mir leid, das ich nicht deine Schulbildung genossen habe. Aber auf der Hauptschule habe ich damals im Physikunterricht das Thema Optik nie gehabt. Warum so herablassend?
 
Zurück