Einzelnen Beitrag anzeigen
Alt 08.02.2017, 02:46   #18
usch
 
 
Registriert seit: 16.08.2010
Beiträge: 18.873
Zitat:
Zitat von jupph Beitrag anzeigen
Die 12 Megapixel der a7s sind beschnitten auf 16:9 die 4k Auflösung. Richtig?
Filme ich also mit einem externen Rekorder habe ich den vollen Sensor readout. Da jedes Pixel aufgezeichnet wird.
Ja. Mangels 4K-Recorder kann ich das nicht nachprüfen, aber so steht es in der Werbung.

Zitat:
Filme ich in FullHD muss er das ja runterrechnen, da sich am Bildausschnitt nichts ändert.
Aber was haben die fps damit zu tun? Das erschließt sich mir nicht ganz.
Die fps geben die Zeit vor, die dafür zur Verfügung steht. Bei 25p muss alle 40ms ein fertiges Bild aus der Pipeline purzeln, bei 30p alle 33ms, bei 50p alle 20ms und bei 60p alle 16ms, egal wie.

Offenbar liegt die Rechenzeit zum Herunterskalieren von 4K auf HD irgendwo zwischen 20 und 30ms, d.h. bei 50p käme der BIONZ nicht mehr hinterher. Deswegen "erleichtert" man ihm die Arbeit, indem man einfach Pixel unter den Tisch fallen lässt. Mir ist noch nicht ganz klar, an welcher Stelle in der Verarbeitungskette das passiert und wie groß der Anteil ist (einfach gleich beim Auslesen des Sensors jedes zweite Pixel weglassen geht wegen des Bayer-Filters nicht, dann würden am Ende nur noch Pixel einer Farbe übrig bleiben). Aber gehen wir mal davon aus, daß es ungefähr die Hälfte ist, damit man auf die Hälfte der Rechenzeit kommt.

Wenn ich nur die Hälfte der Pixel verarbeite, nutze ich effektiv nur die halbe Sensorfläche. Eine Halbierung der Sensorfläche bedeutet aber eine Halbierung der Lichtausbeute und damit einen eine ISO-Stufe schlechteren Rauschabstand.

Zitat:
Vielleicht sehe das Testbild bei 50fps bei einer 1/100 besser aus?
Dann müsste man ja mit dem ISO-Wert nochmal eine ganze Stufe höher gehen. Das gäbe also eher noch mehr Rauschen.
__________________
Any feature is a bug unless it can be turned off. (Heuer's Law, 1990)
usch ist offline   Mit Zitat antworten