Die Definition des Hauptstrahlwinkels der Linse und die gefürchtete CRA-Fehlanpassung
Abweichung des Hauptstrahlwinkels des Objektivs und Auswirkungen auf die Bildqualität
Aktualisiert 18. Oktober 2024
Der Hauptstrahlwinkel (CRA) eines Objektivs und der Hauptstrahl eines Sensors wirken sich auf Bildqualitätsfaktoren wie Farbschattierungen und Vignettierung aus.
Das Ausmaß der Auswirkungen einer CRA-Fehlanpassung kann mithilfe der Quadraturdifferenz annähernd bestimmt werden. Dies hängt von der Pixelarchitektur des Sensors ab, ist aber eine gute Faustregel erster Ordnung.
Unten sehen Sie ein Beispiel für eine problematische CRA-Fehlanpassung im Vergleich zu einer korrekten Fehlanpassung mit unserem CIL340 M12-Objektiv.
Was ist der Hauptstrahlwinkel eines Bildsensors?
Beginnen wir zunächst mit dem Aufbau eines modernen CMOS-Pixels (Complementary-Metal-Oxide-Semiconductor). Hier ist eine vereinfachte Pixelarchitektur von der Sony-Website, die ich markiert habe.
In dieser vereinfachten Marketing-Zeichnung können Sie die verschiedenen Komponenten eines Pixels sehen.
Ein einführendes Lehrbuch für Dioden, das wir damals an der UofR durchgenommen haben, ist Szeund Lee "Semiconductor Devices, 3rd ed."
Was ist der Hauptstrahlwinkel eines Objektivs?
Der Hauptstrahl eines Objektivs ist der Strahl, der durch die Mitte der Blende in einem optischen System geht.
Wenn Sie vom Objektraum aus in ein Objektiv blicken, ist der Hauptstrahl der Strahl, der die optische Achse in der Eintrittspupille kreuzt.
Schaut man vom Bildraum aus in ein Objektiv, so ist dies der Strahl, der die optische Achse in der Mitte der Austrittspupille kreuzt.
Hecht's Optics Fifth Editionenthält auf Seite 185 ein hervorragendes Diagramm und eine Beschreibung der Optik erster Ordnung für ein allgemeines optisches Abbildungssystem mit drei Elementen:
Hauptstrahlen gibt es für jeden beleuchteten Punkt im Objektraum. Sehen wir uns an, wie dies für ein Objektiv in der "realen Welt" aussieht.
Wenn man über den Hauptstrahlwinkel spricht, bezieht man sich in der Regel auf die "maximale CRA", die dem größten Sichtfeld einer Objektivkombination entspricht.
Um den Hauptstrahl eines Objektivs und den Hauptstrahl eines Sensors genau vergleichen zu können, muss man die CRA über den nutzbaren Bereich des Bildes betrachten.
Wie sieht die CRA-Fehlanpassung physisch aus und warum ist die CRA-Fehlanpassung bei hohen CRA-Winkeln wichtiger?
Objektive mit niedrigem Profil (kurze TTL) haben in der Regel eine sehr hohe CRA, da die optische Designleistung nicht konvergiert (nicht gut ist), wenn dem Design eine niedrige CRA-Anforderung auferlegt wird.
Um die Hersteller von Mobiltelefonen bei der Bildqualität auf Systemebene zu unterstützen, passen die Sensorhersteller das räumliche Design der Mikrolinsen auf dem Sensor an, um die CRA der Objektive zu kompensieren. Diese Anpassung der Mikrolinsen ist in der Regel nur für Unternehmen mit hohen Stückzahlen (>10 Mio. Stück/Jahr) verfügbar, so dass der Rest von uns sein Bestes tun muss, um die richtige Sensorvariante und das passende Objektiv auszuwählen.
Korrektur von Farbschattierungen aufgrund von CRA-Fehlanpassungen
CRA mismatch CAN be corrected for in post process, but ONLY in applications with well controlled static illumination such as industrial machine vision for inspection.
When the light sources change, it becomes challenging to compensate. This is due the friendly topic of metamerism. We've seen a major CRA mismatch (20° non-linear mismatch) overcome before in a regular indoor environment, so it is doable to a "good enough" extent. This requires advanced ISP tuning with a calculated pixel-level spectral energy distribution 3DMLUT approach. This in turn will slow down other performance metrics in your camera and/or require more compute, so generally not the best practice to get into this sitatuon.
Additionally, there are only a handful of leading image quality experts with the requisite knowhow and experience to get to a "good enough" quality with a >15° nonlinear mismatch with a sensor at 33°. I estimate <50 people in the world and it is near impossible to hire them as they are in high demand at big tech companies. So unless you are fortunate enough to be on a team with one of these experts, we highly advise against venturing down the rabbit hole of thinking you can solve >15° nonlinear CRA mismatch in software: your project will likely have a 6-12 month delay and budget overrun.
Regardless of the approach and expertise there will be more color tuning corner cases that occur with huge CRA mismatch, than when you have a well-matched lens to sensor CRA.
The Take-Away: We suggest Low Linear CRA (~<20°) Lenses/Sensors when Possible.
Otherwise Match the Lens Chief Ray Angle As Closely to the sensor as possible
We generally recommend matching CRA within +/-10° if the sensor's CRA is <10°, +/-7° if the sensor's CRA is >10° and <20°, and within +/-4° if the sensor's CRA is >20°.
However, it really depends on the pixel architecture and your application.
Jon Stern from GoPro's optics team provided his opinion publicly during a talk at the Embedded Vision Summit in 2020: View Slide 22 Here.
This mismatch tolerance must hold across the entire field of view, so make sure to compare a full plot if the sensor's specification sheet says "non-linear" on it.
Incorrect CRA matching can result in radial red to green color shading from the center of an image to the corner.
This shading is dependent upon illumination conditions, so it makes Image Quality Tuning extremely difficult.
This is a common issue when trying to build a camera using a "Mobile" Sensor with an "Industrial" Lens or vis-versa. We've seen multiple startup projects run into this issue, resulting in extensive cost (>$100k) and schedule (>1yr) overruns.
Was ist Ihre Anwendung? Unsere Linsen decken das ganze Spektrum ab.
Mobile Robotik?
Suchen Sie sich ein Objektiv mit niedrigem F#-Wert oder geringer Verzeichnung, um Ihre Computersicht zu optimieren.
Industrielle Bildverarbeitung?
Unsere kostengünstigen, kompakten C-Mount-Objektive sind für Global-Shutter-Sensoren bis zum Format 1,1"~1,2" ausgelegt.
Überall intelligent?
Unsere verzeichnungsarmen Objektive mit mehreren F# können zur Optimierung der Schärfentiefe eingesetzt werden.
Überwachen?
Unsere Fisheye- und IR-korrigierten Objektive sind für Türklingelkameras und aktive IR-beleuchtete Szenen geeignet.
Muss man sich dabei schmutzig machen?
Unsere IP67- und IP69K-Objektive sind für Anwendungen geeignet, die der Umwelt ausgesetzt sind.