Digitalkameras sind allgegenwärtig – von High-End-Profiausrüstung, die von Medien verwendet wird, bis hin zu alltäglichen Smartphone-Kameras, Webcams und sogar Türklingeln. Im Herzen jeder einzelnen befindet sich ein digitaler Kamerasensor, auch Bildsensor genannt. Ohne dieses entscheidende Stück Technologie gäbe es Digitalkameras, wie wir sie heute kennen, einfach nicht.

Aber was sind Kamerasensoren und wie funktionieren sie? Wir möchten die Grundlagen des gängigsten Typs von Kamerasensoren darlegen und erklären, wie sich diese stets entscheidende Technologie entwickelt hat.
Was ist ein Kamerasensor?
Im Grunde ist ein Kamerasensor ein Festkörperbauelement, das Lichtteilchen (Photonen) über Millionen von lichtempfindlichen Pixeln absorbiert und in elektrische Signale umwandelt. Diese elektrischen Signale werden dann von einem Computerchip interpretiert, der sie zur Erzeugung eines digitalen Bildes verwendet.
Obwohl es verschiedene Arten von Kamerasensoren gibt, ist der bei weitem am weitesten verbreitete der Complementary Metal-Oxide Semiconductor (CMOS)-Sensor, der in der überwiegenden Mehrheit moderner Digitalkameras zu finden ist. Dazu gehören Smartphones, Kompaktkameras und spiegellose Kameras mit wechselbaren Objektiven (ILCs).
Wie funktioniert ein CMOS-Sensor?
Ein CMOS-Sensor besteht aus einem Gitter von Millionen winziger Pixel. Jedes Pixel ist ein einzelnes Photosit, oft als „Well“ (Grube) bezeichnet. Wenn Photonen in das Photosit eindringen, treffen sie auf eine lichtempfindliche Halbleiterdiode, eine Photodiode, und werden in einen elektrischen Strom umgewandelt, der direkt der Intensität des erkannten Lichts entspricht.
Dieses Signal wird auf Pixelebene verstärkt und dann an einen Analog-Digital-Wandler (ADC) gesendet, der es in digitales Format umwandelt und an einen Bildprozessor weiterleitet. Der Bildprozessor kann diese digitalen Signale gesammelt lesen und in ein Bild übersetzen, da jedem Pixel ein individueller Wert zugewiesen wird, abhängig von der Lichtintensität, der es ausgesetzt war.
Da die Umwandlungs- und Verstärkungsprozesse auf Pixelebene stattfinden, müssen die Transistoren, Verdrahtungen und Schaltkreise in den Zwischenräumen zwischen den Photosites untergebracht werden. Um die Lichtmenge zu minimieren, die von diesen Schaltkreisen abprallt, wird auf jeder Pixelebene eine Mikrolinse platziert, um das Licht in die Photodiode zu leiten und die Anzahl der gesammelten Photonen zu maximieren.
Vielleicht ist Ihnen auch die Aufnahme eines Farbfilters aufgefallen. Der Grund dafür ist, dass Pixel Licht, nicht Farbe, erkennen. Ein Kamerasensor allein kann also nur Schwarz-Weiß-Bilder erzeugen. Um Farbbilder zu erstellen, muss ein Farbfilter-Array hinzugefügt werden.
Was ist ein Farbfilter-Array?
Ein Farbfilter-Array ist ein Muster aus einzelnen roten, grünen und blauen Farbfiltern, die in einem Gitter angeordnet sind – einer für jedes Pixel. Diese Filter sitzen auf den Photosites und stellen sicher, dass jedes einzelne Pixel nur rotem, grünem oder blauem Licht ausgesetzt ist. Dadurch kann der Bildprozessor jedem Pixelwert Farbe zuweisen und so Farbbilder erzeugen.
Farbfilter-Arrays gibt es in verschiedenen Mustern, das gängigste ist das Bayer-Filter-Array.
Das Bayer-Filter-Array
Das Bayer-Filter-Array besteht aus einem sich wiederholenden 2×2-Muster, bei dem jeder Satz von vier Pixeln aus zwei grünen, einem roten und einem blauen Pixel besteht. Dies entspricht einer Gesamtverteilung von 50 % Grün, 25 % Rot und 25 % Blau. Der Grund für die höhere Frequenz grüner Filter ist, dass das Filter-Array so konzipiert wurde, dass es die höhere Empfindlichkeit des menschlichen Auges für grünes Licht nachahmt.
Obwohl das Bayer-Filter-Array effektiv ist, schafft es ein Problem: das Auftreten eines unerwünschten Effekts namens Moiré.
Was ist Moiré?
Moiré tritt beim Fotografieren eines gleichmäßigen Musters auf, das der Auflösung des Kamerasensors entspricht oder höher ist. Häufige Fälle, in denen Moiré auftreten kann, sind das Fotografieren von Ziegelwänden aus der Ferne, Stoffen oder Bildschirmen. Wenn das fotografierte Muster mit dem Gitter des Farbfilter-Arrays nicht übereinstimmt, treten seltsame Effekte auf. Dies war in den Anfängen der Digitalfotografie, als die Sensorauflösungen niedriger waren, ein großes Problem. Bei Sensoren mit deutlich höheren Auflösungen ist Moiré jedoch seltener.
Eine Möglichkeit, Moiré zu verhindern, ist das Hinzufügen eines optischen Tiefpassfilters zum Sensor. Eine andere ist die Verwendung eines anderen Farbfilter-Arrays.
Was ist ein optischer Tiefpassfilter?
Ein optischer Tiefpassfilter – auch als Anti-Aliasing-Filter bekannt – ist ein Filter, der vor einem Kamerasensor platziert wird, um die feinen Details der aufgenommenen Szene leicht zu verwischen. Dadurch wird ihre Auflösung auf ein Niveau unterhalb der Sensorauflösung reduziert. Optische Tiefpassfilter können Moiré zwar wirksam verhindern, aber das hat seinen Preis. Obwohl die Auswirkungen des Filters so gering sind, dass sie für viele alltägliche Fotografen unsichtbar sind, bedeutet Unschärfe unweigerlich eine Reduzierung der Schärfe. Dies ist für viele Profis unerwünscht und einer der Gründe, warum Fujifilm das X-Trans-Farbfilter-Array entwickelt hat.
Das X-Trans Farbfilter-Array
Das X-Trans-Farbfilter-Array wurde 2012 mit der Veröffentlichung der FUJIFILM X-Pro1 eingeführt. Es besteht aus etwa 55 % grünen, 22,5 % roten und 22,5 % blauen Filtern und erzeugt ähnliche Anteile an roten, grünen und blauen Pixeln wie das Bayer-Array. Es verwendet jedoch eine kompliziertere 6×6-Anordnung, die aus unterschiedlichen 3×3-Mustern besteht. Die Verwendung eines weniger gleichmäßigen Musters hilft, Moiré zu reduzieren, wodurch die Notwendigkeit eines optischen Tiefpassfilters entfällt und schärfere Bilder entstehen.
Die Sensorauflösungen sind seit dem 16-Megapixel-X-Trans-CMOS-Sensor in der X-Pro1 dramatisch gestiegen, wodurch Moiré seltener auftritt. Infolgedessen sind optische Tiefpassfilter fast verschwunden – obwohl eine erhöhte Bildschärfe nicht der einzige potenzielle Vorteil des X-Trans-Farbfilter-Arrays ist.
Jede vertikale und horizontale Linie in einem X-Trans-CMOS-Sensor enthält eine Kombination aus roten, grünen und blauen Pixeln, während jede diagonale Linie mindestens ein grünes Pixel enthält. Dies hilft dem Sensor, die genauesten Farben zu reproduzieren. Darüber hinaus ähnelt das weniger gleichmäßige Muster der zufälligen Anordnung von Silberpartikeln auf analogem Fotofilm, was zum beliebten filmähnlichen Look von Fujifilm beiträgt.
Demosaicing
Wie oben erläutert, kann ein einzelnes Pixel nur einen einzigen Wert aufzeichnen. Wenn Sie jedoch in ein digitales Bild hineinzoomen, kann jedes einzelne Pixel eine Mischung von Farben enthalten, anstatt nur das durch das Farbfilter-Array zugelassene Rot, Grün oder Blau. Wie werden also die anderen Farben hinzugefügt? Und woher weiß die Kamera die richtige Menge, die verwendet werden muss?
Die Antwort ist ein Prozess namens Demosaicing, bei dem ein Demosaicing-Algorithmus die fehlenden Farbwerte für ein einzelnes Pixel basierend auf der Stärke der von den umgebenden Pixeln aufgezeichneten Farbe vorhersagt. Dies geschieht automatisch durch den eingebauten Prozessor der Kamera, der es dann in ein anzeigbares Bilddateiformat wie JPEG oder HEIF umwandelt.
In vielen Fällen, wie beim Fotografieren mit einem Smartphone, ist dies das Ende des Prozesses. Die meisten spiegellosen Kameras haben jedoch die Möglichkeit, Bilder im RAW-Format zu speichern, was Fotografen mehr Optionen bietet.
Vorteile von RAW-Dateien
Wie der Name schon sagt, enthält eine RAW-Datei die rohen Bilddaten, bevor Demosaicing stattgefunden hat. Dies ermöglicht es Fotografen, Bilder mit externer Software wie Capture One zu demosaicieren. Verschiedene Softwaretypen verwenden unterschiedliche Demosaicing-Algorithmen, die jeweils eine einzigartige Ästhetik bieten. Ein offensichtlicher Vorteil dabei ist, dass Fotografen ihre persönliche Präferenz wählen können, aber die Vorteile der Erstellung im RAW-Format gehen weit darüber hinaus.
Dateitypen wie JPEG und HEIF sind so konzipiert, dass Bilddateien leicht übertragbar sind. Daher findet eine erhebliche Komprimierung statt, um die kleinstmöglichen Dateigrößen zu erzielen. Während des Komprimierungsprozesses geht eine große Menge an Ton- und Farbinformationen, die vom Sensor gelesen wurden, verloren. Weniger Informationen bedeuten geringere Qualität und folglich eingeschränkte Bearbeitungsfreiheit.
Infolgedessen enthalten RAW-Dateien einen größeren Dynamikumfang und ein breiteres Farbspektrum, was eine effektivere Belichtungskorrektur und Farbanpassung ermöglicht.
Die Entwicklung des CMOS-Sensors
Während die grundlegende Funktionsweise des CMOS-Sensors im Laufe seiner Geschichte im Wesentlichen gleich geblieben ist, hat sich sein Design weiterentwickelt, um Effizienz und Geschwindigkeit zu maximieren.
Der rückseitig belichtete Sensor (BSI)
Beim ursprünglichen Design des Front-Side Illuminated (FSI)-Sensors verlaufen alle für die Speicherung, Verstärkung und Übertragung von Pixelwerten notwendigen Verdrahtungen und Schaltkreise entlang der Grenzen zwischen den Pixeln. Das bedeutet, dass Licht durch die Lücken wandern muss, um die darunter liegende Photodiode zu erreichen. Wie der Name schon sagt, kehrt der Back-Side Illuminated (BSI)-Sensor dieses ursprüngliche Design um, sodass das Licht nun von dem gesammelt wird, was seine Rückseite war und wo sich keine Schaltkreise befinden.
Durch die Beseitigung der Behinderung durch die Schaltkreise kann eine größere Oberfläche dem Licht ausgesetzt werden, wodurch der Sensor mehr Photonen sammeln und folglich seine Effizienz maximieren kann. Das Ergebnis ist eine erhöhte Empfindlichkeit, geringeres Rauschen und letztendlich qualitativ hochwertigere Bilder.
Der Stacked Sensor
Während das BSI-Sensor-Design die Qualität erhöht, dreht sich beim Stacked Sensor alles um die Steigerung der Geschwindigkeit. Bis zur Einführung des Stacked Sensors arbeiteten CMOS-Sensoren auf einer einzigen Schicht. Das bedeutete, dass die Signalauslesungen von jedem Pixel entlang von Verdrahtungsstreifen bis zum äußeren Rand des Sensors wandern mussten, bevor sie verarbeitet wurden.
Bei Stacked Sensoren wurden diese Verarbeitungschips auf der Rückseite des Sensors hinzugefügt, wodurch im Wesentlichen ein „Stapel“ von Chips entsteht, die zusammengefügt sind. Durch das Stapeln auf diese Weise wird die Strecke, die die Pixelwerte zurücklegen müssen, drastisch reduziert, was zu deutlich schnelleren Verarbeitungsgeschwindigkeiten führt. Beispielsweise genießt der im FUJIFILM X-H2S verbaute X-Trans CMOS 5 HS Stacked Sensor eine viermal höhere Auslesegeschwindigkeit als sein Vorgänger und eine 33-mal höhere Auslesegeschwindigkeit als der ursprüngliche X-Trans CMOS Sensor in der X-Pro1.
Darüber hinaus ist es ohne das Problem der Behinderung des in den Sensor eintretenden Lichts möglich, zusätzliche Chips zu stapeln, was ein enormes Potenzial für zukünftige Entwicklungen bietet.
Vergleich: Bayer vs. X-Trans Filter
| Merkmal | Bayer Filter | X-Trans Filter |
|---|---|---|
| Muster | 2x2 (2G, 1R, 1B) | Komplexeres 6x6 (verschiedene 3x3 Blöcke) |
| Verteilung Grün | 50% | ~55% |
| Notwendigkeit OLPF zur Moiré-Reduzierung | Oft ja (historisch) | Oft nein (durch Muster) |
| Grundschärfe (ohne OLPF) | Potenziell geringer | Potenziell höher |
| Farbgenauigkeit | Gut | Potenziell besser (R/G/B in jeder Linie) |
| Look | Standard | Filmähnlicher |
Häufig gestellte Fragen zu Kamerasensoren
- Was ist die Hauptfunktion eines Kamerasensors?
Er wandelt Licht (Photonen) in elektrische Signale um, die dann von einem Prozessor in ein digitales Bild übersetzt werden. - Warum sind Farbfilter-Arrays notwendig?
Pixel erkennen nur Lichtintensität, nicht Farbe. Farbfilter (wie beim Bayer- oder X-Trans-Array) weisen jedem Pixel eine Grundfarbe (Rot, Grün, Blau) zu, damit der Prozessor ein Farbbild erstellen kann. - Was ist der Moiré-Effekt und wie wird er bekämpft?
Moiré tritt auf, wenn feine, sich wiederholende Muster im Motiv mit dem Muster des Farbfilters auf dem Sensor interferieren. Er kann durch optische Tiefpassfilter oder durch komplexere Filter-Arrays wie das X-Trans-Array reduziert werden. - Was ist Demosaicing?
Es ist der Prozess, bei dem ein Algorithmus die fehlenden Farbwerte für jedes Pixel vorhersagt, basierend auf den Farben der umliegenden Pixel, um ein vollständiges Farbbild zu erzeugen. - Was sind die Vorteile von RAW-Dateien?
RAW-Dateien enthalten unkomprimierte oder minimal komprimierte Rohdaten vom Sensor. Sie bieten einen größeren Dynamikumfang und ein breiteres Farbspektrum als komprimierte Formate wie JPEG, was deutlich mehr Spielraum bei der Nachbearbeitung ermöglicht. - Wie verbessern BSI-Sensoren die Bildqualität?
Bei BSI-Sensoren befindet sich die Verdrahtung hinter der lichtempfindlichen Schicht, wodurch mehr Licht die Photodioden erreicht. Dies führt zu höherer Lichtempfindlichkeit, geringerem Rauschen und besserer Bildqualität, insbesondere bei schlechten Lichtverhältnissen. - Was ist der Vorteil eines Stacked Sensors?
Stacked Sensoren integrieren Verarbeitungschips direkt hinter der Sensorschicht. Dies reduziert die Signalwege und ermöglicht extrem schnelle Auslesegeschwindigkeiten, was für Serienaufnahmen und schnelle Videoaufzeichnung entscheidend ist.
Fazit
Wie jede Technologie haben Kamerasensoren allein in den letzten zehn Jahren einen langen Weg zurückgelegt und werden sich voraussichtlich auch in Zukunft weiterentwickeln. Mit der Umstellung auf die rückseitige Belichtung (BSI), die viel höhere Auflösungen ermöglicht, und den Stacked Sensoren, die die Auslesegeschwindigkeiten so signifikant erhöhen, stellen die jüngsten Entwicklungen nichts weniger als eine Revolution in der CMOS-Kamerasensor-Technologie dar.
Die Tür ist nun offen für enorme zukünftige Fortschritte, die CMOS-Sensoren mit Fähigkeiten ausstatten, die noch vor wenigen Jahren einfach nicht möglich waren.
Hat dich der Artikel Kamerasensoren: Was sie sind & wie sie arbeiten interessiert? Schau auch in die Kategorie Fotografie rein – dort findest du mehr ähnliche Inhalte!
