Das Herzstück jeder modernen Kamera, sei es für die industrielle Bildverarbeitung, wissenschaftliche Anwendungen oder die Astrofotografie, ist zweifellos der Kamerasensor. Dieses hochkomplexe elektronische Bauteil ist maßgeblich dafür verantwortlich, wie Licht in ein verwertbares Bild umgewandelt wird. Die Leistung eines Bildgebungssystems hängt dabei nicht nur von der Qualität der Optik ab, sondern entscheidend auch von der Technologie und den Eigenschaften des verwendeten Sensors sowie der Integration aller Komponenten wie Bilderfassungskarte, Software und Kabel. Um ein Bildgebungssystem optimal zu verstehen und zu konfigurieren, ist ein grundlegendes Wissen über Kamerasensoren, ihre Funktionsweise und ihre charakteristischen Merkmale unerlässlich.

Was genau ist ein Kamerasensor?
Ein Kamerasensor ist im Grunde ein elektronischer Halbleiterdetektor, der Lichtenergie (Photonen) in elektrische Signale umwandelt. Moderne Sensoren bestehen aus Millionen winziger, diskreter Fotodetektoren, die als Pixel bezeichnet werden. Jedes Pixel erfasst die Lichtintensität an einem bestimmten Punkt und wandelt sie in eine elektrische Ladung um, die dann ausgelesen und zu einem digitalen Bild verarbeitet wird. Während es viele Hersteller gibt, die Kameras bauen, stammt ein Großteil der Sensoren von wenigen, auf diese Technologie spezialisierten Unternehmen. Interessanterweise wurden in der Vergangenheit statt elektronischer Sensoren oft Fotoröhren wie Vidicons oder Plumbicons verwendet. Obwohl diese Technologien heute veraltet sind und nicht mehr eingesetzt werden, haben sich einige der damaligen Fachbegriffe, insbesondere in Bezug auf Sensorgröße und Format, bis heute gehalten und sind in der Industrie noch gebräuchlich.
Die dominierenden Technologien: CCD und CMOS
Fast alle Sensoren, die heutzutage in der industriellen Bildverarbeitung eingesetzt werden, lassen sich zwei Hauptkategorien zuordnen: der CCD-Sensor (Charge Coupled Device) und der CMOS-Sensor (Complementary Metal Oxide Semiconductor). Beide Technologien haben das gleiche grundlegende Ziel – Licht in elektrische Signale umzuwandeln – verfolgen diesen Prozess jedoch auf sehr unterschiedliche Weise. Diese Unterschiede im Aufbau und im Ausleseverfahren führen zu spezifischen Vor- und Nachteilen, die die Eignung für verschiedene Anwendungen bestimmen und auch erklären, warum zwei Kameras mit dem gleichen Sensor aufgrund der umgebenden Elektronik und Schnittstellen sehr unterschiedliche Eigenschaften und Leistungen aufweisen können.
Der CCD-Sensor im Detail
Die CCD-Technologie wurde 1969 an den Bell Laboratories in den USA erfunden und war lange Zeit die dominierende Technologie für die digitale Bilderfassung, von der digitalen Astrofotografie bis zur industriellen Bildgebung. Ein CCD-Sensor besteht aus einem Siliziumchip, der ein Array von Photodioden enthält. Trifft Licht auf eine Photodiode, erzeugt es an dieser Stelle innerhalb des Halbleiterchips ein Ladungspaket. Der Begriff "ladungsgekoppeltes Gerät" beschreibt das Verfahren, mit dem diese Ladungspakete ausgelesen werden: Sie werden über ein Schieberegister, das ähnlich wie eine Eimerkette funktioniert, von Pixel zu Pixel über den Chip verschoben, bis sie einen zentralen Ausgang erreichen. Taktimpulse steuern die Potenzialtöpfe, um die Ladungspakete gezielt zu verschieben. Am Ausgang wird die gesammelte Ladung durch einen Kondensator in eine Spannung umgewandelt. Der CCD-Sensor selbst ist ein analoges Gerät. Bei Digitalkameras wird das Ausgangssignal jedoch meist sofort mit einem Analog-Digital-Wandler (ADC) digitalisiert, entweder direkt auf dem Chip oder extern. Bei älteren Analogkameras wurde die Spannung jeder einzelnen Photodiode in einer bestimmten Reihenfolge ausgelesen, wobei Synchronisationsimpulse verwendet wurden, um das Bild korrekt wiederherzustellen.
Die Notwendigkeit, Ladungspakete seriell über den Chip zu verschieben, begrenzt die Übertragungsgeschwindigkeit. Dies ist die Ursache für den Hauptnachteil vieler älterer CCD-Sensoren: die vergleichsweise geringe Geschwindigkeit bzw. maximale Bildrate. Andererseits bieten CCD-Sensoren eine sehr hohe Lichtempfindlichkeit und zeichnen sich durch eine ausgezeichnete Pixelgleichförmigkeit aus. Da jedes Ladungspaket den gleichen Weg nimmt und die gleiche Spannungsumwandlung erfährt, ist das Bild sehr einheitlich. Ein bekanntes Phänomen bei CCD-Sensoren ist das sogenannte "Blooming". Dabei treten Ladungen von einem überbelichteten, fotoempfindlichen Pixel in benachbarte Zellen über, weil die Ladungskapazität des Pixels endlich ist. Dies begrenzt den nutzbaren Dynamikbereich nach oben und zeigt sich in Bildern von CCD-Kameras durch ein Verschmieren besonders heller Bereiche, oft als senkrechte Streifen.
Um den effektiven lichtempfindlichen Bereich pro Pixel (den Füllfaktor) zu erhöhen und den Platzbedarf der Schieberegister-Technik zu kompensieren, werden bei CCD-Sensoren oft Mikrolinsen auf den Pixeln eingesetzt. Diese bündeln das Licht und lenken es auf die aktive, lichtempfindliche Fläche. Dies erhöht die Effizienz der Pixel, kann aber auch die Winkelempfindlichkeit für einfallende Lichtstrahlen erhöhen, sodass diese nahezu senkrecht auf den Sensor treffen müssen, um effizient erfasst zu werden.
Der CMOS-Sensor im Detail
Der CMOS-Sensor wurde bereits 1963 erfunden, fand aber erst ab den 1990er Jahren breite Anwendung in der Bildgebung. Der fundamentale Unterschied zum CCD-Sensor liegt darin, dass die Ladungsumwandlung und Signalverstärkung direkt am Pixelort stattfindet. Bei einem CMOS-Sensor wird die Ladung des lichtempfindlichen Pixels direkt innerhalb des Pixels in eine Spannung umgewandelt. Das resultierende Signal jedes Pixels kann dann direkt ausgelesen und zu den auf dem Chip integrierten Analog-Digital-Wandlern übertragen werden. Aufgrund dieses Designs ist der CMOS-Sensor prinzipiell ein digitaler Sensor. Jedes Pixel ist komplexer aufgebaut als bei einem CCD-Sensor und besteht im Grunde aus einer Fotodiode und mehreren Transistoren (oft drei oder mehr). Diese Transistoren ermöglichen es, jedes einzelne Pixel anzusteuern, zurückzusetzen, die Ladung in Spannung umzuwandeln und das Signal zu verstärken.
Die lokale Verarbeitung am Pixelort macht CMOS-Sensoren sehr schnell und ermöglicht hohe Bildraten. Allerdings benötigt die aufwändige Ausleseelektronik Platz auf dem Sensor, was die aktive, lichtempfindliche Fläche pro Pixel reduziert und somit den Füllfaktor verringert. Dies kann die Lichtempfindlichkeit im Vergleich zu CCDs beeinträchtigen, obwohl moderne CMOS-Designs hier große Fortschritte gemacht haben. Ein weiterer Nachteil, der sich aus der individuellen Verarbeitung am Pixel ergibt, ist ein potenzielles festes Musterrauschen. Dieses wird durch die Fertigungstoleranzen der Transistoren in den einzelnen Pixeln verursacht und kann die Bildgleichförmigkeit beeinträchtigen. Die Multiplexkonfiguration eines CMOS-Sensors wird oft mit einem sogenannten "Rolling Shutter" kombiniert, bei dem die Pixel zeilenweise nacheinander belichtet und ausgelesen werden.
Ein großer Vorteil von CMOS-Sensoren ist ihre deutlich niedrigere Leistungsaufnahme und Verlustleistung im Vergleich zu äquivalenten CCD-Sensoren. Zudem sind sie weniger anfällig für "Blooming" als CCDs, da die Ladungsumwandlung und -ableitung direkt am Pixel erfolgt. Dies ermöglicht es CMOS-Sensoren, hohe Lichtstärken besser zu verarbeiten, was sie für Anwendungen wie die Bildgebung von Schweißnähten oder Glühdrähten geeignet macht. CMOS-Kameras sind oft auch kleiner und kostengünstiger in der Herstellung als digitale CCD-Kameras, da sie keine externen Analog-Digital-Wandler in demselben Umfang benötigen. Durch zusätzliche Transistoren pro Pixel ist es bei CMOS-Sensoren auch möglich, einen Global Shutter zu implementieren, bei dem alle Pixel gleichzeitig belichtet werden.
Aufgrund des komplexeren, mehrschichtigen Aufbaus der Feldeffekttransistoren auf dem CMOS-Chip ist die Integration von Mikrolinsen, die den Füllfaktor verbessern könnten, schwieriger als bei CCDs. Der potenziell geringere Füllfaktor und das pixelindividuelle Rauschen konnten in der Vergangenheit zu einem niedrigeren Signal-Rausch-Verhältnis und einer geringeren Gesamtbildqualität im Vergleich zu CCD-Sensoren führen. Auch hier haben Fortschritte in der CMOS-Technologie viele dieser Nachteile reduziert.
CCD vs. CMOS: Ein direkter Vergleich
Die Entscheidung für einen CCD- oder CMOS-Sensor hängt stark von den spezifischen Anforderungen der Anwendung ab, insbesondere hinsichtlich Geschwindigkeit, Lichtverhältnissen, Gleichförmigkeit und Kosten. Beide Technologien haben ihre Berechtigung und werden ständig weiterentwickelt. Die folgende Tabelle fasst die wichtigsten Unterschiede zusammen, basierend auf allgemeinen Merkmalen:
| Eigenschaft | CCD-Sensor | CMOS-Sensor |
|---|---|---|
| Pixelsignal | Ladungspaket | Spannung |
| Sensorsignal | Analog (oft digitalisiert) | Digital |
| Füllfaktor | Hoch | Mittel (Design-abhängig) |
| Ansprechempfindlichkeit | Mittel | Mittel bis hoch |
| Rauschpegel | Niedrig | Mittel bis hoch (Design-abhängig) |
| Dynamikbereich | Hoch | Mittel (spezielle Designs hoch) |
| Gleichförmigkeit | Hoch | Niedrig (Design-abhängig) |
| Auflösung | Niedrig bis hoch | Niedrig bis hoch |
| Geschwindigkeit | Mittel bis hoch | Hoch |
| Leistungsaufnahme | Mittel bis hoch | Niedrig |
| Komplexität | Niedrig | Mittel |
| Kosten | Mittel | Mittel |
Diese Tabelle bietet einen Überblick über typische Unterschiede. Moderne Sensoren beider Technologien nähern sich in vielen Aspekten an.
Spezielle Sensormaterialien
Für Anwendungen außerhalb des sichtbaren Lichts und des nahen Infrarots sind spezielle Sensormaterialien erforderlich. Das kurzwellige Infrarotlicht (SWIR), typischerweise im Bereich von 0,9 – 1,7 μm, ermöglicht die Sichtbarmachung von Dichteunterschieden oder das Durchdringen von Hindernissen wie Nebel. Silizium-basierte Sensoren sind in diesem Spektrum nicht ausreichend empfindlich. Hier kommen spezielle Indium-Gallium-Arsenid (InGaAs)-Sensoren zum Einsatz. Die Bandlücke von InGaAs ist besser auf die Photonenenergien von Infrarotlicht abgestimmt, was die Erzeugung eines ausreichenden Photostroms ermöglicht. Solche Sensoren bestehen aus einem Array von InGaAs-Fotodioden, oft mit einer Architektur, die der von CMOS-Sensoren ähnelt.
Noch längere Wellenlängen als SWIR werden zur Wärmebildgebung genutzt. Im Bereich zwischen 7 – 14 μm Wellenlänge, dem typischen Bereich der Wärmestrahlung bei Raumtemperatur, werden oft Mikrobolometer-Arrays verwendet. In einem Mikrobolometer-Array besitzt jedes Pixel ein Bolometer, dessen elektrischer Widerstand sich ändert, wenn es durch die einfallende Infrarotstrahlung erwärmt wird. Diese Widerstandsänderung wird von der Elektronik auf dem Substrat gemessen und in ein Bild umgewandelt. Ein Vorteil von Mikrobolometer-Sensoren ist, dass sie im Gegensatz zu vielen anderen Infrarotdetektoren keine aktive Kühlung benötigen, was sie sehr praktisch macht.
Weitere wichtige Sensormerkmale
Neben der grundlegenden Technologie (CCD/CMOS) und dem Material gibt es weitere Merkmale, die die Leistung und Eignung eines Kamerasensors maßgeblich beeinflussen.
Pixel-Eigenschaften
Die Pixel sind die fundamentalen lichtempfindlichen Einheiten. Sie können als Fotodioden oder Fotokondensatoren realisiert sein, die eine Ladung proportional zur einfallenden Lichtmenge erzeugen und speichern. Die Effizienz, mit der ein Pixel ein einfallendes Photon in eine Ladung (Fotoelektron) umwandelt, wird als Quantenausbeute bezeichnet. Typische Werte für Halbleiter-Bildgebungssensoren liegen zwischen 30 % und 60 %, wobei die Quantenausbeute stark wellenlängenabhängig ist. Bei Digitalkameras sind die Pixel in der Regel quadratisch. Übliche Pixelgrößen liegen zwischen 3 und 10 μm. Obwohl Sensoren oft nur durch ihre Gesamtzahl an Pixeln beworben werden, ist die Pixelgröße für die Eigenschaften des Systems und die endgültige Bildqualität absolut entscheidend. Größere Pixel haben allgemein höhere Ladungssättigungskapazitäten, was zu einem besseren Dynamikbereich und höheren Signal-Rausch-Verhältnissen (SNRs) führt. Mit kleinen Pixeln lässt sich zwar die Auflösung bei fester Sensorgröße erhöhen, aber sie erfordern eine sehr sorgfältige Auswahl der passenden Optik. Zudem kommt es bei kleinen Pixeln verstärkt zum sogenannten "Blooming" sowie zur gegenseitigen Beeinflussung benachbarter Pixel (Crosstalk), was den Kontrast bei hohen Details reduzieren kann. Ein einfaches Maß für die Sensorauflösung ist die Anzahl der Pixel pro Millimeter. Analoge CCD-Kameras hatten historisch oft rechteckige Pixel aufgrund der Beschränkungen der damaligen Signalnormen (NTSC, PAL).
Sensorgröße und Format
Die Größe der aktiven Fläche eines Kamerasensors ist von entscheidender Bedeutung für die Bestimmung des Systembildfelds (Field of View, FOV). Bei einer festen Vergrößerung des Objektivs ergeben größere Sensoren größere Bildfelder. Es gibt verschiedene Standardgrößen für die Sensoren, wie ¼", 1/3", ½", 1/1.8", 2/3", 1" und 1.2", wobei auch größere Ausführungen existieren. Die Benennung dieser Größen geht historisch auf die Vidicon-Vakuumröhren zurück, die früher in Fernsehkameras verwendet wurden. Die tatsächlichen Abmessungen der modernen Halbleitersensoren stimmen nicht mit diesen historischen Zollangaben überein (ein ½"-Sensor hat z.B. typischerweise eine Diagonale von etwa 8 mm statt der erwarteten 12,7 mm). Es gibt keinen festen, einfachen geometrischen Zusammenhang zwischen der "Zoll"-Angabe und den tatsächlichen Kantenlängen des Sensors, obwohl historisch oft ein 4:3 Seitenverhältnis zugrunde gelegt wurde, das auch heute noch in vielen Fällen verwendet wird. Bei Bildgebungsanwendungen ist es wichtig sicherzustellen, dass die Sensorgröße zum verwendeten Objektiv passt. Wenn ein Sensor zu groß für das Objektiv ist, kann es zu Vignettierung kommen. Dies ist der Effekt, dass Licht durch die begrenzten Aperturen des Objektivs an den Rändern des Bildfelds abgeschattet wird, was zu einer Abdunklung der Bildecken führen kann.
Bildwiederholfrequenz und Belichtungszeit
Die Bildwiederholfrequenz (Frame Rate) bezieht sich auf die Anzahl der vollständigen Einzelbilder, die pro Sekunde aufgenommen und verarbeitet werden können. Bei Analogkameras wurde das Bild oft in zwei Halbbilder aufgeteilt und mit doppelter Frequenz übertragen. Bei Digitalkameras ist die Bildwiederholfrequenz in der Regel einstellbar. Eine hohe Bildfrequenz ist vorteilhaft für die Erfassung schnell bewegter Objekte oder Prozesse, da mehr Bilder aufgenommen werden können, während das Objekt das Bildfeld durchquert. Die maximale Bildwiederholfrequenz eines Systems wird durch verschiedene Faktoren begrenzt: die Auslesegeschwindigkeit des Sensors selbst, die Datentransferrate der verwendeten Schnittstelle (inklusive Kabel) und die Datenmenge pro Bild (Anzahl der Pixel und Pixeltiefe).
Die Verschlusszeit (Belichtungszeit) entspricht der Zeit, während der das Pixel Licht sammelt und die Ladung aufbaut. Sie steuert die Menge des einfallenden Lichts und hat somit einen direkten Einfluss auf die Bildqualität. Ein zu lange gewählte Verschlusszeit bei hellen Objekten kann zu Überbelichtung und Blooming führen (insbesondere bei CCDs). Eine kürzere Verschlusszeit ist notwendig, um schnell bewegte Objekte scharf abzubilden und Bewegungsunschärfe zu reduzieren. Auch bei einer niedrigen, festen Bildfrequenz kann die Verschlusszeit angepasst werden, um die Belichtung zu steuern oder Bewegungen einzufrieren. Bei Digitalkameras kann die Belichtungszeit sehr variabel sein, von Zehntelsekunden bis hin zu Minuten. Die längsten Belichtungszeiten sind in der Regel mit CCD-Kameras möglich, da diese oft geringere Dunkelströme und ein niedrigeres Rauschen aufweisen als CMOS-Sensoren, was bei langen Belichtungszeiten entscheidend ist. CMOS-Sensoren sind aufgrund ihres typischen Rauschverhaltens oft auf Belichtungszeiten im Sekundenbereich begrenzt.
Abhängig vom Sensortyp und der Kamera können verschiedene Methoden angewendet werden, um die Bildwiederholfrequenz zu erhöhen, oft auf Kosten der effektiven Auflösung. Dazu gehören das Zusammenfassen von Ladungen mehrerer Pixel zu einem (Binning) oder das Auslesen nur eines Teils des Sensors (Area-of-Interest, ROI). Diese Methoden reduzieren die Datenmenge pro Bild, was bei fester Datentransferrate mehr Bilder pro Sekunde ermöglicht. Es gibt eine endliche Mindestzeit zwischen den Belichtungen, die durch den Reset- und Ausleseprozess der Pixel bedingt ist (oft in der Größenordnung von hundert Mikrosekunden), obwohl viele Kameras durch Pipelining (gleichzeitiges Auslesen des vorherigen Bildes und Belichten des nächsten) diese Zeit minimieren können.
Der elektronische Verschluss: Global vs. Rolling Shutter
Die Art des elektronischen Verschlusses ist entscheidend für die Handhabung von Bewegungen im Bild. Traditionell verwendeten CCD-Kameras einen globalen Verschluss ("Global Shutter"), während CMOS-Kameras oft mit einem Rolling Shutter ("Rolling Shutter") arbeiteten. Bei einem Global Shutter werden alle Pixel des Sensors gleichzeitig belichtet und die Ladung gleichzeitig gesammelt (gesampelt). Erst danach werden die Pixel nacheinander ausgelesen. Dies entspricht im Prinzip einem mechanischen Verschluss, bei dem der Sensor als Ganzes belichtet wird. Der Vorteil ist, dass schnelle Bewegungen im Bild nicht zu Verzerrungen führen.
Bei einem Rolling Shutter erfolgen Belichtung, Sampling und Auslesen der Pixel zeilenweise nacheinander. Das bedeutet, jede Bildzeile wird zu einem etwas anderen Zeitpunkt belichtet als die vorherige und die nachfolgende. Bei schnell bewegten Objekten oder schnellen Kameraschwenks kann dies zu sichtbaren Verzerrungen im Bild führen, wie z.B. schiefen Linien oder Verzerrungen von runden Objekten. Diesem Effekt kann entgegengewirkt werden, indem man eine gepulste Beleuchtung synchron zur Kamera verwendet, sodass das Objekt nur in dem kurzen Moment beleuchtet wird, in dem sich die Belichtungszeiträume aller Zeilen überschneiden. Bei niedrigen Geschwindigkeiten ist der Rolling Shutter Effekt oft vernachlässigbar. Die Implementierung eines Global Shutters bei CMOS-Sensoren ist komplexer als beim Rolling Shutter und erfordert zusätzliche Transistoren und Speicherkondensatoren pro Pixel. Dank der Weiterentwicklung der CMOS-Technologie sind heute viele CMOS-Sensoren mit Global Shutter verfügbar, wodurch sowohl CCD- als auch CMOS-Kameras für Anwendungen mit hohen Bewegungsgeschwindigkeiten geeignet sein können.
Neben den kontinuierlichen Verschlussmethoden gibt es auch den asynchronen Verschluss mit getriggerter Belichtung. Dabei ist die Kamera aufnahmebereit, beginnt aber erst mit der Belichtung, wenn sie ein externes Triggersignal erhält. Dies ermöglicht eine präzise Synchronisation der Bildaufnahme mit externen Ereignissen, im Gegensatz zur konstanten, intern getakteten Bildwiederholfrequenz.
Sensorausgänge (Multi-Tap)
Eine Methode zur Erhöhung der Auslesegeschwindigkeit, insbesondere bei sehr großen Sensoren mit vielen Millionen Pixeln, ist die Verwendung mehrerer Auslesekanäle, sogenannter "Taps". Statt alle Pixel seriell über einen einzigen Ausgangsverstärker und Analog-Digital-Wandler auszulesen, wird das Bildfeld in mehrere Bereiche unterteilt, die parallel über separate Ausgänge ausgelesen werden. Oft wird ein doppelter Ausgang verwendet, bei dem die linke und rechte Hälfte des Bildfelds separat ausgelesen werden. Dies kann die effektive Bildwiederholfrequenz nahezu verdoppeln. Das vollständige Bild wird dann durch Software rekonstruiert. Eine Herausforderung bei Multi-Tap-Sensoren kann die Gleichförmigkeit sein: Wenn der Gain oder die Eigenschaften der Analog-Digital-Wandler zwischen den einzelnen Ausgängen leicht variieren, kann im rekonstruierten Bild eine sichtbare Trennlinie zwischen den ausgelesenen Bereichen entstehen. Solche Fehler können jedoch oft durch Kalibrierung korrigiert werden. Diese Technik wird meist nur für sogenannte "progressive scan" Digitalkameras eingesetzt, die nach dem Vollbildverfahren arbeiten und vollständige Bilder liefern.
Spektraleigenschaften des Sensors
Die Empfindlichkeit eines Kamerasensors für verschiedene Wellenlängen des Lichts ist eine entscheidende Eigenschaft. Siliziumbasierte CCD- und CMOS-Sensoren sind hauptsächlich für das sichtbare Spektrum (ca. 400–700 nm) und den nahen Infrarotbereich (bis ca. 1000 nm) empfindlich. Die genaue Empfindlichkeit über das Wellenlängenspektrum wird in einer Spektralkennlinie dargestellt.
Monochrome Sensoren
Monochrome Sensoren erfassen lediglich die Intensität des einfallenden Lichts über ihren gesamten Empfindlichkeitsbereich, ohne zwischen Farben zu unterscheiden. Die meisten hochwertigen Kameras für Anwendungen im sichtbaren Bereich enthalten einen Infrarot-Sperrfilter (IR-Filter), um die Empfindlichkeit auf das sichtbare Spektrum zu beschränken und Artefakte durch unsichtbares IR-Licht zu vermeiden. Für eine Bildgebung im nahen Infrarotbereich kann dieser Filter entfernt werden. CMOS-Sensoren sind aufgrund ihrer oft dickeren aktiven Siliziumschicht im Allgemeinen empfindlicher für Infrarotwellenlängen als CCD-Sensoren, da längerwellige Photonen tiefer in das Material eindringen.
Farbige Sensoren
Da der Halbleitersensor auf dem photoelektrischen Effekt basiert und von Natur aus nicht zwischen Farben unterscheiden kann, gibt es spezielle Verfahren, um Farbinformationen zu erfassen. Es gibt hauptsächlich zwei Arten von Farbkameras: Einzelchip- und Dreichipkameras.
Einzelchip-Farbkameras sind die gebräuchlichere und kostengünstigere Variante. Sie verwenden einen Mosaikfilter, am häufigsten das sogenannte Bayer-Muster, das direkt über dem Pixelarray angebracht ist. Dieser Filter besteht aus winzigen Filtern in den Grundfarben Rot, Grün und Blau, die so angeordnet sind, dass jedes Pixel nur Licht einer bestimmten Farbe empfängt. Die vollständigen Farbinformationen für jedes Pixel werden dann durch Farbinterpolation (Demosaicing) aus den Werten des Pixels selbst und den Werten benachbarter Pixel berechnet. Da mehr Pixel benötigt werden, um die Farbinformationen zu erfassen und zu interpolieren, haben Einzelchip-Farbkameras grundsätzlich eine effektiv niedrigere Auflösung im Vergleich zu monochromen Kameras mit der identischen physikalischen Pixelzahl. Die genaue effektive Auflösung und Farbtreue hängt stark vom verwendeten Farbinterpolationsalgorithmus ab.
Dreichip-Farb-CCD-Kameras (3CCD) umgehen die Einschränkungen der Einzelchip-Technologie, indem sie ein Prisma verwenden, um das einfallende Licht in seine roten, grünen und blauen Spektralanteile aufzuspalten. Jeder dieser Farbanteile wird dann auf einen separaten CCD-Sensor geworfen. Dies ermöglicht eine exakte Farbwiedergabe, da jedem Punkt im Objektraum separate RGB-Helligkeitswerte zugeordnet werden, ohne dass eine Interpolation erforderlich ist. 3CCD-Kameras können extrem hohe Auflösungen und eine sehr genaue Farbtreue erreichen, sind aber komplexer, teurer und oft weniger lichtempfindlich als Einzelchip-Kameras. Sie erfordern zudem spezielle Objektive, die gut farbkorrigiert sind und den optischen Weg durch das Prisma berücksichtigen.
Häufig gestellte Fragen zum Kamerasensor
- Was ist ein Pixel?
- Ein Pixel ist das kleinste lichtempfindliche Element auf einem Kamerasensor, das Licht in eine elektrische Ladung umwandelt.
- Was bedeutet "Blooming"?
- Blooming ist ein Effekt, hauptsächlich bei CCD-Sensoren, bei dem überschüssige Ladung von einem überbelichteten Pixel in benachbarte Pixel überläuft, was zu einem Verschmieren heller Bildbereiche führt.
- Was ist der Unterschied zwischen Global Shutter und Rolling Shutter?
- Ein Global Shutter belichtet alle Pixel gleichzeitig, während ein Rolling Shutter die Pixel zeilenweise nacheinander belichtet und ausliest. Rolling Shutter können bei schnellen Bewegungen zu Bildverzerrungen führen.
- Warum werden Sensorgrößen in Zoll-Bruchteilen angegeben (z.B. 1/2"), obwohl die tatsächlichen Maße anders sind?
- Diese historische Benennung stammt von den Größen der Vidicon-Röhren, die früher in Fernsehkameras verwendet wurden. Die tatsächlichen Maße moderner Halbleitersensoren weichen von diesen alten Standards ab.
- Was ist die Quantenausbeute eines Sensors?
- Die Quantenausbeute gibt die Wahrscheinlichkeit an, mit der ein Pixel ein einfallendes Photon in eine elektrische Ladung umwandelt. Sie ist ein Maß für die Lichtempfindlichkeit des Sensors bei einer bestimmten Wellenlänge.
- Wozu braucht man InGaAs-Sensoren?
- InGaAs-Sensoren werden für die Bildgebung im kurzwelligen Infrarotbereich (SWIR) eingesetzt, da Siliziumsensoren in diesem Wellenlängenbereich nicht empfindlich genug sind. SWIR-Bildgebung ermöglicht das Sehen durch bestimmte Materialien oder das Erfassen von Eigenschaften, die im sichtbaren Licht nicht erkennbar sind.
Zusammenfassend lässt sich festhalten, dass der Kamerasensor die wichtigste Komponente eines Bildgebungssystems ist. Die Wahl des richtigen Sensortyps und das Verständnis seiner Eigenschaften – von der Pixelgröße über die Sensorgröße und den Verschlussmechanismus bis hin zu den spektralen Eigenschaften – sind entscheidend für das Erreichen der gewünschten Bildqualität und Systemleistung. Nur durch die richtige Interpretation der technischen Daten des Kamerasensors kann der Anwender die passende Optik und die optimale Konfiguration des Gesamtsystems auswählen. Die ständige Weiterentwicklung der Sensor-Technologien, insbesondere im Bereich CMOS, eröffnet immer leistungsfähigere und vielseitigere Möglichkeiten für die industrielle Bildverarbeitung und darüber hinaus.
Hat dich der Artikel Der Kamerasensor: Herzstück der Bildgebung interessiert? Schau auch in die Kategorie Ogólny rein – dort findest du mehr ähnliche Inhalte!
