Für viele hängt der Wert eines Telefons stark von den Fähigkeiten seiner Kameras ab. Auch wenn ich dieser Aussage nicht uneingeschränkt zustimme, da Smartphones weit mehr können als nur fotografieren, lässt sich die Bedeutung der Kameras nicht leugnen. Früher verglichen wir Telefone anhand von Prozessor, Speicherplatz und RAM. Heute lauten die häufigeren Fragen: „Wie gut sind die Kameras Ihres Telefons? Wie gut nimmt es Fotos und Videos bei Nacht auf?“ Beim Testen von Telefonen achten alle, einschließlich der Tester und auch wir in der Redaktion, am meisten auf die Kameras und erst danach auf die Gesamtleistung des Telefons. Da es bei Kameras einige Unbekannte und viel technische Terminologie (Bildschirm, Sensoren, Linsen, Fokus ...) gibt, ist es vielleicht an der Zeit, etwas Licht in das Dunkel ihrer Funktionsweise zu bringen.

Alles dreht sich ums Licht
Es ist überraschend (oder auch nicht), wie viele Parallelen wir zwischen der Kamera und unserem Auge ziehen können. In dunklen Räumen sind Augen und Kameras blind. Um ein Bild aufzuzeichnen, brauchen wir Licht. Doch das Licht ist oft in alle Richtungen gestreut. Unsere Augen haben Linsen, die das Licht auf die Netzhaut lenken. Auch die Kameras unserer Telefone haben Linsen, die Lichtinformationen erfassen und aufzeichnen.

Licht kann der Fotografie auch schaden, was bei analogen Kameras, die Fotofilm verwenden, am deutlichsten wird. Eine (zu) lange Belichtung kann den Inhalt des Films zerstören. Die Erfindung der Blende löste dieses Problem. Bei analogen Kameras ist der Verschluss ein physikalischer Mechanismus, der sich schnell öffnet und schließt, um die Lichtmenge zu steuern, die den Film erreicht. Die Augenlider haben eine ähnliche Funktion.
Bei Telefonen gibt es keinen physikalischen Verschluss, obwohl man beim Fotografieren dieses charakteristische „Klick“-Geräusch hört. Das ist nur ein Soundeffekt. Stellen Sie das Telefon auf lautlos, und das Geräusch verschwindet. Anstelle physikalischer Verschlüsse verwenden die Kameras von Telefonen einen elektronischen Verschluss, der dieselbe Funktion hat, dies aber mit Algorithmen statt mit physischer Bewegung tut. Einige Smartphones, wie das Huawei Mate 50 Pro, verfügen über eine Kamera mit einer physikalischen Blende, die zwischen voreingestellten Positionen bewegt werden kann.
Der Film ist noch nicht vergessen. Er wird immer noch von Hobbyisten, professionellen Fotografen und sogar in der Filmindustrie verwendet. Andernorts wurde er durch Sensoren ersetzt.
Warum haben Mobiltelefone verschiedene Linsen?
Sie haben wahrscheinlich schon einen professionellen Fotografen beobachtet, der je nach Szene vor ihm die Objektive seiner Kamera wechselt. Telefone sind technisch dazu in der Lage, wie Xiaomi mit dem Xiaomi 12S Ultra Concept Phone gezeigt hat, aber es ist äußerst unpraktisch, und es entstehen neue Hindernisse wie Haltbarkeitsprobleme, Wasserbeständigkeit, hoher Preis und dergleichen. Hersteller haben daher mehrere verschiedene Kameras als Lösung vorgeschlagen – jede mit ihrem eigenen spezifischen Objektiv, das innerhalb der Kamera-App je nach Bedarf einfach gewechselt werden kann. Heute funktionieren die meisten Handykameras auf diese Weise.
Wenn Sie auf die Rückseite Ihres Telefons schauen, werden Sie zwei, drei oder sogar vier Objektive und eines auf dem Display vorne bemerken. Jedes bietet eine andere Perspektive, Tiefe und seine eigenen einzigartigen Funktionen. Die Hauptlinse ist verständlicherweise immer vorhanden. Die Ultraweitwinkelkamera ist bei Mobiltelefonen ebenfalls mehr oder weniger eine Konstante. In der unteren Klasse finden wir oft eine Makrokamera, während Premium-Telefone ein Teleobjektiv und ein Periskop-Teleobjektiv haben, wie das Samsung Galaxy S23 Ultra.
Die Funktion des Objektivs
Blende, Objektiv und Bildsensor sind eng miteinander verbunden. Die Blende ist die Öffnung, die Sie am Kameraobjektiv physisch sehen können. Wie erwähnt, steuert die Blende, wie viel Licht das Objektiv und den Sensor erreicht. Als Faustregel gilt: Eine größere Blende ist besser, da die Kamera mehr Lichtinformationen nutzen kann. Dies ist jedoch nicht unbedingt der beste Indikator für die Fotoqualität.
Wenn Sie sich die Spezifikationen Ihres Telefons ansehen, werden Sie eine „f“-Bewertung für die Kameras bemerken. Diese Werte sind das Verhältnis der Brennweite zum physischen Durchmesser der Blende. Je kleiner diese Zahl, desto weiter ist die Blende geöffnet. Zum Beispiel hat das vivo X90 Pro eine Hauptlinse mit f/1.8 und 23 mm Brennweite, ein Teleobjektiv mit f/1.6 (50 mm) und so weiter.
Es wird Ihnen schwerfallen, die Leistung von Handykameras anhand der Brennweite zu vergleichen. Die Brennweite ist äußerst wichtig, aber für die Erzeugung unterschiedlicher Ästhetiken und visueller Effekte. Eine kürzere Brennweite ist für eine Weitwinkelperspektive gedacht – nahe Objekte erscheinen größer. Eine längere Brennweite erzeugt beispielsweise ein proportionaleres und neutraleres Foto.
Wenn Licht in das Kameramodul eintritt, sammelt das Objektiv das einfallende Licht aus der Aufnahme und lenkt es auf den Sensor. Smartphone-Kameras bestehen aus vielen Kunststofflinsen, sogenannten Elementen. Aufgrund der Natur des Lichts werden unterschiedliche Lichtwellenlängen (Farben) beim Durchgang durch eine Linse in unterschiedlichen Winkeln gebrochen. Das bedeutet, dass die Farben Ihrer Szene nicht perfekt ausgerichtet auf den Kamerasensor projiziert werden. Kameras benötigen mehrere Linsen, um ein klares Bild ohne mögliche Unregelmäßigkeiten wie Fehlausrichtungen und andere Effekte an den Sensor zu übertragen.
Wie funktioniert der Fokus bei Smartphone-Kameras?
Die Fokussierung ist ironischerweise nicht der Hauptfokus des Benutzers, da dies normalerweise von den Kameras selbst gesteuert wird. Bis zu einem gewissen Grad kann der Fokus manuell angepasst werden (je nach Telefon), aber in den meisten Fällen leistet die Software so gute Arbeit, dass ein manueller Eingriff unnötig ist. Handykameras verwenden einen dedizierten Sensor und/oder zusätzliche Hardware wie einen Laser-Entfernungsmesser zur Fokussierung.
Der Software-Autofokus verwendet Daten vom Bildsensor, um festzustellen, ob das Bild scharf ist, und passt die Linsen an, um dies auszugleichen. Die übliche Technik des passiven Autofokus basiert auf der Erkennung des Bildkontrasts und der Anpassung des Fokus, bis dieser maximal ist. Diese Methode ist vollständig softwarebasiert und somit die günstigste Option. Der Prozess ist jedoch langsamer und funktioniert bei schlechten Lichtverhältnissen nicht so gut.
Neuere Telefone verwenden den PDAF (Phase Detection Autofocus), der schneller und genauer ist. Sehen Sie sich die Spezifikationen des neuesten iPhone 15 Pro Max an, und Sie werden das PDAF-Tag bei den Kameras bemerken. Letzteres stellt sicher, dass die gleiche Lichtmenge zwei eng beieinander liegende Sensoren auf dem Bildsensor erreicht. Klassische PDAF-Systeme verlassen sich auf diese dedizierten Fotoseiten auf dem Bildsensor, um das von der linken oder rechten Seite des Objektivs kommende Licht zu messen. Wenn die Bildpunkte rechts die gleiche Lichtintensität wie die Punkte links registrieren, ist das Bild scharf. Wenn die Intensität nicht gleich ist, kann das System berechnen, wie viel es kompensieren muss, um ein scharfes Bild zu erhalten, was viel schneller ist als Systeme, die auf Kontrasterkennung basieren.
Ältere PDAF-Systeme nutzen nur wenige Prozent aller Bildpunkte, während neuere, wie das Galaxy S23 Ultra, 100 Prozent nutzen. Zusätzlich zu den linken und rechten Bildpunkten werden auch die oberen und unteren Bildpunkte zur Fokussierung verwendet.
iPhones verfügen seit langem über einen dedizierten LiDAR-Sensor, der den Fokus, die Tiefenwahrnehmung und die Nachtbildgebung verbessert und für Augmented Reality (AR)-Anwendungen nützlich ist.
Vergleich: Kontrast-Autofokus vs. PDAF
Merkmal | Kontrast-Autofokus | PDAF (Phase Detection Autofocus) |
---|---|---|
Funktionsweise | Sucht nach maximalem Kontrast im Bild. | Vergleicht Licht von zwei Positionen auf dem Sensor. |
Geschwindigkeit | Langsam. | Schneller. |
Genauigkeit | Weniger genau bei schlechtem Licht oder sich bewegenden Objekten. | Genauer, besonders bei schlechtem Licht und Bewegung. |
Hardware/Software | Primär Software-basiert. | Benötigt spezielle Pixel (Fotoseiten) auf dem Sensor. |
Kosten | Günstiger. | Teurer in der Implementierung. |
Was ist ein Bildsensor?
Der Sensor ist im Grunde nur ein Silizium-Wafer, von dem viel abhängt. Der Sensor empfängt Licht und wandelt es in elektrische Signale um. Ein Sensor kann mehrere Millionen Pixel haben. Wie können Sie das herausfinden? Wenn Sie eine 100- oder 200-MP-Kamera sehen, bedeutet das, dass der betreffende Sensor 100 oder sogar 200 Megapixel hat. Wenn das Licht vom Objektiv den Bildpunkt nicht erreicht, registriert der Sensor diesen Bildpunkt als schwarz. Wenn der Bildpunkt viel Licht empfängt, zeichnet der Sensor ihn als weiß auf. Die Graustufen, die der Sensor registrieren kann, werden als Bittiefe bezeichnet.
Die meisten Telefone haben eine Bittiefe von 8 Bit, einige jedoch auch 10 Bit. Zum Vergleich: Eine Bittiefe von 8 Bit bedeutet, dass die Kamera 256 Farbtöne für jeden Primärfarbkanal erfassen kann, der zur Mischung des Farbspektrums verwendet wird (Rot, Grün und Blau). Das sind 256 Rottöne, Grüntöne und Blautöne. Insgesamt sind das 16,7 Millionen mögliche Farbtöne. 10-Bit-Kameras können mehr als eine Milliarde Farbtöne erfassen.

Wie nimmt eine Kamera ein Farbfoto auf? Jeder Bildpunkt hat einen Farbfilter, der nur bestimmte Farben durchlässt. Mit seltenen Ausnahmen, wie bei Huawei-Telefonen, die RYYB verwenden (Gelb anstelle von grünen Filtern), wird am häufigsten eine Bayer-Anordnung von Farbfiltern verwendet, die jedes Quadrat (2×2) des Bildpunkts in rote, blaue und zwei grüne Filter unterteilt (RGGB).
Normalerweise summiert eine Kamera, die einen Satz Bayer-Filter verwendet, all diese Farbdaten zu einem Wert, aber Pixel Binning tut dies nicht. Hersteller benötigten eine Möglichkeit, jede Farbe separat zu sammeln.
Zu diesem Zweck entwickelten sie eine sogenannte Quad-Bayer-Anordnung, bei der jeder Pixelgruppe (2×2) eine Farbe zugewiesen wird. Vier davon werden dann zusammengefasst – ähnlich wie beim ursprünglichen Satz von Bayer-Filtern: 2x Grün, 1x Blau, 1x Rot.
Der neue Satz ermöglicht es Smartphone-Herstellern nicht nur, Farbdaten im Prozess der Pixelkombination zu erhalten, sondern auch andere innovative Funktionen wie den HDR-Modus einzuführen.
Kommen wir zurück zu den Sensoren. Bei Sensoren ist auf deren Größe und die Größe der Pixel selbst zu achten. Größere Sensoren können bessere Fotos aufnehmen, da sie mehr Bildbereiche haben, die auch größer sind. Kürzlich sind Smartphones und ihre Kameras in die 1-Zoll-Welt eingetreten. Zum Beispiel gehören das Xiaomi 13 Pro und das vivo X90 Pro zu den ersten, die 1-Zoll-Sensoren verbauen.
Pixel werden in Mikrometern (µm) gemessen. Größere Pixel können mehr Licht absorbieren, was gut für die Nachtfotografie ist. Machen Sie sich keine Sorgen, wenn Ihr Telefon kleinere Pixel als andere Telefone hat. Außerhalb der Nachtfotografie wird es immer noch gute Ergebnisse liefern können. Selbst die besten Samsung-Telefone haben Schwierigkeiten mit kleineren Pixeln. Das Galaxy S23 Ultra verfügt über einen 200-MP-Sensor, was zu 0,6 µm Pixeln führt, während das iPhone 15 Pro Max einen 48-MP-Sensor mit 1,22 µm Pixeln hat. Hersteller haben daher begonnen, die Pixel-Binning-Technologie zu verwenden. Das Galaxy S23 Ultra kombiniert 16 Pixel zu einem, um Fotos mit einer Endauflösung von 12 MP aufzunehmen.
Optische und elektronische Stabilisierung
Stabilisierung ist ebenfalls wichtig, um gute Fotos und Videos aufzunehmen: optische oder elektronische.
OIS (Optical Image Stabilization) ist eine Hardwarelösung, die ein mikroelektromechanisches System (MEMS) Gyroskop verwendet, um Bewegungen zu erkennen und das Kamerasystem entsprechend anzupassen. Beispiel: Wenn Sie ein Smartphone halten und Ihre Hand sich leicht nach links bewegt, erkennt das OIS-System dies und bewegt die Kamera leicht nach rechts. Dies ist besonders wichtig in der Nachtfotografie, wenn die Kamera lange braucht, um Licht einzufangen, wodurch Vibrationen die Qualität des Fotos beeinträchtigen können.
EIS (Electronic Image Stabilization) verlässt sich auf den Beschleunigungsmesser des Telefons, um Bewegungen zu erkennen. Anstatt Teile der Kamera zu bewegen, verschiebt es Bild-Frames oder Beleuchtung. Da die Belichtungen basierend auf dem Bildinhalt und nicht auf dem Bildsensor-Frame ausgerichtet werden, hat das endgültige Bild oder Video eine reduzierte Auflösung.
Vergleich: OIS vs. EIS
Merkmal | OIS (Optische Stabilisierung) | EIS (Elektronische Stabilisierung) |
---|---|---|
Funktionsweise | Bewegt physisch Teile des Kamerasystems (Objektiv/Sensor). | Analysiert Bilddaten und verschiebt Frames/Pixel digital. |
Basis | Hardware (MEMS-Gyroskop). | Software (Beschleunigungsmesser, Bildanalyse). |
Auswirkung auf Auflösung | Keine direkte Auswirkung. | Kann zu einer leichten Reduzierung der Auflösung oder einem kleineren Sichtfeld führen (Crop). |
Effektivität | Wirksamer bei feinen Vibrationen und längeren Belichtungen (Nachtfotografie). | Gut für größere, schnellere Bewegungen (Videoaufnahmen, Schwenks). |
Komplexität/Kosten | Komplexere Hardware, teurer. | Weniger komplexe Hardware, günstiger (hauptsächlich Software). |
Was macht die Software?
Nachdem der Bildsensor das Licht in elektrische Signale umgewandelt hat, ist es die Aufgabe des Bildsignalprozessors (ISP), diese Zahlen in ein Bild umzuwandeln. Die Daten in elektrischen Signalen sind im Wesentlichen ein Schwarz-Weiß-Bild. Der ISP muss zunächst die Farbdaten basierend auf einem Satz von Farbfiltern (Bayer oder etwas anderes) wiederherstellen. Dies erzeugt ein Bild, aber die Pixel haben unterschiedliche Intensitäten von Rot, Grün oder Blau. Es folgt die Farbrekonstruktion, bei der der ISP die Farben der Pixel basierend auf den Farben benachbarter Pixel ändert. Wenn beispielsweise in einem bestimmten Bereich viele grüne und rote Pixel und sehr wenige blaue Pixel vorhanden sind, wandeln die Farbrekonstruktionsalgorithmen diese in Gelb um.
Der ISP verfügt nach der Farbrekonstruktion auch über Algorithmen zur Rauschunterdrückung und Schärfung. Jedes Telefon hat dann seine eigenen spezifischen Algorithmen zur Erzeugung des endgültigen Fotos.
Fragen und Antworten (FAQ)
Warum haben Smartphones mehrere Kameras?
Smartphones haben mehrere Kameras mit unterschiedlichen Objektiven (Haupt-, Ultraweitwinkel, Tele, Makro), um verschiedene Perspektiven und Effekte ohne den physischen Austausch von Objektiven zu ermöglichen. Jede Linse ist für einen bestimmten Zweck optimiert, sei es für weite Landschaftsaufnahmen, Detailaufnahmen oder das Heranzoomen entfernter Objekte.
Was ist der Unterschied zwischen optischem und elektronischem Zoom?
Beim optischen Zoom wird die Brennweite des Objektivs physisch verändert, um das Motiv näher heranzuholen, was zu einem verlustfreien Bild führt. Elektronischer oder digitaler Zoom vergrößert lediglich einen Ausschnitt des Bildes, was zu einem Qualitätsverlust und sichtbarem Rauschen führen kann, je stärker gezoomt wird.
Was bedeutet die f-Zahl (Blende)?
Die f-Zahl gibt das Verhältnis der Brennweite zum Durchmesser der Blendenöffnung an. Eine kleinere f-Zahl (z. B. f/1.8) bedeutet eine größere Blendenöffnung, die mehr Licht auf den Sensor lässt. Dies ist vorteilhaft bei schlechten Lichtverhältnissen und ermöglicht eine geringere Schärfentiefe (Bokeh-Effekt).
Was ist Pixel Binning?
Pixel Binning ist eine Technik, bei der Daten von mehreren benachbarten Pixeln (oft 2x2 oder 4x4) zu einem einzigen "Superpixel" kombiniert werden. Dies geschieht, um die Lichtempfindlichkeit zu erhöhen und das Rauschen zu reduzieren, insbesondere bei schlechten Lichtverhältnissen. Das resultierende Bild hat eine geringere Auflösung als die native Auflösung des Sensors, aber oft eine bessere Qualität bei wenig Licht.
Ist ein Sensor mit mehr Megapixeln immer besser?
Nicht unbedingt. Während mehr Megapixel eine höhere Auflösung ermöglichen, sind auch andere Faktoren wie die physikalische Größe des Sensors und die Größe der einzelnen Pixel wichtig. Ein größerer Sensor mit größeren Pixeln kann mehr Licht einfangen, was zu besserer Bildqualität führt, insbesondere bei schlechten Lichtverhältnissen, auch wenn die MP-Zahl geringer ist als bei einem Sensor mit vielen kleinen Pixeln.
Wenn Sie das nächste Mal Ihr Telefon in die Hand nehmen, die Kamera einschalten und ein Foto machen, wissen Sie, was in dieser Zeit im Hintergrund passiert ist. Sind Sie daran interessiert, wie Smartwatches oder deren Sensoren funktionieren?
Hat dich der Artikel Fokus: Das Geheimnis der Smartphone-Kamera interessiert? Schau auch in die Kategorie Fotografie rein – dort findest du mehr ähnliche Inhalte!