Lesezeit ca. 10 Min.
arrow_back

Zukunftsvisionen


Logo von fotoMAGAZIN
fotoMAGAZIN - epaper ⋅ Ausgabe 110/2022 vom 11.10.2022

REPORT

Artikelbild für den Artikel "Zukunftsvisionen" aus der Ausgabe 110/2022 von fotoMAGAZIN. Dieses epaper sofort kaufen oder online lesen mit der Zeitschriften-Flatrate United Kiosk NEWS.

Bildquelle: fotoMAGAZIN, Ausgabe 110/2022

Entgegen mancher Werbeversprechen brachten die letzten Jahre keine Revolution in der Fototechnik; dennoch haben sich viele kleine Verbesserungen zu einem technologischen Höchststand in der Geschichte der Fotografie aufsummiert. Ob es um minimales Rauschen, einen hohen Dynamikumfang oder die Korrektur von Abbildungsfehlern geht: Aktuelle Kameras und Objektive stellen die besten Produkte früherer Jahrzehnte in den Schatten und bleiben dabei noch relativ erschwinglich. Das Potenzial für inkrementelle Verbesserungen scheint allerdings teilweise erschöpft zu sein; Fortschritte in der Sensortechnologie beispielsweise beschränkten sich zuletzt meist auf die Geschwindigkeit, während bei der Bildqualität nahezu Stillstand herrscht. Daher liegt es nahe, die Hoffnung auf alternative Technologien zu setzen, die erneute Entwicklungssprünge bringen könnten.

Wohlgemerkt ist keine der im Folgenden ...

Weiterlesen
epaper-Einzelheft 6,99€
NEWS Jetzt gratis testen
Bereits gekauft?Anmelden & Lesen
Leseprobe: Abdruck mit freundlicher Genehmigung von fotoMAGAZIN. Alle Rechte vorbehalten.
Lesen Sie jetzt diesen Artikel und viele weitere spannende Reportagen, Interviews, Hintergrundberichte, Kommentare und mehr aus über 1050 Magazinen und Zeitungen. Mit der Zeitschriften-Flatrate NEWS von United Kiosk können Sie nicht nur in den aktuellen Ausgaben, sondern auch in Sonderheften und im umfassenden Archiv der Titel stöbern und nach Ihren Themen und Interessensgebieten suchen. Neben der großen Auswahl und dem einfachen Zugriff auf das aktuelle Wissen der Welt profitieren Sie unter anderem von diesen fünf Vorteilen:

  • Schwerpunkt auf deutschsprachige Magazine
  • Papier sparen & Umwelt schonen
  • Nur bei uns: Leselisten (wie Playlists)
  • Zertifizierte Sicherheit
  • Freundlicher Service
Erfahren Sie hier mehr über United Kiosk NEWS.

Mehr aus dieser Ausgabe

Titelbild der Ausgabe 110/2022 von Comeback für APS-C. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Comeback für APS-C
Titelbild der Ausgabe 110/2022 von Im Laich der Frösche. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Im Laich der Frösche
Titelbild der Ausgabe 110/2022 von BILD FORUM. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
BILD FORUM
Titelbild der Ausgabe 110/2022 von NEWS-TICKER. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
NEWS-TICKER
Mehr Lesetipps
Blättern im Magazin
Kontrastreiche Bilder mit HDR-Displays
Vorheriger Artikel
Kontrastreiche Bilder mit HDR-Displays
Attraktive Ergänzungen
Nächster Artikel
Attraktive Ergänzungen
Mehr Lesetipps

... beschriebenen Technologien wirklich neu; tatsächlich werden sie schon seit zehn bis zwanzig Jahren erforscht, beginnen jetzt aber den Weg aus den Forschungslaboren auf den Massenmarkt oder könnten ihn bald finden.

FLACHE LINSEN

Objektive, wie wir sie kennen, basieren auf der Lichtbrechung: Wenn Licht von einem Medium mit geringerer optischer Dichte (Luft) in eines mit größerer Dichte (Glas) eintritt, wird es von seinem Weg abgelenkt – und ebenso, wenn es wieder aus Glas in Luft übertritt. Die Ursache dieser Lichtbrechung liegt darin, dass sich die Lichtwellen in einem optisch dichteren Medium langsamer ausbreiten. Um auf diesem Wege Bilder zu erzeugen, müssen die Glaselemente in der Mitte dicker als am Rand sein, sodass Lichtwellen unterschiedlich lange Wege durch das Glas zurücklegen und unterschiedlich stark gebrochen werden, je nachdem, wo sie auf die Linse treffen. Eine einzelne Linse produziert allerdings Abbildungsfehler, die sich nur durch die Kombination mehrerer Linsen mit unterschiedlichen Formen und aus unterschiedlichen Glassorten korrigieren lassen. Im Ergebnis muss in Objektiven viel Glas verbaut werden, was sie groß und schwer macht.

Metalinsen

Substrat

Verkapselungs-Schicht

Abstandhalter

CMOS-Sensor

Diffraktive Optiken, die auf der Beugung statt der Brechung des Lichts beruhen, erlauben die Konstruktion flacher Linsen (siehe fM 10/2022), die aber mit herkömmlichen Linsen kombiniert werden müssen. Mit sogenannten Meta-Oberflächen lassen sich dagegen flache Optiken ohne Glaslinsen entwickeln. Solche Meta-Oberflächen enthalten Strukturen im Nanometer-Maßstab, die ähnlich wie die Elemente der früher üblichen Fernsehantennen wirken. Diese bündelten die Funkwellen, indem sie deren Ausbreitungsgeschwindigkeit verringerten. Dieses Funktionsprinzip lässt sich auf Licht übertragen, bei dem es sich ja ebenfalls um elektromagnetische Wellen handelt, nur um solche mit einer viel kleineren Wellenlänge, die im Nanometer-Bereich liegt. Entsprechend kleiner, und zwar noch kleiner als die Wellenlänge, können die Licht-Antennen dimensioniert sein.

12-Zoll-Waver mit 5000 Linsen 1-mm-Linse

Säulen im Nanometer-Maßstab

10fache Vergrößerung

20fache-Vergrößerung

Meta-Oberflächen werden mit einer ähnlichen Technologie und den gleichen Maschinen wie Halbleiter-Chips hergestellt: In einem lithographischen Verfahren werden schützende Masken auf ein Trägermaterial aufgebracht und die gewünschten Strukturen dann herausgeätzt – ein Säurebad greift nur die Bereiche an, die nicht durch die Maske geschützt sind. Je nach der Größe und Form der Nanostrukturen wird die Ausbreitungsgeschwindigkeit des Lichts in unterschiedlichem Maße verzögert. So kann eine extrem dünne Scheibe das Licht brechen – präziser sogar, als es mit einer dickeren und schwereren Glaslinse möglich wäre.

Flache Linsen aus Meta-Oberflächen werden inzwischen in industriellem Maßstab hergestellt. Dazu hat sich das 2016 gegründete Startup Metalenz () mit dem Halbleiterhersteller STMicroelectronics zusammengetan und eine flache Linse für einen Time-of-Flight-Sensor entwickelt. Solche ToF-Sensoren messen die Laufzeit von reflektiertem Laserlicht und können so eine Tiefenkarte der Umgebung berechnen. Unter anderem werden sie in Smartphones verbaut, die auf Basis der Tiefenkarte eine künstliche Hintergrundunschärfe für Aufnahmen mit dem Hauptkameramodul erzeugen, das aber weiterhin herkömmliche Linsen verwendet. Flache Linsen aus Meta-Oberflächen werden bislang auf eng begrenzte Wellenlängenbereiche abgestimmt. Wäh- rend der Laser eines ToF-Sensors dazu passend eine feste Wellenlänge hat, muss eine Optik für fotografische Zwecke im gesamten Bereich des sichtbaren Lichts von etwa 400 bis 700 Nanometern mit gleich hoher Qualität abbilden. Mit flachen Linsen ist das noch nicht möglich. Ähnliches gilt für ein am National Laboratory of Solid State Microstructures der chinesischen Nanjing University entwickeltes flaches Ultraweitwinkelobjektiv, das auf blaues Licht mit einer Wellenlänge von 470 Nanometern abgestimmt ist. An der Entwicklung breitbandigerer Meta-Oberflächen wird derzeit gearbeitet, aber bis die Fotografie mit flachen Linsen möglich ist, werden wohl noch einige Jahre vergehen.

PD: Photodiode TRG: Transfer Gate FD: Floating Diffusion

Photodiode Pixel-Transistor

Einzelner Pixel

Pixelebene Schaltkreise

Fotodioden Pixel- Transistoren

Schaltkreise

Herkömmlicher Stacked-CMOS-Sensor. Stacked-CMOS-Sensor mit neuer, zweischichtiger Transistor-Pixel-Technik.

MEHR SCHICHTEN

Das Potenzial der klassischen CMOS-Sensortechnologie ist weitgehend ausgereizt. BSI-Sensoren, die von der Rückseite belichtet werden – wobei unter der Vorderseite des Chips die Seite verstanden wird, auf der die Schaltkreise herausgeätzt und die Sensorpixel durch Leiterbahnen verbunden werden –, können bereits einen großen Teil der Pixelfläche nutzen, um Licht aufzufangen und die durch auftreffende Photonen freigesetzten Elektronen zu sammeln. Auf den Chip integrierte Analog/Digital-Wandler digitalisieren die elektrische Spannung an jedem Pixel. Da der Strom dazu keine weiten Wege zurücklegen muss und die parallele Digitalisierung von allen Pixeln einer Zeile relativ viel Zeit für die Spannungsmessung einzelner Pixel lässt, ist das im Sensor entstehende Rauschen bereits auf ein Minimum reduziert. Bei niedrigen ISO-Werten ist die Bildqualität durch die kaum noch zu vergrößernde Kapazität für elektrische Ladungen beschränkt, während im hohen ISO-Bereich das Licht der limitierende Faktor ist. Hohe Empfindlichkeiten bedeuten eine knappe Belichtung; wenn dann Rauschen sichtbar wird, ist das überwiegend Photonenrauschen, also das vom Sensor unabhängige Rauschen des Lichts selbst. Dieses lässt sich nur mit mehr Licht reduzieren – also niedrigere ISO-Werte.

Der einzige Ausweg besteht darin, die Komponenten eines Sensorpixels nicht mehr allein auf der vom immer engeren Pixelraster vorgegebenen Fläche unterzubringen, sondern die dritte Dimension auszunutzen. „Stacked“ – also gestapelte – Sensoren werden bereits eingesetzt: Sie bestehen aus zwei oder mehr Chips, die durch Millionen elektrischer Kontakte verbunden sind. Bislang werden diese aufwendigen Konstruktionen vor allem dazu genutzt, die A/D-Wandler vom Rand des Chips auf eine darunter liegende zweite Ebene zu verlagern, auf der auch noch Platz für einen schnellen Pufferspeicher bleibt. So lassen sich noch mehr parallel arbeitende Wandler für eine höhere Auslesegeschwindigkeit unterbringen. Der Kameraprozessor wird dabei nicht überfordert, da dieser die Rohdaten nach seinem eigenen Tempo aus dem Zwischenspeicher ausliest.

Gestapelte Sensoren, wie sie bislang von Canon, Fujifilm, Nikon, OM Digital Solutions und Sony eingesetzt werden, sind also vor allem schneller; die Bildqualität verbessern sie dagegen nicht. Das könnte sich ändern, wenn eine von Sony vorgestellte Technologie marktreif wird, die nicht nur die A/D-Wandler, sondern Teile der Sensorpixel selbst auf eine zweite Ebene auslagert. Ein typischer CMOS-Sensorpixel besteht neben der Fotodiode, die Licht in Elektrizität umwandelt und die elektrische Ladung speichert, aus einigen weiteren Transistoren, die sich die Pixelfläche mit der Fotodiode teilen. Sonys neue Technologie räumt der Fotodiode nun die gesamte Fläche in der oberen Ebene ein, während die Transistoren in der Ebene darunter liegen. Damit werden die Pixel mit ihrer vergrößerten Fotodiode lichtempfindlicher und können größere Ladungen speichern. Die Transistoren dürfen ebenfalls wachsen und arbeiten daher rauschärmer. Das Ergebnis sind Pixel mit einem dank der größeren Ladungskapazität höheren Dynamikumfang und einem gleichzeitig gesteigerten Rauschabstand. Eine qualitative Verbesserung um jeweils rund eine Blendenstufe erscheint realistisch.

Die Aufteilung der Pixel-Schaltkreise auf zwei Chip-Ebenen ist technisch her- ausfordernd, denn dazu muss eine Vielzahl elektrischer Kontakte zwischen den Chips hergestellt werden, die kurz sind und absolut zuverlässig arbeiten. Die Sony-Ingenieure erreichen dies, indem sie zunächst die Verbindungen herstellen und die lithographisch erzeugten Schaltkreise dann an den Kontakten ausrichten. Es gibt allerdings noch keinen Zeitplan, wann diese Technologie reif für die industrielle Produktion sein könnte. Die ersten vermarktbaren Produkte werden voraussichtlich Sensoren für Smartphones sein, aber auch größere Sensorformate könnten von Zwei-Schicht-Pixeln profitieren.

ORGANISCHE SENSOREN

Auch andere unkonventionelle Ansätze, die von Sensoren erzeugte Bildqualität zu verbessern, nutzen die dritte Dimension. Panasonic arbeitet schon seit vielen Jahren an einem Sensor mit einer organischen Halbleiterschicht auf dem Sensorchip, die die Aufgabe der fotoelektrischen Konversion übernimmt und bei auftreffenden Photonen Elektronen freisetzt, die in den darunter liegenden Sensorpixeln nur noch gespeichert werden müssen. Ein Prototyp eines Super-35-mm-Sensors für eine Videokamera – das Format entspricht annähernd APS-C – wurde mehrfach auf Messen vorgeführt, ist aber noch immer nicht im praktischen Einsatz. Diese Technologie erscheint vor allem deshalb attraktiv, weil sich die Empfindlichkeit der organischen Schicht über eine angelegte Spannung steuern lässt; so kann man neben einem variablen ND-Filter auch einen globalen elektronischen Verschluss realisieren, indem die Empfindlichkeit vor und nach der Belichtung auf Null reduziert wird. Verzerrungen bewegter Motive und Streifenmuster bei gepulsten LED-Lichtquellen würden damit der Vergangenheit angehören.

QUANTENPUNKTE

Eine andere Lösung für die fotoelektrische Konversion ist ein dünner Film aus sogenannten Quantenpunkten – nanotechnologisch hergestellten Halbleiterstrukturen, die sich auf bestimmte Wellenlängen abstimmen lassen. In manchen Fernsehgeräten dienen Quantenpunkte, um helles Licht in einem schmalen Wellenlängenbereich zu erzeugen, ohne dass dazu Farbfilter nötig wären. Sie lassen sich aber auch in der umgekehrten Richtung nutzen, also zur Umwandlung von Licht in Elektrizität.

Das kalifornische Startup InVisage arbeitete schon seit 2006 an Quantenfilm-Sensoren und entwickelte einen Prototyp. Nachdem Apple das Unternehmen 2017 aufgekauft hatte, wurde es jedoch ruhig um diese Technologie; zwei Jahre später stellte Apple die Weiterentwicklung ein. In jüngster Zeit haben Wissenschaftler der südkoreanischen Chung-Ang-Universität dieses Konzept wieder aufgegriffen und einen Sensor mit drei Schichten von Quantenpunkten entwickelt, die für unterschiedliche Wellenlängenbereiche sensibilisiert sind – in der ersten Schicht für Blau, in der zweiten für Blau und Grün und in der dritten für alles sichtbare Licht. Damit erscheint der Sensor als Alternative zu Sigmas Foveon-Sensor, dessen Pixel ebenfalls alle Grundfarben registrieren können.

Der Aufbau des Sensors ist extrem einfach, denn die in den drei Schichten freigesetzten Elektronen werden gemeinsam in einem einzigen Ladungsspeicher gesammelt; aufwendige vertikale Verbindungen sind unnötig. Leider geht damit aber auch die Information verloren, welche Farbe das Licht hatte, das die Elektronen freisetzte. Nur wenn die Helligkeit in jedem Pixel bekannt ist, lässt sich die Farbe aus der Anzahl der Elektronen rekonstruieren, da blaues Licht in allen drei Schichten Elektronen erzeugt, rotes Licht aber nur in der untersten und grünes Licht in zwei Schichten. Als Alternative zu herkömmlichen Bildsensoren eignet sich dieser Sensor daher noch nicht; der erste Prototyp der koreanischen Wissenschaftler hat zudem eine sehr geringe Auflösung, die nur bei etwa einem Tausendstel des Standards gängiger CMOS-Sensoren liegt. Unklar ist auch, ob die spektralen Empfindlichkeitsbereiche der verschiedenen Quantenpunkte nicht zu steil begrenzt sind, was einer feinen Farbdifferenzierung entgegen stünde.

NEUE BAYER-MUSTER

Auch auf der Basis konventioneller Sensorchips können allein durch alternative Muster der Farbfilter und unterschiedliche Größen der Mikrolinsen neuartige Varianten mit vorteilhaften Eigenschaften entstehen. In den Kameramodulen von Smartphones findet man oft Sensoren mit 40 Megapixeln und mehr, deren Pixel Farbfilter im Quad-Bayer-Muster haben. „Quad-Bayer“ heißt, dass jeweils 2 × 2 Pixel für dieselbe Grundfarbe empfindlich sind und diese Blöcke von vier Pixeln insgesamt ein Bayer-Muster bilden, bei dem sich in einer Zeile Grün und Rot und in der nächsten Grün und Blau abwechseln. Während sich die Filterfarbe beim klassischen Bayer-Muster von Pixel zu Pixel ändert, wechselt sie bei Quad-Bayer dagegen erst alle zwei Pixel.

Rechnet die Kamera die Pixel jedes für die gleiche Farbe empfindlichen Blocks zusammen, so erhält man ein Bild mit einem Viertel der Sensorauflösung, aber auch einem um zwei Blendenstufen höheren Dynamikumfang und Rauschabstand. Bei guten Lichtverhältnissen kann das Ka- meramodul aber auch die volle Auflösung nutzen. Dazu werden die Rohdaten der Sensorpixel zunächst in ein virtuelles Bayer-Muster umgerechnet und diese Daten dann wie gewohnt weiterverarbeitet. Gegenüber Sensoren mit echtem Bayer-Muster bleibt die effektive Auflösung zwar etwas zurück, aber der Vorteil dieses Farbfilterarrangements liegt darin, dass man flexibel zwischen hoher Auflösung und großem Rauschabstand und Dynamikumfang umschalten kann.

Der Dynamikumfang lässt sich noch weiter vergrößern, wenn jede zweite Pixelzeile kürzer belichtet wird, indem diese Pixel später als die anderen auf Null zurückgesetzt werden. Aus zwei knapper und zwei reichlicher belichteten Pixeln kann die Kamera dann ein HDR-Bild berechnen – einen ähnlichen Kniff hatte Fujifilm schon vor 13 Jahren bei seinen EXR-Sensoren angewandt.

Das Quad-Bayer-Muster wird bislang nur in Smartphones eingesetzt, aber ein auf den ersten Blick ganz ähnlicher Sensortyp findet sich mittlerweile auch in einer Systemkamera – der OM-1 von OM Digital Solutions. Diese Quad-Pixel- (OM) oder 2×2 OCL-Sensoren (Sony) haben ebenfalls Blöcke von 2 × 2 Pixeln mit Filtern gleicher Farbe, aber während alle Pixel eines Quad-Bayer-Sensors unter einer eigenen Mikrolinse liegen, gibt es bei einem Quad-Pixel-Sensor nur eine gemeinsame Mikrolinse für jeden Block von vier Pixeln.

Sofern das Objektiv auf das dort abgebildete Motivdetail fokussiert ist, sehen alle vier Sensorpixel dasselbe Licht; daher kann man ihren Output nur miteinander verrechnen, statt sie für eine höhere Auflösung getrennt auszuwerten. Anders sieht es hingegen aus, wenn der Fokus vor oder hinter dem Motiv liegt, denn dann blicken die vier Sensorpixel jeweils in eine etwas andere Richtung. Aus dieser Phasenverschiebung lässt sich berechnen, wo der optimale Fokus läge, und damit ein Phasendetektions-Autofokus realisieren. Ähnlich Canons Dual-Pixel-Sensoren kann eine Phasenverschiebung in jedem Ausschnitt der Sensorfläche gemessen werden und nicht nur in speziellen AF-Messfeldern. Da unter jeder Mikrolinse aber vier statt zwei Pixel liegen, kann der Autofokus auf horizontale ebenso wie auf vertikale Muster scharfstellen.

Octa PD, Sonys neuestes Sensorkonzept, das unter anderem in Smartphones von Google und Huawei verwendet wird, kombiniert einige der Vorteile von Quad-Bayer- und Quad-Pixel-Sensoren. Der Grundaufbau entspricht dem eines Quad-Bayer-Sensors, sodass Bilder mit der vollen Sensorauflösung und einer auf ein Viertel reduzierten Auflösung erzeugt werden können. Unter jeder Mikrolinse liegen allerdings zwei Sensorpixel, womit es insgesamt acht Sensorpixel unter dem gleichen Farbfilter gibt, die sich vier Mikrolinsen teilen. Der Phasendetektions-AF bleibt damit zwar hinter dem eines Quad-Pixel-Sensors zurück, da sich nur die Funktion von Linien- statt von Kreuz-AF-Sensoren nachbilden lässt, aber dafür können die Pixel in geraden und ungeraden Zeilen eines Octa-PD-Sensors unterschiedlich lange belichtet werden, um HDR-Bilder zu erzeugen. Diese HDR-Funktion steht auch dem Autofokus zur Verfügung, sodass weder eine Überbelichtung heller noch eine Unterbelichtung dunkler Bildbereiche eine erfolgreiche Fokussierung verhindert – und zwar selbst dann, wenn am Ende ein Bild mit voller Sensorauflösung und damit ohne eine HDR-Option aufgenommen wird. Octa-PD-Sensoren könnten auch eine Alternative für Systemkameras sein, da sie viele der Vorteile von Sensoren mit großen wie mit kleinen Pixeln bieten, wenn auch nur umschaltbar und nicht in einer Aufnahme.

FAZIT

»Neue gestapelte Sensoren könnten schon bald Einzug in viele Kameras halten.«

Der technische Fortschritt braucht gewöhnlich Jahre, bis neue Entwicklungen reif für den praktischen Einsatz im Massenmarkt sind. Neue Anwendungen gestapelter Sensoren könnten schon recht bald einen weiteren Entwicklungssprung bringen; neue Farbfiltermuster müssten nur den Sprung von den Smartphones zu den Systemkameras vollziehen. Die Versprechen von organischen und Quantenpunktsensoren bleiben noch uneingelöst und die Technologie flacher Linsen aus Meta-Oberflächen muss noch ihre Tauglichkeit für das gesamte sichtbare Licht nachweisen, bevor sie die Fotografie revolutionieren kann.