Multimedia Praktikum  Bildgewinnung und Bilddarstellung  

 

 

 

Wie ein Bild entsteht
  oder
Alles Schwindel . . .

Bildgewinnung und Bilddarstellung sind die Themen dieser Vorlesung. Heute beschäftigen wir uns mit der Eingabeseite: der Bildgewinnung. In diesem Bereich wird viel gerechnet, verrechnet, interpoliert. Und wenig war am Anfang so, wie es am Ende zu sein scheint. Warum dies so sein muss, das soll diese Lektion verdeutlichen.

 

Basis der digitalen Bildgewinnung ist der Bild-Sensor. Es gibt unterschiedliche technische Realisierungen für Bild-Sensoren: CCD-Sensoren, CMOS-Sensoren oder Fotoverstärker-Sensoren. Wir werden hier den am häufigsten verwendeten Sensor beschreiben: den CCD-Sensor. Grob skizziert kann seine Struktur wie folgt beschrieben werden:

Der CCD-Sensor besteht aus einer Matrix von Millionen von Fotoelementen, die das auf sie fallende Licht in Ladungen umwandeln. Diese Ladungen werden mit Hilfe eines Analog-Diagital-Wandlers, auch als AD-Wandler bezeichnet, gemessen. Der Transport der Ladungen von den Fotoelementen zum AD-Wandler erfolgt durch CCDs.

Mit dieser oberflächlichen Kurzbeschreibung ist die Marschroute für das Folgende festgelegt. Sie orientiert sich im Wesentlichen an den kursiv gesetzten Begriffen. Es wird in dieser Lektion etwas technisch werden. Aber lassen Sie sich bitte nicht abschrecken. Es ist zu verstehen, wie eine Kamera funktioniert. Lassen Sie sich darauf ein! Sie werden sich eine äußerst interessante Welt erschließen. Darüber hinaus schafft ein solches Wissen Klarheit über einige Probleme und zeigt Wege auf, wie diese in den Griff zu bekommen sind. Außerdem werden wir am Ende der Lektion, wenn wir uns durch alles hindurchgearbeitet haben, durch eine Zusammenfassung in Form eines Comics belohnt werden.

Anmerkung: Zwar steht in dieser Lektion die digitale Kamera im Mittelpunkt, Scanner und  Video-Kamera arbeiten jedoch nach dem gleichen Prinzip.

Die Welt durch einen Strohhalm saugen ...


Wir merken uns:

Jedes Pixel bildet ca.
1,5 Bogenminuten ab.

Die Aufgabe, die zu bewältigen ist, ist klar umrissen. Als Ausgangspunkt haben wir die Lichtstrahlen, die von den Objekten unseres Bildes - Landschaften, Blumen, Personen - ausgehen. Als Ergebnis erwarten wir eine Reihe von Zahlen, die die Farben der einzelnen Punkte des Bildes beschreiben. Damit haben wir implizit schon ein Grundprinzip der digitalen Fotografie vorausgesetzt: das Bild wird gerastert, d.h. als aus einzelnen Zellen, die als Pixel bezeichnet werden, bestehend angesehen. Zwar werden wir in der nächsten Lektion sehen, dass Pixel ein sehr schillernder Begriff ist, aber für das Folgende wollen wir davon ausgehen, dass ein Pixel ein kleines, ja ein winziges Quadrat auf dem entstehenden Bild ist. Optisch betrachtet sehen wir uns die Welt Stück für Stück durch eine enge Röhre an und bewerten das, was wir jeweils sehen, als einen Bildpunkt mit einer Farbe. Wie gesagt, das Auge ist leicht zu täuschen. Wählen wir die Punkte klein genug, so wird es diese Pixelansammlung als kontinuierliches Bild akzeptieren. Wie eng ist aber die Röhre? Nun, eine grobe Abschätzung lässt sich leicht angeben. Alle Kameras bieten Zoom-Objektive mit einem Brennweitenbereich um die so genannte Normalbrennweite an. Auch über diese ist noch zu sprechen. Generell besteht aber Einigkeit darüber, dass die Normalbrennweite einen Winkel von rund 50° abbildet. Nehmen wir an, dass dieser Winkelausschnitt auf 2000 Pixel verteilt wird, so ergibt sich für jedes Pixel ein Winkelausschnitt von rund 1,5 Bogenminuten (= 50 / 2000 °). Bei Verwendung einer Telebrennweite wird ein engerer, bei Verwendung einer Weitwinkelbrennweite ein weiterer Ausschnitt abgebildet. Um diesen Winkel abschätzen zu können, seien zwei Zahlen zum Vergleich angeführt: den Mond sehen wir unter einem Winkel von 30 Bogenminuten, das bloße Auge hat ein Auflösungsvermögen von 2 Bogenminuten. 

Das Fotoelement

 

 

 

 

 


Das Geheimnis des
Halbleiters

Ein Fotoelement ist ein elektronisches Bauteil, das in der Lage ist, die darauf einfallende Lichtmenge zu messen. Grundlage hierfür ist ein quantenmechanischer Vorgang, der so genannte Fotoeffekt. Er beschreibt, wie durch die Bestrahlung mit Licht Elektronen aus ihrem Bindungszustand gelöst und für den Ladungstransport verfügbar werden. Insbesondere bei Halbleitern wie z.B. Silizium ist dieser Effekt zu beobachten und außerdem noch durch die gezielte Verunreinigung (Dotierung) zu verstärken. Ohne näher darauf einzugehen, sei angemerkt, dass diese Verstärkung von Effekten, wie Leitfähigkeit oder Fotoeffekt, durch gezielte Verunreinigung das Grundprinzip der Halbleitertechnik ist.

 

In unserem Fall wird ein dotierter Siliziumkristall genutzt, um das Licht aufzufangen. Die Anzahl der durch die Lichtphotonen losgeschlagenen Elektronen ist abhängig von zwei Parametern:

Dabei ist die Abhängigkeit von der Farbe des Lichts keineswegs hilfreich für unsere Absicht, ein Farbbild aufzunehmen, sondern stellt ein Problem dar, das weit reichende Auswirkungen  auf die technische Realisierung der Kamera-Sensoren hat. Das Lichtbündel, das auf den Sensor fällt, enthält immer Lichtstrahlen mit unterschiedlichen Wellenlängen. Jeder Lichtstrahl löst entsprechend seiner Farbe eine unterschiedliche Anzahl von Elektronen aus dem Siliziumkristall. Die Wolke von freien Elektronen, die insgesamt entstehen, ist die Summe aller diese Einzelanzahlen. Die Gesamtanzahl kann man messen, davon aber auf die Farbe der Einzelstrahlen zu schließen ist unmöglich.

 

 


Spektrale Empfindlichkeit
von Auge und Silizium-kristall;
Spektrum der Sonne

Verwertbare Lichtmessungen erhält man also nur, wenn man den Kristall mit monochromem Licht bestrahlt.  Erschwerend kommt hinzu, dass die Empfindlichkeit eines Siliziumkristalls keineswegs mit der Farbempfindlichkeit des menschlichen Auges übereinstimmt. Ein Bild, das diese Fotoelemente erzeugen, weicht erheblich von unserem Seheindruck ab. Es ist also erforderlich, die  Farbempfindlichkeit des Fotoelementes an die Farbempfindlichkeit des Auges anzupassen. Beide Probleme werden dadurch gelöst, dass die lichtempfindliche Fläche des Fotoelements durch ein monochromes Farbfilter abgedeckt wird. Konkret werden Filter in den Farben rot, blau und grün verwendet.

Der RGB-Farbraum

Eine kurze Anmerkung zum Begriff Farbe. Natürlich ist jedes Fotoelement nur mit genau einem Filter versehen und misst damit auch nur genau die Helligkeit einer Farbe. Wie Ihnen aber wohl bekannt sein dürfte, kann aus den Farben rot, grün und blau eine große Anzahl von Farben des sichtbaren Spektrums zusammengemischt werden. Eine beliebige Farbe dieses Farbraums wird dabei durch ein Zahlentripel beschrieben, das die Rot-, Grün- und Blauanteile der Farbe enthält. Nicht richtig ist es, dass, wie manchmal behauptet wird, alle Farben des sichtbaren Bereichs erreicht werden können. Aber in vielen Fällen, auch in der digitalen Fotografie, beschränkt man sich auf genau den Farbraum, der dargestellt werden kann. Man definiert so einen RGB-Farbraum.

 

Die Bezeichnungen rot, grün und blau sind unphysikalisch und beschreiben eher ein Farbbündel als eine einzelne Farbe. Physikalisch werden Farben präzisiert durch die Angabe ihrer Wellenlänge. Die CIE (Commission Internationale de L'Éclairage)  definiert für einen menschlichen Standardbeobachter diese Werte wie folgt:

 

 blau    450 nm
 grün   550 nm
 rot   600 nm

 

Auch Filter lassen natürlich nicht nur eine Wellenlänge durch, sondern haben jeder für sich eine Durchlässigkeitskurve mit einem Maximum bei der den Filter bezeichnenden Farbe. Für den Sony-Chip ICX406 werden z.B. folgende Filterkurven angegeben:

Der Analog-Digital-Wandler

Als AD-Wandler bezeichnet man ein elektronisches Bauelement, das eine analoge Größe wie die Ladung in eine digitale Zahl fester Länge wie den RGB-Wert einer Farbe umwandelt. Eine Messgröße heißt dabei analog, wenn sie kontinuierlich alle Werte zwischen einem Anfangs- und einem Endwert annehmen kann. Die Anzahl der Stellen dieser binären Zahl ist eine Baugröße des AD-Wandlers. Typische Werte sind 8, 10, 12 und 16. Nach der maximalen Ziffernanzahl n spricht man von einen n-Bit-AD-Wandler (8-Bit-AD-Wandler, 10-Bit-AD-Wandler usw.). Die Größe legt fest, wie viele Farbabstufungen (256, 1024, 4096 bzw. 65536) das Bauelement liefert.

Das Charge Coupled Device

Unter einem CCD versteht man ein Bauelement, das Ladungspakete räumlich transportieren kann, ohne die bewegten Ladungen zu verändern. Wie viele Bauelemente ist auch das CCD ursprünglich für einen ganz anderen Zweck gedacht gewesen. Entwickelt wurde es Ende der 60-er Jahre bei Bell Labs als neue Speichertechnologie. Schon bald stellte sich jedoch heraus, dass dieses Bauelement hervorragend im Bilderzeugungsbereich eingesetzt werden konnte, um die Ladungen von den Fotoelementen zum AD-Wandler zu transportieren. Heute ist dies der Hauptverwendungszweck dieser Technologie.

 

Grundlage ist eine steuerbare Struktur von Ladungssenken und Ladungsbarrieren, mit der ein Siliziumkristall versehen wird. In eine Ladungssenke fließen Ladungen hinein, eine Ladungsbarriere ist für sie unüberwindbar. Durch Anlegen von positiven oder negativen Spannungen können diese Senken und Barrieren gezielt auf- und abgebaut werden. Dieses Bauen von Barrieren und Senken wird so durch einen Takt gesteuert, dass mit jedem Schritt jede Ladung in die jeweils nächste Zelle verschoben wird. Für einen so genannten zweiphasigen Chip ergibt sich dabei die folgende Barrieren-Senken-Folge:
 

 

Der Zwischenschritt  T2 ist notwendig, da benachbarte Ladungen natürlich nicht miteinander in Berührung kommen dürfen. Zum Zeitpunkt T3 haben alle Barrieren und Senken die gleiche Form wie zum Zeitpunkt T1, alle Ladungen sind jedoch eine Zelle nach rechts transportiert worden.

Der CCD-Sensor

 


Datenblatt des
CCD-Sensor ICX406 der Firma Sony

Fotoelemente, AD-Wandler und CCDs sind die Bausteine für den CCD-Sensor.

Die uns im Praktikum zur Verfügung stehende Kamera basiert auf dem 4-MBit-Chip ICX406 der Firma Sony. Es handelt sich hierbei um einen so genannten Interline-CCD-Sensor. Er  hat den folgenden strukturellen Aufbau:

 

 

Die leuchtend bunten Quadrate sind die Fotoelemente mit den entsprechenden Filtern. In einem Chip wie dem ICX406 gibt es hiervon über 4 Millionen. Das Dreieck unten links ist der AD-Wandler, zu dem alle Ladungen transportiert werden müssen, um gemessen zu werden. Die abgeschatteten grauen waagerechten und senkrechten Rechtecke stellen die CCDs dar. Sie werden hier als Register bezeichnet. Von allen Bauteilen sind nur die Fotoelemente dem Licht zugänglich. Alle anderen Bauteile sind abgedeckt, im Chip eingegossen. In den vertikalen CCDs gibt es zu jedem Fotoelement eine danebenliegende CCD-Zelle. Halbleitertechnisch sind Fotoelement und zugeordnetes CCD-Element durch eine Ladungsbarriere getrennt, die aber bei Bedarf abgesenkt werden kann, so dass die im Fotoelement angesammelte Ladung in die CCD-Zelle abfließen kann. Dieses so genannte Gate wird, wie wir sehen werden, als eingebauter Verschluss genutzt. Ein Interline-CCD-Sensor benötigt keinen externen Verschluss. Er muss auch nicht abgedeckt werden, um ihn außerhalb der Belichtungszeit vor Licht zu schützen.

Die Belichtung eines Bildes

Betätigt man den Auslöser der Kamera, um ein Bild zu machen, so laufen im CCD-Sensor die folgenden Aktionen ab.

  1. Belichtung 
    Alle Fotoelemente werden entleert. Dazu gibt es einen eigenen Schaltkreis, den wir hier aber nicht näher beschreiben werden.
    Sobald die Ladungsmenge in den Fotozellen gleich Null ist, beginnt die Belichtungszeit. Man spricht auch von Integrationszeit.
    Während der Integrationszeit füllen sich die einzelnen Fotoelemente gemäß dem auf sie einwirkenden Licht. Erfreulicherweise ist die Ausbeute an freiwerdenden Elektronen linear zur Belichtungszeit. So können durch Variieren der Belichtungszeit unterschiedliche Filmempfindlichkeiten simuliert werden. Störungen wie Rauschen lassen wir an dieser Stelle außer Acht.
    Nach Ablauf der Belichtungszeit wird das Gate geöffnet, und die angesammelte Ladung eines jeden Fotoelements fließt vollständig in die beigeordnete Zelle des vertikalen Registers.
    Das Gate wird wieder geschlossen, und die Ladungen sind in den vertikalen Registern gefangen.
    Damit ist die Belichtung abgeschlossen.
  2. Transport und Messung
    Nun beginnt, gesteuert von einem zentralen Takt, der Transport der Ladungen zu dem AD-Wandler hin. Dabei wird so eine Art Eimerkettenprinzip angewandt.
    Im ersten Schritt werden alle Ladungen in den vertikalen Registern eine Zelle nach unten geschoben.
    Die Ladungen aus den untersten Zellen werden in das horizontale Register geschoben. In diesem gibt es für genau jedes vertikale Register eine Zelle.
    Dann werden die sich jetzt im horizontalen Register befindlichen Ladungen jeweils um eine Zelle nach links geschoben.
    Die Ladung der Zelle ganz links außen wird dabei aus dem Horizontalregister heraus geschoben und dem AD-Wandler zugeführt.
    Im AD-Wandler wird die Ladung gemessen und als eine Zahl in der Speicherzelle eines Halbleiterspeichers abgelegt, die der Position des Ausgangsfotoelements entspricht.
    Mit jedem weiteren Takt wird eine weitere Ladung aus dem horizontalen Register dem AD-Wandler zugeführt, gemessen und abgelegt, bis das Register leer ist.
    Dann werden die Ladungen in den vertikalen Registern wieder um eine Zelle nach unten geschoben. Dadurch  gelangen wieder Ladungen in das horizontale Register. Diese werden nach und nach dem AD-Wandler zugeführt.
    Usw. usw.

Am Ende sind alle Ladungen vermessen und abgelegt.

 

Damit sind wir mit dem arg technischen Teil fast durch, und jetzt wird es wieder bunter. Im Speicher befindet sich jetzt ein erstes Bild unserer aufgenommenen Szene - das Raw-Bild. Das können wir uns ansehen, zumindest einen Ausschnitt davon.

 

Für alle folgenden Beispiele werden wir dieses Foto verwenden, das hier stark verkleinert und bearbeitet dargestellt ist:

Alle folgenden Ausschnitte sind unbearbeitet.

 

Das Ausgangsbild hat eine Größe von  2376 x 1728 Pixeln. Ein unbearbeiteter Ausschnitt aus diesem Raw-Bild hat das folgende Aussehen:

Das Raw-Bild enthält für jeden Bildpunkt nur einen gemessenen Helligkeitswert, deswegen ist ein Graustufen-Bild entstanden.

 

 

 

     Das Bayer-Muster
 

Aber natürlich ist der Sony-Sensor ein Farbsensor. Jede seiner Fotozellen ist durch Farbfilter abgedeckt. Gemessen wurden also durchaus Intensitätswerte für die Farben rot, grün und blau. Allerdings ist für jeden Farbsensor, also auch für jeden Bildpunkt, nur eine dieser Grundfarben vermessen worden. Erst in den Nachbarbildpunkten finden sich Werte für die anderen Grundfarben. Jeweils vier ein Quadrat bildende Zellen sind in diesem Zusammenhang als eine Einheit zu sehen. Davon sind die Zellen links oben und rechts unten mit einem Grünfilter, die beiden anderen je mit einem Rot- bzw. Blaufilter versehen. Diese Anordnung wird als Bayer-Muster bezeichnet. Wird nun jeder Bildpunkt als farbig gemäß seinem Filter interpretiert und werden die Bildpunkte entsprechend eingefärbt, so ergibt sich folgender Ausschnitt:

Eine 10-fache Vergrößerung diese Bildes am Rand des Pilzes bringt das zu Grunde liegende Bayer-Muster zum Vorschein:

Ein ansehnliches Bild ist dies nicht. Wie schon gesagt, muss man diese Ansammlung von Helligkeitswerten mehr als eine Informationssammlung zum Erzeugen eines Bildes als als Foto sehen. Ein Foto entsteht erst durch die aufwendige Anwendung verschiedener Bildbearbeitungsalgorithmen. Welche Algorithmen zur Anwendung kommen und wie sie parametriert werden, ist das Geheimnis eines jeden Kameraherstellers.

 

Man kann aber davon ausgehen, dass alle in einem ersten Schritt für jeden Bildpunkt die fehlenden Intensitätsanteile der nicht vorhandenen Grundfarben dazu interpolieren - für einen grünen Punkt also die Rot- und Blauanteile, für einen blauen die Grün- und Rotanteile usw. Ein nahe liegender Ansatz ist es hierbei, die 4 Punkte des Bayer-Musters als ein Pixel aufzufassen, dessen Farbe sich aus genau diesen Pixeln bestimmt. Wird dies verwirklicht, so ergibt sich allerdings ein Bild mit nur 50 % der Größe des Raw-Bildes:

Erwartungsgemäß erhält man ein recht ansprechendes Ergebnis. Beliebt ist dieses Verfahren aber keineswegs. Würde man es zum Standard erheben, so könnte ein Herrsteller nur noch mit einem Viertel seiner Pixel werben. Eine 4-Megabit-Kamera würde plötzlich zur unattraktiven 1-Megabit-Kamera. Da dies auf keinen Fall gewünscht wird, behält man die Pixelzahl bei und interpoliert die fehlenden Grundfarben für jedes Pixel aus den umliegenden Zellen. Der Algorithmus für dieses Vorgehen ist nicht offengelegt. Es ist aber wohl so, dass dadurch etwas flaue Bilder entstehen, die anschließend der Nachschärfung bedürfen. Dabei wird für meinen Geschmack manchmal über das Ziel hinausgeschossen. Die Anwendung des Canon-Raw-Converter auf das Pilzbild mit 50%-iger Skalierung ergibt den folgenden Ausschnitt:

Rauschen

Der komplizierte technische Prozess der Bilderzeugung ist nicht unanfällig gegen Störungen. Insbesondere Rauschen ist so allgegenwärtig wie die Staubfussel beim Diarahmen. Unter Rauschen versteht man jede unerwünschte Veränderung des eigentlichen Nutzsignals. Solange das Verhältnis von Nutzsignal zu Störsignal (signal-to-noise-ratio; SNR) groß bleibt, kann das Rauschen vernachlässigt werden. Das ist aber keineswegs in jeder Situation der Fall.

 

Die bekannteste Form des Rauschens ist das thermische Rauschen. Fotoelemente haben die unangenehme Eigenschaft, nicht nur bei Lichteinfall Elektronen frei zu setzen, sondern auch bei Wärmeeinwirkung. Es rauscht. Dabei ist der Einfluss der Temperatur erheblich. Bei einem typischen CCD-Sensor ist das thermische Rauschen bei 20° ca. 100 Mal so groß wie bei 0°. Dennoch kann man bei kurzen Belichtungszeiten das Rauschen ignorieren. Wundern Sie sich aber nicht, wenn Ihre Fotos bei klirrender Kälte kontrastreicher werden als im Hochsommer am Strand. Bei Langzeitaufnahmen ab ca. 1 sec ist das Rauschen aber nicht mehr zu übersehen. Auf diese Art kann man das thermische Rauschen auch leicht fotografieren. Nehmen Sie bei Zimmertemperatur Ihre Kamera. Stellen Sie die höchste Empfindlichkeit ein. Wählen Sie die größte Blende. Wählen Sie die längste Zeit. Decken Sie das Objektiv völlig ab und fotografieren Sie die Dunkelheit. Nach diesem Rezept ist das Bild des folgenden Ausschnitts entstanden.

Der Hintergrund ist nicht schwarz wie bei einer perfekten rauschfreien Kamera, sondern mit einem unregelmäßigen Muster bedeckt - dem Rauschen. Astro-Fotografen kennen diesen Effekt und kühlen ihre Astro-Kameras bis auf -100°. So kann man auch eine rauschfreie Stundenbelichtung erhalten. Das thermische Rauschen ist aber längst nicht die einzige Störung unseres Ladungsstroms auf seinem langen Weg vom Fotoelement zum Speicher. Kodak führt in seinen Datenblättern nicht weniger als 10 Rauschquellen auf, die die Qualität der aufgenommen Bilder beeinträchtigen. Im Normalfall, d.h. kurze Belichtungszeiten bei heller Sonne, kann man sie jedoch alle vernachlässigen.

 

Damit haben wird die Grundzüge der Bildgewinnung kennen gelernt. Als Abrundung seien aber noch ein paar Anmerkungen angefügt.

Weitere Sensor-Typen

CMOS-Sensoren

Neben den CCD-Sensoren finden besonders die so genannten CMOS-Sensoren Verwendung in digitalen Kameras. Bei diesen Sensoren besitzt jedes Fotoelement einen eigenen AD-Wandler. Die CMOS-Technik macht eine solche dichte Integration von Bauelementen möglich.

 

Der Vorteil liegt auf der Hand. Jedes Element kann direkt ausgelesen werden, der aufwendige Ladungstransport entfällt. Außerdem ist die Herstellung dieser Sensoren mit geringeren Kosten verbunden. Die Nachteile ergeben sich aus den Fertigungstoleranzen der vielen integrierten AD-Wandler. Dadurch werden für gleiche Ladungen in unterschiedlichen Zellen unterschiedliche Werte geliefert. Das Ergebnis waren ungleichmäßige Bilder.

 

Die Nachteile überwogen lange Zeit die Vorteile, und diese Sensoren wurden nur für kleine Web-Cams ohne große Qualitätsansprüche verwendet. Das änderte sich radikal mit der Vorstellung der Canon D30. Dies war eine hochwertige digitale Spiegelreflexkamera mit einem 3-MBit-CMOS-Sensor. Sie lieferte hervorragende Bilder, die durchaus an die Qualität von CCD-Bildern heranreichten oder diese sogar übertrafen. Canon hat diesen Weg inzwischen konsequent mit neuen Kameras und größeren Chips fortgesetzt. Dieser erstaunliche Qualitätsfortschritt wurde aber wohl weniger durch Fortschritte in der Technik als vielmehr durch Fortschritte in den Algorithmen erreicht. Insbesondere werden die Messdifferenzen der verschiedenen AD-Wandler bei der Auswertung der Ladungen berücksichtigt.

Der Foveon-Chip

Eine höchst interessante Entwicklung hat im Jahr 2002 den Markt erreicht - der X3-Chip der Firma Foveon. Er enthält Bauelemente, die wie ein Film in mehreren sich überlagernden Schichten an jeder Stelle alle 3 Grundfarben misst. Für eine Anordnung gemäß dem Bayer-Muster besteht hier also keine Notwendigkeit mehr. Auch eine von mir so misstrauisch beäugte Interpolation von Farbwerten mit Hilfe der Nachbarpunkte entfällt.

Die Firma Sigma hat inzwischen die Kamera SD9 mit einem 3-MBit-Foveon-Chip auf den Markt gebracht.

Bauformen von CCD-Sensoren

Wir haben oben einen so genannten Interline-CCD-Sensor beschrieben. Daneben gibt es noch zwei weitere Bauprinzipien von Bedeutung.

Full-Frame-CCD-Sensor

Beim Full-Frame-Sensor dient die Matrix der Fotoelemente selbst als CCD, also zum Ladungstransport. Eine zusätzliche CCD-Zelle neben jedem Fotoelement entfällt.

Der Vorteil liegt darin, dass man die gesamte Fläche des Chips als Lichtempfänger verwenden kann, da der abgedeckte Teil für das Nachbar-CCD entfällt. Der Nachteil ist, dass man bei dieser Bauform einen externen mechanischen Verschluss vorsehen muss, da sonst der Lichteinfall während des Ladungstransports das Messergebnis verfälschen würde.

Frame-CCD-Sensor

Der Frame-CCD-Sensor ist in zwei zusammenhängende Blöcke eingeteilt. Im Fotoelementeblock reihen sich die Fotoelemente ohne dazwischen liegende CCD-Register direkt aneinander. Im danebenliegenden CCD-Block gibt es für jedes Fotoelement eine CCD-Zelle. Der Fotoblock ist für das Licht frei zugänglich, der CCD-Block ist abgedeckt. Am Ende der Belichtung werden die Ladungen in einem Taktschritt in den CCD-Block befördert. Der Rest läuft so ab, wie für den Interline-Sensor beschrieben.

Auch hier ist der Vorteil darin zu sehen, dass jedes Fotoelement die gesamte Fläche bis zu seinen Nachbarn nutzen kann. Der Nachteil ergibt sich aus der vergrößerten Bauelementefläche des Sensors. Der CCD-Block benötigt auch seinen Platz. Das Bauelement wird dadurch teurer.

Nachbesserung für den Inline-CCD-Sensor

Der Hauptnachteil des Inline-Sensors liegt darin, dass das Fotoelement nur einen Teil der Fläche einnimmt, die vom Licht beschienen wird. Daneben liegt ja die zugehörige CCD-Zelle, und diese ist abgedeckt. Der Teil des Lichtes, der darauf fällt, wird nicht ausgewertet. Insgesamt gibt dies eine bis auf 40% reduzierte Lichtausbeute. Nachgebessert wird dies durch so genannte Mikro-Linsen. Dies sind kleine Linsen, die über jedem Paar von Fotoelement und CCD-Zelle angebracht werden. Sie bündeln das gesamte Licht so, dass es ausschließlich auf das Fotoelement fällt.

 


 

Die 4 von Zeile 13 ...

Damit beenden wir diese Lektion. Wenn Sie jetzt alles verstanden haben, dann überprüfen Sie ihr Wissen doch bitte an der nebenstehenden Geschichte, die unsere Vorlesung noch einmal zusammenfasst..