Die digitale Fotografie.
Was hat sich nicht verändert?
Für eine gute Aufnahme sind nach wie vor der richtige Blick für das Motiv, eine kreative Bildgestaltung und ausreichendes Licht erforderlich.
|
Was hat sich verändert?
Das Bild wird nicht mehr über einen Film sondern über einen Bildsensor in Verbindung mit einer ausgefeilten Elektronik der Kamera und schnellen auswechselbaren Speicherkarten aufgenommen. Die Speicherkarteninhalte werden entweder über einen Computer ausgelesen oder direkt einem Drucker zugeführt. Je nach Bild- und Speichergröße können mehrere hundert oder tausend Bilder gespeichert werden. Einzelne Bilder oder der gesamte Speicher können im Handumdrehen gelöscht werden. Objektive von analogen Kameras sind nur bedingt einsetzbar. Schräg einfallendes Licht der analogen Objektive mindert unter Umständen die tatsächliche Lichtintensität auf dem Sensor. Analoges Filmmaterial ist zum Teil nur noch im eingeschränkten Umfang erhältlich. Analoge Kamerasysteme haben ihren Wert beinahe vollständig verloren. Die hohe Flexibilität, die geringere Zeitaufwendung und die niedrigeren Kosten sprechen für die digitale Fotografie.
|
Digitale Bildsensoren. Das Bild wird durch die Qualitätskette Sensor, Bildprozessor und Objektiv bestimmt. Der Sensor selbst kann im Wesentlichen über die Bauart, Anzahl der Pixel und Pixelgröße charakterisiert werden. Zu den gängigsten Bauarten gehören der CCD-Sensor (Charge Coupled Device) und der CMOS-Sensor (Complementary Metall Oxide Semicondutor). Je nach Kamerasystem sind 10 bis 60 Megapixel mit Abmessungen zwischen 3 und 8 µm üblich. Die Pixel kennzeichnen die Fotodioden. In den Fotodioden setzen einfallendes Licht Elektronen in Bewegung, die erzeugte Ladung wird mittels A/D-Wandler der Kameraelektronik in binäre Werte konvertiert. Über jedem Pixel befinden sich ein Farbfilter - der nur das Licht einer Primärfarbe (Rot, Grün oder Blau) durchlässt - und wiederum darüber eine Mikrolinse. Die Mikrolinse hat die Aufgabe, den seitlichen Lichteinfall möglichst senkrecht auf die Pixel zu leiten, optimal zu bündeln und Farb- und Helligkeitsdifferenzen zu kompensieren sowie das Rauschen mit zu minimieren. Der wesentliche Unterschied zwischen den beiden Sensortypen ist jener, dass beim CCD-Sensor die Elektronen vom Sensor weggeleitet und erst außerhalb in elektrische Spannungen umgewandelt werden. Beim CMOS-Sensor geschieht dies bereits hinter der Fotodiode mittels eines Transistors. Der Vorteil des CMOS-Sensors soll die hohe Empfindlichkeit und die kostengünstige sowie kompakte Bauweise sein. Je nach Qualität der gesamten Systemkette lassen sich Bilder mit geringem Rauschen erzielen. Der CMOS-Sensor wird vornehmlich bei Kleinbildkameras erfolgreich eingesetzt. Der in der Regel größere und damit teuere CCD-Sensor wird in Mittelformat- und Großformatkamerarückteilen verwendet und soll gegenüber den CMOS-Sensor Anwendungen weniger rauschen und einen größeren Dynamikumfang bieten. Durch die fortschreitenden Entwicklungen gelten beide Sensortypen in ihren Anwendungsbereichen als qualitativ hochwertig. Auf die Details der Sensor Ausführungen und Entwicklungen soll hier nicht eingegangen werden. Zukünftige Sensor Entwicklungen werden die digitale Fotografie noch wesentlich verbessern.
 |
Ausschnitt:
Farbfilter über der Pixelmatrix. |
Die Farbfilteranordnung über den Pixeln ist so angelegt, dass abwechselnd in einer Reihe nur grünes und rotes Licht und in der nächsten Reihe nur blaues und grünes Licht von den pixelgroßen Fotodioden gemessen wird. Diese Filteranordnung auf dem Sensor ergibt (entsprechend der Wahrnehmung des menschlichen Auges für die Farbe Grün) zu 50% grüne und jeweils zu 25% rote und blaue Filterpunkte. Da die Pixel unter den Farbfiltern nur Informationen zu einem Farbanteil liefern, müssen jeweils 3 benachbarte Pixel mit den Filtern für Rot, Grün und Blau zur Ermittlung der tatsächlichen Farbe herangezogen werden. Die effektive Zahl der wahrgenommenen Farbpunkte ist deshalb kleiner als die angegebene Pixelzahl des gesamten Sensors. Erst durch einen speziellen Algorithmus der Farbinterpolation zwischen den einzelnen Pixeln wird danach jedem Pixelplatz eine Farbe zugeordnet. Die Farbinterpolation für die einzelnen Plätze führt zu einer gewissen Unschärfe, die entweder noch in der Kamera oder in der softwaretechnischen Nachbearbeitung korrigiert werden kann.
Bei einer Farbtiefe von 8 Bit (28 = 256 Farben) pro Pixel stehen für die Farbdarstellung mit den 3 Primärfarben 28 x 28 x 28 = 224 = 16,77 Mio. Farben aus dem RGB-Farbraum (Rot, Grün und Blau) zur Verfügung. Die stattliche Zahl von 16,77 Mio. Farben umfasst nur einen Teil der Farben des menschlichen Wahrnehmungsvermögens (CIE-LAB-Modell). Hochwertige Sensoren haben eine Farbtiefe von 12, 14 oder 16 Bit pro Pixel und bieten damit mehr Raum für Farbkorrekturen.
Die obige Farbreihe zeigt gesättigte Farben des 8 Bit RGB-Farbraums. Jede Farbe aus dem RGB-Farbraum kann als Vektor mit 3 Komponenten dargestellt werden. Für die gesättigten Primärfarben gilt (255, 0, 0) für Rot, (0, 255, 0) für Grün, (0, 0, 255) für Blau. Die dargestellten subtraktiven Farben haben die Vektorskalare (0, 159, 227) für Cyan, (230, 0, 126) für Magenta und (255, 255, 0) für Yellow. Die Komponenten lauten für die Farben Weiß (255, 255, 255) und Schwarz (0, 0, 0). Eine beliebige Farbe wie Braun besitzt z. B. die Werte (69, 58, 54). Die dargestellten Farben lassen sich mit Hilfe eines professionellen Bildbearbeitungsprogramms schnell selbst überprüfen. Ändert man bei der Aufnahme einer Grauwertkarte in einer Belichtungsreihe die Blende jeweils um 1/3 des Blendenwertes erhält man den unteren Kodak-Grauwertstufenkeil. Die Grauwertstufe M besitzt die Farbsignale (127, 127, 127). Der an der Grauwertkarte gemessene und der an der Kamera eingestellte Belichtungswert führen zu einer ausgewogenen Belichtung des Motivs. Würde die fotografierte Grauwertkarte auf dem Bild der Grauwertstufe A entsprechen, wäre das Bild um 2 1/3 Blendenstufen überbelichtet und bei der Grauwertstufe B um 3 Blendenstufen unterbelichtet.
Ein Bild im Dateiformat RAW kann nicht direkt auf dem Display der Kamera bzw. auf dem Display des Computers betrachtet werden. Die schnelle Vorschau erfordert immer erst eine kameraspezifische RAW-Daten-Konvertierung bzw. für den Computer einen RAW-Daten-Konverter. Die Rohdaten müssen erst für die Anzeige und die weitere Verarbeitung aufbereitet werden. Die Hauptschritte sind das Auflösen des obigen Mosaik-Farbmusters und die oben erwähnte Farbinterpolation. Bewährt haben sich für viele, schnelle Aufnahmen komprimierte Datenformate wie JPEG und GIF; durch diese direkte Komprimierung gehen aber die Farben mit einer größeren Farbtiefe als 8 Bit verloren. Die wichtigsten Bildkorrekturen wie Weißabgleich, Unterdrückung des Rauschens, Farbsättigung, Kontrast, Schärfe, etc. sollten deshalb vor der Komprimierung in JPEG- und GIF-Dateien erfolgen. Die RAW-Daten können verlustfrei in 8 oder 16 Bit TIFF-Dateien umgewandelt werden, diese können aber nicht mehr in die ursprünglichen RAW-Daten zurück konvertiert werden. Die Farbinterpolationen können nicht mehr rückgängig gemacht werden. RAW-Daten mit einer Farbtiefe von 10, 12 oder 14 Bit werden bei der Konvertierung in das TIFF-Format immer mit einer 16 BIT Farbtiefe abgelegt. Die Datenplätze der fehlenden Farbstufen bleiben frei. Ein größerer Farbraum des Bildsensors, z.B. 3 x 14 BIT, erlaubt differenziertere Farbkorrekturen. Für den Farbdruck ist ein Drucker mit einer gesamten Farbtiefe von 48 BIT mehr als ausreichend.
Der Speicherplatzbedarf pro Bild für im RAW-Format verlustfrei komprimierte Daten beträgt bei einer Sensorgröße von 16 Megapixeln und einer Farbtiefe von 12 Bit ca. 14 MB und bei einer Sensorgröße von 24 Megapixeln und einer Farbtiefe von 14 Bit ca. 28 MB. Werden die verlustfrei komprimierten RAW-Daten aufbereitet, d.h. die oben genannten Grundkorrekturen - insbesondere auch die Unterdrückung des Rauschens - durchgeführt und nicht komprimiert im TIFF-Format abgelegt, ist ein Speicherplatzbedarf pro Bild zwischen 50 und 100 MB erforderlich. Für Schwarz-Weiß-Aufnahmen werden nur Graustufen von 8 Bit benötigt. Der Speicherplatzbedarf pro Bild würde gegenüber den oben genannten Farbaufnahmen mit 14 und 28 MB bei gleicher Sensorgröße und gleicher Farbtiefe bzw. gleichen Graustufen nur ca. 2,41 und 3,0 MB betragen.
|
Sensorformate.
Bei gleichem Bilddurchmesser eines Objektivs kann bei einem Seitenverhältnis von 4:3 gegenüber jenem von 3:2 eine um ca. 30% größere Bildfläche genutzt werden. Die Abmessungen eines Sensors mit dem Seitenverhältnis von 4:3 einer MicroFourThirds-Kamera betragen z.B. 17,3 x 13 mm mit 16 Megapixeln. Verglichen zum Vollformatsensor der Größe 24 x 36 mm mit 24 Megapixel ist der notwendige Bilddurchmesser des MicroFourThirds-Objektivs nur halb so groß, die Objektive bauen kompakter und sind leichter. Für die Aufnahme eines gleichgroßen Motivs vom selben Standort aus ist die Brennweite des MicroFourThirds-Objektivs nur halb so groß wie die des Objektives vom Vollformatsensor. Mit halber Brennweite und gleicher Blendenzahl verdoppelt sich die Tiefenschärfe. Dies wiederum bedeutet auch, dass bei schlechteren Lichtverhältnissen und weiter geöffneter Blende mit dem MicroFourThirds-System eine größere Tiefenschärfe erzielt werden kann. Für die subjektive, ästhetische Qualität der Unschärfe in einer Aufnahme wird das Synonym Bokeh verwendet. Durch die größere Tiefenschärfe ergeben die MicroFourThirds-Objektive ein anderes Bokeh z.B. im Bildhintergrund. Es ergibt sich aber die gleiche Unschärfe bei einem MicroFourThirds-Objektiv gegenüber einem Vollformat-Objektiv, wenn die Brennweite und der Objektabstand verdoppelt werden. Die Verdoppelung des Objektabstands dürfte in vielen Fällen ein Kriterium sein. Der weitere subjektive Eindruck der Unschärfe wird beeinflusst durch das Licht und die Lichtreflektion zum Objektiv und dürfte unabhängig vom System der Kamera sein.
Die Pixelanzahl wird auf dem kleineren Sensor zum Teil durch kleinere Pixel (3,75 µm) wieder kompensiert, dabei verringert sich aber ggfs. die Farbtiefe. Die Auflösung des oben genannten Vollformatsensors beträgt 5976 x 3992 Pixel und die des MicroFourThirds-Sensors 4608 x 3456 Pixel. Vergleicht man die im RAW-Format unter ISO 200 aufgenommenen Bilder, so schneidet nach eigenen Untersuchungen die MicroFourThirds-Kamera erstaunlich gut ab. Bei der Kamera mit dem kleineren Sensor nimmt allerdings das Rauschen oberhalb ISO 800 stärker zu als bei der Kamera mit dem größeren Sensor, merkliches Rauschen tritt hier erst oberhalb ISO 3200 auf. Dennoch sind Sensorgröße und Anzahl der Pixel nicht die alleinigen Qualitätskenngrößen einer digitalen Kamera.
Kameragehäuse und Objektive verschiedener Hersteller passen in der Regel nicht zusammen. Für gängige Kameras und Fremdobjektive existieren Adapter, mit denen eine Kopplung möglich ist, Schärfe und Blende werden dabei nicht automatisch sondern nur manuell eingestellt. Dieser Nachteil ist bereits von analogen Kamerasystemen bekannt. Eine Ausnahme bilden digitale Kameras mit dem standardisierten MicroFourThirds-Objektivbajonett. Die Datenübertragung zwischen diesen Kameras und einem MicroFourThirds-Objektiv bleibt erhalten.
|
Sensorfehler (Artefakte).
Vorbemerkung: Die Qualität der digital erstellten Bilder wird zunächst durch die Qualität des Bildsensors und die Güte des verwendeten Objektivs bestimmt. Die Anzahl der Pixel ist nicht das einzige Kriterium für die Qualität der Bilder. Die Qualität der gedruckten Bilder hängt unter anderem vom Farbmanagement des Computer-Monitors bzw. Druckers, einer erforderlichen Farbkonvertierung und der vorgewählten Druckerauflösung ab. Die Druckerauflösung wird in dpi (dots per inch) angegeben. Mit zunehmendem Bildbetrachtungsabstand kann die Druckerauflösung z.B. von 300 dpi auf 75 dpi verkleinert werden. Ein hochwertiger Bildsensor der Größe 18 x 12 mm mit 16 Megapixeln erlaubt Vergrößerungen bis DIN A3 mit 300 dpi bzw. bis DIN A1 mit 75 dpi. Zu den gängigsten Farbräumen zählen der sRGB- und Adobe-RGB-Farbraum, die wahlweise an der DSLR-Kamera eingestellt werden. Für den Farbdruck werden subtraktive Farben benötigt, es ist zuvor der additive in den subtraktiven Farbraum umzuwandeln. Der additive sRGB-Farbraum hat drei (Red, Green und Blue) und der druckerspezifische subtraktive CMYK-Farbraum vier Farbkanäle (Cyan, Magenta, Yellow und Black). Der sRGB-Farbraum deckt besser die Farben des Bildschirms, nicht aber alle Farben aus dem CMYK-Farbraum des Druckers ab. Vor allem im Grün- bis Türkisbereich treten Farbdefizite auf, die durch den "größeren" Adobe-RGB-Farbraum besser abgedeckt werden. Der Adobe-RGB-Farbraum zeigt u.a. auch kräftiger leuchtende Farben, die zwar vom Drucker nicht aber vom LCD-Monitor wiedergegeben werden. Je nach Farbdominanz fehlender Farben verschlechtert sich die Bildqualität. Diese Farbdefizite sind keine Fehler der Bildsensoren, sondern sind die Ursache eines unzureichenden Farbmanagements der verwendeten Geräte. Dem Farbmanagement ist deshalb eine besondere Aufmerksamkeit zu widmen. Es sind erforderlich:
- Das dargestellte Bild besitzt einen definierten Farbraum.
- Die bilddarstellende Software unterstützt das Farbmanagement.
- Es existieren genormte Farbprofile für die Ausgangs- und Eingangsfarben
zwischen den Geräten
Besteht zwischen dem Computer und dem peripheren Gerät eine vollständige, kompatible (treibergestützte) Verbindung, lassen sich in der Regel über die Farbverwaltung des Computers die Farbprofile der Geräte einstellen. Die Abweichungen von den standardisierten ICC-Farbprofilen, z.B. vom Monitor und Drucker, müssen durch eine separate Kalibrierung der Geräte kompensiert werden. Im einfachsten Fall erfolgt dies über Farbvergleiche, professionell mit Hilfe eines Kolorimeters. Intern wird bei den Farbprofilen noch zwischen einem Scanner bzw. einer Digitalkamera, einem Monitor oder Drucker unterschieden. Die Farbprofile enthalten auch die Umrechnungen zwischen verschiedenen Farbräumen. Der Beschreibung ist zu entnehmen, dass der Umgang mit dem Farbmanagement Erfahrungen erfordert, falls der Vorgang nicht weitestgehend automatisiert im Computer abläuft.
Zu den klassischen digitalen Bildfehlern gehören:
Bildrauschen
Farb- und Helligkeitsabweichung der Pixel vom eigentlichen Bild. Negative Einflüsse sind eine thermische Belastungen des Sensors, dunkle Bildbereiche, lange Belichtungszeiten und schräg einfallendes Licht.
Moiré-Muster
Überlagerung zweier versetzter Raster- oder Punktmuster (z.B. bei farbigen Gewebemustern).
Kompressionsartefakte
Strukturverschleierung durch im JPEG-Format stark komprimierte Bilder.
Blooming
Pixel können bei einer Überbelichtung nur eine begrenzte Ladungsmenge aufnehmen. Die Weiterleitung der Ladung an Nachbarpixel führt zu einer Art Kettenreaktion, sichtbar als weiße Streifen.
Smear
Senkrechte weiße Streifen unterhalb einer überbelichteten Lichtquelle.
Rolling-Shutter-Effekt
Verzeichnungen durch den Schlitzverschluss, Räder werden oval.
|
Eigenschaften der Objektive.
Die Brennweite, die Lichtstärke, die optischen Fehler und der Bereich der Fokussierung kennzeichnen die Eigenschaften eines Objektivs. Zu den wichtigsten optischen Fehlern gehören:
Vignettierung (Lichtabfall zu den Objektivrändern)
Chromatische Aberration (Farbsäume, Prismen Effekt)
Bildfeldwölbung (Kissen- und Tonnenverzeichnung)
Astigmatismus (Schärfefehler aufgrund von schräg einfallendem Licht)
Sphärische Aberration (kein einheitlicher Brennpunkt über der Bildfläche)
Koma (Asymmetriefehler, runder Gegenstand wird zum Bildrand hin oval und unscharf abgebildet)
Mittlerweile stehen von mehreren Herstellern hochwertige und lichtstarke Objektive mit besonderen Konstruktionsmerkmalen für die digitale Fotografie zur Verfügung. Mit speziellen Glassorten, asphärischen und apochromatisch korrigierten Linsen sowie mit speziellen Beschichtungen der Linsen werden hervorragende Objektivleistungen erzielt. Es empfiehlt sich, nur hochwertige Objektive zu verwenden. Zoomobjektive erhöhen die Flexibilität in der Fotografie, die schnelle Anpassung der Brennweite dient mit der Bildgestaltung und Bildqualität. Mit zunehmendem Zoombereich nimmt aber die Abbildungsqualität des Objektivs ab. Objektive mit Festbrennweiten sind in der Regel lichtstärker, besitzen eine bessere Abbildungsqualität und sind leichter und kleiner. Apropos Objektiv- und Kameragröße, nicht nur die Sensorgröße der Kamera, sowie die Lichtstärke, die Autofokuseinrichtung und die Brennweite des Objektivs bestimmen die Größe des Objektivs, sondern auch die Schnittweite zwischen Sensor und der hinteren Linse des Objektivs. Bei spiegellosen, so genannten Kompakt- bzw. Messsucherkameras bauen deshalb hochwertige Objektive erstaunlich klein und kompakt. Dies gilt insbesondere für Objektive mit sehr kurzen Brennweiten. Statt Schwenkspiegel und Prismensucher erfolgt die Bildbetrachtung digital. Der Einsatz eines Teleobjektivs führt in der Regel zu einer höheren Bildqualität gegenüber einem gleich großen Bildausschnitt aus der Aufnahme mit einem Normalobjektiv, obwohl bei gleichem Objektabstand und gleicher Blende die Tiefenschärfe mit dem Teleobjektiv geringer ist. Um mit dem Normalobjektiv nahezu die gleiche Bildqualität wie mit dem Teleobjektiv zu erhalten, müsste nicht nur die Abbildungsqualität des Normalobjektivs extrem hoch sein, sondern die Sensorauflösung um das Brennweitenverhältnis beider Objektive im Quadrat größer sein, was zu einer unrealistisch großen Pixelanzahl auf dem Sensor führen würde. Mehr Pixel auf einem gleich großen Sensor verkleinert die Pixelgröße. Kleinere Pixel reduzieren in der Regel wiederum die Farbdynamik bzw. die Farbtiefe der Aufnahme. Ändert man den Objektabstand mit dem Teleobjektiv und dem Normalobjektiv so, dass das Motiv jeweils formatfüllend aufgenommen wird, ist die Tiefenschärfe beider Aufnahmen zwar gleich, jedoch zeigen bei räumlichen Objekten die beiden Aufnahmen unterschiedliche Objektperspektiven. Von Ausnahmen abgesehen decken 3 Zoomobjektive den gesamten Brennweitenbereich der Kleinbildfotografie ab. Dies sind Objektive mit den Zoombrennweiten von 15 bis 28 mm, von 24 bis 105 mm und von 100 mm bis 400 mm. Zusätzlich empfiehlt es sich, ein Objektiv mit hoher Lichtstärke, z.B. 1:1,4 / 90 mm, für Aufnahmen bei wenig Licht zu besitzen. Der erste Bereich der Zoombrennweite wird für die Architektur-, der zweite für die Allroundfotografie und der dritte für Sport- und Fernbeobachtungen verwendet.
Stimmen die auf dem Kameramonitor wiedergegebenen Farben nicht mit den Farben der gedruckten Bilder überein, ist die Ursache in den nicht einheitlichen Farbräumen von Monitor, Drucker und Fotopapier zu suchen. Erst mit Hilfe des oben kurz erläuterten Farbmanagements können in guter Näherung natürliche Farbwiedergaben erzielt werden.
|
DSLR- und DSL-Kameras.
Die Abkürzung DSLR steht für digital single lens reflex Kamera. DSL- Kameras weisen keinen Schwenkspiegel und Prismensucher auf. Die Objektbetrachtung erfolgt über ein Videosystem. Die wesentlichen Vorteile der digitalen Kameras sind die sofortige Bildbetrachtung, die erhöhte Flexibilität in der Fotografie und die schnelle Bildverarbeitung. Das Fotolabor wird durch die eigene Bildbearbeitungssoftware und den Farbdrucker ersetzt. An der Kamera wird entweder manuell oder automatisch die lokale Farbtemperatur des Lichtes über den integrierten Weißabgleich eingestellt. Der Bildstabilisator aus der analogen Fotografie wird zweckmäßigerweise vom Objektiv in das Kameragehäuse verlagert. Die Ausstattung der Objektive reduziert sich auf die optischen Eigenschaften und das Autofokussystem. Mittels einer LCD-Anzeige kann bei vielen Modellen eine horizontale und vertikale Kameraausrichtung vorgenommen werden. Die Blitztechnik umfasst eine Langzeitblitzsynchronisation und einen ersten und zweiten Blitzvorhang. Kompatible Systemblitze erlauben eine automatische HSS TTL bzw. FP TTL Messung mit Verschlusszeiten bis zu 1/8000 s. Der Systemblitz mit dem High Speed Shutter bzw. Focal Plane Shutter System leuchtet gleichmäßig während der Schlitz des Verschlusses über den Sensor streicht. Die Kameras besitzen erweiterte Belichtungsmessmodi, erlauben schnelle Serienaufnahmen und eine Mehrfachbelichtung, eine Vorwahl der Bildauflösung und des Dateiformats, eine Dateikonvertierung (z.B. vom RAW- in das JPEG-Format, etc.), eine direkte Bildbearbeitung (z.B. Gegenlichtkorrekturen) und eine Fernbedienung. Bei der drahtlosen Fernbedienung werden die Kameraeinstellungen als auch die Kameraauslösung mittels Smartphone über WLAN ausgeführt. Nicht zuletzt können digitale Kameras HD Video Filme erstellen und vieles andere mehr.
Im Vergleich zu der obigen Aufzählung strahlt die einfache, analoge Kamera Nostalgie aus. Kamerahersteller überbieten sich mit Zusatzfunktionen. Die Anzahl der Einstellknöpfe bestimmt auf jeden Fall nicht die Qualität der Kamera bzw. die der fotografierten Bilder.
Abschließende Bemerkung.
Für die gute Aufnahme wird nicht nur eine digitale Kamera benötigt, sondern für die digitale Bearbeitung der Bilder ist zusätzlich ein Computer mit einer professionellen Software zur Bildbearbeitung erforderlich. Professionelle Aufnahmen werden zunächst im RAW-Format erstellt. Die Bearbeitung der RAW-Daten setzt den geübten Umgang mit der Bildbearbeitungssoftware voraus. Selbst bei einer technisch hochwertigen Kamera führt erst dieser Weg zu optimalen Bildergebnissen. Ferner sind ein High-End-Fotofarbdrucker und ein Beamer mit entsprechender Leinwand wünschenswert. Das schnelle, einfache Foto im komprimierten, verlustbehafteten JPEG-Format wird dadurch nicht in Frage gestellt.
Der Schwenkspiegel bei digitalen Spiegelreflexkameras kann als nostalgisches "Überbleibsel" aus der analogen Fotografie angesehen werden. Der digitale Sensor erlaubt auch eine hochauflösende Videobetrachtung des zu fotografierenden Objektes. Bei schwachem Licht kann die Helligkeit des Suchers angehoben werden. Der Schwenkspiegel fällt weg und damit Geräusche und Erschütterungen. Durch die geringere Schnittweite zwischen dem Sensor und der hinteren Objektivlinse werden aus den klobigen DSLR-Kameras kompakte, hochwertige DSL-Kameras mit kleineren Wechselobjektiven.
Die obigen Ausführungen sind persönliche Erfahrungen des Autors und erheben keinen Anspruch auf eine vollständige Darstellung der Thematik. Es empfiehlt sich jedoch, vor dem Kauf einer neuen, teuren Digitalkamera, diese vorab gründlich zu testen. Beim Vergleich mit einer zweiten Kamera ist darauf zu achten, dass die Objektive und die Grundeinstellungen beider Kameras und natürlich auch das Motiv identisch sind. Zu der Entscheidung, welche Kamera ausgewählt wird, gehört auch die Überlegung, was letztlich in der Weiterverarbeitung mit den Bildern auf der Speicherkarte erfolgen soll.
|
Copyright © : Dr. Günter R. Langecker
Langecker@a1.net
Stand: Juni 2011
Fenster schließen