Gestalteter Titel-Schriftzug
Gestalteter Titel-Schriftzug

Grundlagenwissen: die Kamera kennenlernen

Inhaltsverzeichnis

Einleitung

Auch wenn das hier der insgesamt fünfte Workshop ist, den ich auf unserer Seite veröffentliche, denke ich, dass dieses Thema geradezu danach schreit, an vorderer Stelle auf der Auswahlseite zu stehen.

Ich werde hier versuchen, für den Anfänger ein klein wenig Starthilfe zu geben und diejenigen, die bisher dachten, ihre schweineteure Ausrüstung macht die besten Bilder alleine, eines Besseren belehren. Gerade Letztgenannten muss in meinen Augen geholfen werden. Denn wie oft sieht man sie vor Schlössern und Kirchen stehen, die Besitzer von Spiegelreflex- und vergleichbaren Kameras. Und wie oft hört man das Klacken, wenn sich kurz vorm Auslösen im Automatikmodus der Blitz ausklappt und anschließend endstimmungsgleich tausende Quadratmeter Szenerie durch dieses Wunderwerk der Technik in gleißendes Licht getaucht wird...

Der letzte Punkt war übertrieben? Gut, dann erklärt das vielleicht auch, warum die Bilder trotz der immensen Investition nichts geworden sind. Je mehr man für das Equipment ausgibt, desto mehr kann man damit machen. Soweit ist es noch logisch, oder? Hier allerdings zu verstehen, dass die Kamera mit steigenden Ausgaben umso mehr selbst macht, ist ein großer Trugschluss. Diese Geräte können sehr viel, aber sie wollen bedient werden. Ein Handy macht Bilder. Und die Kompaktknipse. Und vielleicht auch noch die Einstiegs-Systemkamera. Mit dem (semi-)professionellen Modell macht man Bilder, und das ist ein großer Unterschied! Lebt Eure Phantasie aus, gestaltet Euer Bild – aber macht es selbst. Die Kamera weiß nicht, ob das Auto scharf sein soll oder ob Ihr die Bewegung mit einfangen wollt. Sie weiß auch nicht, ob der Kölner Dom hinter dem Portrait Eure(s/r) Liebsten scharf sein soll oder nicht.

Wenn Ihr also aufhören wollt zu knipsen und anfangen wollt zu fotografieren, können Euch die nächsten Zeilen den Einstieg erleichtern. Ihr werdet es danach nicht können, aber Ihr habt eine Basis zum Üben!

Der Aufbau von digitalen Kameras mit Wechselobjektiven

Den Sensor und das Objektiv haben sie alle gemein. Auch die Kleinsten, aber die lasse ich hier absichtlich außen vor. Danach hören die Gemeinsamkeiten schon wieder auf, treffen sich allerdings kurz danach auch schon wieder, sobald das Thema Einstellung an der Reihe ist. Entsprechend werden die Punkte nach dieser Kurzbeschreibung der verschiedenen Produktgruppen auch wieder für alle der genannten Kameratypen gültig sein.

Spiegelreflexkameras (SLR)

Noch gelten die DSLRs (das"D" steht für "digital") als Nonplusultra, wenn es darum geht, das Beste für sein Geld zu bekommen. Ob diese Aussage immer noch berechtigt ist, wird mehr und mehr auch von den hierzulande eher drittklassigen Fotomagazinen in Frage gestellt. Allerdings meiner Meinung nach nicht so, dass es der angehende Endanwender auch versteht. Will man das Potential des Sensors wirklich ausnutzen, bekommt man mit dieser Bauweise tatsächlich das Optimum. Geht es einem nur um eventuelles Experimentieren, und man will sonst nur ein brauchbares Werkzeug für gute Bilder haben, sollte man durchaus auch offen für die Konkurrenz sein.

In allen Kameras dringt das Licht – das Bild – durch das Objektiv ein, wird darin gebündelt, dehnt sich wieder aus und trifft in diesem Fall erst einmal seitenverkehrt und auf dem Kopf stehend auf den Spiegel. Dieser leitet das Bild nach oben in das Prisma, das dieses wieder entdreht und korrekt ins Auge des Betrachters am Okular lenkt. Ist jener nun mit seiner Bildgestaltung zufrieden, drückt er den Auslöser.

Das Betätigen dieses unscheinbaren Knopfes löst eine ganze Reihe von Ereignissen aus:

  • Der schon beschriebene Spiegel klappt hoch und im Sucher wird es Nacht.
  • Im Objektiv schließen sich die Blendenlamellen auf den von der Kamera voreingestellten Wert; was das genau heißt, darauf kommen wir im Kapitel "Die Blende" noch zu sprechen.
  • Hinter dem Spiegel sitzt der zweiteilige Verschluss, der dafür zuständig ist, die vorgegebene Belichtungszeit auf den wiederum dahinter liegenden Sensor einzuhalten. Ein sogenannter Vorhang öffnet den Verschluss, der zweite schließt ihn wieder, so dass das Bild von oben nach unten (oder umgekehrt) belichtet wird. Es ist also prinzipiell so, dass eine Seite des Sensors Millisekunden früher aufgenommen wurde als ihr Gegenüber.
  • Der Sensor empfängt letztendlich Pixelzeile für Pixelzeile die Lichtmenge, die ihm der Verschluss gegönnt hat, und berechnet danach je nach Aufbau das Bild, das gleich darauf auf der Karte gespeichert und auf dem Display angezeigt wird.
  • Der Verschluss fährt wieder in den Ausgangszustand, die Blende geht wieder auf, der Spiegel klappt nach unten und im Sucher geht die Sonne auf.

Es sei mir verziehen, dass ich hin und wieder die korrekten Termini auslasse. Ich denke, das Thema wird auch so recht schnell theoretisch, und wer es fachlicher haben möchte, ist in der Wikipedia ohnehin besser bedient.

(spiegellose) System- und Messsucherkameras

Nehmen wir es genau, sind alle beschriebenen Bauweisen Systemkameras. Es hat sich aber scheinbar so eingebürgert, dass dieser Begriff meist für die Spiegellosen benutzt wird, eben Modelle wie Sony NEX oder auch die zahlreichen MicroFourThirds-Varianten von Panasonic und Olympus.

Wer hätte es gedacht, einen Spiegel gibt es hier nicht. Das Licht trifft direkt den Sensor und wird über Display oder digitalem Sucher ausgegeben. Vorteile hat das durchaus, wenn man beispielsweise monochrom aufnehmen möchte und sieht das zu erwartende Ergebnis bereits schwarz-weiß bei der Komposition. Wer das bei einer Spiegelreflex hinbekommt, vor dem ziehe ich den Hut...

Ich persönlich ziehe das tatsächliche Livebild vor, auch wenn es Wahnsinn ist, was die kleinen Monitore – vor allem sucherseitig – heutzutage zu leisten imstande sind. Der Sensor selbst hat so natürlich wesentlich mehr Arbeit, und was man (noch) als Nachteil sehen könnte, ist die schlechtere Performance des Kontrastautofokus. Bauartbedingt sind die im Strahlengang der SLRs verbauten Sensoren schneller als die, die direkt über den Sensor laufen. Grund dafür ist, dass erstgenannte nicht nur erkennen, wann das Bild scharf ist, sondern auch wissen, ich welche Richtung sie dafür fokussieren müssen. Das ist ganz nebenbei auch der Grund, warum komfortables Arbeiten im LiveView zumindest bei älteren DSLR-Modellen nicht unbedingt gegeben ist. Gut, die Technik entwickelt sich weiter und eher früher als später wird der Unterschied in den Geschwindigkeiten wohl nur noch messbar sein.

Durch den fehlenden Spiegel haben die Hersteller die Möglichkeit, die Kameras wesentlich kleiner zu konstruieren. Ob sie dadurch besser zu handhaben sind, sollte wohl jeder selbst entscheiden.

Nicht unerwähnt sollen hier auch die Messsucherkameras für den etwas größeren Geldbeutel sein. Die Rede ist da wohl nur von den M-Modellen der Firma Leica. Das reine Aufnahmesystem entspricht dem der "normalen Systemkameras", auch wenn die Bildqualität einer Leica immer noch irgendwie besonders ist. Die Materialanmutung und die Verarbeitungsqualität gehen damit einher; der Preis allerdings auch, wenn man bedenkt, dass man mit einem oder höchstens zwei Objektiven prompt im fünfstelligen Eurobereich angekommen ist.

Autofokus bieten speziell diese Wertanlagen dafür nicht. Der namensgebende Sucher legt hier über eine komplizierte Mechanik je nach Entfernung zwei Bilder übereinander. Und wenn das dann passt, kann ausgelöst werden.

Ein Kompromiss bietet hier vielleicht Fujifilm, die mit Ihren Hybridsuchern versuchen, einen brauchbaren Mittelweg zu finden. Muss man nicht all zu sehr aufs Geld achten, sollte man durchaus mal austesten, ob man mit dieser Variante arbeiten kann.

SLT-Kameras

Beim Schreiben dieses Artikels war Sony der einzige Hersteller, der diese Technik produziert. Es handelt sich hierbei prinzipiell um eine Spiegelreflex, der nicht der Spiegel – dafür aber der Reflex fehlt. Der Spiegel ist fest verbaut und teil-durchlässig, und so haben die Kameras den Vorteil, die Autofokus-Vorzüge sowie das Livebild der SLRs zu nutzen und zugleich den Sensor die Aufnahme machen zu lassen. Ohne mich je tiefer in die Materie eingearbeitet zu haben, denke ich trotzdem, dass das ein oder andere Quäntchen Licht auf diesem Wege verloren gehen könnte und bin mir nicht ganz sicher, ob dies zumindest für mich etwas wäre. Wer Filmaufnahmen mit seinem Fotoapparat aber höher priorisiert als ich das tue, der könnte an dem System meiner Meinung nach durchaus Gefallen finden.

Der Bildsensor

additive FarbmischungDen Bildsensor als das Herzstück der Kamera zu bezeichnen, ist sicherlich nicht der falsche Ausdruck. An den meisten Qualitätsmerkmalen der fertigen Aufnahme ist er wesentlich beteiligt. Um zumindest grundlegend zu verstehen, wie dieses hochfeine Stück Silizium funktioniert, bedarf es einem klein wenig Vorstellungsvermögen.

Lassen wir die Farben zuerst einmal außen vor und reden nur über hell und dunkel. So hat jedes Pixel des Sensors die Eigenschaft, Helligkeitsabstufungen zu speichern (bei guten Kameras sind dies beispielsweise über 16.000 solcher Stufen). Man stelle sich also das Licht als Wassertropfen vor und jedes Sensorpixel als Eimer. Ist es an einer Bildposition sehr dunkel, ist der Eimer dort fast leer und umgekehrt. Und wurde diese Stelle extrem überbelichtet, kann der Eimer hier auch überlaufen, wobei das überzählige Wasser dann in die Nachbareimer abfließt. So hätten wir auch schon mal ganz nebenbei erläutert, wieso sehr helle Stellen im fertigen Bild ausreißen können.

Der Aufbau von Farbsensoren

BayermosaikSobald es jetzt um die Farben geht, werden wir feststellen, dass uns durch die Bank weg alle Kamerahersteller laut unserem Verständnis verarschen. Pixel können nämlich nur hell und dunkel. Um welche Farbe es sich handelt, das wird über Farbfilter für jedes einzelne Pixel festgelegt. Das links abgebildete Bayer-Mosaik ist zur Zeit der Standard in der digitalen Fotografie. Auf je vier Pixeln befinden sich je eines, das die Helligkeitsstufe für blau und rot misst und zwei für grün. Dass am Monitor aber letzten Endes jedes der z. B. zwölf Megapixel eine eigene Farbe hat, ist eine Umrechnungs- und Interpolationssache, die die Kamera jenseits unserer Wahrnehmung und unseres Einflusses übernimmt. Der Mitdenker unter den gerade Lesenden wird aber feststellen, dass so theoretisch bei der genannten 12MP-Kamera nur gerade mal drei Millionen Farbpunkte aufgenommen werden – allerdings die vollen zwölf Millionen Helligkeitswerte. Sind nun – um wieder zu meinem Eimerbeispiel zu kommen – alle vier Behälter voll, so wird dieser Bildbereich später auf dem Monitor weiß angezeigt. Entsprechend sehen wir schwarz, wenn alle Eimer leer geblieben sind – vergleiche das Bild mit der additiven Farbmischung am Anfang dieses Abschnittes.

Habe ich oben noch beim Bayer-Mosaik von einem Standard gesprochen, so gibt es natürlich wie immer auch Hersteller und Philosophien, die genau davon abweichen. So experimentierte Canon beispielsweise mit zwei verschiedenen Grünfiltern pro vier Pixeln und Fujifilm bricht im aktuellen LineUp dieses Verhältnis gleich ganz. In Fujis Spiegelreflex-Ära waren nur 50% der Pixel für die Aufnahme der Farbe vorgesehen. Die andere Hälfte war ohne Farbfilter ausgestattet und regelte ausschließlich den Kontrast. Hinzu kam, dass die Bildpunkte zu allem Überfluss auch noch diagonal angeordnet waren. So bescheinigte man einer S5pro und deren Vorgängern zwar eine ausgezeichnete Dynamik. Wirklich durchgesetzt hat sich aber bis dato noch keine Alternative.

Nicht unerwähnt soll hier auch der Foveon X3 Direktbildsensor bleiben, den Sigma in seinen Kameras verbaut. Hier liegen drei Sensorebenen übereinander, so dass im Ergebnis tatsächlich jeder Bildbereich eine eigene Farbe hat. Keine eigenen Wege geht die Firma allerdings mit der Angabe, es handle sich um eine 46MP-Kamera, wobei einfach alle drei Lagen zusammengezählt wurden. Was aber hier in der Theorie wie eine Optimallösung klingt, zeigt sich in der Praxis mit stärkerem Bildrauschen und fehlenden bzw. verfälschten Farbinformation, da das eingehende Licht beim Durchdringen der Sensorlagen hier und da wohl Federn lassen muss. Wie viel Erfolg der weltgrößte Objektivhersteller damit hat, sieht man aber auch daran, dass ich einer der Wenigen bin, die jemanden kennen, der schon einmal mit einer Sigma-Kamera fotografiert hat.

Die Grenzen des Sensors

Neben dem Anfang des Sensor-Themas genannten Ausreißen von Lichtern existiert ein weiteres unschönes Verhalten, das im vorangegangenen Absatz schon zur Sprache gekommen ist: das Bildrauschen. Man gibt sich seitens der Hersteller alle nur erdenkliche Mühe, unsichtbares Licht und Wärme von dem Sensor fern zu halten. Aber gerade bei übersteuerter Empfindlichkeit oder bei Langzeitbelichtungen kann es durchaus vorkommen, dass Infrarotlicht einzelne Pixel leicht belichtet und dies auch im fertigen Bild sichtbar wird. Viele Kamerahersteller lösen das Problem zumindest bei langen Aufnahmezeiten, indem sie anschließend eine Schwarzreferenzaufnahme machen, die dann in das Bild mit eingerechnet wird. Wer die Zeit dazu nicht hat (in der Regel muss die zuvor benötigte Belichtungszeit danach noch einmal gewartet werden), kann sich noch mit einem zusätzlichen Digitalfilter vor der Linse, möglichst geringer ISO-Geschwindigkeit und mit unwesentlich höherem Aufwand in der Nachbearbeitung behelfen.

Sensorformate

Als digitale Spiegelreflexkameras laufen lernten, war von Sensorgrößen, die an das seinerzeit von Leica eingeführte Kleinbildformat angelehnt waren, nur bei unbezahlbaren Exoten die Rede, die mittlerweile fast vollkommen in Vergessenheit geraten sind. So hatte die Contax N Digital als erste diese Sensorgröße, Kodaks DCS pro 14n folgte kurz danach – beide Marken existieren im Consumer-Bereich praktisch nicht mehr. Ironischerweise machte die in Analogzeiten eher erfolglose APS-C-Größe nun Karriere, bis Canon die EOS 5D auf den Markt brachte und später Nikon mit der D3 das dort FX genannte Format wiederbelebte und später mit der D700 annähernd erschwinglich machte.

Gängig sind zur Zeit neben dem 35mm-Kleinbildformat (36×24mm) noch Canons APS-H (Cropfaktor 1,3), DX (Nikon, Sony, Pentax; 1,5), APS-C (Canon; 1,6), Sigma (1,7) und (Micro-)FourThirds (Panasonic/Olympus; 2,0)*. Der Cropfaktor stellt jeweils dar, mit welcher Zahl ich multiplizieren muss, um auf Kleinbildformat zu kommen. Dieser Wert ist vor allem dann wichtig, wenn es um die Auswahl und den Brennweitenbereich von Objektiven geht. So entspricht der Blickwinkel eines 50mm-Objektives an einer Nikon-DX-Kamera dem Bildausschnitt, der an einem FX-Modell bei 75mm zu sehen ist. Es wird sich so beim aufmerksamen Weiterlesen in diesem Artikel herausstellen, dass ich bei größeren Sensoren mehr kreativen Spielraum habe, vor allem, was Schärfe und Unschärfe betrifft. Allerdings steigen mit dem Maß dieses Chips aber auch Größe, Gewicht und Preis der Ausrüstung.

 

* Alles was noch kleiner ist, nehme ich nicht wirklich ernst und lasse es entsprechend außen vor.

Die Blende

Wandern wir den Weg des Lichts vom Bildsensor zurück in Richtung Frontlinse des Objektivs, ist es unausweichlich, auch an der Blende vorbeizukommen. Bei den gebräuchlichen Wechseloptiken der hier beschriebenen Kameras bestehen diese aus sechs bis neun einzelnen Lamellen, die eine mehr oder weniger runde Öffnung vergrößern oder verkleinern können. Bei Nikonmodellen kann man sich diesen Effekt im demontierten Glas schön anschauen, indem man das mechanische Hebelchen nahe dem Kameraanschluss vorsichtig bewegt. Bei Canon ist dies schon schwieriger, da hier diese Funktion elektronisch gesteuert wird.

Sinn des Ganzen ist es zum einen, die Menge des Lichtes zu bestimmen, die auf den Sensor treffen darf. So sollte es noch nachvollziehbar sein, dass ein große Öffnung mehr Licht durchlässt, als das bei einer kleinen der Fall ist. Und dementsprechend verkürzt sich auch die Belichtungszeit, bestimme ich denn, dass ich weit offen fotografieren möchte.

In den Modi A (Av) und M (dazu später mehr) habe ich uneingeschränkt die Möglichkeit, auf die Blendeneinstellung Einfluss zu nehmen. Zu beachten ist, dass eine kleine Zahl für eine größere Öffnung steht – die Werte stehen eigentlich unter dem Bruchstrich. Gängige Blendenstufen sind 1.4 - 2 - 2.8 - 4 - 5.6 - 8 - 11 - 16 - 22 - 32, wobei anzumerken wäre, dass kein Objektiv die komplette Latte abdeckt! Von einem Wert zum anderen verdoppelt bzw. halbiert sich die Lichtmenge, und genauso ist auch die Verlängerung oder Verkürzung der Zeit zu handhaben, wenn ich stets die gleiche Belichtung erreichen möchte. Gängige Kameras bieten überdies die Möglichkeit, halbe oder drittel Stufen zu korrigieren; für das reine Verständnis – und eigentlich auch in der Praxis – sollten die aufgeführten Werte aber genügen.

Nun ist's aber mit der Lichtmenge als alleine stehendem Unterschied natürlich nicht getan. Auch der Bildeindruck kann sich mitunter ganz extrem ändern, wenn ich meine Blendenzahl umstelle. Die Rede ist von der Schärfentiefe, also die Größe des scharf abgebildeten Bereichs, die sich über die Blende steuern lässt. "Mitunter" habe ich geschrieben, weil sich aber auch diese Aussage nicht pauschalisieren lässt. Rundumschlagend versuche ich folgend mal, mit einem Satz alles dazu zu beachtende zusammenzufassen: Je größer die Blendenöffnung und je länger die Brennweite und je näher das Objekt an der Kamera ist, desto kleiner ist der scharfe Bereich. Wer diesen Satz kapiert hat und ihn umzusetzen weiß, der kann zumindest theoretisch fotografieren! Zwei gängige Beispiele, die die Aussage vielleicht ein bisschen untermauern, wären die typisch weitwinklige Landschaftsaufnahme, bei der von vorn bis hinten alles scharf ist und eine Makroaufnahme von einem Insekt, bei dem man in aller Regel bei fokussierten Augen nicht einmal mehr den Hintern erkennt.

Beim Spielen mit dem Blendenwert lernt man überdies auch die Grenzen seiner Ausrüstung kennen. So wird der Landschafts- und Architekturfotograf irgendwann merken, dass er mit seiner 30MP-SLR bei Blende 22 keine scharfen Fotos hinbekommt. Ähnlich ergeht es dem, der mit einem mittelmäßigen Zoom experimentiert und mit den Ergebnissen bei Blende 2.8 nicht mehr wirklich zufrieden ist. Erstgenannter stößt an die Grenzen des Sensors. Es ist physisch ab einer bestimmten Pixeldichte nicht mehr möglich, mit weit geschlossener Blende scharfe Bilder zu machen. Daran kann dieser auch nichts mehr ändern, außer weiter zu öffnen. Im zweiten Beispiel herrscht ein materielles Problem vor. Wer weit offen technisch sehr gute Fotos haben möchte, muss entsprechend für die Optik tief in die Tasche greifen. Tut er das nicht, können durchaus Vignettierung, Chromatische Aberrationen (Farbränder), Kontrastarmut oder Unschärfe auftreten. Das muss das Bild nicht zwingend schlecht machen – aber es schadet auch nicht, wenn man weiß, woher das kommt. Hier gilt im Allgemeinen, dass neben professionellen Teleobjektiven so ziemlich jedes Glas bei Blende 8 die höchste Leistung bringt.

Die Zeit

Aufatmen ist angesagt, denn ganz so kompliziert wie das vorangegangene Kapitel wird dieses Thema hier nicht. Es handelt sich hierbei um die Belichtungsdauer, also die Zeit, die der Verschluss zulässt, dass Licht auf den Sensor trifft.

Bei sehr vielen Motiven spielt genau das keine Rolle. Man möchte den Augenblick festhalten und damit war's das. Trotzdem gibt es Situationen, in denen man mehr darauf als auf die Blende achten sollte. Will man jetzt den Wasserlauf einfrieren oder soll er samtweich erscheinen? Oder soll man sehen, dass der Sportwagen vor verwischtem Hintergrund freigestellt ist? Stundenlange Nachtaufnahmen, die die Erdrotation anhand der Sternenspuren zeigen, sind nur ein weiteres Beispiel.

Und wenn die Zeit eine übergeordnete Rolle spielt, kommt meist ein Stativ zum Einsatz. Eine künstliche Verlängerung der Aufnahmedauer ist beispielsweise mit Graufiltern möglich – dazu wesentlich mehr im eigenen Workshop. Woher weiß man aber beim Fotografieren aus der Hand, wie lange man belichten kann, ohne dass die Gefahr zu verwackeln zu groß wird? Eine verhältnismäßig einfache Umrechnung kann hier Abhilfe schaffen: Setzt man die Millimeter der Brennweite unter den Bruchstrich der Sekunden, so erhält man die längst mögliche Belichtungsdauer. Soll heißen, ich kann mit einem 50mm-Objektiv an einer FX-Kamera in 1/50 Sekunde noch ein brauchbares Bild erzeugen. Ich würde empfehlen, auch hier den oben bereits erwähnten Cropfaktor zu beachten. Entsprechend sollte mit dem gleichen Objektiv an der DX-Kamera bei 1/75 Sekunden Schluss sein – klar, der eine zittert je nach Blutalkoholspiegel weniger, der andere mehr...

P-A-S-M – die Bedienung

Vieles haben wir nun gelesen, aber wie das ganze Durcheinander zusammen findet, das fehlt noch. Mindestens diese vier Modi sind allen hier aufgeführten Kameras gemein. Und wie in der Einleitung bereits angesprochen, gibt es umso mehr auf dem Wahlrad einzustellen, je billiger die Kamera ist.

Für Automatiken interessiert sich der ambitionierte Amateur allerdings nicht, und darum kommen wir auf das Mehr an Einstellungen erst gar nicht zu sprechen. Und mit "P", der "Programmautomatik", machen wir es gerade genauso. Zwar lassen mittlerweile auch hier manche Kamerahersteller Veränderungen zu; diese kann man aber leichter und nachvollziehbarer erreichen, wenn man sich von Anfang an seines Umgangs mit den drei verbliebenen Modi bewusst ist.

"A" (="Av") steht für Aperture priority/Aperture value, die Blendenpriorität bzw. Zeitautomatik. Es wird die Blende eingestellt, und die Kamera sucht sich die Zeit aus, die nötig ist, auf Basis der Blendenöffnung ein korrekt belichtetes Bild zu produzieren. Ich für meinen Teil mache geschätzte 95% meiner Aufnahmen so. Anfangs gewöhnungsbedürftig, hat sich diese Entscheidung schnell als richtig herausgestellt. Ich öffne die Blende, will ich freistellen oder habe ich wenig Licht; ich schließe sie, brauche ich viel Schärfe und habe ich der Helligkeit ausreichend zu Verfügung. Gerade wenn ich ohne Stativ unterwegs bin, ist diese Einstellung ratsam. Während ich die Blende meinen Ansprüchen entsprechend verstelle, kontrolliere ich im Sucher, dass ich die minimale Belichtungszeit nicht unterschreite. Wenn es die Situation verlangt, betätige ich vorher noch die Belichtungskorrektur ("+/-"), damit mir beispielsweise bei Gegenlichtaufnahmen der Vordergrund nicht absäuft.

"S" (="Tv") steht für Shutter priority/Time value, die Zeitpriorität bzw. Blendenautomatik. Und wer hätte das gedacht, dieser Modus macht genau das Gegenteil des vorher genannten: man stellt eine gewünschte Zeit ein, und die Kamera ermittelt die für die optimale Belichtung benötigte Blende. Zu meinem Verdruss muss ich gestehen, dass ich selbst diese Einstellung nie genutzt habe. Sinnvoll ist sie aber vor allem dann, wenn es darum geht, dass eine Szene eine ganz bestimmte Belichtung braucht, um richtig zu wirken – ja wer hätte das gedacht! Das könnte beispielsweise der Drift eines Sportwagens sein oder wenn man einen Mitzieher bei einem Fahrrad oder was weiß ich was machen möchte. Welche Zeit dann die genau passende ist, hängt von der Geschwindigkeit des Objekts und der gewünschten Stärke der Hintergrundunschärfe ab.

"M" – der manuelle Modus ist dann sinnvoll, wenn man die Zeit hat, sich voll und ganz seinem Hobby zu widmen und das Bild nach allen Regeln der Kunst zu gestalten. Mit dieser Einstellung einher geht bei mir meist auch Stativ und der ein oder andere Filter. Die Kamera wird nun ausgerichtet, Bereiche werden bei Bedarf abgedunkelt, ein Polfilter kommt davor zum Einsatz und der Fernauslöser ist selbstverständlich. Und wenn dann alles sitzt, wird die Blende und die Zeit exakt so eingestellt, wie mir das gerade passt. Aufnahmen in der Dämmerung oder auch Bilder von Sonnenauf- oder Untergängen sind Motive, die so ein Vorgehen geradezu verlangen. Aber auch die von mir immer wieder gerne erwähnten Fotos mit weich gezeichnetem Wasser, die mit 64- bis 1000fachen Graufiltern entstehen, führen in aller Regel dazu, dass die Kameraelektronik überfordert ist. Gerne passiert es bei der Benutzung von Stativ auch, dass die Belichtungsmessung ohnehin nicht korrekt funktioniert. Das liegt dann daran, dass Licht, welches durchs ungeschützte Okular fällt, ebenfalls in die Szenerie mit eingerechnet wird. Also entweder Okular abdecken/schließen oder manuell fotografieren!

Die ISO-Geschwindigkeit

Die einstellbare ISO-Empfindlichkeit entspricht dem Wert, der bis in die 80er Jahre als ASA die Filmempfindlichkeit beschrieb. 204.800 ist beim Schreiben dieses Artikels das Maximum. Werte, an die beim Film bei weitem nicht zu denken war. Und doch gibt es Parallelen. Denn was analog die größere Körnung bei empfindlicheren Filmen war, stellt sich heute nicht weniger störend als Bildrauschen dar.

Aber fangen wir von vorne an. Wie wohl bereits vernommen, regelt der ISO-Wert die Empfindlichkeit des Sensor. Will heißen, sobald ich mit Blende und Zeit an meine Grenzen stoße und ein Stativ motivbedingt nicht sinnvoll ist, kann ich mit Hilfe dieser Einstellung die nötige Belichtungszeit verkürzen. Wie überall gilt auch hier: verdopple ich die ISO, verdopple ich die Empfindlichkeit, halbiere ich die Belichtungszeit. Vorsicht ist wie angesprochen trotzdem geboten, denn mit steigender Zahl steigt auch das Rauschen und sinkt entsprechend die Bildqualität. Bei den meisten Kameras liefert heute ein ISO-Wert von 1.600 noch brauchbare Ergebnisse. Was darüber hinaus geht und ob das dann noch brauchbar ist, muss wohl jeder selbst entscheiden.

Die Belichtungsmessung und Belichtungsreihen

Hell, dunkel oder in der Mitte: wie man jetzt zum Ergebnis kommt, das sollte in den letzten Absätzen nun wirklich breit genug erklärt worden sein. Schließen wir also das korrekt belichtete Bild damit ab, wie die Kamera zu dem Resultat überhaupt kommt.

Sehr vereinfacht sieht es so aus, dass im Prinzip die Elektronik alle aufzunehmenden Bildteile erfasst und dann errechnet, wie lange sie belichten muss, bis sie bezogen auf alle Pixel einen durchschnittlichen Tonwert von 50% erreicht – was bei einem S/W-Bild einem mittleren Grau entspricht. Soweit, so gut, funktioniert diese Verfahrensweise bei einem Großteil der Motive auch; aber gerade die, bei denen das nicht funktioniert, machen meist genau den Reiz der Fotografie aus.

Nacht- und Gegenlichtaufnahmen sind die Extreme in dieser Kategorie, aber auch das Portrait vor einem weißen Hintergrund kann schon gehörige Probleme machen. Haben wir weiter oben schon einmal den Schalter für die Belichtungskorrektur ("+/-") angesprochen, bietet die Kamera noch einen weiteren wichtigen Hebel, um ihr klarzumachen, wo bei dem zu machenden Foto die Prioritäten sind. Ich selbst kenne keine Kamera, die die drei Belichtungsmodi nicht hat, aber da will ich mich mal nicht zu sehr aus dem Fenster lehnen. Ausgehend davon, dass meine Kenntnis mich hier nicht im Stich lässt, bietet das Gerät eine Matrixmessung, eine Spotmessung und eine mittenbetonte Messung. Wie man genau zu diesen Einstellungen je Modell kommt, lest Ihr am besten in der zugehörigen Gebrauchsanweisung – der Text hier ist ohnehin schon lange genug.

Die Matrixmessung ist der Standard für den schon oben erwähnten Großteil der Aufnahmen. Eine Gegenlichtaufnahme verlangt dann schon nach etwas Anderem, sonst wird alles, was nicht Licht ist, definitiv zu dunkel. Ist nun das Hauptmotiv mittig im Bild vertreten, kann man es durchaus mit der mittenbetonten Integralmessung probieren. Hier wird in einer bestimmten Größe das Zentrum des Sensors zur Messung herangezogen, das Drumherum nur zu einem geringen Prozentsatz. Treffen die Anforderungen nicht zu, so wird die Spotmessung ins Auge gefasst. Einerseits hat man hier die Möglichkeit, es der Kamera selbst zu überlassen, was auf dem Bild wichtig ist oder diesen Punkt selbst bestimmen. Dies alles funktioniert in aller Regel mit dem folgend beschriebenen Autofokus: das Feld, das gemessen wir, wird auch scharf gestellt.

Auch bei der manuellen Belichtung kann der Modus der Belichtungsmessung eine Rolle spielen. Das ist der Fall, wenn man sich zur korrekten Belichtung einer Szene an der Lichtwaage im Sucher oder auf dem Display orientiert.

Bei extremen Kontrastunterschieden ist aber bei allen Vorgehensweisen darauf zu achten, dass man weder unter- noch überbelichtete Stellen hat – außer selbstverständlich, Ihr legt es darauf an, Ihr seid schließlich Künstler. Für mehr Sicherheit sorgt hier eine Belichtungsreihe (BKT): man nimmt mehrere Fotos in Folge auf und entscheidet sich erst bei der Bearbeitung, mit welcher Einstellung man das beste Ergebnis erreichen kann. Die Kamerahersteller bieten eine Reihe verschiedener Philosophien, welche Möglichkeiten der Apparat zulässt. Zu unterscheiden sind hier zum einen die Menge der Lichtwertstufen, die zwischen den Einzelaufnahmen liegen können sowie die mögliche Anzahl der hintereinander gemachten Aufnahmen. Die Vorgehensweise an sich hat bei Verwendung eines Statives oder einer ausreichend schnellen Serienbelichtung in Verbindung mit einer entsprechend ruhigen Hand den Vorteil, dass man sich in der Nachbearbeitung alternativ auch für die Entwicklung eines HDRs entscheiden kann, um so einen maximalen Kontrastumfang abzudecken.

Der Autofokus

Entsprechend der im vorangegangenen Punkt beschrieben Messfelder lässt sich auch steuern, was denn jetzt die Kamera automatisch fokussieren soll. Ausgelöst wird der Vorgang, indem man den Auslöser halb herunterdrückt. Das ist doof. Finde ich zumindest. Der Hintergrund ist der, dass ich jedes mal, wenn ich manuell fokussieren will oder muss, die Automatik entweder an der Kamera selbst oder am Objektiv zu deaktivieren habe. Entsprechend würde ich empfehlen, den Autofokus zu verlegen, was die meisten Kameras zulassen sollten. Will heißen, man aktiviert diesen mit einem anderen Knopf, der bei mir beispielsweise auf Höhe des rechten Daumens liegt. (Semi-)Professionelle Kameras haben dafür ohnehin meist einen eigenen Button ("AF-On"), bei kleineren Modellen sollte sich in aller Regel etwas tricksen lassen. Bewege ich nun also meinen Daumen nicht, kann ich voll händig eingreifen und es beim nächsten Bild sofort wieder umgekehrt machen.

Unabhängig der Messpunkte gibt es drei Modi, wie der Fokus funktionieren soll: AF-M, AF-S und AF-C (Termini für Nikon, andere Hersteller ähnlich). AF-M heißt nichts anderes, als dass manuell gestellt werden muss. Die Kamera hilft im Sucher meist mit einer kleinen Anzeige, wohin gedreht werden muss, um richtig zu treffen. AF-S ist der Standard, der vom Handy bis zum 8000€-Boliden bekannt ist: scharfstellen, abdrücken. AF-C ist für bewegte Motive interessant. Im Rahmen der Möglichkeiten der Kameraelektronik zieht letztere mit dem Fokus stets nach, wenn sich das Motiv auf einen zu oder von einem weg bewegt. Also ideal für die Aufnahmen von Sportlern oder dem entgegenkommenden Vierbeiner.

Doch selbst beim Fokussieren gibt es noch Tipps und Tricks, die ein Warten auf einen der kommenden Workshops hier erwartenswert macht. So gibt es mit der Ausnutzung der hyperfokalen Distanz Möglichkeiten, die Tiefe der Schärfe für Landschaftsaufnahmen zu vergrößern und bestimmt noch einiges mehr. Lassen wir jetzt aber dahingestellt sein, wir sind hier schließlich Einsteiger...

Der Weißabgleich

Der Weißabgleich sollte das letzte bildmanipulierende Thema sein, dem ich mich hier widme. Und wer es tatsächlich bis hier im Text geschafft, den belohne ich damit, mich ausnahmsweise kurz zu fassen.

Der Mensch nimmt die Farben immer annähernd gleich wahr. Wir sehen die Cola-Dose in rot, egal ob wir in der Sonne stehen oder im neonbeleuchteten Zimmer sitzen. Die Kamera schafft das nur durch komplizierte Berechnungen. Die sind allerdings mittlerweile so gut und zuverlässig, dass ich selbst hier nur die Automatik benutze. Hinzu kommt, dass ich, suche ich mir das richtige Dateiformat aus, eben diesen Wert auch nach der Aufnahme noch verlustfrei korrigieren kann – dazu mehr im folgenden und letzten Thema.

RAW, TIFF oder JPEG?

Meiner Meinung nach sollte sich diese Frage für den Fotografierenden erst gar nicht stellen. Gewiss kommt aus den Kameras ein brauchbares JPEG am Ende. Und das ist so schön bequem: knipsen, fertig! Aber wer einmal RAWs entwickelt hat, wird feststellen, dass auch das unkomprimierte TIFF dazu keine Alternative darstellt.

Ein JPEG wird in 8Bit aufgenommen. Das bedeutet, jeder der drei Kanäle rot, grün und blau besteht aus 28, also 256 Helligkeitsabstufungen. Die RAW-Formate wie .NEF (Nikon), .CR2 (Canon), .ARW (Sony) usw. erreichen bis zu 216, also 65536 Stufen. Solange ich nun nichts an dem Bild ändere, ist die Stufenmenge vollkommen gleich, denn mehr als gute 200 kann das menschliche Auge ohnehin nicht erkennen. Jetzt passt mir aber eine Kleinigkeit am Bild nicht, und ich fange an, die Tonwerte auseinanderzuziehen, passiert es bei JPEGs sehr schnell, dass die Werte auseinanderreißen und die Stufen sichtbar werden. Schön ist das dann nicht. Entwickle ich aber die RAW-Dateien aus der Kamera, kann ich meiner Phantasie freien Lauf lassen, ohne, dass das Bild darunter leiden muss. Und überdies sind Programme wie Lightroom & Co. darauf ausgelegt, dass die Originaldatei erst gar nicht angetastet, sondern die Änderung separat gespeichert wird. Überlegen könnte man sich hier nur noch, die Bilder direkt ins Adobe-eigene .DNG-Format zu exportieren, was von einigen Drittanbietern von Bearbeitungssoftware eher gelesen werden kann als die herstellerspezifischen Daten.

 

So, das soll es erst einmal gewesen sein! Ihr habt etwas nicht verstanden oder seid der Meinung, dass irgend etwas fehlt? Zögert nicht, mich anzuschreiben, und ich werde dem Rechnung tragen. Hat alles gepasst, lese ich das natürlich auch gerne!