Kwerfeldein
15. Februar 2011 Lesezeit: ~ 8 Minuten

Ein Meer aus Nebel

David Kaplan Dies ist ein Artikel von David Kaplan aus Zürich. Er arbeitet tagsüber als Softwareentwickler. Nachts verwandelt er sich zu einem leidenschaftlichen Fotografen, der häufig in den Schweizer Alpen anzutreffen ist. Was er dort schon alles vor die Linse bekommen hat, kann auf kplan.ch & auch in der Fotocomunity begutachtet werden.

Was ist der schönste Anblick, den man in der Natur sehen kann? Das warme Leuchten einer untergehenden Sonne? Die wogenden Wellen in einer idyllisch gelegenen Bucht? Die unendlichen Weiten des Universums? Oder doch die verschneiten Gipfel einer hohen Gebirgskette? Jeder mag da so seine Präferenzen haben.

Das Schönste, dem ich in meiner Laufbahn als Landschaftsfotograf schon gegenübergestanden bin, war ein von unten beleuchtetes Nebelmeer in der Nacht. Dazu oben die Sterne und im Hintergrund die Berge – also irgendwie all das, was ich zu Beginn aufgezählt habe.

~

Schon seit geraumer Zeit hatte ich den Wunsch, ein solches Nebelmeer auch fotografisch festzuhalten. Das stellte sich als schwieriger heraus, als zunächst gedacht. Nach einigen nicht ganz erfolglosen Ausflügen ist mir dann Ende letzten Jahres dieses Foto gelungen:

 Haus ueber den Wolken II

Ich möchte in diesem Artikel beschreiben, wie ich vorgegangen bin um dieses Foto zu Stande zu bringen.

Planung

So ein Foto ist ohne gute Planung fast unmöglich zu schiessen, darum fängt das ganze Projekt zunächst im Kopf bzw. auf Papier an. Folgende drei Punkte habe ich dabei berücksichtigt:

1. Wetter

Zunächst mal muss das Wetter stimmen. Die gängigen Wetterseiten nehme ich mal als Anhaltspunkt, aber nicht als einzige Grundlage. Denn die Wetterdienste sind oft nicht genau genug, um lokale nächtliche Nebelentstehungsgebiete vorherzusagen – oder es interessiert einfach Niemanden.

Zusätzlich schaue ich mir noch Webcams auf Bergen an und beobachte auch die Wolken / Nebelsituation am Wohnort genau. Am 29.12. war es dann so weit: meteoschweiz.ch hat Nebel vorhergesagt.

2. Standort

Den Standort musste ich natürlich sehr sorgfältig aussuchen. Es musste ein Ort sein, wo ich mit dem Auto bei winterlichen Strassenverhältnissen möglichst hoch hinaufkomme und zudem einen guten Blick in ein nicht zu dünn und nicht zu dick bewohntes Tal offenbart.

Nach langer Recherche in Google Earth bin ich dann auf das Gebiet rund um Schwyz gestossen. Die Gemeinde hat mit 14’234 Einwohnern eine ziemlich gute Grösse und auf den z.T. recht hohen Hängen rund herum gibt es viele schmale Strassen, die von den dort wohnenden Bauern wahrscheinlich regelmässig vom Schnee befreit werden. Dazu noch die malerische Bergkulisse, die natürlich auf keinen Fall fehlen darf.

3. Zeitpunkt

Ich wollte unbedingt in einer mondlosen Nacht fotografieren, da dies nicht nur das Nebelmeer sondern auch die Sterne optimal zur Geltung bringt. Da der Mond erst am 30.12. um 2 Uhr früh aufging, konnte ich am Mittwochabend, dem 29., den Ausflug durchführen.

Generell muss ich meine Ausflüge zeitlich so planen, das Wetter und Mondkonstellation passen und kann nicht einfach dann losziehen, wenn ich mal wieder Lust habe. Das heisst auch, dass ich hin und wieder mal bei der Arbeit frei nehmen muss.

Durchführung

– Equipment

Nicht lange nachdem ich mich für die Landschaftsfotografie mit Sternenhimmel zu begeistern anfing, wechselte ich von der Nikon D90 auf die D700. Und das auch mit gutem Grund: In der „Astrofotografie“ steht so wenig Licht zur Verfügung, dass man um jede zusätzliche Blendenstufe kämpfen muss.

Mit meiner damaligen Ausrüstung, einer Nikon D90 mit Tokina 12-24mm f/4.0, kam ich nie auf qualitativ überzeugende Bilder. Ich war ständig am Anschlag mit Blende, Belichtungszeit und ISO.

Als Nikon das neue 24mm f/1.4 ankündigte, habe ich meine gesamte Kameraausrüstung sofort verkauft und mir eine D700 mit dem 24mm geholt. Das war einige Zeit lang mein einziges Objektiv.

Durch den grösseren Bildkreis und die viel höhere Lichtstärke konnte ich mit der neuen Kombination ziemlich genau 20x mehr Licht einsammeln als zuvor. Wo ich zuvor 10 Minuten hätte belichten müssen, konnte ich nun den Verschluss nach 30s wieder schliessen.
Die D700 mit dem 24er und einem stabilen Carbonstativ, das sind die essentiellen Zutaten für mein Nebelmeerbild.

– Kameraeinstellungen

Die richtigen Kameraeinstellungen habe ich mittlerweile im Blut: Blende ganz auf, Verschlusszeit bei 24mm Brennweite auf 25s festlegen – um Strichspuren bei den Sternen zu vermeiden – und mit der ISO dann die Belichtung steuern.

Das Fokussieren geht mittlerweile auch schnell von der Hand: LiveView einschalten, Objektiv auf MF stellen und in der höchsten LiveView-Zoomstufe manuell auf einen hellen Lichtpunkt fokussieren. Dann noch den Ausschnitt passend wählen und den Horizont über die eingebaute Wasserwaage geraderücken. Fertig.

Am Schluss steht die ISO lediglich noch auf 200, weil das leuchtende Nebelmeer doch vergleichsweise hell leuchtet.

– Belichtung

Über einen Timer gebe ich nun die benötigten Bilder in Auftrag. Hier will ich insgesamt rund 400s belichten. Eine kurze Pause im Schnee bietet sich an, während die Kamera an die Arbeit geht. Auf Dunkelbildabzüge verzichte ich generell, da dies entweder meine Wartezeit verlängert – und damit die Anzahl möglicher Bilder pro Ausflug halbiert -, oder aber eine Blendenstufe an Licht verschwendet. Die allfälligen Hotpixel müssen dann halt von Hand entfernt werden. Mein Ausgangsbild sieht nun so aus:

Original

Bis ich von diesem düsteren Rohbild das gewünschte Ergebnis bekomme, gibt es noch einiges zu tun:

Bearbeitung

– neoHDR

Das Problem mit dem Rohbild ist nun, dass ich selbst mit meiner Ausrüstung nicht genügend Licht für die dunkleren Bereiche im Bild auf den Sensor bannen kann. Wenn ich die Schatten hochziehen will, rauscht es ziemlich arg. Das kann ich zwar wieder entrauschen, aber für einen grossformatigen und detaillierten Ausdruck reicht die Qualität einfach nicht.

Der einzige gangbare Weg führt über eine längere Belichtungszeit. Das aber wiederum führt zu Strichspuren – ein Dilemma! Ein gutes Jahr ist es her, als ich mich nicht mehr mit diesem Zustand abfinden wollte.

Als Software-Entwickler entwarf ich darum eine Software, welche die Sternenbewegung zurückrechnet und mir automatisch ein „korrigiertes“ Endresultat liefert – und das sogar noch als HDR. Das Prinzip funktionierte so gut, dass ich mich mittlerweile vor Anfragen zu meinem Programm kaum mehr retten kann.

Dabei war die Software von Anfang an nicht dazu geplant, veröffentlicht zu werden; weshalb ich sie zur Zeit auch nicht so schnell und einfach auf den Markt bringen kann, wie viele sich das wohl wünschen würden. Nach wie vor gibt es keine Pläne meinerseits für eine Veröffentlichung. In diversen Foren und Webseiten läuft das Tool unter dem von mir eingeführten Namen „neoHDR“. Für ganz verzweifelte Seelen plane ich, die Korrektur vorderhand als Dienstleistung anzubieten.

– HDR

Da neoHDR eigentlich nur ein HDR-Aufbereitungstool ist, muss ich das Tone Mapping nach wie vor mit einem der gängigen Tools machen. Ich nutze schon seit jeher Photomatix und war immer sehr zufrieden damit. Die Einstellungen variieren zwar etwas von Bild zu Bild, aber meistens sehen sie etwa so aus:

Photomatix

Das Ergebnis darf hier ruhig etwas unspektakulär und flau aussehen. Photomatix ist für mich nur ein Durchlauferhitzer. Das Finetuning mache ich ein einem konventionellen Bildbearbeitungsprogramm:

Abschlussarbeiten

Die getonemappten HDRs aus Photomatix haben fast immer die gleichen Mängel, so dass die nachträglichen Optimierungen meistens sehr speditiv von der Hand gehen. Auch hier musste ich an den gewohnten Reglern drehen um das gewünschte Ergebnis zu bekommen. Eine Sache von wenigen Minuten.

In Lightroom als 16bit-TIFF importiert, habe ich dann folgende Anpassungen vorgenommen:

Und fertig ist das detailreiche Nebelmeerfoto.

  • Planungsaufwand: insgesamt etwa 4-5 Stunden.
  • Ausflugsdauer: 6 Stunden.
  • Bearbeitungsaufwand: 15 Minuten.

Weitere Nebelmeere

Anbei noch eine kleine Auswahl anderer Nebelmeere, wie ich sie auf meinen nächtlichen Ausflügen angetroffen habe:

Aecherlipass Nebelmeer

Aecherlipass Nebelmeer

Zwischen den Wolken

 Nebelmeer Panorama

Gonzen Nebelmeer 35mm

Unterstütze kwerfeldein

Wenn Dir dieser Artikel oder das ganze Magazin gefällt, kannst Du die weitere Arbeit von kwerfeldein gern via Paypal, Überweisung oder Dauerauftrag mit dem, was es Dir wert ist, unterstützen. Vielen Dank!

kwerfeldein finanziert sich neben Werbeeinnahmen auch durch Provision von Verkäufen auf Amazon und freiwillige Beiträge der Leser*innen, um unabhängig zu bleiben.

Paypal


Überweisung

kwerfeldein
IBAN: DE0837050198 1933436766
BIC: COLSDE33XXX

Amazon
kwerfeldein @ Spreadshirt


85 Kommentare

Schreib’ einen Kommentar

Netiquette: Bleib freundlich, konstruktiv und beim Thema des Artikels. Mehr dazu.

  1. Ich bin baff!

    Mir war nicht bewusst, dass der Unterschied zwischen D90 und D700 so groß sein kann.

    Ich verbeuge mich vor deinen Bildern. Von so was träumt jeder. Aber wie du so schön beschrieben hast, ist dabei weniger Magie als viel mehr ne gute Planung!

    Klasse!

    • Es ist ja nicht nur die Kamera, sondern vor allem das Objektiv. Zwischen Blende 4.0 und Blende 1.4 ist es ein himmelweiter Unterschied. Das 1.4er-Objektiv kann rund 8x mehr Licht einsammeln. Dazu hat es einen grösseren Bildkreis, den man mit dem Kleinbild-Sensor ausnutzen kann. Dort gibt es dann nochmals 2.3x mehr Licht (von der D90 zur D700).

  2. Wirklich tolle Bilder! Was mich jetzt aber interessieren würde ist…du reißt die Blende voll auf, also auf 1,4 und dann fokussierst du manuell auf einen hellen Punkt (ich nehme mal an auf unendlich mit einem Weitwinkel)…

    Wie erreicht man dabei eine Tiefenschärfe? Gerade bei 1,4 sollte diese doch extrem niedrig ausfallen oder wird das durch die Unendlich-Fokussierung umgangen?

    Wäre echt nett mir das näher zu erläutern, ich bin noch nicht so genau mit der Landschaftsfotografie vertraut.

    Viele Grüße

    • Diese Frage bekomme ich interessanterweise öfters gestellt. Nun, eine hohe Lichtstärke bedeutet zwar tatsächlich eine geringere Schärfentiefe, aber der Bereich der fokussiert ist, sollte auch bei einem hochlichtstarken Objektiv scharf sein. Bei meinen Landschaftsaufnahmen fokussiere ich natürlich immer auf unendlich. Das heisst, alles was unendlich weit weg ist, wird scharf abgebildet. Unendlich weit weg ist bei jeder Brennweite etwas anders und kann mit einem gängigen Schärfentiefenrechner berechnet werden. Beim 24er ist ab ca. 9 Meter alles knackscharf. Das heisst nur der nahe Vordergrund wäre etwas unscharf. Das kann man sehr gut für einen “3D-Effekt” nutzen, wie z.B. bei diesem Bild:

      http://www.flickr.com/photos/dmkdmkdmk/4851941379/

      • Vielen Dank für die Antwort, da war ich also doch nicht auf dem Holzweg. Aber daran gedacht hatte ich bisher noch nie, also in praktischer Hinsicht!

        Gut zu wissen und wieder was gelernt.

  3. Na endlich. Ich warte schon lange auf einen Beitrag von dir hier. Ich kenne deine neoHDRs schon vom DSLR-forum und von flickr. Auch deine Landschaftsfotos mit kleiner Schärfentiefe sind echt bombastisch. Du bist zur Zeit jedenfalls der Landschaftsfotograf schlechthin für mich. Danke für diesen Einblick.

  4. Was ist damit gemeint? “Durch den grösseren Bildkreis [..] konnte ich mit der neuen Kombination ziemlich genau 20x mehr Licht einsammeln als zuvor.” Wieso führt ein größerer Bildkreis zu mehr Licht auf dem Sensor/Film?

    • Die Blendenangabe am Objektiv sagt noch nichts darüber aus, wieviel Licht insgesamt durch das Linsensystem “eingesammelt” und auf den Sensor gebündelt wird. Die Blende entspricht der Leuchtdichte. Das heisst, bei identischer Blende am Objektiv, trifft pro Quadratmillimeter Sensorfläche die genau gleiche Menge an Licht auf diese Fläche, egal ob das Objektiv auf Kleinbild oder Crop gerechnet ist. Wenn das Objektiv nun für einen grösseren Bildkreis gerechnet wurde (~ grösseres Sensorformat), kann dies zusätzliches Licht am Bildrand einfangen und auf die Sensorfläche projizieren (sofern ein entsprechend grosser Sensor dahinter montiert ist). Wenn man mehr Licht einfängt, hat man mehr Signal – also entweder ein helleres Bild oder weniger Rauschen. Das manifestiert sich am Schluss im ISO-Vorteil von Kameras mit Kleinbild-Sensor.

      • Aber die höhere Lichtmenge, die ein Objektiv für den größeren Bildkreis einsammelt, verteilt sich ja wieder auf eine größere Fläche. Wenn man also per Adapter ein Mittelformatobjektiv an einer APS-C-Kamera einsetzt, nutzt einem das auch nichts, weil der Großteil des Bildkreises im Schwarz des Spiegelkastens verschluckt wird. Wenn man die im Artikel aufgestellte Behauptung zuende denkt, bräuchte ein Handbelichtungsmesser eine Angabe, welches Film-/Sensorformat belichtet werden soll. Das ist aber m.W. nicht der Fall.

      • Wie ich ja geschrieben habe, muss natürlich auch ein entsprechend grosser Sensor hinter dem Objektiv sein, um vom zusätzlichen Licht profitieren zu können. Sonst wird das Licht, wie du richtig sagst, im Spiegelkasten in Wärme umgewandelt.
        Die Belichtungsmessung bleibt über die verschiedenen Sensorformat konstant. Das liegt daran, dass das zusätzliche Licht nicht in einer helleren Belichtung mündet, sondern in einer weniger starken Verstärkung des vom Sensor aufgezeichneten Signals. Das heisst, bei ISO100 wird das Signal beim KB-Sensor rund 2.3x weniger stark verstärkt als beim Cropsensor. Dementsprechend rauscht es auch 2.3x weniger bzw. man kann die ISO rund 2.3x höher einstellen und hat immer noch das gleiche Rauschverhalten wie beim Cropsensor. Wenn du die D90/D300 mit der D3/D700 vergleichst, wirst du merken, das ISO200 an der D90 gleich aussieht wie ISO500 an der D700. Das liegt am zusätzlichen Licht, dass das für KB gerechnete Objektiv zusätzlich einsammelt.
        Aber bevor es hier in einer Technikdiskussion ausartet, empfehle ich dir einen Blick ins dslr-forum.de. Dort wird ständig über solche Dinge diskutiert ;).

      • Ja moment. Liegt das nicht daran, dass die Pixel auf dem KB-Sensor schlichtweg größer sind und deswegen mehr Licht in der selben Zeit einsammeln und das Signal deswegen nicht so stark verstärkt werden muss? Die Belichtungsmesser einer Mamiya 645 und einer K5 spucken bei gleicher Blende und gleicher ISO jedenfalls die selbe Zeit aus. Deine These überzeugt mich nicht. Wenn du solche Aspekte nicht diskutieren möchtest, solltest du sie das nächste Mal nicht erwähnen.

      • @METT: Ich finde es ist für die meisten Leser wichtig zu wissen, dass man solche Fotos nicht mit jeder Kameraausrüstung machen kann. Eine kurze Begründung wieso dass das so ist, finde ich da absolut angemessen. Ich hätte nicht gedacht, dass es in einer so techniklastigen Diskussion ausarten würde.
        Ich bin es mittlerweile ziemlich leid, dass solche Bildbesprechungen immer in einer Technikdiskussion enden müssen.
        Ich habe nie behauptet, dass durch das zusätzlich eingefangene Licht sich die Belichtung ändert – im Gegenteil. Das Eingangssignal muss nur weniger fest verstärkt werden. Du hast natürlich schon recht, was die Signalverstärkung auf Pixelebene angeht. Je grösser ein Pixel ist, umso mehr Signal kann er bei gegebener Leuchtdichte (= Blende) aufzeichnen und umso weniger verstärkt muss es dann vor der A/D-Wandlung werden. Nur ist der einzelne Pixel nicht relevant, da man Bilder nicht auf Pixelebene betrachtet, sondern als ganzes. Und auf das ganze Bild bezogen, muss das Signal beim KB-Sensor 2.3x weniger fest verstärkt werden als beim Cropsensor. Blende, Verschlusszeit und ISO ist in diesem Fall aber bei beiden Formaten identisch.

      • Hi David,

        ich stimme dir zu. Ich finde die Diskussion hier mittlerweile auch etwas zu techniklastig. Diese Themen wurden doch schon zig Mal in 1.000 Foren durch die Mangel gedreht. Danke trotzdem, dass du die Diskussion aufgenommen und so ausführlich geführt hast.

      • Um eine TechnikDISKUSSION ging es mir überhaupt nicht. Auch nicht darum, dass man mit einer Offenblende von 1,4 mehr Licht bekommt als wenn man nur eine Öffnung von 4 hat. Mir ging es nur darum, dass ich nicht verstanden habe, wie der größere Bildkreis für mehr Licht sorgen soll. Das wollte ich erläutert haben. Darin sehe ich nämlich den großen Vorteil vom sog. Web 2.0: Direktes Feedback an den Autoren. Ich nehme mir dann einfach – getreu dem Motto “Wer nicht fragt bleibt dumm” – das Recht heraus, nachzuhaken. Das mit dem größeren Bildkreis verstehe ich zwar immer noch nicht, aber lassen wir es dabei bewenden.

      • So, ich habe mich ein wenig umgehört. Der Hinweis auf den größeren Bildkreis ist so erstmal falsch, zumindest aber verwirrend. Der Vorteil der D700 liegt in ihrem KB-Sensor und der im Vergleich zu anderen Kameras niedrigen Auflösung von 12 MP. Durch die größere Fläche und die niedrigere Auflösung können die einzelnen Pixel größer sein und damit während der Belichtung mehr Zeit einfangen. Also, und das hat David ja schon geschrieben, muss das Signal weniger stark verstärkt werden, weswegen hier ein Rauschvorteil besteht. Das alles hat mit dem größeren Bildkreis aber nichts zu tun. Er muss nur notwendigerweise größer sein, um den größeren Sensor auszuleuchten.

        Die D3x hat ja auch einen KB-Sensor, aber mit 24 MP eine deutlich höhere Auflösung. Ob die dann bei der ISO-Performance noch von ihrem Sensor profitiert? Spielt das im Studio bei steuerbaren Lichtverhältnissen eine Rolle? Da kommts dann wohl eher auf Aspekte wie Schärfentiefe und Details an. Aber schön, dass wir…äh ich das nun mit mir selbst klären konnte. ;)

      • @METT:

        Der Vorteil der D700 liegt nur an ihrem KB-Sensor, nicht an ihrer geringen Auflösung. Beweis? Schau dir mal die 5DMkII an (z.B. auf dkamera.de der Bildqualitäts-Vergleich). Trotz fast doppelt so vielen MPs kommt sie auf die gleichen ISOs und rauscht bei gleicher Ausgabegrösse ziemlich gleich fest wie die D700. Bei der D3x mit 24MPs ist es sogar noch deutlicher. Dort rauscht die D3x bei ISO6400 sogar deutlich weniger als die D700. Warum? Weil beim herunterrechnen von 24 auf 12MP zwei stärker rauschende Pixel gemittelt werden und dann das gleiche Ergebnis bringen wie wenn da nur ein Pixel gewesen wäre. Mehr Beweis kann ich dir nicht bringen dafür, dass die Pixelzahl/Pixelgrösse völlig nichts mit dieser Sache zu tun hat.
        Wenn nun ein Objektiv einen grösseren Bildkreis abdeckt, meinst du, dass das eintreffende Licht breiter gefächert wird, damit dies möglich ist? Sicher nicht! Dann würde ja ein KB-Objektiv an der Cropkamera ein dunkleres Bild erzeugen. Dass dem nicht so ist, weisst du bestimmt. Also heisst das doch, dass sich beim vergrössernden Bildkreis auch die Menge des einfallenden Lichts vergrössert. Du kannst dir das ganz einfach vorstellen, indem du ein Loch in ein Blatt Papier schneidest und gegen die Sonne hältst, so dass auf dem Boden ein Lichtkegel erscheint. Wenn du nun das Loch im Papier vergrösserst, wird auch der Kegel entsprechend grösser und es passieren zusätzliche Photonen das Loch im Papier. Die Lichtmenge hat sich also erhöht. Genauso ist es beim Crop-Bildkreis und dem KB-Bildkreis. Und wenn du eine Cropkamera hast kümmert es dich auch nicht, was für ein Bildformat das Objektiv hat, weil das überschüssige Licht einfach im Spiegelkasten vernichtet wird. Bei der KB-Kamera kannst du aber nicht einfach ein Objektiv mit Cropbildkreis anschliessen, weil du sonst nicht genügend Licht (= schwarze Ecken) bekommen würdest.

        Jetzt alles klar?

  5. Sehr spannend zu lesen. Ich würde so etwas auch gerne ausprobieren, leider fehlt mir das Geld dazu. Aber ich denke ein 35mm f/1.8 sollte auch gute Ergebnisse bringen.

    Das letzte Photo ist übrigens mein persönlicher Favourit.

    Jan

    • Jein. Das 35er mag für Cropkameras die erschwinglichste Lösung sein, aber wirklich warm wirst du damit nicht werden. Der Bildwinkel mit dem Teil entspricht etwa 50mm am Kleinbild-Sensor. Auf das Ausgangsbild im Artikel bezogen heisst das, dass du nur 1/4 der Fläche auf den Sensor bekommst. Wenn du das Haus links unten in die Bildecke quetschst, hast du am oberen Bildrand noch einen dünnen Streifen mit ein paar durch den Dunst scheinenden Sternen.
      Ausserdem bedeutet eine doppelt so lange Brennweite (auf KB umgerechnet), dass die Sterne sich auch doppelt so schnell durch’s Bildfeld bewegen. Das wiederum heisst: Belichtungszeit halbieren. Dir bleiben also gerade mal noch 12s pro Bild, bevor ein Stern Strichspuren zieht.

  6. Deine Bilder sind toll, wahrlich, da kann man nix bekriteln, Abber der Beitrag bringt einen eigentlich gar nicht weiter.
    Du verrätst im Prinzip garnichts von deiner Technik, also in speziellen von deiner Bildbearbeitung.

    Mir soll’s Recht sein wenn du das für dich behalten willst, ich verstehe aber nicht was der Beitrag bringen soll.

    Sorry.

    • Ja, ich verstehe deine Kritik sehr gut. Ich wollte zunächst den Artikel auch eher in Anleitungsform verfassen. Martin wollte dann aber mehr einen Artikel, der die ganze Entstehungsgeschichte aus meiner Perspektive beleuchtet. Der Anleitungsartikel wäre aber auch total ausgeufert bezüglich Länge. Ich denke, so haben wir einen guten Kompromiss gefunden. Die meisten Dinge sind leicht nachvollziehbar. Das neoHDR bleibt ein Fragezeichen, aber das kann und will ich momentan nicht ausplaudern. Ein gewisser Unternehmergeist steckt halt auch in mir. Ich nehme an du verstehst das.Und wer vor etwas intensiverer Bildbearbeitung in Photoshop nicht zurückschreckt, kann ähnliche Ergebnisse erzielen.

      • Ich denke es ist okay, wenn er es für sich behalten möchte. Ich finde trotzdem, dass es ein toller Artikel ist und einen dazu anregen kann, selber so etwas zu versuchen. Warum denn dann 1 zu 1 nachmachen und nicht selber ausprobieren und Probleme lösen? Ist doch langweilig… :)

  7. Wow, die Bilder kannte ich schon von flickr. Danke für die interessante Anleitung.

    Wobei mir vor einigen Monaten auch ein anderes Programm zum Rückrechnen der Sternenspuren über den Weg gelaufen ist… Habs mir aber leider nicht gemerkt.

  8. Hallo Dave,

    Wir haben ja mai ge -e-mailt :-) deshalb freue ich mich umso mehr dich hier auf kwerfeldein wieder zu treffen.

    Zu zählst ganz klar zu meinen Favoriten. Mach weiter so. Ich hoffe, man kann bald wieder neue Bilder auf deiner Webseite finden.

    VG
    Tobi

  9. Hallo!

    Sehr schöne Bilder, gefallen mir gut. Tja, nach dem Lesen des Artikels stand ich noch etwas im Nebel, wollte Dich bitten, doch noch etwas genauer zu beschreiben, was das (Dein!) Programm denn macht, denn das kann man nicht ganz nachvollziehen.
    Nun habe ich die bisherigen Kommentare gelesen und leider gesehn, dass das durchaus Absicht war. Tja – schade, aber auch verständlich!

    Weiter so!

  10. Sehr schöne Fotos.
    “… Anbei noch eine kleine Auswahl anderer Nebelmeere, wie ich sie auf meinen nächtlichen Ausflügen angetroffen habe …”
    würde ich nicht so formulieren … da Du ja ein Menge in die Nachbearbeitung gesteckt hast.

  11. Ein tolles Bild und eine schöne Entstehungsgeschichte. Ich fotografiere auch oft Sterne. Deine Art der Fokusierung war mir neu aber sie klingt logisch und darum werde ich mir das mal merken. Ich habe auch schon Sternenspuraufnahmen gemacht. Dort steht man aber schnell 2-3 Stunden an einem Ort und wartet bis die Kamera die Einzelbilder geschossen hat. Aber die Ergebnisse lohnen sich und sind jede Wartezeit wert. Danke für das tolle Bild!

  12. Hey, finde den Artikel auch super, Sternenbilder ohne Spuren lassen sich aber auch realisieren wenn man beim HDR Processing einfach nur ein Ausgangsbild für den Himmel nimmt und mehrere für den Rest, den Himmel müsste man dann natürlich freistellen, mit einem Grafiktablett ist das aber eher nicht so das Problem.

    Beste Grüße

  13. Klasse Aufnahmen!

    Mir gefällt es, dass Du HDR (sinnvoll) nutzt und das nicht einmal auffällt.
    Nichts finde ich scheußlicher als Fotos, die ohne HDR besser aussehen würden und dadurch nur entstellt und geplättet werden, weil der Fotograf meint, sein Foto würde dadurch besser werden. Bah!

    Thumbs up!

  14. Geniale Fotos, deine Nebelbilder! Und wieder der Beweis, dass beeindruckende Aufnahmen nicht durch spontanes Abdrücken entstehen, sondern intelligent und aufwändig erarbeitet werden müssen.

  15. tja… schade is eigentlich nur, dass man selbst mit dem gleichen equipment nicht die gleichen bilder produzieren kann, wenns dann nämlich an der software liegt, die der rest der menschheit nich zur verfügung hat… :) da is dann eben doch die phantasie und kreativität gefragt, aus dem was zu machen was man hat. :)
    ich find die bilder echt stark. alle. aber das weißte ja. ;)

  16. @ David : Das musst mir noch einmal auseinandersetzen, mit dem Rauschen und dem ‘eingesammelten Licht aus den Ecken’.

    Bislang hab ich den Unterschied des Rauschverhaltens zwischen D300 und D700 ausschließlich darauf geschoben, dass der Sensor der D700 bei gleicher Megapixelzahl ungefähr 2,3x so gross ist, die Packungsdichte der Pixel daher eine komplett andere ist und die Pixel daher deutlich größer ausfallen. Damit kann jedes einzelne Pixel mehr Photonen aufnehmen und in ein Signal umwandeln. Damit wird das Ausleserauschen deutlich verringert. (Das Dunkelrauschen und dessen Problematik bei Nachtaufnahmen will ich jetzt mal aussen vor lassen)

    Mit dem ‘eingesammelten Licht durch die Optik vom Rand’ und trallala nach Technikverliebtenforum hat das nichts zu schaffen. Die Lichtmenge ist die gleiche, ob ich nun bei der 300 das auf APS-C gerechnete 50 1.4 vorhänge, oder aber bei der 700 das FX-Pendant. Die Umwandlung des vorhandenen Lichts in Impulse (bzw. Impulsstärke) ist eine andere. Thats it.

    Gruss,
    Hauke

    • @Hauke:
      Da liegst du falsch. Bei der der KB-Format landen effektiv 2.3x mehr Photonen auf dem Sensor. Wie bereits beschrieben äussert sich das einerseits in rauschfreieren Bildern, andererseits aber in geringerer Schärfentiefe. Letzteres ist logisch: Das Objektiv muss ja an KB eine 1.5x längere Brennweite haben als am Crop. Aus dem 50mm f/1.4 an der D300 wird also ein hypothetisches 75mm f/1.4 an der D700. Und da die Objektivöffnung = Brennweite / Blende ist, vergrössert sie sich von 35.7mm auf 53.6mm (bei gleichem Blickwinkel!!!). Es werden also weiter aussen liegende Photonen auch noch in den Strahlengang geleitet. Und diese zusätzlichen Photonen erzeugen die zusätzliche Unschärfe, die wir als geringere Schärfentiefe wahrnehmen.
      Die Pixelzahl und Pixelgrösse ist erstmal irrelevant. Bei gleicher Ausgabegrösse bzw. gleichem Betrachtungsabstand hat die Pixelgrösse nur die Funktion eines Rasters. Wenn man das Bild auf die gleiche Ausgabegrösse runterskaliert, ist das Rauschen auch bei stark unterschiedlicher Pixelzahl nahezu identisch. In der 100%-Ansicht sieht es freilich anders aus, aber die ist ausser für die Bildbearbeitung eigentlich nicht praxisrelevant.

      • Die gesamte verfuegbare Lichtmenge muss auf alle Mikrolinsen/Pixel verteilt werden, um so mehr dieser Linsne man auf einem Sensor hat, um so weniger bekommt der Einzelne: Lichtmenge pro Mikrolinse = Sensorflaeche / Anzahl Pixel, so einfach ist das.

        Das ist dann auch der Grund, warum groessere Sensoren in aller Regel (bei gleicher Pixelzahl) bei der ISO-Einstellung mehr Reserven nach oben haben.

        Wenn nun aber ein APS-C Sensor mit gleicher Pixelgröße und gleichem Brennweitenequivalent bei gleicher Blende gegen die D700 antreten würde käme die Behauptung von David nicht mehr hin. Nun hat die D700 aber ganz besonders große Pixel – etwa 2,5x größer als die heutiger APS-C Sensoren – und deswegen eben auch die höhere Lichtausbeute pro Mikrolinse auf dem Sensor. :)

      • @Kahlcke: Du lebst in der 100%-Ansichts-Welt. Man darf Bildergebnisse nicht auf Pixelebene vergleichen. Am Schluss zählt doch das Gesamtbild. Also muss man für Bildvergleiche auch das gesamte Bild berücksichtigen. Eine Cropkamera mit der Pixelgrösse einer D700 hätte gerade mal 5.2MP. Was bringt nun ein Vergleich eines 5.2MP-Bildes mit dem 12MP-Bild der D700? Ja, es rauscht auf Pixelebene gleich viel. Die Pixelebene steht aber in ganz anderer Relation zum Bildinhalt, also ist der Vergleich nutzlos.
        Man kann im übrigen auch das 12MP-Bild einer D90 auf 5.2MP runterskalieren und hat nahezu das gleiche Rauschverhalten wie bei einem nativen 5.2MP-Sensor. Genauso kann man das bei der D700 machen und hat dann auf Pixelebene ein 2.3x weniger rauschendes Bild. Die ganzen Vergleiche auf Pixelebene bringen also nichts. Wenn man zwei Kameras miteinander vergleichen will, muss man die Originalbilder auf die gleiche Pixelzahl herunterskalieren oder ausdrucken und aus der gleichen Entfernung miteinander vergleichen.
        Herunterskalieren reduziert das Rauschen auf Pixelebene übrigens genau gleich wie wenn das Signal bereits in dieser Auflösung aufgenommen worden wäre. Mehr Megapixel verschlechtern also nicht etwa das Rauschen, wie oft gemeint wird. Es ist sogar so, dass eine höhere MP-Zahl sogar zu rauschärmeren Bildern führen kann, wenn man es richtig macht. Aber das zu erklären würde hier den Rahmen sprengen.

      • … Yo David, bevor wir uns da falsch verstehen, zitier ich noch mal schnell aus meinem Text :
        « [ … ] bei der 300 das auf APS-C gerechnete 50 1.4 vorhänge, oder aber bei der 700 das FX-Pendant »

        Hast eMail ;)

        Hauke

  17. Ich will mich gar nicht zum technischen oder so äußern, ich find das Bild, die Umsetzung, die Stimmung einfach nur genial! Das wäre ein Bild, welches ich mir sofort ins Wohnzimmer hängen würde, am besten so groß wie mögliche.

    Sehr Sehr genial und echt guter Artikel

    Beste Grüße

    David

  18. WOW, die Bilder sind wirklich großartig und ziemlich gut bearbeitet. Respekt, du kennst dich gut aus.
    Die Community hier gefällt mir sehr gut,
    Ich werde in zukunft öfter mal vorbeischauen. Bin schon gespannt auf die nächsten Bilder.

  19. Da bleibt mir glatt die Spucke weg. Die Bilder sind einfach genial. Und dann Dein Durchaltevermögen und Deine Disziplin genau solche Bilder erzeugen zu wollen, mit all der Planung, Equipmentumstellung, Programmierung eigener Software usw. Chapeau!

    Interessant ist der Artikel in Kontrast zum kürzlichen Graufilterartikel.

  20. Endlich, nun weiß ich auch wie das geht. Bin begeistert und werde mir diesen Beitrag speichern um dieses mal selbst zu probieren. Zuerst nur mal mit den Sternen und dann mal mit Landschaft.
    Danke für diesen ausführlichen Bericht!

  21. hallo david,

    zunächsteinmal möchte ich klarstellen, dass deine bilder im ergebnis wirklich sehr gut aussehen. keine frage!

    jetzt kommt allerdings das große ABER:

    wie deine “neoHDR” software funktionieren soll ist mir alles andere als klar und ich behaupte sogar, dass es völlig unmöglich ist.

    alle, die schon einmal astro fotografiert haben wissen, dass sich die sterne im bezug auf die kamera auf der erde bewegen. (soweit nichts neues)

    wenn deine software also wie beschrieben diese bewegung “herausrechnen” soll, dann wird sich durch die verschiebung der bilder automatisch eine verschiebung (in diesem fall) der berge ergeben.

    sprich: entweder die berge oder die sterne in einem bild bewegen sich, da sich nicht beide gleichermaßen bewegen…

    meine these: du bist ein wirklich guter landschafts und astrofotograph.
    du machst ein normales landschafts hdr und dann erstellst du ein ordentliches astro-foto vom nachthimmel und beides “verwurstest” du dann in photoshop… wie gesagt: das alles ist handwerklich echt sauber gemacht… aber eben leider nicht ganz so spektakulär wie die behauptung, dass du hier ein wunderwerk der technik geschaffen hast. (das mal eben die drehung der erde anhalten müsste).

    güzzi in die schweiz und nix für ungut ;-)

    • Hallo Bastian

      Der von dir beschriebenen Problematik bin ich mir durchaus bewusst. Das ist ja überhaupt der Clou hinter der ganzen Software, dass sie damit eben klar kommt. Sonst könnte man theoretisch auch einfach DeepSkyStacker verwenden, wenn auch dieses Tool seine Probleme hat mit Weitwinkelobjektiven. Selbstverständlich muss die Software selbstständig herausfinden, welche Bereiche zum Himmel gehören und welche nicht.

      Gruss David

      PS: Güzzi kenn ich nicht. Du meinst wohl “Grüezi” ;)

  22. hallo david,

    selbst wenn deine software das könnte (und du erklärst ja mit nichten, wie
    das gehen soll) hätte sie zwei andere probleme.

    Nämlich:

    1. die wolken: die würden ja eigentlich zum himmel gehören, da man auf
    einigen deiner bilder deutlich die sterne dahinter erkennen kann. (müsste
    also gestackt sein). Dann müssten die wolken aber auch “drehmuster” an den
    rändern aufweisen. das tun sie aber offensichtlich nicht.

    2. die randbereiche bzw. die schnittlinie zwischen bergen und himmel:
    durch die drehung entstehen bereiche zu denen du nicht informationen aus
    allen bildern hast weil entweder sterne hinter den bergen verschwinden oder
    welche sich einfach aus dem bild herausdrehen. hier müsstest du entweder
    croppen oder in kauf nehmen, dass die sterne hier deutlich dunkler werden.

    das zu den technischen fakten… aber jetzt mal zu den menschlichen
    ermessensgründen: wenn ein kind seinen freunden erzählt es hätte DEN
    WAHNSINNS SCHATZ gefunden, dann würden sofort alle anderen kinder sagen:
    “das glauben wir nicht, bis wirs nicht gesehen haben”.

    wenn hier im internet jemand kommt und behauptet er hätte die knaller
    software, die die grenzen des machbaren (siehe wolkenproblem) verschiebt,
    dann kommt komischerweise keiner auf den gedanken, dass hier jemand dabei
    ist seine arbeit grösser zu machen als sie auf den ersten blick scheint.
    komisch komisch.

    also mich wirst du nicht mit einem weiteren “das ist ja gerade was meine
    software kann” überzeugen können, ebenso wie das schon mit der 2.3x mehr
    licht debatte der fall war. mir ist deine argumentationsweise einfach
    öfters mal etwas zu schwammig und das unter dem vorwand, dass das immer
    alles den rahmen sprengen würde weil wir das ja alles eh nicht verstehen.

    ich glaube sehr wohl, dass die leser hier sehr daran interessiert und
    dazu auch in der lage sind zu verstehen,
    wie deine software mit den genannten problemen umgeht.

    dann sach ich mal grüezi

    • es sollte noch angemerkt werden, dass sich auf meinen letzten beitrag hier david kaplan bei mir per email gemeldet hat, er allerdings nicht dazu bereit war auf der fakten seite konkreter zu werden.

      schade!

    • Da stimme ich zu. Es wäre sehr nett, wenn du die Bilder in etwas größerer Version hochladen könntest. Sie sind einfach bombastisch und sehen sicherlich spitze als Desktophintergrund aus :-)

      Wahnsinn, einfach nur Wahnsinn!

      LG
      Florian

  23. Hallo David!

    Sehr faszinierende Bilder! Einfach nur fantastisch! Die Stimmung, die Farben, die Locations…

    Eine Verständnisfrage: Das von Dir als “Rohbild” bezeichnete Foto ist ein RAW, oder ein Bild aus einer Serie von unterschiedlich belichteten, dass Du zu einem HDR verarbeitest?

    Du schreibst, Du belichtest 25 Sekunden und weiter unten ist dann von 400 Sekunden die Rede. Heisst das 16 Bilder a 25 Sekunden oder wie ist das gemeint?

    Danke für eine Antwort
    Sebastian