Warum nutze ich eine KI?

Zunächst muss man verstehen, warum ich angefangen habe, zu fotografieren.

Ich habe in der Natur oft so ein Gefühl. Das überkommt mich einfach so, dagegen kann ich überhaupt nichts machen. Ich finde dann alles so wunderherlich. Und ich dachte mir, das knipse ich jetzt und dann habe ich eine Erinnerung an diesen Moment und kann ihn vielleicht auch mit anderen teilen.

Aber es wurde schnell klar: So einfach ist das nicht.

Und es wurde auch schnell klar, warum nicht.

Wir sehen die Natur nicht objektiv, sondern subjektiv.
Unser Gehirn manipuliert das, was es sieht, damit es in unser Weltbild passt.

Ein Beispiel:

Reden wir mit einem Menschen, vergrößert unser Gehirn dessen Augen.
Das hat evolutionäre Gründe.
Schauen wir TV, passiert das Gleiche. Das Fernsehbild wird vergrößert, der Bereich drumherum wird ausgeblendet.
Das kann man gut nachvollziehen, wenn man früher so einen kleinen schwarz-weiß Fernseher hatte, fällt heute allerdings nicht mehr so auf bei 88Zoll TVs.

Ein anderes Beispiel:
Gehen Sie in den Wald. Schauen Sie geradeaus. Die Bäume stehen alle parallel zueinander.
Schauen sie schräg nach oben. Die Bäume stehen immer noch parallel zueinander.
Fotografieren sie beide Situationen. Oh!
In dem Foto schräg nach oben laufen die Bäume auf einen Punkt zusammen. Unser Gehirn „korrigiert“ diesen Fehler automatisch.
Und das ist auch gut so, denn in der Realität stehen die Bäume nun einmal parallel, aber wir erkennen auch:
Wir können Dinge nicht so fotografieren, wie wir sie sehen.

Ich habe mir dann die fantastischen Naturbilder von Ansel Adams angesehen. Noch heute versucht eine Schar von Jüngern im Yosemite National Park, seine Bilder nachzustellen. Ohne Erfolg.
Denn sein Geheimnis lag in den „Rezepten“ (sozusagen die Handlungsanweisungen für die Helfer, wie ein Bild entwickelt wurde).
Sein Credo: 50 % des kreativen Prozesses finden in der Dunkelkammer statt.

Also kam ein Bildbearbeitungsprogramm, das die Arbeit in einer Dunkelkammer nachbildet.
Das machte die Sache besser, aber gleichzeitig kamen die ersten „Verunglimpfungen“.
„Ja, das ist aber ordentlich gephotoshopt.“ Ja genau. Wie soll ich sonst meine Vision von der Situation darstellen? Mit „knipsen“ geht es nicht.

Dann kam das nächste Problem:
Fotografiert man am Tag und will Vordergrund und Himmel auf dem Bild haben (und ich WILL Himmel und Wolken auf den Bildern haben), muss man sich entscheiden: Will man die Wolken genau erkennen, ist der Vordergrund davor zu dunkel. Will man den Vordergrund erkennen, ist der Himmel weiß.
Aber auch dafür gab es eine Lösung: die HDR Technik. Man erstellt Reihenaufnahmen und nimmt die dunklen Aufnahmen für den Himmel und die hellen Aufnahmen für den Vordergrund.

Das macht die Sache wesentlich besser!

Aber es schien auch das Ende der Möglichkeiten zu sein. Lange Jahre machte ich so Fotos, mit denen ich von der Qualität zwar zufrieden war, die aber letztendlich nicht das waren, weshalb ich angefangen hatte zu fotografieren.

Und dann kam der September 2022 und mit ihm eine Revolution. Da gibt es wirklich kein anderes Wort für.
Eine KI, die nicht auf einem Supercomputer läuft, sondern die man zuhause zumindest ausprobieren kann.
Die erste Woche habe ich nicht geschlafen.
Es gab das erste Mal in meinem Leben (und das erste Mal in der Geschichte der Menschheit) die Möglichkeit, Bilder nach eigenen Anweisungen von einer KI malen zu lassen.

Ich illustriere gerade das Wiki von einem berühmten Fantasy Epos. Die Welt von „Sekandert“.
Dabei galt es zum Beispiel, ein Versteck einer Diebesbande zu visualisieren.
Also sage (schreibe) ich der KI, wie ich mir das Versteck vorstelle und in welchem Stil ich es mir vorstelle. Heraus kommt dies:

Ziemlich beeindruckend, finde ich.

Also habe ich versucht, aus meinen Bildern das zu machen, was ich immer wollte.
Das, was mein Gehirn mir in einer romantischen Situation vorgaukelt, in einem Bild künstlerisch darzustellen. So, wie ein Landschaftsmaler es tut und nicht, wie ein Tourist mit seinem Handy.
Als Vorlage der ersten Versuche diente ein Bild von der Stör in Höhe Kollmoor (bei der kleinen Brücke geht es ans Wasser zu dem Schleusengebäude). Es herrschte ein tolles Abendlicht und es war eine sehr schöne Stimmung.

Aber vier Dinge störten mich noch immens.
Das Dach ist aus Blech und außerdem die drei Dinge, die man in den Vergrößerungen sieht:
1. Gerumpel aus der heutigen Zeit
2. Der Rauch kommt nicht aus dem Haus, sondern von Alsen (heute Holcim) dahinter
3. Gerade die DSLR´s rauschen in dunklen Bereichen sehr stark.

Nun habe ich der KI gesagt: Mal das neu und behebe die 4 Fehler und voilà:

Jetzt könnte man trefflich darüber streiten, ob das noch etwas mit einem bzw. mit dem Foto zu tun hat. Der Konjunktiv deshalb, weil es keinen Streit darüber gibt. Punkt.
Ich bin glücklich mit dem Ergebnis. Und auch das Original von weiter oben ist kein Foto von der Situation. (Mehrfachbelichtung und Photoshop und so). Aber es sah den Abend so aus wie auf dem Bild von der KI. Ich war ja dabei. Ich war richtig erschrocken, als ich nach dem Fotografieren des Bildes zuhause am Rechner das Blechdach gesehen habe …
Und damit es keine Diskussionen gibt, nenne ich meine Landschaften Traumlandschaften, denn das Python Script der KI (sieht man auch auf der Home Seite) heißt: Dream.

Nun kann eine KI auch ohne Vorlage ein Landschaftsbild erstellen:

Aber ich finde, das hat eher was von einem Computerspiel.

Die Technik:

Um die nötige Auflösung zu erreichen, braucht man viel VRAM. Die KI läuft auf 2 miteinander verbundenen NVIDIA A100 Karten mit insgesamt 96 GB VRAM.