KI generiert

Seit einigen Tagen beschäftige ich mich mit der Stable Diffusion KI, die darauf spezialisiert ist, KI Bilder zu erzeugen.
Dafür verwende ich eine lokal auf meinem Rechner installiertes Webfrontend, wer daran interessiert ist, kann im Netz einfach mal nach Automatic1111 suchen und wird dann viele Informationen dazu finden.

Wie immer ist aller Anfang schwer…
Die erste große Erwartung war schnell enttäuscht, ganz so einfach wie es sich anhört war es dann doch nicht. Trotzdem ist das ein sehr interessantes Thema, aber die dunklen Gedanken, die einen als Fotograf schnell beschleichen, 😉 wenn man hört, dass nun eine KI Bilder generieren kann, waren schnell verflogen!
Zuerst einmal ist die KI sehr eingeschränkt, man kann sich Modelle (Module) herunterladen, die von Usern trainiert wurden. Der Vorteil ist, ein reichhaltiges Angebot, der Nachteil ist, du musst die Module kennen und wissen, was sie beinhalten und leisten können. Es gibt eben nicht das EINE Modul, was alles kann und schon gar nicht das Standardmodul von Stable Diffusion, ja dem Papst nen Trainingsanzug verpassen, das geht sicherlich. Aber wenn man genaue Vorstellungen hat, was wie wo das Model, das man generieren möchte, tun soll, dann wird es schon richtig kompliziert und die KI stößt schnell an ihre Grenzen.
Auch das Photorealistische lässt noch sehr zu wünschen übrig, gerade weil man ebend Module/Modele benutzt, die User trainiert haben. Da hat dann jeder seine liebevoll über die Jahre gesammelten Bilder verwendet um daraus dann ein Model zu erstellen 🤣, die Anforderungsparameter werden dann von dem User festgelegt. Ich verwende inzwischen 5 schlüsselwörter nur alleine dafür das mir kein „Porno“ oder was die User dafür halten angezeigt wird, Niemand will wirklich eine Ki generiertes Geschlechtsteil sehen, glaubt es mir einfach! 🤣
So gibt es eben, wie ich oben ja schon sagte, für die verschiedensten Themenbereiche eigene Model, und leider kein „Model“ was alles kann.
Oft ist dann auch vieles unerwünschte im Bild, das man dann durch den Prompt negieren muss, inzwischen gibt es da für Extensions, Embedings und LORA`s die zusätzlich zu den vorgegebenen Styles und Themenbereiche der Modele auch noch vorgegebene Parameter mitliefern, je nachdem, was für einen Style man wünscht.
Also, es ist nicht so, dass man nun der KI einfach sagen kann Erstelle mir ein Bild von einem Model, das auf einem Sofa liegt, das Knie angezogen hat und dabei in die Kamera schaut! Und man dann das Bild bekommt, was man vor Augen hatte.

Natürlich wird die KI dir daraus dann ein Bild generieren, und letztlich wird es dann sogar, gar nicht schlecht aussehen, aber, da fehlen noch viele Details, die für dich wichtig sind und es sind viele Eigenschaften in dem Bild, die du so gar nicht wolltest.
Also wirst du dich intensiver damit beschäftigen müssen, deine Eingabe (Prompt) wird umfangreicher und komplizierter. Zusätzlich sind dann natürlich noch die unterschiedlichsten Regler/Einstellungen in dem System, und jede noch so kleine Änderung bringt ein völlig anderes Bild hervor. Selbst die Reihenfolge und Art und Weise, wie du deine Bildbeschreibung abgibst, verändert das entstandene Bild wesentlich zu dem vorhergehenden! Selbst wenn du alles so lässt, wie es war, wird das Bild danach nicht genauso wie das zuvor. Es ist also nicht wirklich reproduzierbar, es ist immer nur so ähnlich!

Und trotzdem ist das ganze interessant und kann einen Stundenlang beschäftigen, man will ja doch irgendwie versuchen ein steuerbares vorhersehbares, von einem selbst gewolltes Ergebnis zu erreichen!😉

Nachdem ich zuerst die Photorealistischen Modelle getestet habe, bin ich dann doch bei einem Anime/Manga-Art/Photorealistischem-Merge Model geblieben, da ich damit dann schon mal einigermaßen brauchbare Ergebnisse erreicht habe. Die Photorealistischen Modele sind einfach viel zu eingeschränkt, ich denke, das liegt an der eingeschränkten Bildauswahl bei den Model-Trainings.
Da unsere asiatischen Freunde sehr sehr fleißig bei der Model Erstellung sind, überwiegen zurzeit auch die Anime/Manga Modelle und bieten aufgrund ihrer Vielfalt auch wesentlich mehr Gestaltungsmöglichkeiten.
Die ersten Stunden und Tage hat man eigentlich zu 100% Ausschuß bzw. ist meilenweit von dem Entfernt, was man eigentlich erreichen wollte: Aber nach einiger Zeit, hat man dann schon mal auch einige brauchbare Ergebnisse, und je länger man sich damit beschäftigt, umso mehr Einfluss kann man auf die Bildgestaltung nehmen.
Mein derzeitiger Standard-Prompt (Texteingabe wie das Bild aussehen soll) beinhaltet zurzeit über 1700 Zeichen, der negative Prompt ist dabei noch gar nicht mitgerechnet!
Auch wenn es jetzt nicht mehr so häufig vorkommt, gibt es immer noch so einige Mutationen in den Bildern, die jeden Horrorfilm Fan vor Freude zittern lassen würde!
Drei Arme, drei Beine, verdrehte Körper, Körper, die sich an den Armen oder Beinen auflösen, oder einfach völlig absurd miteinander verschmelzen! Und das nervigste und absolut nicht lösbare Problem sind die Hände… Stable Diffusion in der Version 1.5 hat ein grundsätzliches Problem mit Händen! Die sehen in der Regel aus wie ein Mikadohaufen, den man aus der Hand fallen lässt, vertauschte Handflächen, innen/außen, verkrüppelte Finger, zu viele, zu wenige Finger, absurd abstehende Finger, Finger da am Körper wo sie gar nicht hingehören… 😀
Und da kann man noch so viel einstellen, rum stellen und ausprobieren, das Problem wird sich nicht lösen… Im Klartext, keins der Bilder wird eine „perfekte“ Hand haben, die mit Stable Diffusion erstellt werden, und wenn es doch mal so wäre, dann sollte man anfangen, Lotto zu spielen. 😉

Ich stelle hier mal die letzten Ergebnisse meiner Versuche vor. Auf einer Skalar von 1-5 ist da eigentlich keine 4 oder 5 dabei, sondern eher eine 2 oder 3, 0 und 1 habe ich gleich wieder gelöscht 😁, setzt man das ganze aber in Relation zu den derzeitigen Möglichkeiten der KI, dann sind diese Bilder in meiner Auswahl zum derzeitigen Stand so etwas wie eine 3-4 😉
Noch ein paar Worte zu den Bildern in der Galerie hier…
Ja, die Modele haben durchweg große Brüste bis teilweise extrem große Brüste, Stable Diffusion kennt keine BH Größen die man angeben kann, bzw. wenn man es macht, hält es sich ohnehin nicht daran, man kann sich aussuchen, ob man die BH größe komplett der KI überlässt, dann entstehen solch lustige Kombinationen wie ’nen A Körbchen mit nem KardashianHintern, das selbe Ergebniss bekommt man wenn man Small oder Medium eingibt 🤣. Ich denke mal das hat auch etwas mit den vorlieben der Modell-Ersteller zu tun, welche Bildauswahl da getroffen wird. 😉
Anscheinend bekommt man aber recht „stabile“ Ergebnisse wenn man Big Breast als Prompt verwendet, obwohl dann auch schon so einige lustige Absurditäten bei Entstehen.
Was die KI allerdings recht gut kann, jedenfalls indem Model was ich verwende, ist die Outfits zu generieren, da kann man sich dann wirklich sehr kreativ austoben… 😀

Sollte ich hier noch wesentlichere Fortschritte machen bei der KI generierten Bilderstellung werde ich das natürlich auch hier in meinem Photo Blog dann so weiter geben. Bis dahin werde ich so nach und nach, diese bestehende Galerie hier einfach nur erweitern…

Und immer daran denken, nicht auf die Finger schauen! 🤣🤣🤣
Wer zu dem Thema Fragen hat, kann sich gerne bei mir melden, die Kontaktdaten stehen hier auf meiner Homepage!