Die Zukunft ist da! - mehr KI in Photoshop
Gerade erst die letzte Beta vorgestellt und schon kommt Adobe mit etwas Neuem um die Ecke. Noch besser, noch größer?
Zum Photoshop Kurs: https://www.matthiasbutz.eu/produkt/photoshop-1x1-videokurs-fotografieren-lernen
- - - - - -
Noch mehr zu Fotografie, Lightroom, Photoshop und dem Filmen: https://matthiasbutz.eu/
Du willst mit der Fotografie und Bildbearbeitung richtig durchstarten? Lass dir dabei helfen!
Auf YouTube findest zu zwar viele Infos, doch es fehlt oft die Zeit in die Tiefe zu gehen und sich diesen Themen wirklich anzunehmen. Meine Lösung? Kurse, die dir 1:1 & auf praktische Weise zeigen, wie du nicht bessere Fotos und Videos machen kannst. Probier es aus! Ich verspreche dir, es wird sich lohnen.
- - - - - -
Noch mehr Input findest du auf Instagram: https://www.instagram.com/matthiasbutz/
Mein Name ist Matthias und ich zeige dir, wie du noch bessere Fotos und Videos erstellen kannst.
Transkript:
"Hallo zusammen Matthias, hier herzlich willkommen in meinem neuen Video, wo ich ehrlich sagen muss egal was als Titel, was ich als Titel nachher unter dieses Video drunter schreibe, es ist nicht übertrieben. What the fuck Adobe? Anders kann ich es nicht sagen. Es ist wirklich. Ich habe vor kurzem erst ein Video über die aktuelle Beta gemacht von Photoshop, dass man da viel cooler retuschieren kann. Das neue Entfernen Werkzeug oder so was ja entfernen Werkzeug heißt, ist eine absolut grandiose Geschichte. Das ist jetzt schon im normalen Photoshop kam schon rüber und dafür haben sie eine neue Funktion in die Beta gesetzt, die jetzt noch übertriebener ist als das vorher mit Journey und welches Bildbearbeitung Bild KI Tool auch immer noch existiert. Ich finde, die können alle einpacken. Es ist absolut grandios. Ich hab das. Ich habe das gestern eigentlich eher so durch Zufall gesehen. So ein neues Update. Machst du mal kurz die Beta auf und schau mal was es neues gibt Und ich habe einfach nur zwei drei Klicks gemacht und zwar so ein bisschen. Ich hab das Gefühl, ich bin wohl arbeitslos oder so demnächst kann jeder Bild bearbeiten, egal ob er es kann oder nicht. Ich habe dazu schon viel erzählt. Bitte überinterpretiert das nicht. Das soll keine Scheindiskussion werden. Und ob man Fotografen braucht oder nicht, lassen wir das. Es geht eher darum, was wir davon haben, was, wie, inwiefern es uns unterstützen kann. Und das ist jetzt hier wirklich absolut next level. Und damit will ich jetzt erst einmal mit so einer grundlegenden Geschichte anfangen, nämlich einem Problem, das ich öfters habe. Wir fangen langsam an, wir werden uns steigern. Ich will das Werkzeug so ein bisschen an seine Grenzen bringen. Und vorher ganz kurz, damit ihr wisst, wo er das auch herbekommt. Ihr kriegt das hier aus eurem Creative Cloud Manager. Wenn ihr auf die Beta Application geht, könnt ich auf die Photoshop Beta hier runter. Herunterladen kann jeder jeder, der das Abo hat, egal was muss ich nicht sonderlich eintragen oder sonst jemand kann es das einfach runterladen. Einfach installieren installiert sich auch neben dem normalen Photoshop. Also keine Sorge, es zerschießt dir nicht alles. Du hast dann zwei Photoshop Apps. Wenn es das korrekte Plural ist, wird auch hier schon Werbung gemacht. Die Zukunft ist da und und wie und wie. Es kann auch sein, dass das Werkzeug erst mal ausgeblendet ist. Das hier unten, das hat mich Newbie schon so ein kleines bisschen. Aber es kann sein, dass ihr hier Kontext bezogene Taskleiste aktivieren müsst, damit das funktioniert. Gut, Wie funktioniert das Ganze jetzt insgesamt? Das erste Beispiel, was für euch habe, ist so dieses klassische eigentlich. Wir haben ein Foto fotografiert, was wir zu klein gemacht haben, vom Zuschnitt her, was es ist. Wir wollen das jetzt einfach mal auf Instagram posten. Hätten gerne ein eins zu eins Zuschnitt nur als Beispiel. Und ja, da war bisher immer die Methode, dass man halt hergeht und sagt ich hol mir Zuschneiden Werkzeug, stell das auf Quadrat, zieh mir das irgendwie so ein bisschen, dass das optisch passt, dass so was in der Richtung, so ganz leicht im Drittel noch ist. In Ordnung sagen hier oben basiert, setzen den Haken drunter und schauen einfach mal, was bei rumkommt. Fläche füllen. Er rechnet ein kleines bisschen und versucht auf Basis der Informationen so mehr oder weniger was aus dem Foto zu machen. Das hat sehr gut funktioniert. Haha. Bei manchen Strukturen besser, bei manchen einfach überhaupt gar nicht. Deswegen lassen wir jetzt mal das neue Tool dran. Kann man jetzt noch mit Inhalt füllen. Also da gibt es ja noch ein Werkzeug hier bearbeiten und dann Inhalts basierte Füllung mit den drei Punkten hintendran. Da hat man noch ein bisschen mehr Kontrolle drüber. Aber so viel Unterschied macht das nicht. Gott, was wir jetzt wollen, machen wir noch den gleichen Zuschnitt, aber ich mach den Haken bei Inhalt. Es passiert hier oben raus, Haken dran. Wir wollen uns die transparenten Bereiche auswählen, Da reicht ein ganz normales Auswahl Werkzeug. Hier eine Auswahl, da drüben Auswahl und jetzt gibt es hier unten ganz neue generative Füllung. Bzw. Auch für für andere. Vielleicht hier oben, je nachdem, was man lieber Mark einmal drauf gedrückt und nichts eingeben, einfach nur generieren. Und ich muss dazu sagen, das ist noch im Beta Stadium. Zweitens diese Fotos werden natürlich wie bei allen anderen KI Bild, Bild, Generierung Tools irgendwo hochgeladen, irgendwo verarbeitet. Das heißt, wenn es Datenschutz relevant ist, bitte achtet darauf. Ich sage nur dazu sagen nicht, dass nachher heißt ich war schuld und wir kriegen dann irgendwann ein Ergebnis zurück. Und wenn man es mal mit dem vorher vergleicht, ist das eine ganz andere Dimension. Also ja, alles was zurückkommt, ist, wenn man genau hinschaut, nicht in der gleichen Auflösung. Das hier hat eine geringere Auflösung, dass es nicht ganz so krass detailreich, aber es ist alles nachgeahmt. Das richtige Licht, der Nebel hier hintendran ist mitgekommen, der ist einfach mit da. Der gleiche Farb Stil. Egal was die KI hat Geralt was wir von ihr wollen und hat das auch relativ gut dargestellt. Es sind natürlich so typische KI Probleme immer noch da bzw so typische Photoshop Probleme zum Teil, dass man nicht genau sieht was hier für das das erste nicht richtig interpretiert werden können oder Finger oder sowas in der Art also da sind manchmal Probleme da, aber wir haben hier Variationen und können uns durch diese durchklicken, bis wir ein Ergebnis gefunden haben, was etwas besser funktioniert. Ganz klar eine Variante, eine Möglichkeit. Da finde ich es auf der linken Seite besser. Auf der rechten ist es immer noch ein bisschen schwierig. Aber was ich eigentlich am geilsten finde Wir haben eine voll wertige Photoshop Ebene, die wir immer wieder bearbeiten könnten. Wir könnten halt danach hergehen und sagen was weiß ich. Das passt eigentlich ganz gut hier auf der linken Seite die rechte Seite mache ich mit dem Stempel noch mal richtig oder so was in der Art Wir haben nur eine Unterstützung und haben selber noch mal Kontrolle über alles. Grandios, absolut grandios. Ebenfalls auch eine Möglichkeit, wenn wir sagen, das passt so 90 %. Aber eine Stelle hätte ich gerne neu. Zum Beispiel das hier oben, da hat er die Äste so ein bisschen verhauen, da ist das nicht so, so ein bisschen Unschärfe und dann ein Ast, der hier aufhört und es ist ein bisschen tricky. Klar ist es nie, wie man es fotografiert hat. Wir können es, den Bereich einfach auswählen, uns noch mal drüber laufen lassen. Einfach das gleiche nochmal nur auf diesen kleinen Bereich, weil hier unten hat das ja relativ gut hinbekommen. Bzw hier unten bzw hier unten. Das hat man ja schon zum Teil vergessen, weil das ja komplett runter gelaufen ist, den Stamm ja da komplett generiert und es wird besser, es wird besser. Wir können noch mal durchklicken. Das ist jetzt glaube ich so eine von den Varianten, die ja glaube, Oh Gott, das ist perfekt, das sieht nachher keiner So, wenn ich jetzt hier gerade mal machen wir es mal ein bisschen größer, kann ich das Ding eigentlich verschieben? Irgendwie ja. Oder so kann ich es verschieben. Schön sieht keiner hier so ein kleines bisschen. Da könnte man jetzt noch mal draufgehen. Bzw. Wenn einem die drei Varianten nicht empfindlich gefallen, kann es auch jedes Mal hier auf neu generieren. Da macht er dann noch mal drei in dem Moment mit rein gar kein Thema. Aber wenn ich das hier irgendwo posten würde, hochladen würde nicht auf 8 Meter Breite drucken darüber. Davon spreche ich nicht, das sieht man ganz klar. Aber für so Kleinigkeiten ist das mehr als ausreichend. Gut, Ein bisschen, ein bisschen einen draufsetzen, dann bin ich auf jeden Fall dabei. Und zwar schauen wir uns doch einfach mal das Foto an Es geht nicht nur erweitern, es geht auch komplett Dinge raus. Retuschieren, das geht ja klar. Entfernen Werkzeug. Wir haben so unglaublich viele Werkzeuge, mit denen wir das mittlerweile machen können. Trotzdem haben sie alle ihre Limitationen. Die können nicht das komplette Bild wegretuschieren. Also wenn ich hierher gehe und keine Ahnung nehme hier, selbst wenn ich es entfernen Werkzeug nehme, wir machen das mal ganz groß. Wir wollen den Fotografen hier vorne raus haben. Ich hätte gerne nur das Bild für sich und ich lasse das mal drüber laufen. Keine Ahnung, wie viel Wochen der da jetzt rein rechnen würde. Was? Naja, mal gucken geht, aber er hat im Rest vom Foto zu wenig Bildinformationen. Er kann nicht einfach sagen Hey, ja, generiert das komplett neu und dann passieren solche Dinge. Der Boden ist gar nicht mal verkehrt. Er ist gar nicht so schlecht geworden, fällt mir gerade auf. Ja, aber den Berg hast verhauen. Mit genug Versuchen geht es mit Sicherheit. Aber wir wollen es ja schnell und einfach haben. Wir sind ja in der Generation angekommen, wo alles zackzack in der Zeit angekommen, wo alles zack, zack, schnell schnell gehen muss. Und so was in der Art wird dann überlassen, was der KI einmal generieren soll. Nichts negatives heißen, Manchmal muss es auch schneller gehen. Dafür ist halt dann das Ergebnis nicht ganz okay. Alles gut so schauen wir mal was bei rumkommt heute noch jemand? Muss ich ja gar nicht mal verkehrt. Ich habe das schon zum Dritten Mal gemacht. Jedes Mal, wenn ich es mache, wird es besser. Aber auch hier richtig cool nachgeahmt. Klar sieht man an der Stelle natürlich mal wieder, wann die KI eingestiegen ist und ab wann das normale Bild noch da ist, weil die Auflösung nicht vorhanden ist. Aber ich kann auch hier in den drei Mal durch die drei Varianten gehen. Noch mal gucken, was mir am besten gefällt. Oh oh, oh nein, das ist, das glaubt man fast gar nicht da. Da weiß man ja gar nicht, dass er vorher mal drin gestanden hat. An sich Ich zweifel das in keinster Weise an, richtig, richtig cool. Ich glaube, ich werde das auch öfters mal verwenden, einfach um vielleicht nicht komplette Bilder raus Sachen raus zu retuschieren, je nachdem was für Sachen geht mit Sicherheit in vielen Fällen deutlich besser. Spätestens wenn es ein Kundenauftrag ist, kann man hier solche Sachen nicht abliefern. Das ist dann schon ein bisschen tricky, aber für fanden jetzt vielleicht, dass man sagt Hey, ich habe ein Bild, das soll auf 16 zu neun gezogen werden und ich habe den Rand an der Seite nicht miteingerechnet. Wird irgendwas abschneiden, dann kann ich für den Rand generieren. Das ist eine coole Sache. Habe ich bisher in als passiert gemacht, aber wenn es besser geht, warum nicht? Okay, das Bild landet ja im Internet. Was geht jetzt noch? Klar gehen auch solche Sachen, dass ich zum Beispiel hier komplett äußere Dinge in dem Moment einfach erweitern kann. Ich habe so ein Talent dafür, Hände abzuschneiden und das ist sehr aufwendig. Natürlich das Ganze in dem Moment nach unten weiter zu erweitern, habe ich schon gemacht hier. Also das ist meine Variante. Bisschen mit Stempel arbeiten und so was in der Art, das fällt eigentlich gar nicht so krass auf. Aber wir schauen einfach mal, wie schnell die KI das in dem Moment macht. So auch gerade weil Finger oft genug so ein Problem für künstliche Intelligenz ist, machen wir mal ein kleines bisschen weiter So, einmal den Haken dran Wir müssen es ja nicht komplett generieren. Es reicht ja, wenn wir das einfach so vielleicht nicht die komplette Hand auswählen. Das kommt nie sehr gut. Nur so ein kleines bisschen hier unten, so generative Füllung. Mal schauen, was hier rauskommt. Haben so ein Problem mit Händen. Ich weiß nicht, woran das liegt. Vielleicht daran, dass sie zwar wissen, wie sie aussehen, aber nicht wie sie funktionieren. Alle. Jeder hat fünf Finger. Aber wie? Wie sind die verbunden? Ich verstehe schon, warum das zu Problemen führen kann. Alles gut ist, was Komplexes. Oh, die erzeugten Bilder wurden entfernt, das sie gegen die Benutzer Richtlinien verstoßen. Wow. Ich weiß nicht genau was er da reininterpretiert hat, aber daran merkt man schon mal Beta Stadium. Es kann halt noch nicht alles. Schwierige Sache. Gut, das hat jetzt mal soweit nicht funktioniert. Finde ich bisschen schade, aber gut. Ich habe noch was für euch. Noch was richtig cooles, weil wir können ja natürlich nicht nur solche Erweiterungen machen. Vielleicht probieren wir es gleich noch mal, sondern wir können ja, das hat mit Sicherheit schon jeder mal hier gesehen, dass ich wähle das einfach mal aus. Kann man schon einfach mal so eine Auswahl erstellen, dass wir das noch mal reinkriegen. Wir können ja bei Generative Füllung geben wir ein bisschen Platz, da werden wir ja auch nach einem Text gefragt. Also ich kann da ja auch Dinge eingeben, was da rein soll. Es soll ja nicht einfach nur gelöscht werden. Das was ich ja bisher gemacht habe, war ja quasi nur inhalts basierendes Füllen auf Steroiden, sondern ich will jetzt eine künstliche Intelligenz triggern. So habe ich mir mit dem Bild gedacht an der Stelle wird doch ein Auto ganz cool aussehen, ein gelbes Auto. Dann geben wir doch mal gelbes Auto, ein. Mal gucken, wie lange braucht auch. Es muss auf Englisch sein. Ich habe es auch gerade gemerkt. Eine Yellow Car. Schön, dass er mich in dem Moment sogar darauf hingewiesen hat, dass es nicht auf Englisch war. Also dass es halt wieder Nachteile und so was in der Richtung schon klar, vielleicht kommt das irgendwann mal auf Deutsch, aber ich finde es ganz cool, dass es halt in Photoshop integriert ist, dass wir das auch zu Photoshop wieder zurückbekommen. Okay, er hat ein gelbes Auto generiert. Ob das jetzt fotorealistisch genug ist? Ich finde definitiv nicht. Können smart sein vom Logo her sieht eher aus wie gemalt. Räder sind ein Riesenproblem, habe ich festgestellt. Da weiß er gar nichts mit anzufangen. Aber wenn wir hier so ein bisschen durch generieren und mal schauen, was alles möglich ist, was alles mit dabei ist. Vielleicht kommen wir dann irgendwann mal zu einer Variante, die richtig gut funktioniert. Da hat er auch nicht verstanden, ob das Auto in die oder in die Richtung fahren soll. Das sieht eher nach vorne aus. Aber da ist ein Spiegel für die andere Richtung. Nenne ich mal futuristisch. Okay, machen wir doch mal noch eine Variante. Das ist ja gar kein Problem. Okay, es wird nicht viel besser, aber es geht schon mal in eine bessere Richtung. Klar. Oh, das ist gar nicht verkehrt. Das sieht fast schon echt aus. Also mal abgesehen davon, dass die Auflösung natürlich nicht so wirklich stimmt und die Frontscheibe aussieht, als würde sie aus Gummi bestehen, aber auf den ersten Blick gar nicht verkehrt. Das kann man jetzt natürlich noch weitertreiben. Da kann man jetzt noch viel, viel mehr Sachen draus machen, sich Dinge generieren lassen und vielleicht sollte man auch darauf achten, dass im Hintergrund irgendwie keine Was ist das denn? Er interpretiert halt so, wie er in dem Moment interpretieren möchte. Aber ich bin echt gespannt, in welche Richtung das irgendwann mal gehen wird. Geht ja für alles mögliche, was weiß ich. Hey, ich möchte was so verändern, dass die Pflastersteine keine Pflastersteine sind, sondern Teer. Kann ich ja ebenfalls machen. Machen wir es doch einfach mal, kann ich ebenfalls machen, sagte er. Und so machen wir mal das hier und da hätte ich gerne Street oder so was in der Richtung. Mal schauen, was der, was er in dem Moment hier draus generiert, einfach um den Belag zu ändern oder so was in der Richtung oder auch komplette Components zu erstellen. Das geht damit ebenfalls und sogar relativ easy tatsächlich so gut hat er jetzt die Pflastersteine weitergeführt. Ist auch ganz cool. Das sieht sogar mal abgesehen davon, dass hier ein bisschen abgesackt ist, aber eigentlich ganz okay aus. Ich seh so bisschen unscharf in diese Richtung, von daher in Ordnung. Also wow, gar nicht mal schlecht. Gut, was haben wir noch? Wir haben auf jeden Fall noch die Möglichkeit, den kompletten Hintergrund noch zu verändern. Und das können wir einfach hier kommen. Dafür ist die Leiste doch da. Wir wählen mal das Motiv aus. Das bin ja ich. In dem Moment machen halt Shift, Command E, um die Maske umzukehren. Jetzt ist nur der Hintergrund ausgewählt und ich mache jetzt hier generative Füllung. Was können wir machen? Winter mal Winter. So, ich hoffe mal irgendwie grandiose Schneelandschaft gleich im Hintergrund. Klar, je mehr es davon abweicht, umso unrealistischer ist es natürlich. Ich stehe da im Tshirt mit schönem Licht hintendran. Wie inwiefern das in der Schneelandschaft gleich reinpassen wird, weiß ich nicht genau. Ich habe auch keine Ahnung, was jetzt gleich zurückkommen wird. Oh. Gar nicht mal so schlecht. Ihr wisst gar nicht, wie krass das eigentlich gerade ist, weil er hat am ursprünglichen Foto erkannt, dass ich im Gegenlicht stehe, dass von hinten eine Sonne kommt und hat das genauso hier rein generiert. Das heißt, diese Schneelast da hintendran. Also ich mein gut, mal abgesehen davon, was das hier für ein komisches Ding ist er hat erkannt, dass die Sonne hier von dieser Richtung kommt, nicht von dieser Richtung, von dieser Richtung. Wahnsinn! Das ist sogar fast glaubwürdig. Wir sprechen mal nicht davon, dass die Maske nicht so super ist oder so was in der Art, aber wow, nein. Einfach mal den kompletten Hintergrund geändert. Und ja natürlich, es ist unrealistisch. Es wirkt zum Teil ein bisschen eigenartig und wir haben manche Artefakte hintendran, das hier so irgendwie orange ist. Ich krieg so so'n heiligen Schimmer und aus irgendeinem Grund leuchten meine Ohren wie Sau. Aber er hat verstanden, woher das Licht kommt. Er hat verstanden, was er wie wo verändern muss, damit es auch zusammenpasst. Und das sieht fast schon realistisch aus. Zwei, drei Tweets und das Ding würde laufen. Also gar nicht mal so wild. Und dadurch, dass es eh unscharf ist, ist auch gar kein Problem, dass die Struktur nicht vorhanden ist, dass die Auflösung gar nicht da ist. Aber gut, gar nicht verkehrt. Wir können mit dieser KI quasi alles machen. Gefühlt können wir alles machen. Es ist eine KI Generierung, das Tool, das wir in Photoshop drin haben, das endlich mal die Möglichkeit hat, irgendwas wie Ich nehme gerne mit, Jani als Beispiel in unsere Bildbearbeitung zu integrieren. Wir können uns aus dem Nichts Dinge erschaffen und es ist eigentlich so ein Es ist nicht so Level. Ich sage es ganz ehrlich Das ist einfach eine Vorschau auf das, was in den nächsten Jahren den Ton angeben wird. Es gibt ja jetzt schon zum Teil den Ton an, also absolut grandios, was hier mit reinkommt. Wir können so unglaublich viel machen und vieles wird einfach integriert, als wär es schon immer da gewesen. Wir können hier hingehen, können Leute aus Bildern raus bauen und der Hintergrund wird nachgeahmt. Also auch größere Geschichten. Gar kein Problem, auch nähere Geschichten gar kein Problem. Das ist alles in Sekunden fertig. Und auch wenn es natürlich seine Limitationen hat, weil es zum Beispiel noch noch keine Auflösung hat, noch nicht so eine hohe Auflösung hat, weil es zum Beispiel auch Strukturen nicht immer so 100 % nachahmen kann. Es geht einiges. Eine Sache will ich jetzt noch testen Hier Was macht er mit Menschen? Das hat irgendwie, ich weiß nicht. Schauen wir, was er daraus macht. Er generiert einen kompletten Menschen aus dem Nichts. Das halte ich jetzt schon für ein bisschen unrealistisch. Aber wir schauen mal, wir schauen mal, wo das Limit ist. Ich will es bis zum Limit treiben. Wir zeigen das, dass es nicht perfekt ist. Muss ja auch ein bisschen wo okay, in Ordnung. Das kam jetzt ein bisschen unerwartet. Trotzdem wenigstens was anziehen können. Also, was zum Beispiel? Ja, gut, Gesichter funktionieren nicht ganz so, aber mal ganz davon abgesehen, dass das der eine Abend 3 Meter länger ist. Aber es ist optisch mit rein integriert. Er steht auf der richtigen Ebene. Er geht hoch, weil der Weg hoch geht. Das Licht passt da hier oben ein Schimmer, in den er also wow, wow. Also nichts Neues. Klar haben wir immer noch so ein bisschen dieses Geschmiere, das die KI gerne mal verwendet, um halt zu kaschieren, dass es nicht perfekt ist. Aber gerade das hier, die Beine, die Füße der FAC, das ist realistisch. Also da kann es ja so viel draus machen, da geht auch noch viel mehr. Also jedes Mal wenn ich versuche noch ein bisschen noch einen draufzusetzen, ist es irgendwie so, dass ich ihn immer noch ein Stückchen weiter treibe. Grandios. Also wir können ja noch mehr generieren, als einfach nur zu sagen, wir machen den Hintergrund anders oder so, Ich kann ja auch hier kommen. Machen wir doch einfach mal aus Joke, da kommen es ein älteres Foto, aber das sollte ja jetzt hier keinen Unterschied machen. Gucken, was er da draus macht. Ich will mir nicht meine Augen wegmachen, ich will ein Glas. Es oberflächlich ein bisschen mehr Nase auswählen sollen. Aber gut, wir schauen mal, wir schauen mal da ist im Übrigen wieder so ein Beispiel, dass ich das Talent dafür habe, Gliedmaßen abzuschneiden. Da hab ich geil. Oh, aber. Aber ich hätte mir Nase auswählen müssen. Ja, äh, aber das sieht ja fast schon glaubwürdig aus. Dadurch, dass ich halt hier unten nicht so, nicht so eine coole Kante gesetzt habe, hat er die ein bisschen weit hochgesetzt. Da kann man mal ein bisschen weiter runter gehen wir und ein bisschen mehr Nase noch mit rein narrative Füllung. Ein Glas ist top. Kann man gucken, ob das geht? Ich will so eine richtig geile Flieger Brille aufhaben, das ist mein Gedanke. A verstößt gegen Benutzer Richtlinien, warum auch immer. Dann machen wir halt die normalen Sachen. Glasses Äh oh, okay. Mal ganz davon abgesehen, dass die Augen sehr, sehr eigenartig aussehen. Warum zur Hölle habe ich, Wieso schiele ich? Aber das ist die gleiche Sonnenbrille. Das fast die gleiche Sonnenbrille. Was zur Hölle? Adobe? Also gut. Okay. Das funktioniert schon mal mehr oder weniger. Jetzt. Eine Sache will ich jetzt noch ausprobieren. Und dann Es, glaube ich auch so langsam. Auch wenn ich da immer das Bedürfnis habe, noch mehr zu machen. Wie sieht es mit Füßen aus? Ich will hier auf dem Boden stehen. Die Füße habe ich nämlich abgeschnitten, aus welchem Grund auch immer. Schon ein bisschen lange her. So machen wir doch hier einfach mal Putz und gucken was bei rumkommt. Ist wie gesagt, es ist immer so eine, ähm, ich sage mal mit Vorsicht zu genießen. Ganz klar, man muss immer ein bisschen ausprobieren. Und natürlich braucht es ein kleines bisschen, bis man da rein gefunden hat. Aber ich bin halt von dieser von dieser Einfachheit begeistert, von der Tatsache, dass es eigentlich immer nur eingeben, was ich brauche, unterdrücken. Und die KI macht fast alles für mich. Wow, ich habe Schuhgröße 126, aber ich habe Schuhe bekommen. Also ihr merkt schon. Er hat verstanden, was ich von ihm möchte. Vielleicht war jetzt auch nicht genug Bild die Informationen einfach vorhanden. Aber es geht einiges. Es geht unglaublich viel. Also Clowns, Schuhe machen oder so, Es sieht lustig aus. Einfach geil. Also es hat natürlich seine Limitationen und es gibt mit Sicherheit Situationen, in denen das besser funktioniert. Aber ja, es ist ein unglaubliches Potenzial da. So weit, dass es jetzt schon, obwohl es eigentlich noch im Beta Stadium ist, in vielen Fällen so gut funktioniert, dass man es schon praktisch einsetzen kann, das man schon produktiv einsetzen kann. Klar, je mehr sich ausdenken muss, je mehr generieren muss, umso schwieriger wird die ganze Sache. Aber wenn ich mir überlege hier, dass er den gesamten Hintergrund einfach problemlos nachgeahmt hat. Und klar, die Schuhe sind übertrieben und sieht komisch aus, aber alles andere rundrum passt perfekt. Und ich wüsste jetzt auch nicht, wie ich die Schuhe kleiner bekomme. Ich weiß nicht, wenn ich da kleinere Schuhe eingebe, kriege ich die Baby Schühchen und untendrunter gesetzt oder so was in der Art, aber das ist der Nachteil an der KI, wenn das Ergebnis nicht stimmt, fängt man an rum zu probieren und zum Schluss stellt man fest Hey, es wäre vielleicht einfacher gewesen das manuell zu machen oder so was in der Art mit Stock Fotos oder mit keine Ahnung was. Ich bin aber trotzdem mega begeistert. Ich könnte es jetzt schon ausprobieren, habe ich einen Moment schon gesagt. Und ja, schreibt gerne mal in die Kommentare, was ihr von dieser Sache haltet. Das sind jetzt ah okay, es sind Schuhe. Auf jeden Fall hat er mir jetzt die Füße gemacht und Schuhe nebendran gestellt. Oder sind das die alten Schuhe? Nee, okay, er hat vorher Schuhe gesehen und hat versucht Schuhe nachzuahmen. Ich weiß nicht genau, was er gerade geschrieben hat. Ist es auch egal? Auf jeden Fall. Es hat natürlich seine Limits. In manchen Fällen ist es so, dass man damit weiterarbeiten kann. Mit der Brille könnte ich jetzt weiterarbeiten, wenn man sagt Hey, man setzt sie runter, transformieren mäßig und macht die Augen noch schwarz, dass ich nicht so sonst wohin gucke, dann geht es eigentlich aber allein von dem von dem Inhalt basierten Füllen hier von dem Erweitern, was ja in eine theoretische Unendlichkeit geht. Davon bin ich schon mehr als begeistert. Absolut grandios. Ich bin gespannt, welche Richtung das weitergeht. Schreib gerne die Kommentare, was ihr in dem Moment von haltet. Checkt mein Photoshop Kurs aus. Auch wenn mittlerweile glaube ich alles die KI macht. Aber es geht natürlich nicht alles nur mit Automatismus und gewisse Dinge muss man einfach selber machen bzw will man vielleicht auch selber machen. Das hat man nachher gigantische Schuhe an und weiß nicht warum. Es sieht aus wie ein Clown. Trotzdem ihr wisst was zu tun ist. Gerne mal den Kurs auschecken, da zeige ich mal Photoshop im Detail und zwar wirklich mehr als im Detail und wir sehen uns einfach im nächsten Video wieder. Bis dahin gibt es wahrscheinlich irgendeine neue Photoshop Variante, die wieder was krasses mit rein. Adobe haut momentan raus, es ist absoluter Wahnsinn. Also mach's gut und bis nächsten Mal."