Tryout: Drohnen-Aufnahmen Faken...
Nicht immer und überall darf man mit einer Drohne fliegen. Was also tun? Ich will heute mit euch zwei Techniken ausprobieren, mit denen du es doch schaffen kannst eine Drohnenaufnahme zu erstellen. Sogar vor Orten, an denen du noch nie warst.
Zum Unreal-Engine Tutorial: https://www.youtube.com/watch?v=mrC5IencIKA
- - - - - -
Noch mehr zu Fotografie, Lightroom, Photoshop und dem Filmen: https://matthiasbutz.eu/
Du willst mit der Fotografie und Bildbearbeitung richtig durchstarten? Lass dir dabei helfen!
Auf YouTube findest du zwar viele Infos, doch es fehlt oft die Zeit in die Tiefe zu gehen und sich diesen Themen wirklich anzunehmen. Meine Lösung? Kurse, die dir 1:1 & auf praktische Weise zeigen, wie du nicht bessere Fotos und Videos machen kannst. Probier es aus! Ich verspreche dir, es wird sich lohnen.
- - - - - -
Noch mehr Input findest du auf Instagram: https://www.instagram.com/matthiasbutz/
Mein Name ist Matthias und ich zeige dir, wie du noch bessere Fotos und Videos erstellen kannst.
Transkript:
Das ist entweder das coolste oder das dämlichste Intro aller Zeiten. Hallo zusammen, Matthias hier heute mit einem relativ neuen Format. Ich möchte mit euch was ausprobieren. Und zwar, ich hatte das letzte Mal schon in einem Quick Tip Montag Video, was definitiv kein Quick Tip Montag Video war, ausprobiert, wie man Mittelformat fägen kann. Jetzt will ich das Ganze auf eine neue Stufe heben und zwar, ich will daraus einen Format machen. Regelmäßig, ich weiß noch nicht genau, wie regelmäßig, einfach mal neue Videos rausbringen, in denen wir was ausprobieren, was dämlich ist, was vielleicht viel zu viel Zeit kostet oder so, aber einfach mal so ein bisschen neue Inspiration mit ins Spiel wieder reinbringt. Und ihr merkt schon, das war vielleicht keine gute Idee hier kein Stativ mitzunehmen. Wenn es wackelt, I'm sorry. Immerhin habe ich kein Wobble mit drin. Ich habe ein Stabby mal ausgemacht. Ich habe diesmal dran gedacht. Nicht wie am letzten Mal. Aber egal. Ich möchte mit euch zusammen Drunschutz fäken. Und da gibt es ein paar Möglichkeiten. Klar, man könnte irgendwie eine 360 Kamera irgendwo oben hinhängen oder sowas in der Art. Ich will es ein bisschen cooler machen. Und zwar haben wir zwei Möglichkeiten. Das erste war das Intro, was ihr gesehen habt. Das lässt sich Prinzipien mit Google Maps und Analyzer Engine machen. Das zeige ich allerdings gleich. Jetzt möchte ich eine Methode mit reinbringen, die Prinzipien jeder mit dem Smartphone nachmachen könnte. Ja, wir schauen es uns an. Okay, das grundlegende Thema ist ja, wir dürfen nicht überall Drohne fliegen. Darauf wollte ich in Diamant hinaus. Und die Methoden, die ich jetzt ausprobieren möchte, die sind auch nicht unfehlbar. Definitiv nicht. Und es ist jetzt nicht so, als ob du dein Smartphone in die Hand nimmst und kannst quasi alles faken, was dir in irgendeiner Art in den Sinn kommt. Das, was ich hier mache, das funktioniert mit Luma AI. Luma AI ist eine momentan kostenlose Möglichkeit, herzugehen und aus Videoaufnahmen und Fotoaufnahmen eine 3D-Umgebung zu erstellen. Das heißt, alles, was die Kamera in Diamant rundrum sehen kann, wird verwendet, um daraus ein 3D-Modell zu erstellen, indem man sich prinzipiell frei bewegen kann. Das bedeutet natürlich, dass wir nicht einfach nur hergehen können und sagen, wir drehen uns einmal im Kreis und gucken, dass die KI schon alles zusammengerechnet bekommt. Alles, was die Kamera nicht sehen kann, wird auch danach ja nicht drin sein. Ich habe schon zwei, drei Sachen versaut. Aber ich finde es eigentlich eine ganz coole Idee. Man weiß ja nicht, wofür man es in Diamant verwenden möchte. Es kommt ja auch noch so ein kleines bisschen drauf an. Will man da jetzt einfach irgendwo eine Videoaufnahme noch mal mit reinnehmen oder hat das Braupa gefragt, hey, gibt es die Möglichkeit, eine Drohne mit reinzunehmen auf die Hochzeit? Uns geht einfach nicht. Du guckst trotzdem, dass du irgendwie so, ich weiß nicht, von der Location so was wie ein Drohnshot mit hinbekommst. Wirkt das Video natürlich sehr cool. Man kann damit allerdings auch Fotos machen. Aber warte durch, es kommt noch, ich werde da noch im Detail drauf eingehen. Grundsätzlich ist es so, wir müssen erstmal in irgendeiner Art und Weise unsere Umgebung scannen. Das geht am besten klar mit dem Smartphone, klar mit eigentlich einem einfachen Video. Geht auch in der App, aber da habe ich nicht ganz so gute Erfahrungen gemacht. Deswegen, ich würde einfach die normale Kamera nehmen, soweitwinkelig gehen, wie es geht. Erstmal hier Video und 0,5, ruhig in 4K aufnehmen und dann versuchen aus allen möglichen Winkeln alles in Diamant aufzugreifen. Das heißt, hier geht es hergehen, soweit von oben wie geht, soweit von unten wie geht, so was in der Mitte, dass aus 3D Sicht von allen Richtungen alles eingefangen werden kann. Ich blende das gerade nebenher ein, weil ich wahrscheinlich nicht filmen werde, wie ich das nebenher mache. Kann ich das schwierig erklären. Und ja, wir müssen eigentlich nichts anderes machen, als das Hochladen, der KI zur Verfügung stellen. Das ist halt jetzt ein bisschen blöd, man muss es in der Moment hochladen und es hat natürlich auch seine Einschränkungen. Einschränkungen wie zum Beispiel. Bewegung funktioniert nicht. Alles, was sich bewegt, wird wahrscheinlich entweder sehr eigenartig dargestellt oder halt gar nicht dargestellt, wird rausgerechnet. Und es ist zum Teil problematisch, wenn man transparente Dinge darstellen möchte, wie Glasscheiben, wie ich weiß nicht, ich habe mal nur spaßende Wasserflasche eingescannt, das sah aus, als wäre die von innen gefroren, weil damit Transparenz in der Moment nicht viel anfangen konnte. Auch Spiegelungen sind richtig großes Problem, beziehungsweise ganz feine Elemente, wie zum Beispiel irgendwelche Äste, irgendwie, ich weiß nicht so, gerade so dieser Vordergrund, Hintergrundperspektive, das ist manchmal problematisch, auch wenn die KI da relativ gut mit zurecht kommt. Das Ganze, jetzt wird es neuerlich, basiert auf NERV, nicht auf NERV ganz oder sowas in der Richtung, heißt lustigerweise gleich, sondern an der Entwicklung, die von Google-Mitarbeitern durchgeführt wurde. Die hergegangen sind, haben gesagt, hey, wir wollen sowas auch machen. Das ist auf Nvidia-Grafikarten sehr rechenintensiv, ein bisschen größer, auch möglich. Da wollte ich mich jetzt nicht reinfuchsen, man kann es davon abgesehen, dass ich keine Nvidia-Grafikarte habe, sondern es geht mittlerweile auf ein Smartphone. Das heißt, die Entwicklung stufelig wahrscheinlich ein bisschen zurück, so ein Ja oder so, wird wahrscheinlich demnächst auch noch besser gehen. Aber wir probieren es aus. Wir probieren es aus und ich zeige euch gleich im Office, wie ihr das in der Moment zusammenfügen könnt, ist im Endeffekt relativ easy hochladenfertig, läuft und ich will euch aber auch zeigen, wie ihr mit Unreal Engine diese Google Maps-Überflüge machen könnt. Das ist nämlich mega cool, das ist richtig, richtig geil. Auch wenn es ein bisschen komplizierter ist und auch wenn es mich ein paar Gehirn zählen und jede Menge Rechenleistung gekostet hat. Aber gut, ihr werdet sehen. Ich mache mich jetzt mal kurz an das Einscannen von der Umgebung, solange hier keine Leute mehr sind, also oder solange hier so wenig Leute sind. Wir probieren mal und wir gucken mal, was rumkommt. Ein herzliches Willkommen jetzt im Office, wo ich euch zeigen möchte, wie man das, was wir jetzt aufgenommen haben, auch zusammen bastelt und wie ich die erste Animation erstellt habe. Denn ja klar, das wird wahrscheinlich nicht 300 Prozent perfekt sein, aber es gehen damit so zwei, drei Sachen und das geht sogar relativ einfach. Wir brauchen zum Stitchen von den Videoaufnahmen, die wir jetzt vorhin erstellt haben, nur das Smartphone. Das Smartphone und die App hier haben wir so Luma Labs heißt sie. Mit dieser App, da habe ich schon zwei, drei von den Captures gemacht, um das mal auszuprobieren. Mit dieser App können wir jetzt einfach ein Video hochladen, geht hier mit plus. Dann fragt er, ob wir es live einscannen wollen oder ob wir hier einfach sagen upload. Dann können wir das aus einem von den Fotos raussuchen, aus einem von den Videoaufnahmen, die wir in der Moment gemacht haben. Überhaupt gar kein Thema, einfach auswählen. Es kann sein. Das war jetzt hier links unten in der Moment der Fall, wenn er nicht genug Umgebung erkennt, wenn er das Objekt nicht zuordnen kann, weil er braucht ja immer irgendwie was, was er im Zentrum hat, wo er drum rum circlen kann, dann funktioniert das ganze Thema nicht. Wenn ich jetzt aber hier sowas habe, das ist das, was ich jetzt, was ich auch in der Beispielaufnahme gesehen habe, dann funktioniert das doch relativ gut. Und ich meine relativ, weil natürlich auch so gewisse Stitches, so gewisse Probleme von nicht so 100 Prozent eingescannten Bereichen natürlich da sein können, weil es halt auch so ist, dass beim Rändern irgendwelche Probleme auftreten, gerade weil man sieht, die Manu hat sich bewegt und deswegen ist sie zum Teil, da sieht man so ein Geist. Sowas kommt natürlich dann vor, als er hat schon gesagt, keine Bewegung, nicht zu filigrane Elemente und auch mit Glas ist es zum Teil problematisch. Aber es ist eine wunderbare Möglichkeit und ich kann mich jetzt darin frei bewegen. Ich kann damit jetzt veranstalten, was ich will, die App kostet auch nichts, es komplett kostet und ich glaube, es gibt sie nur für iOS, ich bin mir gerade nicht sicher, ob es eine passende Android Alternative gibt, aber grundsätzlich ist das eine der einfachsten Wege überhaupt. Und das Schöne ist, ich kann sogar hier in dem 3D Bereich, wir gehen mal einfach auf das 3D drauf, so jetzt kann ich hierher gehen, einfach mal auf den Punkt Background klicken und alles andere einblenden lassen und ich kann mich jetzt hier erstens frei drin bewegen, das ist schon mal ganz cool. Nicht davon irritieren lassen, dass zum Teil ein paar Sachen fehlen, nicht davon irritieren lassen, dass es zum Teil etwas hier komisch aussieht, dass es jetzt kein wirkliches Gras, das ist keine wirkliche Grasstruktur, die Auflösung und auch die ganzen Elemente sind von der Struktur her etwas reduziert, damit man halt hier jetzt live durch sich durchbewegen kann. Das kann sein, dass sich das durch das Rändern noch verbessert, auch wenn das nicht zu 100 Prozent klar ist. Mit ein bisschen Übung kriegt man hier immer bessere Scans hin. Ich habe jetzt auch so zwei, drei Dinge ausprobiert und jedes Mal ist es noch besser geworden. Man merkt mit der Zeit, was funktioniert und was nicht. Hier ist ganz klar, das geht mehr oder weniger. Sag mal, es ist immer noch Verbesserungspotenzial da und wenn es nichts mehr nehme ich ein Hund nicht mit oder so was in der Richtung oder guckt, dass er nicht auf dem Bild ist. Was geht hier jetzt? Was können wir damit jetzt veranstalten? Wir haben ja so einen Vorrendern hier vorne drin, das ist ein Standardvideo, was wir einfach mal mit raus bekommen. Wir haben auch hier so was panoramermäßiges, wo wird das Motiv? Der hat nicht ganz erkannt, wie rum das ist. Der hat es ein bisschen chept gehalten, aber da können wir einmal so 360 Grad rum circlen. Das ist auch fertig gerendert. Also da haben wir dann schon die volle Auflösung und ihr seht auch, manche Elemente sind deutlich besser als andere. Die Steine hat er relativ gut erkannt. Mit dem Kies konnte die Tiefe nicht richtig berechnen. Also man merkt schon, welche Elemente da funktionieren und welche nicht. Und jetzt kommen wir zu dem mega coolen Part, weil wir können hier hergehen und sagen Reshoot. Genau. Mit Reshoot können wir uns mit einer virtuellen Kamera hier drin frei bewegen. Ich kann ja sagen, was ich. Ich möchte so ein bisschen zurück, ich möchte ein bisschen von oben oder sowas in der Art und kann mir hier jetzt rundrum Keyframe setzen oder hier eigentlich Vorgaben nach. Da kann ich ja hier sagen entweder Orbit, dann wird er so einen ganz normalen Orbit von dieser. Also einmal außen rumfliegen. Das macht er dann voll automatisch in dem Moment. Oder ich kann hier Moment, Reshoot auch noch, was was heißt es heißen? Aus too late. Geht ebenfalls. Dann macht er das so. In der Bewegung ist auch okay, kann ich nochmal kontrollieren, ob er das krasser oder weniger krass machen soll von der Bewegung her, ob die eher dezent sein soll oder ob die deutlich stärker sein soll. Hab ich passende Vorgaben. Sieht richtig richtig cool aus zum Teil. Oder ich mache das Custom geht, dass ich es einfach benutze definiert einrichte mit eigenen Punkten, die ich überall setzen kann, wo ich sage, so, hey hier anfangen, da weitermachen, da das nächste oder ich sage Shoot AR. Und Shoot AR bedeutet, da muss ich jetzt gerade mal ein bisschen schauen, weil da muss ich mich jetzt ein bisschen mehr bewegen können. Ihr seht das schon auf meinem Handy Display. Ich kann mich in diesem Bereich frei bewegen, als wäre ich vor Ort und drückt jetzt ja einfach auf auf aufnehmen. So machen wir mal. Der nimmt auf und ich sage, hey, geh bis hin näher ran, viel mal von oben oder sowas in der Richtung und dann geht es hier neben dran wieder runter. Ich sage einmal Stopp und der hat das Ganze jetzt live aufgenommen und zum Beispiel zu den Fotos hinzugefügt. Das habe ich dann in die Dioment hier. Da gibt es natürlich Kamera-Wackler drin und sowas in der Art, aber sowas ist in die Dioment auch machbar, dass man so eine ungefähre Vorstellung davon bekommt. Beziehungsweise, ich kann natürlich auch hergehen und kann sagen, wir gehen zurück. Wir machen so eine Custom Geschichte. Das setzen wir jetzt einfach mal mit rein. Gehen wir mal hierher. Ich hätte gerne das Ganze in 16 zu 9. Auch auf Full HD passt. Kann mir den Rahmen hier jetzt anpassen und sagen, kann mir mal was ganz einfaches, kann ja so kompliziert, kann so über kompliziert, kann man es machen. Das ist gar kein Thema, aber wir machen es einfach. Erster Keyframe hinzugefügt, immer drauf drücken, wenn man an einem neuen Punkt angekommen ist, wo man jetzt hin möchte. Ich will einfach nur so einen ganz normalen Zoom in, kann man immer mit zwei Fingern hoch runter, wie auch immer. Da kommt man hinten dran, einfach ein bisschen ausprobieren. Hier noch der zweite und ich kann jetzt hier Play drücken und dann macht diesen Zoom in vollkommen automatisch. Da brauche ich mir jetzt keine Gedanken drum machen, wenn ich es rausrechnen möchte. Einfach unten auf Render. Das dauert jetzt ein kleines bisschen. Ganz klar, ready to render, ja render, weil diese gesamte Verarbeitung sowohl jetzt von dem, was wir hochladen, also das fertige Video, was wir hochladen, was dann von der KI verarbeitet wird, damit wir das so in diesem 360 Grad in dieser Geschichte reinbekommen, das läuft bei denen auf dem Server als auch das. Also seid vorsichtig ganz klar mit, was ihr da hochladet, definitiv. Und es kann ein bisschen dauern und es ist ein kleines bisschen limitiert. Einfach ganz klar, weil ihr zahlt ja in dem Moment nichts für. Ich habe gesehen, es scheint wohl Pro Funktionen zu geben, wobei ich mir hier nicht ganz so sicher bin, wie man an die dran kommt. Habe ich selber noch nicht so ganz in dem Moment rausgefunden ist, ja aber auch nicht so wild. Wenn ihr mal gucken wollt, ich habe auch hier noch so ein, zwei Test-Renderings mal gemacht, muss zum Teil hier einfach mal schauen, so ein bisschen reingesumed, so ein bisschen einmal drum rumgeflogen, muss man etwas aufpassen, dass es nicht zu schnell läuft, kann man auch noch mal von der Zeit her kontrollieren. Ich will es eigentlich auch nicht zu krass auf die Geschichte eingehen, weil das kann mitunter sehr kompliziert werden. Aber das hier zum Beispiel funktioniert relativ gut. Einmal hier hoch, muss nur aufpassen, ich glaube, das war die Aufnahme, wo ich ja versehentlich abgestürzt bin. Zum Schluss, wo ich nicht mehr weiter wusste, geht aber ebenfalls und ich kann halt sagen, was ich, ich möchte runterladen, kann das dann posten oder kann das dann in ein Video einbauen oder sowas in der Art, das funktioniert. Genau und unser Test-Renderings ist jetzt bereits fertig. Ich glaube, es gibt irgendwie 10 im Monat, die man gratis machen kann oder so. Kann ich jetzt hier draufgehen, kann ich es mir anschauen und ja, es gibt mit Sicherheit realistischere Geschichten, aber auf den ersten Blick, wenn das jetzt nur so ein Überflug ist, wo man sagt, so hey, mir fehlen da Informationen, ich will einfach mal so zwischendrin kurz was machen, fällt das niemandem auf. Das sieht niemandem, das ist jetzt nicht so, dass man sagt so wie unrealistisch und das sieht aus, als ich weiß nicht, als hätte ich selber in Paint gemalt, sondern das ist in vielen Fällen sehr, sehr glaubwürdig. Und wer da Inspiration jetzt noch sucht, das kommt jetzt auch noch mit dazu, weil das haben wir ebenfalls in dieser App mit drin, der findet hier weiter unten, einfach mal wenn man weiter runter scrollt, nicht bei seinen eigenen Aufnahmen ist, findet hier jede Menge Inspirationen von dem, was andere Leute aufgenommen haben, beispielsweise auch mit Personen drin, wenn man sich nicht bewegt, das ist gar kein Thema. Schönes Beispiel finde ich hier. Ja, bei den Stühlen fällt es zum Teil auseinander und man merkt, dass Glas ist ein Problem, sieht man auch relativ gut, da sind oben die Informationen, die fehlen, aber wenn man jetzt überlegt, dass das mit einem Smartphone, auf dem Smartphone oder beziehungsweise auf dem Server halt in der KI gerendert wurde und es sieht zum Teil fast, fast so aus, als würde ich wirklich da stehen. Nice. Bisschen ausprobieren, finde ich aber eine megacoole Geschichte. Und jetzt, und jetzt nachdem wir das haben, trauen wir uns einfach mal an Unreal Engine. Das Schöne und der gigantische Vorteil an Unreal Engine ist, dass es keinen Cent kostet. Solange ihr das privat nutzt und jetzt nicht auf die Idee kommt euch ein Spiel zu schreiben und das kommerziell zu vermarkten, könnt ihr Unreal Engine ohne Probleme verwenden und damit auch 3D Renderings machen und sonst die irgendwas. Im ersten Moment klingt das jetzt absolut übertrieben kompliziert. Ich habe auch ein bisschen gebraucht, bis ich mich in die Software reingefunden habe, aber nachdem wir nicht so krass mit dem Thema Licht arbeiten müssen, nicht so krass damit arbeiten müssen, ich zeige euch hier gleich ein, zwei Kniffe, geht da extrem viel. Wie funktioniert das ganze Thema jetzt? Ich habe euch erst mal unten drunter ein Video verlinkt, das zwar jetzt nicht ganz so optimal ist und auf Englisch ist, aber da sieht man relativ gut, wie man das Grundmodell aufbaut, indem wir uns gleich bewegen werden, weil das jetzt hier auch noch unterzubringen ist, glaube ich, ein kleines bisschen zu viel ein wichtiger Hinweis, vielleicht noch macht das nicht mehr der aktuellsten Version. Ich habe es jetzt mit der Version 5.1.1 gemacht und ja, damit hat es bei mir jetzt funktioniert, vielleicht ändert sich das im Laufe der Zeit, aber soll eigentlich eher mal ums ausprobieren gehen. Gut, wie funktioniert das ganze Thema jetzt? Erstens mal ihr braucht zwei, drei Plugins zu installieren, ihr müsst das Grundlegende Unreal Engine installieren, das ganze natürlich auch starten. Einfach mal der Anleitung folgen, wie gesagt, ich hatte es ja in dem Moment verlinkt und wir haben jetzt die Möglichkeit,
Google Maps als Basis zu nehmen. Google Maps ist ja nicht nur einfach mit einer Satellitenkarte ausgestattet, sondern mittlerweile mit sehr, sehr vielen 3D-Elementen, auch in der fotorealistischen Variante. Satellitenansicht zum Beispiel, also die, das ist die, die ich meine und wir können mit Basis von diesen Daten quasi die gesamte Welt als 3D-Modell live darstellen. Und zwar ohne einen Cent dafür zu bezahlen. Das ist ja eigentlich das, was mich so mega erstaunt hat. Also du kommst ja kostenlos über die Google API, an die ganzen Satellitendaten, das ist überhaupt gar kein Thema. Unreal Engine ist kostenlos und ja, ihr kommt eigentlich an alles dran und könnt das in eure Videos mit rein integrieren. Und ja, auch hier haben wir unser Problem, dass es nicht immer 100% realistisch aussieht. Ähnliches Thema wie hier, an vielen Stellen allerdings. Ich will nicht sagen, 100% realistisch ist, ganz klar, will ich nicht sagen, aber es kommt der Sache relativ nah dran. Okay, das ist es jetzt einfach mal vom grundlegenden Gerüst her. Da sieht man jetzt auch die Karte, die ich in den Moment eingeblendet habe. Also das ist exakt das, was ich verwendet hatte. Jetzt muss ich gerade mal gucken, Moment, dass wir hier auch ein bisschen näher rankommen. Das Problem ist, wir sind sehr, sehr weit oben und das dürfte jetzt ein bisschen dauern. Dann machen wir doch einfach mal hier Camera Speed ein bisschen weiter nach oben. So, und dann können wir hier jetzt reinzoomen. Und, upsie, nicht zu weit, sonst gehen wir durch den virtuellen Boden durch. Und ihr seht jetzt schon mal eine Sache, das ist jetzt einfach mal Mannheim und das sieht zwar relativ cool aus, aber was man halt in Theomend komplett vergisst, sind zwei Sachen. Zuerst einmal ganz klar, dass wir uns natürlich hier drin frei bewegen können, wie wir in Theomend lustig sind, überhaupt gar kein Ding. Das Zweite ist, dass wir hier nicht nur 3D-mäßig unterwegs sind. Ich muss es gerade mal ein bisschen gucken, dass ich hier, Moment, jetzt hier unten ist es definitiv zu schnell, dann machen wir es mal auf 3, so, dass wir nicht nur 3D-mäßig unterwegs sind, sondern dass Anvil Engine jetzt mit seiner eigenen Power hergeht und das Licht live auf die 3D-Modelle rechnet. Also auch wenn wir hier so die Mini-Gebäude haben oder so was in der Art, es ist hier ein Baum und der passende Schatten dazu. Was alles live passiert, Moment, wir suchen uns vielleicht mal irgendwie ein größeres Gebäude raus, Moment, da hier so was in der Richtung, also ihr seht auch hier, da ist ebenfalls Schatten mit dabei und diesen Schatten können wir auch kontrollieren. Also ich kann auch hier sagen, was ist ich damit, mit Sunsky kann ich die Zeit kontrollieren und da kann ich halt auch einfach sagen, hey, es ist jetzt einfach mal Mittagssonne, zum Beispiel, es ändern sich nicht alle Schatten, ja, aber es wird halt live mit rein berechnet und wir kriegen auch sowas wie einen Sonnenuntergang angezeigt. Und das ist jetzt im Standbild hier nicht so realistisch, aber für ein Überflug oder so was in der Art, absolut grandios. Gut, wie kriegen wir jetzt hier unterschiedliche Punkte in den Moment raus? Grundsätzlich brauchen wir dafür erstmal sowas wie Google Maps und ich kann da ja einfach mal, ah, komm, machen wir doch mal hier Frankfurt und was haben wir hier für Koordinaten? Das ist 50,10 und 8,67, das müssen wir jetzt hier in dem Geo Reference eingeben. So, was haben wir da? 50,1, Moment, 1,0, Zack, Nummer 1 und der zweite Wert war 8,67, das sind wir auch noch ein bisschen entfernt, so 8,67 und er passt die Karte dementsprechend an. Das ist jetzt natürlich, ne, da sollte man vielleicht mal noch ein kleines bisschen raussummen. Wie weit sind wir denn von Frankfurt jetzt weg? Vielleicht ein bisschen zu viel? Ah, nee, da sieht es doch mal ganz gut aus, als wäre das die richtige Richtung. Schauen wir mal. Er hat jetzt natürlich meinen Text ebenfalls nicht mit verschoben, kommt den Blinden mal einfach mal aus, aber das sieht doch schon mal gar nicht schlecht aus. Ah ja doch, wir sind richtig. Da ist zum Beispiel der Flughafen. Jetzt müssen wir nur noch mal gucken, wo genau die Innenstadt ist. Das ist, das ist ein bisschen tricky, das hatte ich auch so ein klein wenig dieses Problem, dass man halt in der Navigation nicht ganz so easy unterwegs ist. Moment, wo ist denn hier die Referenz? Der Flughafen ist doch hier, das heißt das müsste eher, eher nach hier drüben sein. Kommt schon, belade die Karte, ja das sieht aus wie der Bahnhof. So und ich wollte eigentlich nur mal zeigen, dass man hier auch Wolkenkratzer hinbekommt. Mal mal gerade mal da den Speed wieder ein kleines bisschen runter und so, wenn ich jetzt hierher gehe, da sind Wolkenkratzer und da kann man jetzt richtig, richtig nice nah ran gehen. Und ja, Details geht eigentlich ganz gut, wenn ich hier jetzt einfach mal zu einer richtig coolen Uhrzeit oder so was in der Art, Sandsky, das ist das, was wir brauchen, was wir es ich so ein bisschen deutlich später können wir ja mal machen oder wir machen halt einfach mal so das klassische Mittagssonne geht ebenfalls, aber wenn wir hier sagen, hey, wir machen Sonnenuntergang und machen das Bild vielleicht an sich noch ein bisschen dunkler und fliegen hier einfach mal, kommt schon so durch, nur um es mal als Beispiel mit reinzunehmen, das sieht fast schon realistisch aus. Hier sowas vielleicht noch ein bisschen langsamer als Opening Shot, mega, mega geil. Also, es ging jetzt einfach eher so ums Tryout und um euch einmal zu zeigen, wie der Weg dahin jetzt von meiner Seite aus war. Ich wollte da gar nicht so krass ins Detail gehen eigentlich, weil es schon, das mit Luma Labs ist jetzt eine relativ einfache Geschichte, damit geht relativ viel und das ist jetzt sehr, sehr easy. Das hier ist mitunter sehr, sehr komplex. Also es ist wirklich so, wirklich ein Try and Error und du machst vielleicht irgendwas und das funktioniert nicht so genauso, wie du es dir vorstellst. Also das kann zum Teil, auch wenn es Tutorials dafür gibt, ein Pain in the Ass sein, will ich gar nicht abstreiten. Ich habe auch ein kleines bisschen gebraucht, bis ich da wirklich hinten dran gekommen bin und ja eben sowas machbar war. Aber du kannst dann halt hier nachher, wenn es rausgerendert ist, ich habe es ja in der Anfangsequenz, Anfangssequenz gezeigt bzw. blendt euch jetzt einfach mal noch zwei, drei Aufnahmen ein, wo ich gesagt habe, hey, da hat man irgendwie mal coole Sehenswürdigkeiten mit reingenommen oder sowas in der Art. Ich habe mal noch ein paar, zwei, drei fertig gemacht, einfach um was auszuprobieren. Das ist ein sehr, sehr geiles Ergebnis. Einmal im Aufbau, sehr komplex, wenn es allerdings steht, kann man damit so unglaublich viel machen. Also einmal Google Maps in Unreal Engine, coole Geschichte, wenn natürlich auch beides nicht 300 Prozent perfekt ist, aber ihr könnt es gerne mal testen und vielleicht könnt ihr es in eure eigenen Videos, in eure eigene Fotografie oder sowas in der Richtung mit rein integrieren, weil ich sage mal ganz ehrlich, der Schott hier jetzt, das sind haufenweise Fehlermeldungen und sonst irgendwas mit drauf, aber ich glaube, wenn ich das hier nicht Fotografen zeige, dürfte die Hälfte denken, hey, geil, Helikopterüberflug oder sowas in der Art. Bin ich jetzt noch ein bisschen kreativ mit irgendwie Kamerabewegungen oder sowas in der Art, dass ich sowas rotationsmäßiges mache, so um diese Stabturm rumfliege oder sowas in der Art, dann ja, ist das glaubwürdig, dann fragt sich jeder, wie hat er das denn hinbekommen? Und ich hoffe mal, das kriegt ihr auch hin, einfach mal ausprobieren, einfach mal austesten, wenn ihr Bock drauf habt und ja, ich will jetzt keinen Kurs promoten, weil ich habe kein Kurs zum Thema Unreal Engine, aber ich habe ja unten ein Video mit der Anleitung in der Diomint verlinkt, also checkt das gerne mal aus und wir sehen uns im nächsten Video in der nächsten Tryout Episode, wo wir mal irgendwas ausprobieren. Ich habe was ausprobiert, das ist glaube ich wieder Mehrrichtung-Fotografie, ne, diesmal wieder mit Filmen, aber es wird auch wieder Fotografiethemen geben. Keine Sorge, kommt wieder von daher, ja, coole Sache, schreibt gerne mal in die Kommentare, was ihr von diesem Format haltet. Es sind mitunter mal Dinge, die absolut Stilbruch mit meinem mit meinem Channel gehen, ganz ganz klar, weil was hat Unreal Engine mit Fotografie zu tun? Wow, diese Antwort ist deutlich länger, als man in der Diomint Film meinen sollte, weil es viele Fotografen gibt, die Bilder komplett in Unreal Engine bauen oder die eigene Fotografie mit dieser virtuellen Geschichte selber noch mit dazu ergänzen, wie Generated Fill nur in cool,
also da geht schon ein kleines bisschen was. Ist halt die Frage, wie sehr merkt man es, wie sehr möchte man es verwenden, das hat echt eine geile Sache. Also, gerne mal auschecken und wir sehen uns einfach im nächsten Video wieder.