We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
Speaker A
00:00:00 - 00:22:58
Was KI so kann. Und ich nehme euch heute mit in die Zukunft. Ah, wer will noch nicht? Die Zukunft will noch nicht. Dann machen wir das händisch. Die will auch noch nicht. Jetzt. Also ich zeige euch die Zukunft. Wie die Zukunft werden wird. Mit KI. Was passieren wird. Ihr werdet alle sterben. Alle, die wir hier sitzen, unsere Jobs werden sich total verändern. Die Jobs, die wir heute so machen, wie wir sie machen, ich würde mal behaupten, dass es einen Großteil davon einfach nicht mehr geben wird. Punkt. So, wird's so nicht mehr geben, unsere Jobs sind vorbei und wir müssen zusehen, wie wir Land gewinnen, wie wir unser Geld verdienen sozusagen. So, ich habe also, schlechte Nachrichten für euch in meinem Vortrag, es ist jetzt auch zu Ende, ich habe das heute sehr kurz gemacht, Also die Zukunft sieht schlecht aus, warum? Weil die KI, sehen wir jetzt schon, viel mehr kreative Ansätze liefern wird, als wir Menschen das jemals können. Also logisch, ne? Also Kreation, Kreativität passiert ja, indem wir praktisch unsere neuronalen Netze irgendwie aktivieren und das kann die KI einfach viel besser und die ist auch nicht eingeschnappt, wenn die Idee mal nicht genommen wird und sowas alles. Also das heißt, die KI wird viel mehr kreative Ideen entwickeln, als wir Menschen. Schon mal doof für Kreativität. Es ist auch schlecht für Handwerker, weil auch das Handwerk, alle die wir Handwerk betreiben und Bilder retuschieren, schöne Fotos machen, uns tolle Texte ausdenken, das ist ja eigentlich ein klassisches Handwerk, hat doof, auch das kann man KI tatsächlich besser als wir. Irgendwann, also auch nicht so gut für uns. Ja und dann kommt es auch noch, wenn man sagen könnte, ja aber wir Strategen, wir Consultants, wir haben Glück gehabt. Wir können ja dann die Unternehmen alle noch beraten, was sie machen sollten. Nee, für uns sieht es auch schlecht aus, weil auch das kann die KI eigentlich viel besser als wir, weil die analysiert eben auch Daten und ist da auch nicht voreingenommen, was diese Analyse angeht und kann dann eben auch viel bessere Empfehlungen aussprechen, wie Unternehmen sich in Zukunft ausstellen sollen. Also ganz schön doof für uns in der Kreativbranche und wie Lar schon gesagt hat, jetzt arbeite ich in so einem Laden und da arbeiten auch noch ein paar mehr Menschen mit, das heißt wir müssen irgendwie gucken, was machen wir bis jetzt. All diese Sachen, das sehen wir heute ja schon. Auch das haben wir schon gehört, das wird auch immer besser werden. Die Zukunft entwickelt sich da. Und dennoch die gute Nachricht, Es gibt ein bisschen Licht am Ende des Tunnels, also es besteht noch ein bisschen Hoffnung und das wollen wir uns jetzt mal angucken, wie wir da als Kreativagenturen oder Menschen, die in diesem Handwerk arbeiten, einfach mit umgehen können. Ich zeige euch jetzt mal so einen ganz klassischen Markenprozess im Grunde genommen, durch den wir durchlaufen, wenn wir eine Marke betreuen. Das fängt da oben an, dass wir erstmal so Metatrends analysieren, worauf muss die Marke vielleicht achten, wo wird sie vielleicht in fünf Jahren stehen eventuell, was könnte da wichtig sein. Wir müssen uns mit Zielsetzungen auseinandersetzen, was ist relevanter. Wollen wir eher ein Image ausbauen, wollen wir eher Abverkäufe steigern. Wir müssen uns sehr gut mit der Marke an sich auseinandersetzen. Brauche ich euch nicht erzählen, ihr kennt das alles, ihr macht das auch zum großen Teil. So jetzt ist es so, dass in jeder dieser Gondel, wie wir das sagen, unser Motto heißt bei uns in der Agentur, Rummel im Kopf, das ist das, was wir kreieren wollen. Also in jeder Gondel steckt im Grunde noch schon eine KI. Und auch nicht erst seit einem Jahr, sondern auch schon relativ lange. Also das kennt ihr auch alle, das muss ich euch nicht erzählen. Alle, die irgendwie in dieser Branche arbeitet, ihr arbeitet ja auch bereits mit KI in unterschiedlichen Bereichen. Also das ist jetzt gar nicht neu, dass das in diesem Prozess, dass wir auch KI einsetzen. Momentan ist es noch so, wir sagen immer, der Mensch lenkt, die Maschine denkt. Also wir lassen ja ganz viel mittlerweile schon von der KI selber entwickeln, diese Eins auch. Noch ist es so, dass wir im Grunde genommen die Ergebnisse immer von einer Gondel in die nächste übergeben müssen. Also es ist noch nicht so, dass das automatisiert läuft und auch die Tools, die es da mittlerweile gibt, die laufen noch nicht so sicher. Also da muss man selber immer noch ein bisschen Hand anlegen. Das heißt, momentan sind wir noch diejenigen, die das lenken und steuern. So, und jetzt haben wir uns als Aufgabe gesetzt. Ich weiß nicht, das kennt ihr sicherlich auch. Momentan, Da passiert so viel auf diesem Gebiet, dass wir alle eigentlich den Überblick so ein bisschen verloren haben, was es gerade draußen an Tools gibt. Wir müssen natürlich auch dafür sorgen, dass alle bei uns mit diesen Tools auch irgendwie arbeiten können. Wir haben jetzt gesagt, mal angenommen, wir relaunchen eine Marke. Wären wir denn in der Lage, das komplett mit KIs machen zu lassen? Also praktisch in jeder Gondel einmal lassen wir die KIs arbeiten und gucken mal, was dabei so rauskommt, wenn wir da auf dieser Basis eine Marke relaunchen. So, jetzt ist es so, wenn wir von Marke sprechen oder wenn ich von Marke spreche, dann denken die meisten Menschen an sowas, so ein Logo. So, das ist unsere Marke. Da sage ich immer gerne, das ist der Moment, wo ich grüne Pickel kriege, denn das ist keine Marke. Das ist keine Marke, nein. Das hier ist eine Marke. Eine Marke ist ein neuronales Netzwerk, ein Netz aus Assoziationen, was eure Kunden über eure Marke im Kopf haben. Also nicht, was ich glaube, was Kochstraße ist, sondern das, was meine Kunden und meine Mitbewerber, vielleicht auch unsere Angestellten, was die über Kochstraße im Kopf haben, das ist die Marke. Und diese Marke besteht aus unterschiedlichen Assoziationen. Und diese Assoziationen, die können wir über unterschiedliche Tools natürlich messen und uns auch ausweisen lassen. Wir haben jetzt gesagt, wir wollen Markenrelaunch machen, wir wollen das mal so ein bisschen als Fingerübung machen. Ach, nehmen wir doch unsere eigene Marke. Die kennen wir ganz gut, da kriegen wir auch keinen Stress mit denen, weil wir da die Bilder und sowas alles verwenden. Also nehmen wir mal unsere eigene Marke, das heißt, wir haben erstmal geguckt, was gibt es überhaupt so für Assoziationen und dann haben wir gesagt, mal angenommen, wir würden gerne die Agentur der Zukunft werden wollen, also so eine visuelle Zukunftsagentur. Das wäre der V-Launch, den wir einfach vornehmen wollen. Das heißt, wir müssten aus dem Assoziationsnetzwerk, was es momentan über uns gibt, in ein neues Assoziationsnetzwerk. Also wir müssen neue Assoziationen aufbauen und dafür nutzen wir ein Tool, was die meisten von euch auch kennen und zwar NeuroFlash. Und wir nutzen das aber anders, als die meisten das von euch wahrscheinlich kennen und zwar nutzen wir Neuroflash im Research Modus. Und da könnt ihr euch nämlich Assoziationen anzeigen lassen und ihr müsst euch das jetzt so vorstellen, das ist wie bei Google, wenn ich eingehe, du Google gib mir mal die beste Strecke von Hannover nach Berlin und dann zeigt Google dir, wo du langfahren sollst und sagt, wenn ich gehe, sage ich dir, du kannst den schnellsten Weg nehmen und du kannst aber auch den schönsten Weg nehmen oder du kannst den Weg nehmen, wo da meistens Sprit spart. Und genauso kann dir Neuroflash im Grunde genommen zeigen, über welche Assoziationen zu einer Repositionierung kommen würdest. Wie gesagt, das finden wir im Research-Mode. Müsst ihr mal gucken, könnt ihr das rausfinden. So, ich hab das jetzt mal ein bisschen vereinfacht dargestellt. Also, wir haben festgestellt, okay, wenn wir Agentur der Zukunft werden wollten, könnten wir uns zwei Routen angucken. Und zwar würde die erste Route über Assoziationen wie Erfolg, Visionär, neue Impulse und Konzepte führen. Und eine alternative andere Route, die uns auch in diese Positionierung bringen würde, würde über die Assoziationen nachhaltig vorantreiben, Zukunft gemeinsam laufen. Also das hat uns schon mal die KI ausgegeben. Und unser Job ist es jetzt, wenn wir sagen, wir machen einen Markenbilanz, ich sage immer, wir müssen Assoziationen kuratieren. Also die guten Assoziationen ins Töpfchen, die schlechten Assoziationen ins Köpfchen, die müssen raus. Und dafür müssen wir sorgen, wenn wir Sachen machen. So, jetzt zeige ich euch mal, wie Kochstraße jetzt aussieht und wir haben das mal am Beispiel der Website gemacht, weil man das, glaube ich, da am besten nachvollziehen kann. Also so sieht die Kochstraße-Website gerade jetzt aus. Könnt ihr euch auch in echt natürlich in Ruhe noch mal angucken. Also ihr seht, so ähnlich wie vorhin, sehr bunt. Es ist alles sehr bunt und genau, man findet dann so unterschiedliche Credentials, die wir gemacht haben. Also das ist die Website, wie wir sie jetzt haben. So und wenn man das jetzt einem Designer sagen würde, guck mal, so sieht die Website aus, das sind die Assoziationen, die wir brauchen, wo wir hinwollen, was würden Designer machen? Die würden erstmal anfangen, hätten sofort Ideen im Kopf und so würden sagen, ja klar, ich habe sofort Ideen, wie wir das umsetzen können. Das heißt, wir haben Bilder im Kopf. So, und das ist der Moment, wo wir sagen, hier wird es total spannend, wenn wir uns einmal auf die KI verlassen. Denn ich sage auch immer zu meinen Designern, wir machen ja Werbung nicht, Kunst zu machen, sondern oft machen wir Werbung zu verkaufen und wir verkaufen in einer Masse hinein und da ist die KI oft schlauer, was eine Masse mag, als der einzelne Designer, weil wir natürlich alle voreingenommen sind, wir haben unseren eigenen Geschmack, was uns ganz gut gefällt. Das heißt hier an diesem Punkt haben wir gesagt, oh Vorsicht, ich weiß, ihr habt jetzt alle Ideen hier, aber nein, ihr dürft jetzt mal nicht mit Ideen kommen. Wir haben ja gesagt, wir wollen die KI arbeiten lassen. So, was haben wir also gemacht? Wir haben die Begriffe, die uns Neuroflash ausgegeben hat, als mögliche Route für eine Repositionierung in Midjourney eingegeben. Also so ein ganz dover, simpler Fresh-Shot-Pot. Also noch nichts irgendwie jetzt hier sexy, sondern ganz einfach erstmal so eine gute Eins und haben mal geguckt, was da für Bilder rauskamen. Also Zukunft, Konzept, neue Impulse, Visionär-Erfolg. Das sind so Bilder, die wir dann rausbekommen haben, da kam natürlich viel mehr raus, und dann haben wir geguckt, okay, da gibt es Gemeinsamkeiten in diesen Bildern. Also wir sehen irgendwie relativ häufig Luftballons mit Streifen, wir haben so ein Farbschema, was sich irgendwie durchzieht, Wir haben tatsächlich mehr weiße Männer gesehen als Frauen. Ich meine, wir wissen auch alle, warum das so ist. Wir haben viele so historische Gebäude gesehen. War auf jeden Fall ganz interessant. Jetzt gucken wir uns mal an, was die zweite Route, die uns Neuroflash empfohlen hat, was dabei herausgekommen ist. Das war der zweite Prompt. Und ihr seht schon hier, gemeinsam, weiterentwickelnd, vor allem nachhaltig, wie sich auf einmal auch ein Farbschema verändert hat. Also wir haben auf einmal ganz andere Farben, die Michelle hier uns dann empfohlen hat. Und auch noch mehr weiße Männer. Und auf jeden Fall eher so groben irgendwie abzubilden. So, Also, das sind mal so grob jetzt so zwei Stilrichtungen, die uns die KI herausgegeben hat und Jetzt kommen wir an einen Punkt, wo wir nur mit der KI nicht weitergekommen wären, weil wir unterschiedliche Routen eingegeben haben. Das heißt, jetzt sind wir an einen Punkt gekommen, wo wir uns entscheiden mussten, okay, mit welcher Route machen wir jetzt weiter. Wir haben uns für diese hier entschieden. Wir haben gesagt, okay, mit der Route machen wir weiter und haben jetzt daraus eben diese visuellen Parameter abgeleitet. Wir haben gesagt, wir sehen hier ein Farbschema drin, wir sehen eine bestimmte Ikonographie, die immer wieder kommt, und die haben wir wieder in Mitjony eingegeben und haben Bilder daraus generiert. Und jetzt kommt der Punkt, wo wir sagen, Vertrauen ist gut, Kontrolle ist besser. Also ihr kennt das auch alle, mit Jony macht ja ohne Ende dann Bilder für uns. So und wir haben diese Bilder, weil wir auch wollten, dass sie funktionieren, in ein weiteres KI-Tool eingegeben, was wir auch in unserem Alltag nutzen zur Kontrolle und zwar ist das Predict. Das ist ein Tool, das kennen sicherlich auch einige von euch, wo wir praktisch Cognitive Load vorhersagen können. Also wir können sehen, wie anstrengend ist das für Betrachter dieses Bild zu betrachten. Also wie sehr müssen sie sich damit beschäftigen, wie viel Gehirnleistung wird im Grunde genommen benötigt und wir wissen ja, dass auf so einer Website, ach zu viel Gehirnleistung sollten die Leute da nicht brauchen, wenn sie sich die Website angucken. Das heißt, wir haben Bilder rausgefiltert, wo wir wussten, okay cognitive load ist nicht so hoch, das muss ein bisschen einfach sein. Das heißt, darüber haben wir dann einfach mal ein paar Bilder rausgeschnitten. So, und da sind dann zum Beispiel folgende Bilder herausgekommen. Das ist jetzt alles noch von der KI gedacht wieder, weiterentwickelt auf der Ikonographie, die wir herausgeholt haben. Und ihr seht hier schon ganz gut, da steht noch Blödsinn in den Texten. Auch die Typografie, das gibt es alles gar nicht. Und trotzdem hat uns das wieder einen Hinweis dafür gegeben, wie die KI auch eine Typografie interpretieren würde auf dieser Basis. Also selbst wenn es die nicht gibt, dem Designer gab es vial Hinweise darauf. So auf der Basis haben wir dann mit Journey intensiver gefüttert und haben halt klarer und prompt auch gesagt, was wir tatsächlich haben wollen, so dass wir wirklich eine Menge von Bildern generiert haben, die bereits in den bestimmten Lücken, die wir haben wollten, dann für uns funktioniert haben. So, und jetzt heißt es hier immer noch, immer noch schön flexibel bleiben und viel testen und ausprobieren, genau, da also immer ganz locker bleiben und viel ausprobieren. Wir haben dann als nächstes von den ganzen Bildern, die wir gewonnen haben, auch wieder eine Kalkül-Bemut und haben gesagt, bitte gebt uns doch mal Farbspektrum raus. Also jetzt, wenn wir sagen wollen, wir wollen dann richtig Markenbilanz von machen, dann brauchen wir die konkreten Farbwerte und sowas alles, damit wir das auch auf andere Medien übertragen können. So, da haben wir mit Ploma gearbeitet und das bietet uns sogar den Vorteil, wir können ja einmal die Farbwerte sehen, die in den Bildern sind. Wir können dann auch gleich Farbharmonien definieren, die auch gleichzeitig barrierefrei sind. Also wenn wir auch wissen von den Kontrastwerten und sowas, alles wird das auch gut funktionieren, dass das auch leicht zu lesen ist alles. Also wie gesagt, das ist auch noch mit Chroma und das wird sogar noch besser. Die geben uns sogar die genauen Farbwerte für sämtliche unterschiedlichen Farben, die man halt so braucht. Super, geht ganz schnell. Genau, gar nicht so aufwendig. Also das war schon mal von großem Vorteil, die Bilder zu generieren. So, jetzt haben wir gesagt, okay, Kochstraße, wir wollten ja die Marke relaunchen, das heißt Marke der Zukunft. Und da haben wir jetzt ChatGPT gefragt und haben gesagt, du ChatGPT, wie müsste dann Kochstraße sich im Namen verändern, damit es auch die Agentur der Zukunft wird. So und da hat Chetjipiti gesagt, Kochstraße Lab wäre da das Beste. Also das haben wir dann in der KI getestet, wo ich noch so gedacht habe, weiß ich nicht, Da hätte ich sicherlich eingegriffen und gesagt, weiß ich nicht, ob Labbit so sexy ist für so eine Zukunftsagentur. Aber wieder massentauglich sind wir unterwegs. Also wir haben uns da auf die KI verlassen und haben gesagt, okay, Korstrasse, Lappen ist, dann wird es eben so heißen, wir machen das jetzt mal weiter. Und dann haben wir auch Chad Gpt gefragt, wie sollten denn Logos aussehen? Also was wäre denn eine gute Form oder auch eine Ikonografie, die wir benutzen sollten und in welchem Stil sollte das dann möglichst sein. So, da hat JPT uns auf die Werte, die wir nochmals vom Neuroflash hatten, hat JPT uns gesagt, okay, also pixelbasiert sollte es sein, ihr seht schon, also Wir hätten das wahrscheinlich jetzt nicht so ausgemacht. Pixelbasiert sollte es sein und es sollte ein Hirn, eine Rakete und ein Roboter sein. Super, super kreativ. Das heißt, das mussten wir jetzt einmal kombinieren, was wir hatten auch mit Valley Bay gesagt, mit unserer Bildwelt, die wir da drüben hatten, mussten wir jetzt irgendwie zusammen kriegen. Das war in der Tat erstmal nicht so einfach. Also hier stockte es dann wieder, da mussten dann tatsächlich wieder die Designer ran, die dann das kombiniert haben und dann, ich sag mal so ganz händisch, handwerkmäßig, wieder Illustrator zusammengefügt haben. Genau. Und dann haben wir gesagt, naja, okay, Animationen sind ja auch immer ganz nett, sowas braucht man auch irgendwie als Zukunftsagentur und haben gesagt, wir wollen gerne, dass unser Logo mit den Icons, die wir da ja nehmen sollten, dass sich das vielleicht ein bisschen ineinander bewegt. Genau und das haben wir gemacht über Runway. Habt ihr heute auch schon gehört, die KI, ganz einfach, muss man einfach nur sagen, bitte dieses Logo hier einfach so animieren, bumms, fertig. Genau Und als Agentur der Zukunft braucht man ja auch einen Sound, der zur Marke passt. Auch das haben wir dann über eine KI geregelt und haben jubelt bemüht. Und so klingt Kochstraße als Agentur der Zukunft. Also ihr wisst, wie Zukunft klingt, genau. Und jetzt zeige ich euch nochmal, wir haben das Ganze natürlich auch zusammengefügt, wie jetzt unsere Website aussehen würde. Einfach aussehen würde als eigene Kulisse. Sind die gleichen Texte, identische Inhalte? Aber eben in einem anderen Bildfeld, andersrum, andersrum. Andere Bildwelt, andere Stimmung, andere Sound. Also ich fand das Ganze als Fingerübung, muss ich sagen, Sehr beeindruckend, wie schnell das Ganze dann tatsächlich funktioniert. Und das, was wir heute schon mal gehört haben, ja, einen Großteil von Mitarbeitenden brauchen wir vielleicht dann tatsächlich nicht, weil es eben einfach so schnell geht. So, also erstmal nochmal schlechte Botschaften irgendwie. Es geht tatsächlich, es geht auch relativ schnell. Also da ist eine ganze Menge möglich und ich habe trotzdem noch eine gute Nachricht für euch auch. Denn Auch in Zukunft wollen Menschen Bilder und Botschaften hören. Also es wird immer Menschen geben, die für andere Menschen Bilder und Botschaften erstellen müssen. Also von daher ist es jetzt nicht so, dass das ganz aussterben wird, weil wir das immer brauchen auch in Zukunft, aber es wird anders gelöst werden. So wie gehen wir mit KI Ich sage immer KI ist für uns kein Tool, KI ist für uns Teammitglied. So gehen wir auch mit einer KI Also ihr müsst euch das so ein bisschen vorstellen, da hier in dem Laden, da kommt so ein Neuer, den kennt noch keiner, der ist relativ still, so ein stiller Typ irgendwie, der kommt neu in die Agentur, unser neues Teammitglied KI. So, wie arbeiten wir mit dem zusammen? Und wir haben schon gesagt, okay, dieses Teammitglied wird viele andere am Tisch ersetzen, weil wir mit diesem Teammitglied genauso umgehen wie mit einer Person in einem Brainstorming. Also wir brainstormen auch mit einer KI, genauso wie wir das mit einem Teammitglied machen würden. Und ich sage immer, wir führen die KI auch wie ein Teammitglied. Wir haben ja heute schon viel darüber gehört, wie Prompting funktioniert oder welche Prompts gut funktionieren. Und ich versuche bei uns mal zu sagen, ihr müsst KI tatsächlich so führen, wie ein Team mitgeht. Und zwar erstmal müssen wir gucken, stimmt die Richtung. Das ist das erste, was ich der KI sagen muss. Okay, wo wollen wir überhaupt hin, was ist die grobe Richtung, was wollen wir irgendwie erreichen? Stimmt der Weg? Bist du auf dem richtigen Weg? Wie sieht der Kontext aus, in dem wir unterwegs sind? Und das sind genau die gleichen Sachen, die wir im Grunde genommen auch zur Mitarbeiterführung benutzen. Ist die Rolle klar? Weißt du überhaupt, was dein Job ist? Hast du Vorgesetzte nicht? Wem musst du gegenüber berichten? Wem gegenüber musst du berichten? Also da ist die Rolle klar, herrscht Klarheit bei deiner Aufgabe. Weißt du eigentlich genau, was du machen musst und was der Outcome deiner Aufgabe sein soll? Also genauso wie wir Mitarbeitende fühlen müssen, genauso im Grunde genommen fühlen wir auch eine KI. Und wenn wir das machen, ist die eigentlich auch ganz gut einsetzbar. Also wie sprechen wir miteinander in der Kochstraße? Da habe ich dann auch relativ schnell so Ton auf Voice, klar, und kann die eben auch nutzen. So und ganz zum Schluss ist auch wichtig, auch hier reichen die fachlichen und charakterlichen Fähigkeiten der Person, die die KI führt. Und das ist genau wie bei Mitarbeitenden, wenn ich ein schlechter Chef und eine schlechte Chefin bin, dann wird da nichts draus und genauso ist es, wenn ich die KI schlecht führe, dann wird da auch nichts draus. Also auch hier ist immer die Frage, wir müssen uns fortbilden, wir müssen lernen, wir müssen wissen, wie wir damit umgehen mit den ganzen Themen. So, also Was ist meine Vorhersage für die Zukunft? Ich glaube, dass es ziemlich viele, ich habe es jetzt mal Creative Consultants genannt, die in Zukunft auf Konzernseite sitzen werden. Ich glaube, dass es viele Agenturen in der Tat nicht mehr geben wird, weil die Konzerne das Inhouse machen werden. Warum sollten sie auch nicht? Genauso wird es sein. Würde ich auch so machen. Ich würde dafür sorgen, dass ich ein Kompetensteam im Haus habe, was eben genau diese Sachen erledigen kann. So, und jetzt ist es für einen Zeitraum noch so, dass natürlich nicht alle sich so eine Inhouse-KI leisten können. Also nicht jedes Konzern wird sofort anfangen Large-Frame-Width-Modelle zu programmieren, eigene und Mittelständler schon erst recht nicht. Das heißt, es wird eine Übergangsphase geben, wo wir als externe Dienstleister im Grunde genommen die Aufgaben von Unternehmen leisten und die werden aber von uns erwarten, dass wir viel effizienter und viel schneller werden, weil das ja zum Großteil auch eine KI kann. So, und dann kommt dazu, je mächtiger die KIs werden, und das werden sie in Zukunft, das sehen wir ja jetzt schon. Also, Wir sehen jetzt schon, wie es über Auto-GPT-KIs geht, die auch Hand in Hand tatsächlich arbeiten, die sich selber verbessern. Und es wird in Zukunft immer weniger Creative-Consultants brauchen, die das können, weil die KIs sich auch die Dinge selber in die Hand geben. Das heißt, wir werden da immer weniger benötigen. Und das ist mein Fazit, wie immer im Leben. Survival of the fittest. Ich glaube tatsächlich, dass diejenigen von uns, die gut die Tools anwenden können, die gut mit ihren Teammitgliedern reden können, die dann gut aufgestellt sind, dass die das Ganze auch überleben können. So, damit bin ich am Ende. Vielen Dank.
Speaker B
00:23:07 - 00:23:13
Eure neue Marke, wann geht die live? Ne, die geht nicht live. Wir wollen ja
Speaker A
00:23:13 - 00:23:17
die Agentur der Zukunft werden, wir will das schon, genau. Okay, dann lasst uns doch
Speaker B
00:23:17 - 00:23:37
mal auf die Fragen schauen. Es gibt eine ganze Reihe von Fragen, die wir hier dann nachdurchgehen können. Die erste bezieht sich ein bisschen stärker auf viele unserer Aufgaben im Media Buying, nämlich die Frage, wie gut denn eigentlich Predict geeignet ist und auch Cognitive Load bei so einzelnen Creatives. Ja, stimmt. Eignet sich das
Speaker A
00:23:37 - 00:24:01
da gut? Auf jeden Fall. Absolute Empfehlung. Wir nutzen das für alles. Also alles. Auch die Designer nutzen das mittlerweile eigenständig. Das ist gar keine eigene Abteilung, sondern Designer haben einen Predict-Zugang, wo im Grunde genommen jedes Creative getestet wird. Weil wir auch lernen dadurch. Also wir lernen ganz viel den Blickverlauf. Was erzeugt einen hohen Competitive Load, was nicht. Also absolut empfehlenswert. Wunderbar. Wie kann denn
Speaker B
00:24:04 - 00:24:17
die KI Dinge wie emotionale Bindung, soziale Verantwortung, Einzigartigkeit abbilden? Ihr habt ja vor allem mit diesen Schlagworten gearbeitet. Wie kriegt man denn solche Themen rein, das dann nachher in so eine Marken-DNA zu schreiben?
Speaker A
00:24:18 - 00:25:07
Also da habe ich so zwei Dinge, die ich sofort im Kopf habe. Auf der einen Seite, wie absolut wichtig das ist, dass eine Marke emotional mit den Gründen und Gründinnen agiert, also wie wichtig diese emotionalen Werte sind. Und gleichzeitig ist es aber möglich, das über eine KI herstellen zu lassen. Weil, wenn ich weiß, welche Emotionen ich erzeugen will, welche Bedürfnisse ich bedienen will und auch welche Assoziationen ich bedienen will, dann kann ich das sehr gut in die KI geben, die mir dann eben entsprechende Assoziationen ausgibt. Also es ist Stand jetzt immer noch nur zu einem gewissen Prozentsatz so unsere Erfahrung möglich, also es braucht immer noch jetzt Leute, die das ein bisschen garantieren, das Ganze, aber ich glaube, es ist nur eine Frage der Zeit, wenn ich ehrlich bin.
Speaker B
00:25:09 - 00:25:18
Du hast viele Beispiele für den Einsatz dieser Tools gezeigt. An welcher Stelle kommen sie jetzt schon bei eurem kurzen zum Einsatz, also bei den wichtigen Projekten?
Speaker A
00:25:19 - 00:25:59
Also wir setzen gerade so am Anfang, No Refresh, für diese Researchphase setzen wir eigentlich fast immer ein, Predict setzen wir fast immer ein, alles was so im Vorfeld auf der strategischen Ebene stattfindet, da nutzen wir ganz viele Tools. Was die Umsetzung angeht, haben wir gerade was so in diesen bildgebenden Dingen stattfindet, das sind unsere Kunden tatsächlich noch sehr zögerlich. Und gar nicht so sehr nur aus rechtlichen Bedenken, sondern auch weil sie sagen, wir wissen gar nicht, ob wir unsere Kunden damit überfordern. Das war die Antwort, die ich gekriegt habe. Also wir haben komplette KI-Kampagnen vorgeschlagen, weil wir gedacht haben, da können Unternehmen sich auch als Innovativ mit präsentieren. Da war die Setzung auch halt.
Speaker B
00:25:59 - 00:26:08
Das ist zumindest so die Erfahrung, die wir gemacht haben. Und diese KI-Generatoren, ihr hattet jetzt mitgemacht, zum Beispiel im Einsatz, ist das in den Kreativprozessen integriert bei euch?
Speaker A
00:26:08 - 00:26:34
Ja, das nutzen alle Kreative, nutzen das, also sowohl zur Inspiration ganz häufig wird das eingesetzt Und wir nutzen auch, ich bin jetzt keine Kreative, deswegen kann ich euch da nicht so gut reden und euch vorstellen, was so diese Design-Tools angeht, aber ich weiß, dass unsere Videoleute das einsetzen, unsere 3D-Leute setzen das ein, die lassen sich da irgendwelche Pattern generieren, die sie dann wieder einsetzen. Also es wird, wie gesagt, auf allen Ebenen gehört das zum Daily Business mit dazu mittlerweile.
Speaker B
00:26:35 - 00:26:53
Jetzt haben wir noch eine Frage, die ähnelt so ein bisschen der Frage, die ich schon gestellt habe. Es geht jetzt ganz explizit neue Marketingperspektive. Kriegt das die KI hin, die neuen marketingspezifischen Patterns? Ich muss ganz ehrlich sagen, so 100%ig bin ich nicht sicher, worauf sich das bezieht, aber ich überlasse das dir. Also ich
Speaker A
00:26:53 - 00:27:13
kann ja sogar schon bei ChatGPT bestimmte Heuristiken oder Weißes eingeben als prompt und kann sagen, bitte berücksichtige das. Sonst kann die KI berücksichtigt das in meinen Texten. Also ja, auf jeden Fall kann sie das, wenn man sich dann kennt, kann man die einfach nur eingeben und kriegt die Ergebnisse raus.
Speaker B
00:27:13 - 00:27:19
Dann haben wir noch zwei Fragen für dich. Das erste, hat das finale Webdesign auch die KI erledigt?
Speaker A
00:27:19 - 00:27:21
Nein, das hat tatsächlich der Designer gemacht. Der hat
Speaker B
00:27:21 - 00:27:37
das dann zusammen geschoben, die Bilder? Ja. Okay. Und dann abschließend vielleicht für all die anderen Agenturen oder eben Inhouse-Teams hier, wie viel Zeit steckt ihr, Das ist ja eher ein Education-Projekt gerade gewesen. Wie viel Zeit steckt ihr eigentlich in der Agentur, genau dieses Thema, das Thema Education?
Speaker A
00:27:38 - 00:28:12
Also wir haben unterschiedliche Formate dafür. Wir haben ein Format, das nennt sich Mittagswissen. Da treffen sich mittwoch alle, da kochen die Chefs. Und da erzählt dann immer jemand was zu einem bestimmten Thema. Das muss nicht unbedingt KI sein. Dann haben wir einen KI-Stammtisch, wo sich Leute treffen, die ein intrinsisches Interesse an dem ganzen Thema haben und sich austauschen, gerade so aus diesen unterschiedlichen Bereichen. Da kommen die Videoleute mit den Textern und den Strategen irgendwie zusammen und man taucht sich ein bisschen aus. Da ist tatsächlich im KI-Stammtisch auch die Idee zu diesem Projekt entstanden, dass wir gesagt haben, wir wollen mal so übergreifen und
Speaker B
00:28:12 - 00:28:13
mal was machen, was man
Speaker A
00:28:13 - 00:28:42
auch sehen kann. Und ansonsten ist es so, dass jeder Zeit bekommt zum, wir nennen das immer, zum Lernen und Entwickeln. Also man hat so, es gibt schon Zeit, wo man sich mit den Tools auseinandersetzen kann. Ich kann das jetzt schlecht mit einer Zahl beziffern. Wenn viel los ist, wird die Zeit gestrichen. Also so ehrlich bin ich auch, genau. Aber es wird schon auch eingeplant. Okay.
Speaker B
00:28:43 - 00:28:51
Ich glaube, die letzte Frage hast du im Rande schon beantwortet. Insofern können wir an der Stelle noch mal einen finalen Applaus von allen abholen, die heute hier waren. Vielen Dank.
What is Castmagic?
Castmagic is the best way to generate content from audio and video.
Full transcripts from your audio files. Theme & speaker analysis. AI-generated content ready to copy/paste. And more.