Amazon: Milliardenschwere Kooperation mit KI-Unternehmen Anthropic

Amazon: Milliardenschwere Kooperation mit KI-Unternehmen Anthropic

Amazon will eine hohe Summe – insgesamt bis zu vier Milliarden US-Dollar – in das KI-Start-up Anthropic investieren. Die Unternehmen haben sich das hochgesteckte Ziel gesetzt, gemeinsam die „zuverlässigsten und leistungsstärksten Modelle der Branche“ zu entwickeln. Im Februar 2023 investierte bereits Google in Anthropic – allerdings „nur“ 300 Millionen US-Dollar. Die neue Kooperation mit Amazon könnte darauf hindeuten, dass Anthropic sich von dem Suchmaschinenunternehmen abwendet.

Anthropic wird künftig auf Amazon Web Services (AWS) – ein Tochterunternehmen, welches Cloud-Dienste anbietet – zurückgreifen. AWS soll, so erklärt Anthropic, der primäre Cloud Provider für das KI-Unternehmen werden.

Erweiterter Support für Amazon Bedrock

Die Unterstützung für Amazon Bedrock soll zudem erweitert werden, wie Anthropic ankündigte. Hierbei handelt es sich um einen Service, über welchen User per API Zugriff auf verschiedene KI-Modelle erhalten. Unter den verfügbaren Modellen ist auch Anthropics Claude, ein Sprachmodell, dessen zweite Version im Juli 2023 auf den Markt gekommen ist.

Amazon kann Einsatzmöglichkeiten für KI-Modelle mitgestalten

Aufgrund der hohen Nachfrage bezüglich Claude will Anthropic es AWS-Kund:innen künftig erlauben, die Performance des KI-Bots mithilfe des eigenen Expert:innenwissens zu optimieren – während gleichzeitig die Sicherheit des Modells gestärkt werden soll. Claude könne beispielsweise beim Coding, bei der Content-Kreation oder auch im Bereich Finanzen zum Einsatz kommen. Amazons Entwickler:innen erhalten im Rahmen der Kooperation die Möglichkeit, die Verwendungsmöglichkeiten der KI-Modelle selbst mitzugestalten, erklärt Anthropic:

Amazon developers and engineers will be able to build on top of our state-of-the-art models via Amazon Bedrock. This will enable them to incorporate generative AI capabilities into their work, enhance existing applications, and create net-new customer experiences across Amazon’s businesses.

Das KI-Wettrennen: Welches Team sichert sich den Spitzenplatz?

Es war nur eine Frage der Zeit, bis auch Amazon umfassend in den KI-Wettkampf einsteigt. Das Unternehmen verfolgt mit der Anthropic-Kooperation eine Strategie, die auch andere große Tech Player zum Erfolg geführt hat: Allen voran Microsoft im Zuge der Zusammenarbeit mit OpenAI. Nun bleibt abzuwarten, wie sich die Tech-Unternehmen im anhaltenden Wettrennen um die KI-Vorherrschaft schlagen werden. Zuletzt machte insbesondere auch Google mit der Freigabe der GPT-4-Konkurrenz Gemini auf sich aufmerksam.

Powered by WPeMatico

Teile diesen Beitrag
ChatGPT kann jetzt sehen, hören und sprechen

ChatGPT kann jetzt sehen, hören und sprechen

Du kannst dich jetzt richtiggehend mit ChatGPT unterhalten und den KI-Bot anhand von Foto-Uploads nach Lösungen oder Informationen fragen. OpenAI macht es dank der Voice und Image Conversations möglich, die in den kommenden zwei Wochen ausgerollt werden. So kann ChatGPT künftig sogar Gutenachtgeschichten vorlesen, eine Mahlzeit auf Grundlage der Zutaten auf einem Foto planen oder Grafiken analysieren.

ChatGPT mit neuen Konversationsfunktionen – für zahlende User

Der Roll-out der neuen Features kommt für iOS und Android User und zunächst nur für die Abonnements ChatGPT Plus und ChatGPT Enterprise. Dank der neuen Funktionen kannst du ChatGPT künftig wie eine lebensnahe Assistenz verwenden, die zudem enorm viel Wissen und Know-how bereithält. Wenn du unterwegs eine Pflanze oder ein Gebäude siehst, über die und das du mehr erfahren möchtest, kannst du einfach einen Schnappschuss an den KI-Bot senden (ähnlich wie bei Lens, das Google auch bei Bard integriert hat). Du kannst ChatGPT aber auch komplexe Fragen stellen – nicht zuletzt im Kontext eines Streitgesprächs –, um eine fundierte Antwort zu erhalten. Und Hilfe bei den Hausaufgaben, täglichen Aufgaben im Büro oder beim Kochen, Backen und bei der Reparatur im Haushalt oder am Fahrrad ist ebenso verfügbar. Du musst letztlich nicht mal die Hände frei haben, da ChatGPT dir per Stimme antworten kann.

In der mobilen App können User über Einstellungen und den Bereich „neue Features“ zu den Voice Conversations gelangen, indem sie das Kopfhörer-Icon antippen. Dann haben sie die Wahl zwischen fünf verschiedenen Stimmen, die ChatGTP repräsentieren. Die Sprachausgabe wird durch ein neues Text-to-Speech-Modell generiert, mi dem Textelemente in Audioelemente mit menschenähnlichen Stimmen umgewandelt werden. Auch Whisper wird eingesetzt, um die Wörter der User in Text umzuwandeln.

Auf dem OpenAI Blog zeigt das Unternehmen ein Textbeispiel aus einer Geschichte an, das eine KI-Stimme vorliest. Diese Vorlesestimme klingt zwar noch etwas nach einer computergenerierten, kann aber einige Aspekte des Texts bereits sinnvoll transportieren.

Eine Beispielgeschichte von OpenAI, die von einer KI-Stimme vorgelesen wird, © OpenAI, Text, schwarz auf weiß geschrieben
Eine Beispielgeschichte von OpenAI, die von einer KI-Stimme vorgelesen wird, © OpenAI

Image Conversations können auf vielfältige Weise Hilfe leisten

Die Image Conversations bieten Nutzer:innen die Chance, mit verschiedenen Fotos oder Grafiken eine Konversation mit der KI zu starten, die ihnen Hilfestellung leistet. Wenn sie zum Beispiel eine Grafik nicht verstehen, ein Werkzeug nicht benennen können oder eine Automarke identifizieren möchten, ist der Bildcheck durch ChatGPT eine Option. User können auch mehrere Bilder an die KI weitergeben oder mithilfe eines Malwerkzeugs darstellen, zu welchem visuellen Element sie Informationen benötigen. In der App können sie über ein Foto-Icon zu den Image Conversations gelangen.

Die Informationen von ChatGPT werden mithilfe der Modelle GPT-3.5 und GPT-4 ermittelt und basieren auf Fotos, Screenshots, Grafiken und dergleichen, die oft neben visuellen Elementen auch Textbausteine enthalten.

OpenAI möchte die beiden neuen ChatGPT-Konversationsformen graduell weiterentwickeln und nach und nach mehr Ressourcen freigeben. Jüngst wurden die KI-Sprachfähigkeiten der OpenAI-Modelle von Spotify für die Entwicklung des Voice Translation Tools genutzt. Dieses erlaubt es Podcastern, ihre Folgen via AI in andere Sprachen zu übersetzen, während die Stimme erhalten bleibt. Nach dem Launch von DALL-E 3 stellen die Image und Voice Conversations die nächsten großen Feature-Neuheiten von OpenAI dar. Beim OpenAI DevDay, der ersten Developer-Konferenz des Unternehmens, sollen im November noch mehr neue KI-Lösungen vorgestellt werden.


Spotify meets OpenAI:

KI-Stimmenklone für Podcast-Übersetzung

© Spotify via Canva, Spotify-Logo mit Leuchtröhren, grün leuchtend, an Wand, Büroflur mit Pflanze und Türen
© Spotify via Canva

Powered by WPeMatico

Teile diesen Beitrag
Spotify meets OpenAI: KI-Stimmenklone für Podcast-Übersetzung

Spotify meets OpenAI: KI-Stimmenklone für Podcast-Übersetzung

OpenAI prägt mit ChatGPT, GPT-4 und Tools wie DALL-E 3 die Digitallandschaft. Jetzt liefert das KI-Unternehmen auf Grundlage des Modells Whisper Support für die Optimierung und Skalierung im Podcast-Markt. Der Streaming-Dienst Spotify hat das neue Feature Voice Translation vorgestellt, das in Kooperation mit OpenAI entstanden ist. Dieses ermöglicht die Übersetzung von Podcast-Folgen in andere Sprachen, in der Stimme der Podcast Hosts, die dafür keine andere Sprachen sprechen müssen.

Das hat Voice Translation zu bieten: Charakteristika der Sprecher:innen sollen erhalten bleiben

Das Klonen von Stimmen via Gen AI für die Podcast-Kreation ist auch mit einer Reihe anderer Tools schon länger möglich. Das funktioniert etwa beim Videoerstellungs-Tool QuickVid, mithilfe der (auch beim genannten Tool genutzten) Text-to-Speech API der Google Cloud oder mit Microsofts Stimmen-KI VALL-E. Stimmen quasi klonen kann auch ElevenLabs. Darauf deuten die KI-Experten Jens Polomski und Matt Navarra hin.

Spotify bietet ersten ausgewählten Podcastern jetzt allerdings ein hochfunktionales Tool, das auch spezifische Sprechgewohnheiten der Personen bei der Übersetzung berücksichtigen soll. Diese Podcaster können das Tool nutzen, um zunächst englischsprachige Episoden in andere Sprachen und damit für andere Märkte zu übersetzen. So kann eine Folge direkt auch auf Deutsch, Französisch oder Spanisch erscheinen. Das würde die Zahl der potentiellen Hörer:innen unmittelbar deutlich erhöhen – und damit den Podcastern und Spotify zum Vorteil gereichen. Erste übersetzte Folgen der Podcasts von Dax Shepard, Monica Padman, Lex Fridman, Bill Simmons und Steven Bartlet wurden bereits erstellt. Ziad Sultan, VP of Personalization bei Spotify, erklärt zum Produkt:

By matching the creator’s own voice, Voice Translation gives listeners around the world the power to discover and be inspired by new podcasters in a more authentic way than ever before. We believe that a thoughtful approach to AI can help build deeper connections between listeners and creators, a key component of Spotify’s mission to unlock the potential of human creativity.

Erste Folgen aus der Spotify Voice Translation sind schon hörbar

Du kannst dir auf Spotify bereits erste übersetzte Folgen anhören, auf Deutsch, Französisch und Spanisch. Dazu gehören die folgenden Episoden:

  1. Lex Fridman Podcast – „Interview with Yuval Noah Harari“
  2. Armchair Expert – „Kristen Bell, by the grace of god, returns“
  3. The Diary of a CEO with Steven Bartlett – „Interview with Dr. Mindy Pelz“
So kann die Anzeige für KI-übersetzte Podcasts auf Spotify aussehen, © Spotify, Smartphone Mockups mit Podcast-Folgen von Spotify, Spotify-Logo
So kann die Anzeige für KI-übersetzte Podcasts auf Spotify aussehen, © Spotify

Spotify rollt diese KI-gestützten Übersetzungen ab jetzt aus und wird in den nächsten Wochen und Monaten weitere Folgen im Voice Translation Hub hinzufügen. Damit unterstützt der Streaming-Dienst Podcaster weltweit beim Storytelling. Immerhin nimmt die Zahl der Podcast-Hörer:innen stetig zu und hinsichtlich der kreativen Gestaltung bieten Dienste wie Spotify, YouTube und Co. immer mehr Möglichkeiten für Creator. Dazu gehören auch die Video-Podcasts und persönlichere Darstellungen der Angebote für Interessierte.

Wann noch mehr Podcaster auf das Voice Translation Tool zugreifen können, ist bisher nicht klar. Möglicherweise haben OpenAI und Spotify noch Bedenken, dass eine solche Technologie auch zu unlauteren Zwecken eingesetzt werden könnte. Sie zeigt allerdings bereits auf, wie effizient generative KI Content Creatorn derzeit bereits Hilfestellung zu leisten imstande ist.

Schon im Frühjahr arbeiteten die beiden Unternehmen zusammen, um einen KI-gestützten Guide zu launchen, der Spotify-Nutzer:innen dabei unterstützt, Musik und Podcasts nach ihrem Geschmack (neu) zu entdecken. Die generative KI kennt den Musikgeschmack aller User und scannt Neuerscheinungen, aber auch alte Playlists, um Vorschläge zu machen.


Großes Spotify Update:

Podcaster können ihre Show-Seite jetzt personalisieren

© Sara Kurfeß, Unsplash, Spotify-Logo auf Smartphone, weißer Hintergrund
© Sara Kurfeß, Unsplash

Powered by WPeMatico

Teile diesen Beitrag
Kein Rollback des Google Helpful Content Updates: Starke Schwankungen und mehr Sichtbarkeit für Social-Media-Plattformen

Kein Rollback des Google Helpful Content Updates: Starke Schwankungen und mehr Sichtbarkeit für Social-Media-Plattformen

Seit dem Roll-out-Start des Helpful Content Updates von Google am 14. September erfahren SEOs und Seitenbetreiber:innen deutliche Veränderungen in den SERPs, die auch den Suchenden auffallen dürften. Immerhin kam das Update direkt nach dem Abschluss des August 2023 Core Updates und gilt als drittes Helpful Content Update als bisher wirkungsvollstes. Für die Anpassungen in der Suche wurde vonseiten Googles auch ein neuer Klassifikatorprozess eingesetzt.

Viele Seitenbetreiber:innen zeigen sich in Fachforen und auf X jedoch unzufrieden mit den Entwicklungen, die mit dem jüngsten Update einhergehen. Sie hoffen mitunter sogar auf eine Zurücknahme der Update-Prozesse Googles (ein Rollback). Doch dieser Hoffnung hat Googles Webmaster Trends Analyst John Mueller bereits einen Riegel vorgeschoben.

Auch Content mit Herzblut ist nicht unbedingt hilfreich, meint Google

In seinem Beitrag für Search Engine Roundtable stellt SEO-Experte Barry Schwartz dar, was John Mueller bezüglich des Helpful Content Updates zu sagen hat. So gebe es zwar nach wie vor viel zu tun für das Suchmaschinenunternehmen, doch ein Zurückrudern bei den Updates ist keine Option. Man wolle mit den Veränderungen, die diese im Ranking nach sich ziehen können, auch niemanden verärgern, sondern vielmehr hochwertige Inhalte belohnen, die die Prämisse people-first besonders gewährleisten. In diese Richtung bewegen sich auch die Algorithmusentwicklungen.

Und dabei können die Inhalte auch KI-generiert sein, sofern sie für Suchende relevant und qualitativ hochwertig sind. Darauf deuten Anpassungen in der Dokumentation für das aktuelle Update hin. Google hat einige Formulierungen im Hilfedokument angepasst und schreibt nun etwa, dass der Content für Menschen kreiert sein sollte, um gut zu ranken. Dass er von Menschen stammen sollte, steht nicht mehr explizit da. Das Unternehmen hatte aber schon zuvor anerkannt, dass KI-generierte Inhalte den Content und das Ranking nicht per se negativ beeinflussen.

Viele SEOs und Seitenbetreiber:innen ärgern sich jedoch öffentlich über Traffic-Verluste und schlechtere Rankings.

Manche gehen gar davon aus, dass das jüngste Update den Zielen Googles nicht gerecht wird, da in den SERPs auch viele Inhalte vorkämen, die von fragwürdigen Quellen stammten. Allerdings schreibt ein User in einem Diskussionsforum treffend, dass Google für die SEO die Regeln stellt, es sei „Googles Playground“. Zudem ist zu betonen, dass das Helpful Content Update noch nicht vollständig ausgerollt ist. Noch können keine abschließenden Einschätzungen vorgenommen werden.

Mehr hilfreicher Content von Reddit, LinkedIn und Co. in den SERPs auf Google

Während manche Seiten auf Google an Sichtbarkeit verlieren, gewinnen Ergebnisse, die von Social-Media-Plattformen wie Reddit, LinkedIn oder der Entertainment-Plattform TikTok stammen, an Relevanz. Diese Beobachtung hat die SEO-Expertin Carrie Rose gemacht und in einem Beitrag dokumentiert. Vor allem Reddit fällt dabei öfter ins Auge. John Mueller schrieb diesbezüglich kürzlich auf X auch:

The problem I often see is that the ‘website‘ is just respinning Reddit content, often even indirectly. I’d much prefer to get the original, hands-on posts, written by people who actually did what they’re writing about. 5 years old? Still better than a month-old AI/cheap rewrite.

Carrie Rose schreibt:

1. Reddit

2. TikTok

3. LinkedIn

These platforms are all seeing increasing visibility in Google SERPs. Reddit relies on UGC content to fuel its platform, with data, opinions, insight and debate. Its fast becoming a trusted source by Google for many search queries

Dabei dürfte das Ziel, hilfreiche Inhalte in der Suche abzubilden, auf diese Entwicklung einzahlen. Immerhin können die UGC-Inhalte oder Expert:innenausführungen Suchenden mitunter schneller weiterhelfen als manche generische Website. Aus diesem Grund hat Google vor einiger Zeit auch die Perspectives ins Leben gerufen und diesen Suchfilter inzwischen ebenso im Mobil-Kontext integriert. Dabei handelt es sich um die Option, News Snippets verschiedener Publisher-Quellen, Journalist:innen und Expert:innen sowie anderer Stimmen, die sich zu einem Thema äußern, als Informationskontext zu erhalten. Darüber hinaus können User dank Perspectives seit Mai direkt in den Suchergebnissen Videos, Bilder und Texte, die Menschen in Diskussionsforen, auf Frage-und-Antwort-Seiten und auf Social-Media-Plattformen geteilt haben, sehen. Passend zur Suchanfrage werden quasi Perspektiven von Creatorn, manchmal auch Marken und Usern offenbart, die den Suchenden weiterhelfen könnten.

Suchende können inzwischen unter anderem auch einfacher auf Reddit Links und YouTube- oder TikTok-Videos in den Suchergebnissen zugreifen, ohne den Namen der Plattform der Suchanfrage anhängen zu müssen.

Perspectives bei Google, © Google, GIF mit Ergebnissen von Reddit, YouTube und Co. in Smartphone Mockup Google-Suche
Perspectives bei Google, © Google

Update-Wochen bei Google:

September Helpful Content Update wird ausgerollt

© Christian Wiediger - Unsplash, Google-Schriftzug auf Google-Startseite auf Bildschirm
© Christian Wiediger – Unsplash

Powered by WPeMatico

Teile diesen Beitrag
Google sagt: Links sind nicht unter den Top 3 der Ranking-Signale

Google sagt: Links sind nicht unter den Top 3 der Ranking-Signale

Schon seit einiger Zeit erklärt Google immer wieder, dass Links allein kein gutes Ranking bedingen. Jetzt gab Googles Gary Illyes im Rahmen der PubCon an, dass die Links nicht zu den wichtigsten drei Ranking-Signalen gezählt werden könnten. Das sei schon seit einiger Zeit so. Zudem gebe es keine klar universellen Top-Ranking-Signale – abgesehen von Content-Qualität und Relevanz. Sogar Seiten ohne Links könnten gut ranken. Das heißt aber nicht, dass Links per se für die SEO wenig relevant sind. Denn auch Seiten ohne gute Page Experience können bei Google gut ranken, wenn sie relevant genug für Suchende sind; trotzdem ist die Page Experience sehr wichtig für die nachhaltige Sichtbarkeit und Platzierung in den SERPs.

Seiten haben verschiedene Ranking-Faktoren für Google

Every site will have something different as the top 2 or 3 ranking factors,

zitiert Danny Goodwin für Search Engine Land die Aussage von Gary Illyes. Demnach spielen einzelne Elemente wie Links, Tags, Markup, Bildoptimierung etc. zwar eine nach wie vor wichtige Rolle für das Ranking. Doch im Zentrum steht für Google der Content und die Erkenntnis, wie wichtig dieser letztlich für die User der Suchmaschine ist. Dabei wird im Rahmen von großen Algorithmus-Updates immer wieder deutlich, welche Seiten nach Googles Vorgaben besonders relevant sind. Zuletzt rollte Google das August 2023 Core Update und das September 2023 Helpful Content Update aus. Auch im Dezember wird Google wieder – mitten in der Feiertagssaison – Updates starten, bestätigte Illyes. Bis dahin könnten aber noch andere kommen.

Das aktuelle Helpful Content Update zeigt bereits Wirkung und sorgt für mächtige Schwankungen.

Für dieses Update hat Google einen neuen Klassifikatorprozess und einige Änderungen in den Vorgaben für hilfreiche Inhalte angesetzt. Grundsätzlich erklärt das Unternehmen:

Finden wir auf einer Website relativ viele nicht hilfreiche Inhalte, werden nicht nur diese Inhalte tendenziell schlechter in der Google Suche platziert – auch alle anderen Inhalte auf der Website erhalten möglicherweise ein schlechteres Ranking, sollte es im Web relevantere Alternativen geben. 

Seiten können dennoch gut ranken, wenn sie viele andere positiv konnotierte Website-Signale aufweisen können. Was du im Rahmen dieser Art von Updates, aber auch generell für deine Seiten berücksichtigen solltest, damit dein Content als hilfreich eingeordnet und gut gerankt wird, erfährst du in unserem ausführlichen Beitrag zum Helpful Content Update. Darüber hinaus kannst du viele nützliche Informationen über Googles Ranking und Signale erhalten, wenn du auf Googles dedizierten Guide für die Search Ranking Systems zugreifst.


Erfahre von SEO-Experte Malte Landwehr in unserem Digital Bash Podcast, was für deine SEO wirklich wichtig ist.


Was Google wirklich wichtig ist

Google führt stetig kleinere Updates für die Ranking-Systeme durch, sodass diese kontinuierlich Veränderungen unterliegen. Core Updates und dergleichen bilden nur die Spitze des Eisbergs. In der Regel können SEOs und Seitenbetreiber:innen aber schon gute Rankings erlangen, wenn sie die Grundlagen der Suchmaschinenoptimierung beherzigen und ihre Inhalte an Googles Richtlinien orientiert ebenfalls stetig, Stück für Stück, optimieren. Allerdings kann man schnell den Überblick verlieren, wenn Google ein Helpful Content Update ankündigt, nachdem zuvor beispielsweise vor allem das Page Experience Update im Fokus gestanden hat. Der„Guide to Google Search Ranking Systems“ thematisiert alle relevanten Ranking-Systeme, die Google automatisiert und unter Bezugnahme auf diverse Faktoren und Signale einsetzt. Auf der Seite der Google Search Central heißt es entsprechend:

This page is a guide to understanding some of our more notable ranking systems. It covers some systems that are part of our core ranking systems, which are the underlying technologies that produce search results in response to queries. It also covers some systems involved with specific ranking needs.

So wird in dem Dokument eine ganze Reihe von Systemen dargestellt. Beispielsweise BERT, das KI-System, welches Google dabei hilft, verschiedene Intentionen bei unterschiedlichen Wortkombinationen zu verstehen. Im Guide befinden sich auch Hinweise zu den Systemen, die sich mit der Deduplizierung beschäftigen, und Tipps für den Erhalt von Freshness sowie Hinweise zu weiteren wichtigen Ressourcen für SEOs und Seitenbetreiber:innen.


Update-Wochen bei Google:

September Helpful Content Update wird ausgerollt

© Christian Wiediger - Unsplash, Google-Schriftzug auf Google-Startseite auf Bildschirm
© Christian Wiediger – Unsplash

Powered by WPeMatico

Teile diesen Beitrag
Das Ende von FOMO – ist die DMEXCO nun ganz normale Messe?

Das Ende von FOMO – ist die DMEXCO nun ganz normale Messe?

FOMO, Fear of missing out, die Angst etwas zu verpassen: Sie treibt nicht nur die Besucher:innenströme auf Messen und Konferenzen, sondern auch die Entscheidungen der Marketer: Wenn meine Wettbewerber:innen die neueste Data Platform haben, muss ich sie dann nicht auch anschaffen, egal ob ich sie so ganz verstehe?

Diese Welle könnte nun gebrochen sein, die Nestlé CMO Aude Gandon bringt es auf den Punkt mit den Worten:

Don’t get too enamoured with the plumbing.

Verknall dich nicht in die Leitungen, die den Marketing-Zauber nur transportieren.

Und wie ist das mit Fernsehen? Anfangs drei, später dreißig Kanäle für 80 Millionen Zuschauer:innen: Brauchen wir das noch, wenn das Internet in der Lage ist, jeder einzelnen Person das Video auszuspielen, das sie sich ausgesucht hat?

Jein, denn besonders die älteren Menschen nutzen es doch noch gerne. Keine neue Erkenntnis: Ein neues Medium hat nie so ganz ein altes verdrängt. Es wird ja auch noch auf Steintafeln und Litfass-Säulen geschrieben – nur eben weniger. Aber ob man den Zahlen der TV-Verkäufer:innen glauben darf, dass die 14- bis 29-Jährigen 38 Prozent ihres Bewegtbildkonsums im linearen TV durchführen?

Nielsen zählt neun Prozent weniger TV-Werbeausgaben im Vergleich zum Vorjahresmonat – Bei Nestlé liegt der Anteil der digitalen Medien an den Werbeausgaben inzwischen bei 50 Prozent

Alle Media-Budgets für Europa werden nun bei einer Agentur gebündelt. Dazu hat die Agentur-Holding WPP eine neue Agentur gebaut mit dem Namen Open Mind. Und Nestlé fühlt sich nicht nur zunehmend für seine Produkte verantwortlich, sondern will das auch auf die Werbung ausdehnen – mit der sie nicht nerven möchten.

globaler Werbemarkt DMEXCO23 © Ralf Scharnhorst
Der globale Werbemarkt wird auf der DMEXCO 2023 diskutiert © Ralf Scharnhorst

Selbst Maggi hat nicht mehr eine Zielgruppe, sondern drei Personas ausgearbeitet, denen sie unterschiedliche kreative Konzepte anzeigt. Die Ads selber werden dann noch einmal individuell dynamisch zusammengesetzt.

Dynamische Anzeigenoptimierung wird durch KI auf eine neue Ebene gehoben

Die Motivvielfalt und Geschwindigkeit der Erstellung bei DCO steigert sich. Google will hier besonders seinen YouTube-Kund:innen kostenlose Unterstützung liefern. Fraglich bleibt nur, wer die Flut an Werbemitteln dann darauf kontrolliert, ob sie noch zur Marke passen und nichts Falsches versprechen – ist hier wieder der Mensch gefragt? Und wenn ja, welcher? Diese Probleme haben die großen Werbeplattformen ja bislang eher zweifelhaft an Klickworker:innen aus Billiglohnländern delegiert.

Retail Media ist gekommen, um zu bleiben

Es liegt einfach zu nahe, dort zu werben, wo gekauft wird. Drei spannende Fragen bleiben:

  1. Wer ist als Anbieter:in dafür dauerhaft groß genug?
  2. Wie kann eine Bündelung für die Kleineren funktionieren? Criteo und einige andere Technologieanbieter:innen scheinen sich auf diesen Markt zu stürzen, es bleibt aber unklar: Wie kann der Shop beziehungsweise Publisher sicher ausschließen, dass User durch diese Werbung zum Wettbewerb abwandern?
  3. Preise: Die User, die durch einen Klick auf ein Retail Media Ad aus einem Shop abwandern, tun dies in einem Moment, wo sie für den Shop sehr viel Wert sind. Im „freien Internet“ können die Preise für Werbeplatzierungen nahe null fallen – aber dies wird bei Retail Media nicht passieren. Ein Ausweg scheint es, mit den Retail-Media-Daten offsite auf anderen Websites als dem Shop zu werben – hier kommen aber wieder zweifach Datenschutzbedenken auf: Was lassen die User zu, inwiefern fürchtet der Shop das Abfließen seiner Daten?

Wer will Werbung im Auto?

Weshalb haben neue Autos eigentlich so große Bildschirme? Na klar, damit Werbung auch Platz darauf hat! Keine Sorge, es geht nicht um den Albtraum von Verkehrssicherheitsexpert:innen, Videos auf diesen Bildschirmen laufen zu lassen. Es handelt sich eher um die Überführung der Werbeformen auf das Auto-Navi, die wir schon von Google Maps kennen: Gesponserte Suchergebnisse, hervorgehobene Pins und Promotions, um (Auto-)User an einen bestimmten Ort zu locken.

Bereits live in neuen Mercedes, Audi und Škoda – bald noch mehr. Nicht allerdings bei Tesla – die hatten einfach nur zwei Autos auf die Messe gestellt, um Probefahrten aus der Zielgruppe der Digitalos zu generieren.

In-Car Ads bei Mercedes DMEXCO 23, © Ralf Scharnhorst
In-Car Ads bei Mercedes DMEXCO 23, © Ralf Scharnhorst

Martin Sorrell ist 78 Jahre alt

Er hat in der Werbebranche alles erreicht und weiterhin einen klaren Durchblick. Sein Ranking des weltweiten 570 Millarden US-Dollar schweren digitalen Werbemarktes:

  1. Google
  2. Facebook
  3. Amazon (er prognostiziert eine Verdoppelung des Anteils am Werbemarkt in wenigen Jahren)
  4. Alibaba
  5. Tencent
  6. TikTok
  7. Microsoft
  8. Apple
  9. Snap Inc.
  10. Twitter/X: Laut Sorrell ist der Anteil am Werbemarkt frisch halbiert; X selbst auf der Bühne spricht dann jedoch von wachsenden Nutzer:innenzahlen; so hatte Sorrell sein Mantra „Numbers don’t lie“ sicher nicht gemeint

Den nutzen von AI auf Agenturseite sieht er in schnelleren Visualisierungen, eingesparten Copyrights, der Hyperpersonalisierung von Ads, der einfacheren Verbreitung von Wissen in großen Organisationen und als Arbeitserleichterung in (Media-)Planungsprozessen. Besonders bei Werbung für kleine Unternehmen sieht er die Möglichkeit, bis zu 60 Prozent Personal einzusparen.

Das darf allerdings bezweifelt werden, weil die Pizzeria um die Ecke ja auch bislang kaum ein:e Grafiker:in für ihre Werbung beschäftigt hat – sie kann diesen bald aber durch Automatisierung einsparen. Das ist gemeint mit:

AI raises the bottom, not the ceiling.

Die meisten anderen Speaker halten dagegen, dass AI den Menschen nicht ersetzen, ihm aber mehr Möglichkeiten verschaffen werde: Du stehst nicht im Wettbewerb mit der KI, sondern mit anderen Dienstleister:innen, die KI einsetzen.

Influencer: Emotions first, Message second

Die Brands sollten nicht so viel briefen, sondern die Influencer einfach mal machen lassen – denn sie wissen schon, was auf ihrem Medium und bei ihrer Audience ankommt. Deshalb kann Influencer Marketing das klassische Branding nicht ersetzen: Die Marke muss schon positioniert sein, bevor man die Influencer darauf loslässt.

Mein Fazit: Auch nach 23 Jahren „Online-Marketing-Messe“ oder 15 Jahren DMEXCO ist noch nicht alles gesagt – wir sehen uns wieder auf der DMEXCO am 18. und 19. September 2024.

Powered by WPeMatico

Teile diesen Beitrag