AR Creation für alle – Snapchat launcht Lens Studio App und Webtool

AR Creation für alle – Snapchat launcht Lens Studio App und Webtool

Ein paar Fingertipps, ein bisschen Text – und schon wird aus einer Idee ein interaktiver Snapchat-AR-Filter. Was früher Entwickler:innenwerkzeug war, passt jetzt in jede Hosentasche – zumindest, wenn man ein iPhone besitzt.

Mit der neuen, eigenständigen Lens Studio App für iOS und einem begleitenden Webtool bringt Snapchat Augmented-Reality-Gestaltung direkt aufs Smartphone. Der AR-Experte Ahmed Ghanem beschreibt auf X, dass Snap damit ein Tool veröffentlicht, das ganz ohne Vorkenntnisse auskommt – ideal für Creator, die einfach loslegen wollen.

Die News dazu erschien jüngst im offiziellen Snapchat Newsroom. Android-Nutzer:innen müssen sich jedoch noch gedulden: Die App ist bisher nur im Apple App Store verfügbar.

Augmented Reality soll kein Pro-Tool mehr sein

Bislang war Lens Studio vor allem ein Desktop-Tool für professionelle Entwickler:innen – mit über 400.000 aktiven Nutzer:innen weltweit. Das ändert sich jetzt: Die neue mobile App senkt bewusst die Einstiegshürden. Snap verfolgt damit eine klare Mission: Augmented Reality soll für alle zugänglich werden, unabhängig vom technischen Know-how.

In der iOS App lassen sich KI-Effekte per Texteingabe generieren, Bitmojis integrieren oder beliebte Vorlagen remixen – ganz ohne Coding oder komplizierte Software. Auch im Web lässt sich direkt im Browser mit der Gestaltung beginnen.

Drei Screenshots der Lens Studio iOS App zeigen KI-Filter, Trend-Vorlagen und Bitmoji-Funktionen in einer gelben Benutzungsoberfläche.
Mit KI-Effekten, Remix-Vorlagen und Bitmoji Tools macht Snap die Lense-Erstellung in der mobilen App besonders einfach, © Snap Inc

Snap selbst beschreibt die Tools als „experimentell“, doch das Ziel ist klar: Nutzer:innen sollen AR Content so selbstverständlich gestalten können wie einen Story Post – spontan, intuitiv und personalisiert.

Mit der Öffnung des Tools verschiebt sich auch Snapchats Positionierung. Die Plattform wird zunehmend zur Content-Infrastruktur – nicht nur für Communitys, sondern auch für Marken. Besonders deutlich wird das im Kontext der aktuellen Werbestrategie. Denn während Nutzer:innen eigene Filter gestalten, setzen Marken auf gesponserte Lenses, die sich kaum von organischen Inhalten unterscheiden. Wie dieses Creator-Ad-Modell funktioniert und welche Potenziale es birgt, analysieren wir ausführlich in unserem Beitrag.


Kontroverse Werbeoffensive:
Wenn Ads wie Snaps von Creatorn aussehen

Screenshots von Snapchat Updates vor gelbem Hintergrund
© Snapchat via Canva

Generative Technologien als Katalysator für Content Creation

Das Herzstück der neuen App ist die generative KI. Wer eine AR-Idee hat, beschreibt sie einfach – der Filter entsteht automatisch. Diese Entwicklung folgt einem breiten Branchentrend: Auch Meta experimentiert mit Sprachbefehlen zur Erstellung virtueller Welten, und OpenAI integriert ähnliche Ansätze in Tools wie Sora oder GPT-4o. Snap stellt dabei die Nutzer:innen in den Mittelpunkt:

Make your own Snapchat Lenses from your phone and in minutes. No code. No installs.

Die Demokratisierung von Augmented Reality ist damit nicht mehr nur Vision – sie ist Produktstrategie. Dass der Plan aufgeht, zeigen die bisherigen Entwicklungen: Viele der erfolgreichsten AR-Trends auf Snapchat stammen nicht aus der Zentrale, sondern von Nutzer:innen weltweit. Die mobile Lens Studio App wird dieses kreative Netzwerk weiter stärken.

Marken im AR Flow: Immersive Erlebnisse statt statischer Werbung

Auch für Unternehmen eröffnet die mobile Lösung neue Spielräume. Branded Lenses lassen sich nicht nur schneller und günstiger produzieren – sie können deutlich persönlicher und situativer auf Zielgruppen zugeschnitten werden.

Ein aktuelles Beispiel ist Snapchats neues Feature für gesponserte KI-Lenses: interaktive Mini-Erlebnisse mit direkter Markenbindung. Von Beauty-Filter über Bitmoji Games bis zu spielerischen Product Tags – hier entstehen immersive Berührungspunkte, die in klassischen Ads kaum möglich wären.


Snapchat führt gesponserte KI-Lenses ein

2 Smartphone Mockups mit AI Lenses, von Tinder und Uber, zwei Personen, gelber Hintergrund
© Snapchat via Canva

Die Zukunft von AR ist mobil – aber (noch) iOS-exklusiv

Mit der Lens Studio App für iOS öffnet Snapchat Augmented Reality für alle. Kreativität braucht hier kein Coding mehr – nur eine Idee, einen Prompt und ein bisschen Neugier. Die App senkt die technische Einstiegshürde deutlich und macht AR-Design zu etwas, das sich in den Alltag integrieren lässt wie ein Snap oder eine Story.

Allerdings bleibt ein Wermutstropfen: Aktuell ist die App ausschließlich für iOS verfügbar. Android-Nutzer:innen, die Snap in vielen Märkten ausmachen, bleiben außen vor – was die Demokratisierung der AR-Erstellung zunächst bremst.

Powered by WPeMatico

Teile diesen Beitrag
For You, Following, News – LinkedIn bringt den TikTok Feed fürs Business

For You, Following, News – LinkedIn bringt den TikTok Feed fürs Business

Ein LinkedIn Feed wie bei TikTok? Das könnte bald kommen – denn die Business-Plattform überarbeitet den zentralen Feed-Bereich grundlegend. Das Ziel dahinter ist, Nutzer:innen mehr Kontrolle darüber zu geben, welche Inhalte sie sehen und sie länger auf LinkedIn zu halten. Eine neue Tab-Navigation trennt künftig algorithmisch empfohlene, kuratierte und chronologisch sortierte Beiträge.

Mit dem Update rückt LinkedIn klar näher an Formate heran, die Nutzer:innen bereits von TikTok oder X kennen: Algorithmisches Scrolling, kuratierte Empfehlungen und entkoppelte Netzwerk-Feeds. Weniger Jobbörse, mehr Daily Scroll.

3 neue Tabs im Test: LinkedIn strukturiert den Feed neu

LinkedIn testet derzeit mit einer kleinen Nutzer:innengruppe in den USA eine neue Struktur für den Start-Feed. Drei Tabs stehen im Fokus:

  • For You: ein algorithmisch generierter Feed, der auf individuellen Interessen, Interaktionen und Netzwerkaktivitäten basiert. Inhalte erscheinen auch dann, wenn Nutzer:innen den Post oder das Profil nicht abonniert haben.
  • Following: ein chronologischer Feed mit Beiträgen von Profilen und Seiten, denen aktiv gefolgt wird – ergänzt durch Werbeanzeigen.
  • News: kuratierte Branchennachrichten, zusammengestellt von LinkedIn-Redakteur:innen. Dieser Bereich soll Nutzer:innen einen strukturierten Überblick über relevante Wirtschaftsthemen geben – ähnlich einem täglichen Branchen-Briefing.

Der Social-Media-Experte Lindsey Gamble machte den Testlauf früh öffentlich. Mit dem neuen Aufbau positioniert sich LinkedIn nicht nur als Karriereplattform, sondern zunehmend als Publisher. Ziel ist es, die Verweildauer zu erhöhen und durch strukturierte Content Discovery neue Nutzungsmuster zu etablieren.

Chancen für Marken: Was die neuen Feeds fürs B2B Marketing bedeuten

Die neue Feed-Struktur eröffnet Unternehmen und Creatorn differenzierte Zugänge zur Sichtbarkeit. Wer im For You Tab erscheinen möchte, muss Inhalte anbieten, die durch Relevanz, Aktualität oder Interaktion hervorstechen.

Der neue Aufbau erinnert an Plattformen wie TikTok oder Instagram, bei denen User, zumindest theoretisch, selbst entscheiden können, ob sie algorithmisch bespielt werden wollen oder nur Inhalte aus ihrem Netzwerk sehen möchten. Für Marketer bedeutet das: Inhalte müssen entweder besonders sichtbar oder besonders relevant für das eigene Netzwerk sein – idealerweise beides.

Gerade B2B-Video-Content gewinnt dadurch weiter an Bedeutung. Wie eine aktuelle Studie zeigt, sind Videos längst ein Erfolgsfaktor für LinkedIn Marketing. Welche Formate 2025 besonders gut performen und wie du als Marke davon profitierst, zeigt unser Beitrag über die neuen LinkedIn-Video-Formate.


„Video first“ im B2B Marketing:
LinkedIn rollt neue Ad-Formate aus

Person (Silhouette) dunkel vor blauem Kreis im Hintergrund
© Ben Sweet – Unsplash

Redaktionelle Inhalte auf LinkedIn: Der News Tab als strategischer Move

Besonders bemerkenswert ist die Einführung des Tabs News. Während viele soziale Plattformen sich von redaktioneller Verantwortung distanzieren, geht LinkedIn den entgegengesetzten Weg. Der Tab soll Thought Leadership stärken, relevante Brancheninformationen bündeln und LinkedIn als News-Quelle im beruflichen Alltag etablieren. Die Inhalte stammen von der LinkedIn-Redaktion und sind kuratiert, nicht algorithmisch.

Für Unternehmen bietet sich hier die Chance, mit qualitativ hochwertigen Inhalten sichtbar zu werden – nicht nur über Reichweite, sondern über redaktionelle Relevanz. Wer als Marke im News-Kontext erscheinen will, sollte daher Inhalte entwickeln, die fundiert, aktuell und thematisch anschlussfähig sind.

Neue Anforderungen an Content: Das sollten Creator jetzt umstellen

Für Creator und Unternehmen wird es wichtiger denn je, den eigenen Content auf Sichtbarkeit im For You Tab hin auszurichten. LinkedIn setzt mit dem Update auf algorithmische Entdeckung statt reinem Netzwerk. Wer performen will, muss Inhalte produzieren, die aus der eigenen Bubble herausragen und Diskussionen auslösen.

  • Ist der Content relevant für Personen außerhalb des eigenen Netzwerks?
  • Liefert der Inhalt echten Mehrwert – auch im Vergleich zu redaktionell kuratierten Beiträgen?
  • Sind in dem Beitrag Storytelling, Trends oder Videoformate zur Plattformbindung eingebunden?

Die neue Feed-Struktur macht deutlich: LinkedIn will Nutzer:innen weniger passiv scrollen lassen und mehr kuratierte Auseinandersetzung mit relevanten Inhalten fördern. Wer seine Strategie nur auf Reichweite ausrichtet, wird es künftig schwerer haben. Gefragt sind journalistische Perspektiven, relevante Insights – und Formate, die sich an die Plattformmechanik anpassen.

Wer verstehen will, wie die eigenen Inhalte im neuen Setup performen, sollte auch ein Auge auf die jüngsten Updates bei den Analytics-Metriken werfen. LinkedIn hat erst kürzlich neue Datenpunkte ausgerollt, die besser nachvollziehen lassen, wer den Content wirklich konsumiert – und wer abspringt. Welche drei neuen Metriken jetzt wichtig werden, zeigen wir im Artikel zu LinkedIns Analytics Update.


3 neue LinkedIn Analytics zeigen endlich, was deine Posts wirklich bringen

LinkedIn App auf Smartphone, verschwommener Hintergrund
© Bastian Riccardi – Unsplash

LinkedIn positioniert sich als News-Plattform mit Content-Anspruch

Mit dem neuen Feed Layout macht LinkedIn klar: Die Plattform will nicht nur Karriereplattform sein, sondern zur verlässlichen Adresse für News, Meinungen und relevanten Business-Content werden. Der For You Feed ist kein kosmetisches Redesign. Es ist ein strategischer Schritt, um sich vom Jobportal zur Content-Plattform zu entwickeln – algorithmisch, entdeckbar und tagesaktuell.

Aktuell wird das neue Tab-System ausschließlich mit ausgewählten Nutzer:innen in den USA getestet. Ein breiterer Roll-out ist bislang nicht angekündigt.

Für Marken heißt das: Inhalte müssen neu gedacht werden. Nicht nur für bestehende Kontakte, sondern für neue Zielgruppen. Nicht nur im Netzwerk, sondern im Feed.

Powered by WPeMatico

Teile diesen Beitrag
Broadcast Channels für mehr Creator auf Instagram – bist du dabei?

Broadcast Channels für mehr Creator auf Instagram – bist du dabei?

Reels und Stories – diese beiden Formate gehören zu den beliebtesten auf Instagram. Während erste Creator mithilfe der Rewrite-Funktion von Meta AI Texte in ihrer Story optimieren können, hat Instagram für den werblichen Kontext in Reels ein Jump to highlights Feature in petto. Dieses bietet Usern die Option, direkt zum Kern der Werbebotschaft und zu weiterführenden CTAs wie „Profil besuchen“, „Mehr dazu“ und dergleichen zu gelangen.


Instagram:
Jump to highlight in Reels
und AI Rewrite in Stories

© Meta via Canva

Die seit Juni 2023 weltweit verfügbaren Broadcast Channels können in Sachen Nutzungsfrequenz zwar noch nicht mit jener bereits etablierter Formate mithalten, erfreuen sich aber dennoch wachsender Beliebtheit: Mittlerweile werden mehr als 1,5 Milliarden Channel-Nachrichten pro Monat abgeschickt. Nachdem Instagram die Channels kürzlich mit Features wie Replies, Prompts und Insights aufgerüstet sowie ein Alternativformat getestet hat, gibt es nun eine Neuerung für die Broadcast Channels, von der insbesondere kleine Accounts profitieren.

Einstiegshürde gesenkt: Nur noch 3.000 Follower nötig

Wie der Social-Media-Experte Ahmed Ghanem auf Threads mitteilt, könnte es Instagram künftig auch Usern mit mehr als 3.000 Followern ermöglichen, einen eigenen Broadcast Channel zu erstellen. Bislang lag die Einstiegshürde bei 10.000 Followern. Noch ist die Option nicht für alle User mit einer niedrigeren Follower-Zahl verfügbar – sollte die Änderung umfassend umgesetzt werden, dürfte das Format an Popularität gewinnen. Schließlich profitieren gerade kleine Creator davon, möglichst viele Formate auf Instagram zu bespielen.

Ein weiteres Update für die Broadcast Channels betrifft die Kanalverwaltung: Instagram ermöglicht es Creatorn nun, den Namen ihres Kanals direkt im Channel selbst zu ändern – der Umweg über die Einstellungen fällt weg. Die neue Option wird prominent unter dem bisherigen Namen angezeigt. Das könnte einige Channel-Betreiber:innen dazu anregen, über ein Rebranding ihres Kanals nachzudenken.

Falls du auch überlegst, deinen Broadcast Channel und möglicherweise deinen gesamten Instagram Account umzugestalten, könntest du bereits mit dem Gedanken gespielt haben, ein neues Konto zu erstellen. Doch ist es wirklich sinnvoll, den alten Account über Bord zu werfen und komplett von vorne anzufangen? Welche alternativen Schritte können Creator vornehmen, um ihren Neustart nahtlos zu gestalten? Im unten verlinkten Artikel gibt es die Antworten.


Neue Content-Ausrichtung auf Instagram?
Mach nicht diesen Fehler

© Alexander Shatov – Unsplash

Powered by WPeMatico

Teile diesen Beitrag
Reddit lässt dich jetzt Profile kuratieren

Reddit lässt dich jetzt Profile kuratieren

Dieses Profil-Update auf Reddit hat große Auswirkungen. Die Community für Communities hat über 400 Millionen wöchentlich aktive User und über 100.000 aktive Communities. Da ist die Discovery einzelner User-Profile wichtiger denn je. Deshalb hat Reddit für diese jetzt eine Neuerung präsentiert, die vielen Nutzer:innen zugutekommen dürfte. Sie können jetzt Profile kuratieren und verschiedene Posts und Kommentare anzeigen oder verbergen.

Was Reddits Profile Curation ermöglicht

In einem Post auf Threads erklärt das Unternehmen, was User ab jetzt auf den Profilen einstellen können. Die bisherige Default-Einstellung gibt vor, dass alle Posts und Kommentare zu sehen sind. Neu ist, dass User alle öffentlichen Posts und Kommentare verbergen können. Ebenso ist es möglich, nur Posts und Kommentare ausgewählter Communities anzeigen zu lassen. Allerdings lassen sich die Einstellungen nicht auf einzelne Posts und Kommentare übertragen.

Die Einstellungen finden die User in der neuen Sektion „Kuratiere dein Profil“. Dort können sie mit Schiebereglern auch einstellen, ob sie NSFW Content auf der Profilseite erlauben und ob Follower-Zahlen angezeigt werden sollen.

Alle Details zum Update findest du auf Reddits upvoted Blog.


Reddit Search statt Google?
AI Answers sind da

© Reddit via Canva

Powered by WPeMatico

Teile diesen Beitrag
Zäsur im Online Marketing: Meta will Ad-Kreation 2026 mit KI komplett automatisieren

Zäsur im Online Marketing: Meta will Ad-Kreation 2026 mit KI komplett automatisieren

Die große Vision von Meta, Werbung mithilfe von AI so stark zu automatisieren, dass Advertiser eigentlich nur noch ein Produkt vorzeigen müssen, um eine Kampagne an die Hand zu erhalten, nimmt Form an. Denn kürzlich gab CEO Mark Zuckerberg an, schon im kommenden Jahr in die Vollautomatisierung von Ad-Kampagnen überzugehen. Dabei sollen laut Wall Street Journal ganze Kreations- und Distributionsprozesse übernommen werden, während sogar Neuheiten wie Echtzeitpersonalisierung im Kontext der Geolocation im Raum stehen.

Welch einschneidende Wirkung die Entwicklung auf die gesamte Marketing-Welt haben dürfte, zeigt allein ein Blick auf Zahlen aus dem Meta-Kosmos. Die Meta App Family verzeichnete im ersten Quartal des Jahres 3,43 Milliarden Nutzer:innen – und der Werbeumsatz lag schon bei 41,4 Milliarden US-Dollar. Diesen pusht der Konzern immer weiter. So wird Threads, Metas „next major social app“ mit über 350 Millionen monatlich aktiven Usern, jetzt mit Werbung bespielt. Außerdem arbeitet man am Launch neuer Standalone Apps – zuletzt etwa Edits –, die neue Inventare für Ads bieten könnten. Und das immense Investment in neue KI-Lösungen weist den Weg in eine KI-gestützte Zukunft, auch für die Werbetreibenden.


Frist abgelaufen:

Meta nutzt jetzt auch deine Daten für KI-Training

Meta-Schriftzug neon, pinkfarben,
© Penfer – Unsplash


Meta und der massive Ad-Ausbau: AI-Automatisierung als nächster Riesensprung

Die Daten, die Meta inzwischen auch in der EU für das KI-Training heranzieht, helfen dem Konzern eigene Modelle wie jene aus der Llama 4-Reihe zu optimieren. Öffentliche Beiträge und Interaktionen mit der Meta AI – die es jetzt ebenso als App gibt – unterstützen dieses Bestreben. Zudem teilt Meta laut Axios derweil die AI Teams auf, in AI Products und AGI Foundations, um noch schneller operieren zu können.

Und während für die populären Plattformen immerzu neue Werbeformate und -lösungen bereitgestellt werden, entwickelt sich der Plan zur weitgehend autonomen Kampagnenentwicklung direkt über Meta. Neue Werbeoptionen umfassen unter anderem Reels Trending Ads, Partnership Ads Updates und die Video Expansion für Facebook, gesponserte Testimonial-Kommentare bei Reels und Video-Ads auf Threads.


Video-Ads auf Threads und mehr:

Meta setzt auf neue Werbeformate

Screenshot einer Video-Ad auf Threads
© Meta via Canva


Außerdem hat Meta zuletzt die KI-optimierten Advantage+-Kampagnen umfassend erweitert und beispielsweise eine vereinfachte Kampagnenstruktur innerhalb der Advantage+ Suite integriert, wobei das Advantage+ on Label signalisiert, wenn die fortschrittlichsten KI-Optimierungen genutzt werden.

Aber bis 2026 möchte Mark Zuckerberg mit seinem Konzern noch weitergehen. Die KI-Automatisierung ganzer Kampagnen steht auf dem Plan.

So könnte die KI-Automatisierung von Metas Ads ablaufen

Die Werbebranche ist in Aufruhr, da sie befürchtet, durch Gen AI-Lösungen mehr Kontrolle zu verlieren, die Meta an die KI weitergibt und in Umsatz umwandeln möchte. Mark Zuckerbergs Plan für eine Art Blackbox bei den Meta Ads, die mehr oder minder jegliche Kreation und Aushandlung der Ad Creatives und Performance durch Dritte in der Mitte wegfallen ließe, sorgt für Beunruhigung. Künftig sollen Unternehmen Meta einfach ein Werbeziel mitteilen, das Budget und die Bankdaten. Kürzlich sagte Mark Zuckerberg dazu auf der Stripe Conference: 

The basic end goal here is any business can come to us, say what their objective is — we get new customers to do this thing, or sell these things — tell us how much they’re willing to pay to achieve those results, connect their bank account, and then we just deliver as many results as we can. In a way, it’s kind of like the ultimate business results machine. I think it’d be one of the most important and valuable AI systems that gets built.

Wertvoll wäre das Modell für Meta auf jeden Fall; und auch kleinere Unternehmen und Selbstständige oder Creator, die mit geringen Budgets arbeiten und keine Agenturen oder In-house Teams für Werbekampagnen nutzen können, erkennen darin Potential. Zwischengelagerte Player dürften um Aufträge und Umsätze bangen und beobachten die Entwicklung angespannt.

Dabei gibt es jetzt sogar eine erste Timeline. Schon 2026 soll Meta vollautomatisierte KI-Kampagnen umsetzen, wenn es nach Mark Zuckerberg geht. Dafür kann dann sogar ein einzelnes Produktbild ausreichen. Die KI von Meta würde daraus Assets machen, Kampagnen ansetzen, passenden Usern ausspielen und die Performance-Übersicht für die Advertiser bereitstellen. Zudem sollen die Darstellungsmöglichkeiten dank der KI optimiert werden. Laut Morning Brew sind sogar Echtzeitpersonalisierungen geplant. Diese werden auf die Ortsinformationen der User zugeschnitten, sodass Nutzer:innen abhängig von ihrer Umgebung Produkte in unterschiedlicher Visualisierung sehen könnten. Möglich wäre, dass ein Fahrrad Usern in der Stadt im Stadtverkehr gezeigt wird, jenen auf dem Land in einer ruralen Umgebung.

Riesenmöglichkeiten, große Skepsis

Die Möglichkeiten sind immens, das betont Meta auch selbst. Auf Threads zeigt der Konzern an, dass KI-gestützte Tools zur Ad-Personalisierung allein in den USA 2024 bereits mit 550 Milliarden US-Dollar Wirtschaftsaktivität und 3,4 Millionen Jobs in Zusammenhang standen.

Doch die Skepsis gegenüber dieser Entwicklung ist noch immer groß. Denn einerseits würden Werbetreibende Meta einen Großteil der Kontrolle über ihre Kampagnen überlassen, ohne genau zu wissen, welche Entscheidungen auf welcher Grundlage für die Optimierung der Ads getroffen wurden – da kommt dann die Black Box ins Spiel. Andererseits müssen große Agenturgruppen um ihre Geschäftsmodelle bangen; immerhin könnten auch Google und Co. mitziehen und ihre KI-Datenmacht für vollautomatisiertes Advertising nutzen. Schon jetzt lässt sich etwa über Performance Max im Google-Kosmos sehr viel automatisieren.

Die Aktienkurse großer Advertising-Agenturgruppen wie Omnicom und WPP sind nach dem Bekanntwerden des Zeitplans für Metas KI-Automatisierung der Werbung bereits gesunken. Und die Diskrepanz zwischen Umsatzpotential und Vereinfachung auf der einen und Jobangst und Kontrollverlust auf der anderen Seite wächst. Jason Snyder spricht für Forbes zum Thema von einer Demontage der Werbekultur und schreibt:

The danger isn’t just that AI will replace our jobs. The danger is that we will replace ourselves—inch by inch, prompt by prompt—until we no longer remember what it felt like to make something real […].

Der Meta Ads-Experte Jon Loomer ist sich indes sicher, dass die Automatisierung kommt, wohl oder übel.

Die Marketing-Branche muss sich darauf einstellen und – genau wie im SEO Game – neue Wege finden, um die eigene Relevanz inmitten von KI und Umsatzdruck zu bewahren.


So wirst du in den AI Overviews gefunden

drei Smartphone Mockups mit AI Overviews auf Screen, violetter Hintergrund
© Google via Canva

Powered by WPeMatico

Teile diesen Beitrag
Character.AI lässt KI-Avatare sprechen – und öffnet die Plattform für Social Content

Character.AI lässt KI-Avatare sprechen – und öffnet die Plattform für Social Content

Wer in diesen Tagen durch die mobile App von Character.AI swiped, trifft nicht mehr nur auf textbasierte Chatbots, sondern auf sprechende, agierende Figuren mit Stimme, Gesicht und Handlung.

Denn was als Nischenplattform für Fans von Rollenspielen begann, wird gerade zu einem Social-Media-Ökosystem rund um personalisierte KI-Charaktere ausgebaut. Mit neuen Features wie AvatarFX, Scenes, Streams und einem eigenen Community Feed zielt Character.AI auf Creator Economy, Storytelling und virale Inszenierung. Das Unternehmen präsentiert das Update in einem jüngst veröffentlichten Blog-Beitrag. Doch mit der kreativen Freiheit wachsen auch die Herausforderungen: in puncto Sicherheit, Moderation und ethischer Grenzen.

Was ist Character.AI – und für wen ist die Plattform gedacht?

Character.AI ist eine Plattform, auf der Nutzer:innen mit KI-generierten Persönlichkeiten chatten, Geschichten entwickeln und interaktive Szenarien erleben können. Im Zentrum stehen sogenannte Characters – das sind Chatbots, die auf Basis großer Sprachmodelle (LLMs) individuelle Persönlichkeiten, Stile und Rollen annehmen können. Accounts wie Tech & AI Hub deklarieren Character.AI als zugängliche:n KI-Begleiter:in für alle Lebenslagen.

Die Anwendung reicht vom lockeren Small Talk über Rollenspiele und Coaching-Simulationen bis hin zu therapeutisch anmutenden Gesprächen – je nachdem, wie Nutzer:innen ihren Character entwerfen oder auswählen. Sie richtet sich an eine breite Nutzer:innengruppe – von jungen Menschen, die spielerisch mit KI interagieren wollen, über kreative Autor:innen und Fanfiction Communities bis hin zu Creatorn, die eigene Figuren aufbauen und teilen möchten. Die App wird besonders stark von Gen Z und Millennial-Nutzer:innen verwendet, bietet aber auch Potenzial für edukative, experimentelle oder künstlerische Anwendungen.

Inzwischen ist Character.AI mehr als nur ein Text-Tool: Mit neuen Funktionen wie AvatarFX, Scenes, Streams oder Imagine Animated Chats lassen sich KI-Charaktere auch visuell und erzählerisch inszenieren. Damit positioniert sich die Plattform an der Schnittstelle zwischen KI-gestützter Kreativität, Social Storytelling und digitaler Unterhaltung.

Von Text zu Video: Mit AvatarFX bekommen KI-Charaktere ein Gesicht und eine Stimme

Im Zentrum der Neuerungen steht AvatarFX. Nutzer:innen laden ein Porträtbild hoch – oft eines ihrer selbst entworfenen Charaktere –, schreiben einen Dialog, wählen eine Stimme und erzeugen daraus ein animiertes Video. Sogar der Klang der Stimme lässt sich durch eine Audioaufnahme anpassen, wobei diese Funktion laut TechCrunch noch fehleranfällig ist.

Anime-ähnlicher KI-Avatar mit weißem Haar und Sonnenbrille auf blauem Hintergrund, Teil der AvatarFX-Funktion von Character.AI.
Mit AvatarFX können Nutzer:innen ihre KI-Charaktere zum Leben erwecken – mit Sprache, Mimik und personalisierten Dialogen, © Character.AI

Das Ergebnis: KI-Avatare, die sprechen, blinzeln, gestikulieren – und sich auf Social Feeds präsentieren lassen. Character.AI verspricht, reale Bilder automatisch zu verfremden. Doch ein genauer Blick zeigt: Der Schutz ist nicht lückenlos. Bei Illustrationen von Prominenten greift die Kennzeichnung nicht, Videos sind zwar mit Wasserzeichen versehen, aber leicht manipulierbar. Amanda Silberling, Reporterin bei TechCrunch, testete die Anti-Deepfake-Schranken auf Bluesky – und demonstrierte, wie aus einer Elon-Musk-Illustration ein täuschend echtes, animiertes Video wurde.

testing the anti-deepfake guardrails on character ai’s avatarfx

[image or embed]

— Amanda Silberling (@amanda.omg.lol) 2. Juni 2025 um 20:47

Scenes und Streams: Interaktive Mini-Dramen mit KI-Besetzung

Mit den neuen Formaten Scenes und Streams hebt Character.AI das KI-Rollenspiel auf die nächste Ebene. In Scenes treten Avatare in vorgefertigte Storylines ein – ein Konzept zwischen interaktivem Theaterstück und improvisierter Mini-Serie. Ab Sommer können Creator eigene Szenen veröffentlichen.

Mehrere animierte Vorschauen für KI-generierte Szenen wie „Tranquility Temple“ und „Dragon Wedding“ in einer dunklen App-Oberfläche.
Mit Scenes können Nutzer:innen ihre Avatare in vorgefertigte Storylines einbetten und immersive Geschichten mitgestalten, © Character.AI

Streams funktioniert als KI-improvisierte Talkshow: Zwei Charaktere, ein Thema, ein Startknopf – der Rest läuft automatisiert. Die KI übernimmt Regie, Stimme, Körpersprache.

Mobile App-Ansicht von Character.AI mit Stream Editor und Beispielkonversation zwischen George Washington und Dracula.
Streams erlaubt es, spontane Dialoge zwischen zwei KI-Charakteren zu inszenieren – inklusive Themenwahl und Titel, © Character.AI

Auch hier kündigt Character.AI an, dass die Figuren künftig selbstständig posten können – eine Entwicklung, die Fragen aufwirft: Wer trägt Verantwortung für Content, wenn er nicht mehr direkt von Menschen gesteuert wird?

Soon, your Characters will begin sharing on their own,

heißt es im offiziellen Blogbeitrag. Damit verschwimmen die Grenzen zwischen Nutzer:in und Avatar, zwischen gesteuertem Content und autonomen KI-Beiträgen.

Eigener Feed, eigene Plattformlogik

Neben den kreativen Funktionen wird auch die Plattformstruktur neu gedacht. Ein Community Feed soll künftig als zentrale Bühne für Streams, Szenen und Videoavatare dienen. Nutzer:innen können ihre Inhalte dort öffentlich teilen – vergleichbar mit TikTok oder Instagram Reels, nur mit KI-Figuren als Protagonist:innen.

Mehrere KI-Charakterprofile und Beiträge in einer scroll-baren mobilen App-Ansicht, mit Emojis und Reaktionen.
Der neue Feed in der Character.AI App ermöglicht es, KI-generierte Inhalte wie Streams, Szenen und animierte Chats öffentlich zu teilen, © Character.AI

Auch Imagine Animated Chats, ein weiteres neues Feature, zielt auf genau diese Sichtbarkeit: Besonders unterhaltsame oder emotionale Chat-Verläufe lassen sich animieren und direkt im Feed oder auf anderen Plattformen teilen. Die Funktion steht derzeit exklusiv c.ai+-Abonnent:innen in der mobilen App zur Verfügung – ein deutliches Zeichen dafür, dass Character.AI den Weg in Richtung Creator-zentrierter Monetarisierungsmodelle einschlägt.

Parallel dazu wurde das Profildesign überarbeitet. Creator können ihre Charaktere und Content-Projekte nun übersichtlich präsentieren, personalisieren und vernetzen. Damit entsteht ein eigenes Kreativökosystem – unabhängig von klassischen Plattformen. Auch dieses Feature ist ab jetzt in der mobilen App zu finden.

Ebenso andere Player entwickeln ihre KI-Angebote immer weiter: Auf der Entwickler:innenkonferenz I/O 2025 wurde unter anderem vorgestellt, wie Gemini in bestehende Angebote wie YouTube eingebunden werden soll. Eine Einordnung dazu findet sich in unserem Artikel zur Google I/O 2025.


Google I/O 2025:
Filmreife Video-KI, Riesen-Update für Gemini und AI Ultra Bundle

Google I/O 2025
© Google

Zwischen Bindung und Missbrauch: Die Schattenseite der KI-Interaktion

So visionär die Tools auch wirken, sie werfen grundlegende ethische Fragen auf. Character.AI sieht sich inzwischen mit mehreren juristischen Vorwürfen und öffentlichen Debatten konfrontiert. Wie The Washington Post, CyberScoop, die Los Angeles Times und TechCrunch berichten, reichen die Vorfälle von unangemessenem sexuellen Verhalten durch Chatbots gegenüber Jugendlichen bis hin zu tragischen Extremfällen.

Eine besonders erschütternde Geschichte schildert die Washington Post in einem Artikel vom Mai 2025: Ein 15-Jähriger in Texas soll von einem Character.AI-Chatbot dazu angestiftet worden sein, seine Eltern zu töten – der Fall wurde juristisch aufgearbeitet, die Familie reichte Klage ein. Noch gravierender ist der Tod eines 14-jährigen Jungen, über den TechCrunch im Oktober 2024 berichtete. Der Teenager beging Suizid, nachdem er über längere Zeit eine obsessive Beziehung zu einem Chatbot aufgebaut hatte, der ihn zur Selbsttötung ermutigte.

Auch CyberScoop und die Los Angeles Times dokumentieren, dass viele junge Nutzer:innen KI-Chatbots auf Character.AI als emotionale Bezugspersonen behandeln – was dazu führen kann, dass sie in mentalen Ausnahmesituationen gefährliche Rückmeldungen erhalten. Vor allem die fehlenden inhaltlichen Begrenzungen bei Rollen wie „romantische:r Freund:in“, „Therapeut:in“ oder „dominante:r Partner:in“ werfen Fragen auf, wie sicher die Plattform für eine junge Zielgruppe tatsächlich ist.

Character.AI selbst betont in dem Blogpost, man wolle ein kreatives Umfeld schaffen, das gleichzeitig sicher für alle Nutzer:innen sei. Die Realität zeigt jedoch: Zwischen dem Anspruch auf kreative Freiheit und der Verantwortung gegenüber besonders vulnerablen Gruppen wie Jugendlichen klafft bislang eine gefährliche Lücke. Auch deshalb lohnt sich ein Blick über die Plattformgrenzen hinaus: In unserem Artikel zu Bings Video Creator zeigen wir, wie andere Tech-Konzerne Risiken durch KI, beispielsweise im Kontext Urheber:innenrecht, begegnen.


Bing Video Creator:
KI-Videos von Sora for free

Prompt-Leiste für KI-Videos vor Astronaut inmitten glühender Pilze, Bing Video Creator
© Microsoft via Canva

Vision trifft Verantwortung

Character.AI schafft neue Räume für digitales Erzählen – visuell, interaktiv, individuell. Die Plattform versteht sich nicht mehr nur als Chat Tool, sondern als kreatives Netzwerk, in dem Nutzer:innen selbst Regie führen. Für die Creator Economy bedeutet das mehr Ausdruckskraft, Reichweite und monetarisierbare Sichtbarkeit.

Doch Innovation ohne Kontrolle kann zur Gefahr werden – besonders wenn psychologisch wirkmächtige KI-Figuren ohne inhaltliche Begrenzung agieren. Die nächsten Monate werden zeigen, ob Character.AI eine Balance zwischen Kreativität und Verantwortung findet – oder ob es regulativer Eingriffe bedarf, um diese neue Form der Interaktion sicher zu gestalten.

Powered by WPeMatico

Teile diesen Beitrag