Cases
Character.AI lässt KI-Avatare sprechen – und öffnet die Plattform für Social Content

Character.AI lässt KI-Avatare sprechen – und öffnet die Plattform für Social Content

Larissa Ceccio | 04.06.25

Avatare, die sprechen, posten und Szenen spielen: Character.AI erweitert die eigene Plattform unter anderem um Videoavatare, Szenen und Streams. Was Creator begeistert, wirft ethische Fragen auf.

Wer in diesen Tagen durch die mobile App von Character.AI swiped, trifft nicht mehr nur auf textbasierte Chatbots, sondern auf sprechende, agierende Figuren mit Stimme, Gesicht und Handlung.

Denn was als Nischenplattform für Fans von Rollenspielen begann, wird gerade zu einem Social-Media-Ökosystem rund um personalisierte KI-Charaktere ausgebaut. Mit neuen Features wie AvatarFX, Scenes, Streams und einem eigenen Community Feed zielt Character.AI auf Creator Economy, Storytelling und virale Inszenierung. Das Unternehmen präsentiert das Update in einem jüngst veröffentlichten Blog-Beitrag. Doch mit der kreativen Freiheit wachsen auch die Herausforderungen: in puncto Sicherheit, Moderation und ethischer Grenzen.

Was ist Character.AI – und für wen ist die Plattform gedacht?

Character.AI ist eine Plattform, auf der Nutzer:innen mit KI-generierten Persönlichkeiten chatten, Geschichten entwickeln und interaktive Szenarien erleben können. Im Zentrum stehen sogenannte Characters – das sind Chatbots, die auf Basis großer Sprachmodelle (LLMs) individuelle Persönlichkeiten, Stile und Rollen annehmen können. Accounts wie Tech & AI Hub deklarieren Character.AI als zugängliche:n KI-Begleiter:in für alle Lebenslagen.

Die Anwendung reicht vom lockeren Small Talk über Rollenspiele und Coaching-Simulationen bis hin zu therapeutisch anmutenden Gesprächen – je nachdem, wie Nutzer:innen ihren Character entwerfen oder auswählen. Sie richtet sich an eine breite Nutzer:innengruppe – von jungen Menschen, die spielerisch mit KI interagieren wollen, über kreative Autor:innen und Fanfiction Communities bis hin zu Creatorn, die eigene Figuren aufbauen und teilen möchten. Die App wird besonders stark von Gen Z und Millennial-Nutzer:innen verwendet, bietet aber auch Potenzial für edukative, experimentelle oder künstlerische Anwendungen.

Inzwischen ist Character.AI mehr als nur ein Text-Tool: Mit neuen Funktionen wie AvatarFX, Scenes, Streams oder Imagine Animated Chats lassen sich KI-Charaktere auch visuell und erzählerisch inszenieren. Damit positioniert sich die Plattform an der Schnittstelle zwischen KI-gestützter Kreativität, Social Storytelling und digitaler Unterhaltung.

Von Text zu Video: Mit AvatarFX bekommen KI-Charaktere ein Gesicht und eine Stimme

Im Zentrum der Neuerungen steht AvatarFX. Nutzer:innen laden ein Porträtbild hoch – oft eines ihrer selbst entworfenen Charaktere –, schreiben einen Dialog, wählen eine Stimme und erzeugen daraus ein animiertes Video. Sogar der Klang der Stimme lässt sich durch eine Audioaufnahme anpassen, wobei diese Funktion laut TechCrunch noch fehleranfällig ist.

Anime-ähnlicher KI-Avatar mit weißem Haar und Sonnenbrille auf blauem Hintergrund, Teil der AvatarFX-Funktion von Character.AI.
Mit AvatarFX können Nutzer:innen ihre KI-Charaktere zum Leben erwecken – mit Sprache, Mimik und personalisierten Dialogen, © Character.AI

Das Ergebnis: KI-Avatare, die sprechen, blinzeln, gestikulieren – und sich auf Social Feeds präsentieren lassen. Character.AI verspricht, reale Bilder automatisch zu verfremden. Doch ein genauer Blick zeigt: Der Schutz ist nicht lückenlos. Bei Illustrationen von Prominenten greift die Kennzeichnung nicht, Videos sind zwar mit Wasserzeichen versehen, aber leicht manipulierbar. Amanda Silberling, Reporterin bei TechCrunch, testete die Anti-Deepfake-Schranken auf Bluesky – und demonstrierte, wie aus einer Elon-Musk-Illustration ein täuschend echtes, animiertes Video wurde.

testing the anti-deepfake guardrails on character ai's avatarfx

[image or embed]

— Amanda Silberling (@amanda.omg.lol) 2. Juni 2025 um 20:47

Scenes und Streams: Interaktive Mini-Dramen mit KI-Besetzung

Mit den neuen Formaten Scenes und Streams hebt Character.AI das KI-Rollenspiel auf die nächste Ebene. In Scenes treten Avatare in vorgefertigte Storylines ein – ein Konzept zwischen interaktivem Theaterstück und improvisierter Mini-Serie. Ab Sommer können Creator eigene Szenen veröffentlichen.

Mehrere animierte Vorschauen für KI-generierte Szenen wie „Tranquility Temple“ und „Dragon Wedding“ in einer dunklen App-Oberfläche.
Mit Scenes können Nutzer:innen ihre Avatare in vorgefertigte Storylines einbetten und immersive Geschichten mitgestalten, © Character.AI

Streams funktioniert als KI-improvisierte Talkshow: Zwei Charaktere, ein Thema, ein Startknopf – der Rest läuft automatisiert. Die KI übernimmt Regie, Stimme, Körpersprache.

Mobile App-Ansicht von Character.AI mit Stream Editor und Beispielkonversation zwischen George Washington und Dracula.
Streams erlaubt es, spontane Dialoge zwischen zwei KI-Charakteren zu inszenieren – inklusive Themenwahl und Titel, © Character.AI

Auch hier kündigt Character.AI an, dass die Figuren künftig selbstständig posten können – eine Entwicklung, die Fragen aufwirft: Wer trägt Verantwortung für Content, wenn er nicht mehr direkt von Menschen gesteuert wird?

Soon, your Characters will begin sharing on their own,

heißt es im offiziellen Blogbeitrag. Damit verschwimmen die Grenzen zwischen Nutzer:in und Avatar, zwischen gesteuertem Content und autonomen KI-Beiträgen.

Eigener Feed, eigene Plattformlogik

Neben den kreativen Funktionen wird auch die Plattformstruktur neu gedacht. Ein Community Feed soll künftig als zentrale Bühne für Streams, Szenen und Videoavatare dienen. Nutzer:innen können ihre Inhalte dort öffentlich teilen – vergleichbar mit TikTok oder Instagram Reels, nur mit KI-Figuren als Protagonist:innen.

Mehrere KI-Charakterprofile und Beiträge in einer scroll-baren mobilen App-Ansicht, mit Emojis und Reaktionen.
Der neue Feed in der Character.AI App ermöglicht es, KI-generierte Inhalte wie Streams, Szenen und animierte Chats öffentlich zu teilen, © Character.AI

Auch Imagine Animated Chats, ein weiteres neues Feature, zielt auf genau diese Sichtbarkeit: Besonders unterhaltsame oder emotionale Chat-Verläufe lassen sich animieren und direkt im Feed oder auf anderen Plattformen teilen. Die Funktion steht derzeit exklusiv c.ai+-Abonnent:innen in der mobilen App zur Verfügung – ein deutliches Zeichen dafür, dass Character.AI den Weg in Richtung Creator-zentrierter Monetarisierungsmodelle einschlägt.

Parallel dazu wurde das Profildesign überarbeitet. Creator können ihre Charaktere und Content-Projekte nun übersichtlich präsentieren, personalisieren und vernetzen. Damit entsteht ein eigenes Kreativökosystem – unabhängig von klassischen Plattformen. Auch dieses Feature ist ab jetzt in der mobilen App zu finden.

Ebenso andere Player entwickeln ihre KI-Angebote immer weiter: Auf der Entwickler:innenkonferenz I/O 2025 wurde unter anderem vorgestellt, wie Gemini in bestehende Angebote wie YouTube eingebunden werden soll. Eine Einordnung dazu findet sich in unserem Artikel zur Google I/O 2025.


Google I/O 2025:
Filmreife Video-KI, Riesen-Update für Gemini und AI Ultra Bundle

Google I/O 2025
© Google


Zwischen Bindung und Missbrauch: Die Schattenseite der KI-Interaktion

So visionär die Tools auch wirken, sie werfen grundlegende ethische Fragen auf. Character.AI sieht sich inzwischen mit mehreren juristischen Vorwürfen und öffentlichen Debatten konfrontiert. Wie The Washington Post, CyberScoop, die Los Angeles Times und TechCrunch berichten, reichen die Vorfälle von unangemessenem sexuellen Verhalten durch Chatbots gegenüber Jugendlichen bis hin zu tragischen Extremfällen.

Eine besonders erschütternde Geschichte schildert die Washington Post in einem Artikel vom Mai 2025: Ein 15-Jähriger in Texas soll von einem Character.AI-Chatbot dazu angestiftet worden sein, seine Eltern zu töten – der Fall wurde juristisch aufgearbeitet, die Familie reichte Klage ein. Noch gravierender ist der Tod eines 14-jährigen Jungen, über den TechCrunch im Oktober 2024 berichtete. Der Teenager beging Suizid, nachdem er über längere Zeit eine obsessive Beziehung zu einem Chatbot aufgebaut hatte, der ihn zur Selbsttötung ermutigte.

Auch CyberScoop und die Los Angeles Times dokumentieren, dass viele junge Nutzer:innen KI-Chatbots auf Character.AI als emotionale Bezugspersonen behandeln – was dazu führen kann, dass sie in mentalen Ausnahmesituationen gefährliche Rückmeldungen erhalten. Vor allem die fehlenden inhaltlichen Begrenzungen bei Rollen wie „romantische:r Freund:in“, „Therapeut:in“ oder „dominante:r Partner:in“ werfen Fragen auf, wie sicher die Plattform für eine junge Zielgruppe tatsächlich ist.

Character.AI selbst betont in dem Blogpost, man wolle ein kreatives Umfeld schaffen, das gleichzeitig sicher für alle Nutzer:innen sei. Die Realität zeigt jedoch: Zwischen dem Anspruch auf kreative Freiheit und der Verantwortung gegenüber besonders vulnerablen Gruppen wie Jugendlichen klafft bislang eine gefährliche Lücke. Auch deshalb lohnt sich ein Blick über die Plattformgrenzen hinaus: In unserem Artikel zu Bings Video Creator zeigen wir, wie andere Tech-Konzerne Risiken durch KI, beispielsweise im Kontext Urheber:innenrecht, begegnen.


Bing Video Creator:
KI-Videos von Sora for free

Prompt-Leiste für KI-Videos vor Astronaut inmitten glühender Pilze, Bing Video Creator
© Microsoft via Canva


Vision trifft Verantwortung

Character.AI schafft neue Räume für digitales Erzählen – visuell, interaktiv, individuell. Die Plattform versteht sich nicht mehr nur als Chat Tool, sondern als kreatives Netzwerk, in dem Nutzer:innen selbst Regie führen. Für die Creator Economy bedeutet das mehr Ausdruckskraft, Reichweite und monetarisierbare Sichtbarkeit.

Doch Innovation ohne Kontrolle kann zur Gefahr werden – besonders wenn psychologisch wirkmächtige KI-Figuren ohne inhaltliche Begrenzung agieren. Die nächsten Monate werden zeigen, ob Character.AI eine Balance zwischen Kreativität und Verantwortung findet – oder ob es regulativer Eingriffe bedarf, um diese neue Form der Interaktion sicher zu gestalten.

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*