Neulich im Facebook-Feed einer Freundin: der Repost eines herzergreifendes Videos, in dem eine kuschelige Langhaar-Katze in das Bettchen eines weinendes Babies springt und sich an das Baby ankuschelt, das daraufhin das Weinen einstellt. So süß.
Ich war trotzdem skeptisch und klickte direkt auf den Kanal des Urhebers. Und war nicht verwundert darüber, was ich dort vorfand. Das gleiche Video in zig verschiedenen Ausführungen, immer dieselbe Szene: Babybett, weinendes Baby und eine Langhaarkatze, die mit der ein oder anderen Geste das Baby beruhigt.
Unter jedem Video ein dicker Button mit dem Aufruf, ein Abo des Kanals abzuschließen und ihn damit zu unterstützen (1,99 Euro im Monat). Wie viele Menschen diesem Aufruf gefolgt sind, ist nicht ersichtlich, wohl aber, dass der Kanal knapp 65 Tausend Follower hat. Und eines der meistgesehenen Videos des Kanals brachte es auf stolze 7,3 Millionen Aufrufe.
Willkommen in der Welt des KI-Mülls, trete ein und grusel dich mit mir.
KI-Slop – der Müll des Internets
Die Videos in dem oben erwähnten Kanal sind alle von minderer Qualität, manchmal sogar ganz offensichtlich falsch von der KI umgesetzt – die Katze geht auf wundersame Weise durch die viel zu engen Gitterstäbe. Und sie enthalten alle ein Bildrauschen an der Stelle eines ausradierten Wasserzeichens. In einem Video war das nur fast gelungen und es schimmerte für einen Moment der Name “Sora” durch. Sora ist die Video-KI von OpenAI, zu der auch ChatGPT gehört.
Ich raufe mir bei so etwas nur die Haare und denke mir, das muss man doch sehen. Ist es den Menschen einfach egal oder erkennen sie das wirklich nicht?
Auf dem Katzen-Kanal und an den Videos selbst ist kein Hinweis darauf, dass es sich um KI-generierte Inhalte handelt. Dabei schreibt Meta für Facebook, Instagram und Threads die Kennzeichnung von KI generierten fotorealistischen Videos zwingend vor (für Bilder hingegen nicht!).
Man nennt diese Form von KI-Inhalten “KI-Slops” oder “AI-Slops”.
Slop ist das englische Wort für Matsch oder Abfall. Im Deutschen wird auch gerne von KI-Müll geredet.
KI-Müll / KI-Slop
Mit KI-Slop oder KI-Müll gemeint, sind massenhaft, meist qualitativ schlechte, mit KI erstellte Videos, Texte, Bilder und Musik, die darauf abzielen, Aufmerksamkeit zu binden. Um dann wahlweise Werbe- oder Aboeinnahmen zu generieren oder noch perfider, Meinungen gezielt zu beeinflussen.
Übrigens, wer sich die Mühe machen möchte: man kann die nicht entsprechend gekennzeichneten KI-Inhalte der jeweiligen Plattform melden. Aktuell mutet mir das allerdings wie ein Kampf gegen Windmühlen an.
Ein paar Zahlen zu KI-Müll
Bemühen wir uns um ein paar Zahlen: Im Oktober 2025 bringt die amerikanische Firma Kapwing die Ergebnisse einer umfangreichen Recherche heraus. Sie hat aus jedem Land die 100 erfolgreichsten Youtube-Kanäle analysiert und auf KI generierte Inhalte überprüft. Bei den KI-generierten Kanälen wurden dann die Abonnentenzahlen, Aufrufe und geschätzten Einnahmen zusammengestellt. Ebenso prüfte sie die Zusammensetzung des Youtube-Feeds eines neu erstellten Accounts. Das Ergebnis dieses Feeds: er enthält ca. 21 Prozent KI-Videos. Jedes fünfte Video ist KI generiert! Bei den Short-Videos ist es noch mehr, hier sind es 33 Prozent, also jedes dritte Video.
Und auch die anderen Zahlen lassen mit den Ohren schlackern. Bei einem sehr erfolgreichen KI-Kanal aus Südkorea liegen die geschätzten Werbeeinnahmen bei gut 4 Millionen US-Dollar. Die Inhalte des Kanals: hoch emotionale Tier-Filme, bei denen ein in Not geratenes Tier durch ein anderes Tier gerettet wird, indem es einen Menschen auf die missliche Lage aufmerksam macht. Am Ende ist alles gut, Mensch und Tier in inniger Harmonie miteinander vereint. Immerhin verschweigt der Kanal den KI-Einsatz bei der Herstellung der Videos nicht.
Besser so. Denn Youtube hat das Problem längst erkannt. Und Youtube CEO Neil Mohan hat dem KI-Slop bereits den Kampf angesagt. Ein in der Kapwing-Recherche als besonders erfolgreich benannter KI-Kanal aus Spanien ist mittlerweile nicht mehr auf Youtube zu finden. Und auch auf dem Südkoreanischen Kanal wurden offenbar sehr viele Videos gelöscht und man kündigt in der Info des Kanals eine grundlegende Überarbeitung an.
Trotzdem bleibt es mühselig. Denn Inhalte dieser Art werden gerne automatisiert erstellt und ausgespielt. Content auf Knopfdruck sozusagen.
Gefakte Websites
Der KI-Müll beschränkt sich im Übrigen auch nicht nur auf Social Media und Video-Formate. Neulich suchte ich bei Google nach einem Marketing-Begriff und landete auf einem Blog, den ich erst auf den zweiten Blick als KI-generiert erkannte.
Der Artikel war recht informativ und gut geschrieben. Dass die komplette Website KI-generiert war, ließ sich aus wenigen Indizien zusammenreimen: es gab kein Impressum und keinen Hinweis auf die Menschen oder Firma hinter der Website, es wurden in den Artikeln keine Autoren benannt, alle Bilder waren ganz offensichtlich KI-generiert und vereinzelt, hier und dort, waren in den Texten Links eingefügt, die zu dubiosen Bitcoin-Websites führten.
Die ganze Website war nur darauf angelegt, ahnungslose Nutzer auf diese Websites zu locken oder ggf. auch die Reputation dieser Ziel-Websites durch Backlinks zu stärken. Bei mir löst so etwas ein saures Aufstoßen aus. Zumal diese Website in den Top-Ten bei Google auftauchte.
KI-Musik auf Streaming-Portalen
Auch die Musik-Streaming-Dienste sehen sich einer schieren Flut KI-generierter Musik gegenüber. Im April 2025 schrieb Deezer in einer offiziellen Mitteilung, dass täglich 20.000 KI-basierte Musikstücke auf der Plattform hochgeladen werden. Das machte zum damaligen Zeitpunkt 18% der insgesamt täglich hochgeladenen Musikstücke aus. Im Januar 2025 waren es noch 10 Prozent.
Während Deezer KI-generierte Musikstücke mit einem Hinweis auf ihre künstliche Erschaffung kennzeichnet, sucht man solches bei Spotify vergeblich. Dennoch haben beide Plattformen Maßnahmen ergriffen, um der KI-Flut Herr zu werden. Im Herbst 2025 gab Spotify in einer Mitteillung an, in den vorangegangenen zwölf Monaten 75 Millionen KI-Tracks gelöscht zu haben.
Das große Problem bei KI-Musik:
- Urheberrechtsverletzungen, da die KI mit realen Musikstücken trainiert wurde (ohne das Einverständnis der Urheber natürlich) und sich real existierende Stücke echter Musiker nachbauen lassen.
- Deepfakes, also das Nachahmen von Stimmen realer Sängerinnen und Sänger durch KI ohne deren Einverständnis.
- Noch schlechtere Bezahlung für Musiker und Musikerinnen, die sich die wenigen Tantiemen der Streaming-Dienste nun auch noch mit “Künstlern” teilen müssen, die Songs auf Knopfdruck produzieren und im Minutentakt hochladen können.
- Qualitative Verschlechterung der Musik bei den Diensten, denn oft genug geht es nur um Masse statt Klasse, um möglichst viele Tantiemen einzustreichen.
Dabei wird nicht generell der Einsatz von KI kritisiert. Denn auch Künstler nutzen KI im kreativen Prozess.
In den von Spotify automatisch zusammengestellten Playlists tummeln sich gerne mal KI-generierte Songs. Auch mir sind sie schon untergekommen. Erkennen lassen sie sich meistens nur über das Profil des “Künstlers”. Dort gibt es kein Foto der musikschaffenden Person, sondern irgendein KI-generiertes Platzhalterbild. Meist auch nur eine spärliche Beschreibungen eines Musikprojektes. Und wenn man nach dem Namen des Künstler-Kanals googelt, erschöpfen sich die Ergebnisse der Suche meist auf eben jenen Spotify-Account und wenige Songeinträge auf dem Musikdienst. Es gibt keine Hintergrundinfos zu Personen, Orten, Konzerten oder Ähnlichem.
Die Spitze des Eisbergs
Das soll es nun sein mit einem ersten Überblick, was KI-Müll bedeutet und wie er sich zeigt. Und damit kratze ich sicherlich immer noch nur an der Oberfläche des Eisbergs.
Ganz gruselig wird es, wenn man sich in das Themengebiet Deepfakes begibt. Hier verschwimmt das Ganze von einfachem Content-Müll, der das Ziel hat, Aufmerksamkeit in Geld zu verwandeln, zu gezielter Desinformation mit gefakten Inhalten.
Bei Deepfakes werden reale Personen künstlich imitiert. Das fängt bei lustigen oder satirischen Darstellungen an (sehr bekannt ist z.B. der Papst im weißen Wintermantel), hört hier aber noch lange nicht auf. Deepfakes werden auch gezielt genutzt, um Meinungen zu beeinflussen, indem Politikern oder anderen Menschen der Öffentlichkeit Worte in den Mund gelegt werden, die sie nie gesagt haben. Oder auch, um Menschen zu ruinieren, beispielsweise durch Mobbing oder Rufschädigung z.B. über pornografische Inszenierung.
Auch wenn Deepfakes oftmals in lustigen Kontexten und zu Unterhaltungszwecken erstellt und eingesetzt werden, das mögliche Schadpotential dahinter ist riesig und wird auch bereits aktiv eingesetzt.
Insbesondere der Einsatz von Deepfakes, um pornografisches Material herzustellen, ist meines Erachtens äußerst fragwürdig, macht aber schon den größten Anteil des Deepfake-Contents aus, wie die Ergebnisse einer Recherche von 2023 zeigen. Opfer dieser Deepfakes: zu 99 Prozent Frauen. Dabei trifft es vor allem Sängerinnen und Schauspielerinnen, eines der bekanntesten Opfer von Deepfake-Pornografie war 2024 Taylor Swift.
Was kannst du tun?
Die hier geannnten Probleme werden in den nächsten Jahren sicher nicht weniger werden. Und mit jedem neuen Update der KI-Anwendungen, werden ihre Ergebnisse besser und damit für uns Menschen immer unerkennbarer, was echt ist und was gefälscht.
Was auf Dauer leidet: die Glaubwürdigkeit von Inhalten generell.
Was wir tun können? Das ist eine gute Frage und ich habe auch keine umfassenden Antworten oder allgemeingültigen Rezepte dafür. Meine spontanen Gedanken dazu:
Halte dich auf dem Laufenden
Wie ich bereits hier schrieb, ist KI gekommen, um zu bleiben. Wir sind also alle dazu angehalten, uns mit dem Thema zu beschäftigen und auf dem Laufenden zu halten. Und sei es nur, um fundiert Stellung zu beziehen und nicht reflexhaft entweder alles abzuwehren oder hochzuloben.
Vor dem Teilen Gehirn einschalten
Man muss nicht alles reflexhaft reposten, nur weil es so schön ins Herz geht. Schau dir genau an, wen du damit unterstützt, wenn du Inhalte teilst oder repostest.
Lerne, Muster zu erkennen
Wie ich weiter oben bei den Katzenvideos oder der KI-Website gezeigt habe, gibt es Indizien, die auf KI-generierte Inhalte hinweisen. Lerne, sie zu erkennen und dann entscheide bewusst, ob du die Inhalte konsumieren möchtest oder nicht. Es ist ja nicht alles schlecht, dass es automatisch zum KI-Müll gehört. Aber immer da, wo auf Masse statt Klasse gesetzt wird, um entweder Umsätze zu generieren oder Meinungen zu beeinflussen, sollten wir sehr achtsam sein.
Unterstütze von Menschen gemachte Inhalte
Lies zum Beispiel meinen Blog 😉 Hier sind alle Texte selbst geschrieben. Wie du ihn abonnieren kannst, steht hier. Statt Musik nur über die großen Anbieter zu streamen, gehe mal wieder auf Konzerte. Sei auf Social Media und Youtube wählerisch und like und teile nur die Inhalte von Accounts, die hochwertigen oder kreativen Content und Inhalte mit Mehrwert erstellen, um diese zu pushen. KI-Müll kann nur dann so stark werden, wenn wir ihm die dafür benötigte Aufmerksamkeit schenken.
In diesem Sinne: sei Mensch, sei kreativ, pur und echt. Und lass dir das wahre Leben nicht nehmen. Einfach mal wieder das Handy abschalten und raus vor die Tür gehen.
Und wenn du mehr von mir lesen willst, dann hüpf doch in meine Newsletter-Liste.
Über die Autorin
Dorothee Dickmann, Online-Redakteurin B.A. seit 2009, war freiberuflich für Online-Medien und eine Internetagentur tätig sowie viele Jahre angestellt in der Online-Unternehmenskommunikation im Mittelstand. Heute unterstützt sie als Mentorin für Sichtbarkeit und Online-Marketing Selbständige und Freiberufler dabei, Klarheit über ihre Kanäle, Inhalte und Positionierung zu gewinnen und Content-Marketing strukturiert umzusetzen.

