Digital
YouTube

YouTube hat ein Problem mit Inhalten, die Pädophilen gefallen

Bild
getty/youtube/montage
Digital

YouTube hat ein Problem mit Inhalten, die Pädophilen gefallen

19.02.2019, 08:1519.02.2019, 11:30
Mehr «Digital»

Nach zwanzig Minuten voll mit verstörenden Wahrheiten rauft sich der Youtuber "MattsWhatItIs" mit hochrotem Kopf die Haare. "Ich wollte nicht emotional werden", sagt er zu sich selbst und den Zuschauern seines Videos: "Aber ich kann nicht glauben, dass diese Postings existieren." Der junge US-Amerikaner hat gerade einen Weg auf YouTube gefunden, der ihn tief in eine Welt der Pädophilie führt.

Dabei spült der YouTube-Algorithmus Matts Video-Empfehlungen voll mit kinderpornografischen Inhalten. Und offenbart ein System, das innerhalb von Minuten für alle funktioniert, die ihr persönliches YouTube in eine Art „Soft-Kinder-Porno“-Plattform verwandeln wollen.

Matt liefert damit einen weiteren Beweis dafür, dass die Google-Tochter es offenbar nicht schafft, die Jüngsten unter ihren Usern vor Missbrauch zu schützen. Oder wie Matt es ausdrückt: "Wie kann es sein, dass so etwas in der Öffentlichkeit bereits seit zwei Jahren stattfindet und trotzdem nichts passiert? Ich will nichts mehr mit dieser Plattform zu tun haben."

YouTube hat ein Problem

Wir bei Watson haben Matts Recherche-Weg rekonstruiert und sind zu sehr ähnlichen Ergebnissen gelangt. Wir erstellten dazu nur einen neuen unbeschriebenen Google-Account und meldeten uns damit bei YouTube an. (Das diente dazu, klare Ergebnisse zu bekommen)

Als nächstes suchten wir nach bestimmten aktuellen Trend-Suchbegriffen. Ohne ins Detail zu gehen: Es geht um Influencer-Videos, bei denen YouTuberInnen Neuheiten präsentieren. Auch deutsche Video-Stars machen mit, ihre Videos sammeln zum Teil hunderttausende Klicks.

Das wirkliche Problem taucht erst auf, wenn man sich über die "Empfohlenes Video"-Funktion weiterklickt. In zwei Schritten kamen wir bei der Recherche auf eine erste Seite, auf der ein offensichtlich minderjähriges Kind bei dem neuen Trend mitmacht. Noch einen Klick weiter ging es dann gar nicht länger um den Trend, sondern um Kinder in verschiedensten Posen. Sämtliche vorgeschlagene Videos zeigten auf einmal mehr oder weniger leicht bekleidete Kinder und Jugendliche etwa bei Gymnastik oder im Kinderzimmer.

Die Account-Namen der Uploader tragen dabei oft kryptische Namen, laufen in vielen Fällen auch in russischer Sprache. Es handelt sich eindeutig nicht um die Urheber der Videos selbst, sondern um sogenanntes "Republishing", bei dem fremde Inhalte durch anonyme Accounts einfach neu hochgeladen werden.

  • Bei den ersten Videos, auf die wir gestoßen sind, hatte YouTube die Kommentar-Funktion bereits abgeschaltet. Ohne Probleme aber fanden wir daraufhin weitere Clips, bei denen User widerliche sexuelle Anspielungen unter die Videos der Kinder gepostet haben.
  • Auch kommt es zu einem Missbrauch der sogenannten "Time Stamps"-Funktion – User können damit bestimmte Momente im Video per Link markieren. Im Fall der Kinder-Videos führen sie genau zu Momenten, in denen ein Kind sich streckt oder möglichst nackt zu sehen ist.
  • YouTuber Matt selbst berichtet, dass er bei seiner Recherche in den Kommentaren auf mehrere Links gestoßen ist, die ihn direkt auf kinderpornografische Seiten weiterführten. Das geschah uns bei unserer Recherche bislang nicht.
  • Klar ist: Hat man mit seinem Account erst einmal mehrere dieser Videos angeklickt, zeigt einem der YouTube-Algorithmus auf der Startseite bald nur noch Videos von solchen sexualisierten Posen kleiner Kinder. In den Kommentaren finden sich dann oft auch deren Social-Media-Kontakte oder Backlinks zu anderen Videos ähnlicher Natur.

Wir haben diesen Vorgang auch mit mehren Challenges und Trends ausprobiert, bei denen immer auch Jugendliche und Kinder mitmachten. Im vielen Fällen sind wir in nur wenigen Klicks in jenem Bereich gelandet, in dem sich offenkundig pädophile User abreagieren.

Nicht die ersten Kinder-Probleme für YouTube

Bereits Ende 2017 sorgte der YouTube-Algorithmus für Negativschlagzeilen. Damals hatte unter anderem der Blogger James Bridle auf ein Problem hingewiesen, das für heftige Kritik an der Video-Plattform sorgte.

Damals tauchten tausendfach und automatisch generierte Kinder-Videos mit verstörenden Inhalten auf YouTube auf. Sie hatten das Ziel, ohne viel Aufwand eine möglichst große Reichweite zu erzeugen, um mit der geschalteten Werbung Geld zu verdienen. Sie liefen unter Schlagwörtern, die Kinder bei der Suche nach ihren Lieblings-Cartoons wie "Spider Man" oder "Peppa Wutz" in die Suchmaske eingaben.

Das Problem: In den wahllos zusammengeschnittenen Videos tauchten auch immer wieder gewalttätige und sexuell anstößige Inhalte auf. Löschte YouTube einen Clip, uploadeten neue Accounts an anderer Stelle sofort neue Videos. Menschliche Mitarbeiter kommen da nicht mehr hinterher, selbst wenn User ein schlimmes Video melden.

Kritiker damals betonten, dass das Werbe-Konzept für die Klickzahlen von YouTube-Videos begünstigen würde, dass Kinder den Gewalt-Inhalten ausgesetzt würden.

Sind die sexualisierten Inhalte strafbar?

Das dürfte ein ziemlich neuer Fall für das Strafrecht sein, grundsätzlich ist Kinderpornografie – in Deutschland – gem. §184b StGB strafbar.

  • Nach einer Entscheidung des Bundesgerichtshofs aus dem Jahr 2014 ist Pornografie, was auf die Erregung eines sexuellen Reizes beim Betrachter abzielt. Und was die gesellschaftlichen Grenzen des sexuellen Anstands überschreitet.
  • Jugendpornografie ist demnach, was die Wiedergabe von "ganz oder teilweise unbekleideten" 14- bis 18-Jährigen zeigt.
  • Bei unter 14-Jährigen fällt auch schon "die Wiedergabe eines ganz oder teilweise unbekleideten Kindes in unnatürlicher, geschlechtsbetonter Körperhaltung" unter die Straftat Kinderpornografie. (BKA)

Nun mögen die Online-Videos vieler der gezeigten Kinder auf YouTube keinen pornografischen Ursprung haben. Ihre bewusste Wiedergabe durch völlig fremde Uploader, ihre Inszenierung in einem sexuellen Kontext und die beschriebenen "Time Stamps" auf bestimmte Posen sowie die Kommentare darunter lassen allerdings einen sexualisierten Kontext entstehen.

Dass der YouTube-Algorithmus einem bei Nachfrage dann Massen dieser Videos ausspuckt, ist mehr als problematisch.

So reagiert YouTube

Auch die aktuellen Kinder-Videos klicken teilweise hunderttausendfach. Wie schon im Fall der verstörenden Videos von 2017 verdienen auch hier Accounts Geld mit der von YouTube geschalteten Werbung.

Videomacher wie Matt versuchen schon seit einer Weile mit dem Hashtag #YouTubeWakeUp Aufmerksamkeit auf dieses offensichtliche Problem zu lenken.

YouTube selbst schreibt zwar auf seiner Website: "Wir verbieten streng und ausdrücklich Inhalte, die Minderjährige sexuell ausnutzen" und spricht vom Löschen der Accounts und Inhalte von Involvierten. Bei unserer Recherche fiel uns aber auf, dass YouTube bei einigen Videos lediglich die Kommentar-Funktion abgeschaltet hat. Einige Klicks weiter aber konnten wir ohne Probleme in die verstörenden Kommentare, Videos und "Time Stamps" hineinklicken.

In einer Stellungnahme gegenüber watson ging Google-Deutschland nicht direkt auf den Fall ein.

Ein Sprecher sagte:

"Jeder Inhalt - einschließlich Kommentare - der Minderjährige gefährdet, ist abscheulich. Wir haben klare Richtlinien, die dies auf YouTube verbieten."

Man setze diese Richtlinien "mit Nachdruck" um: Dazu gehöre, Inhalte den zuständigen Behörden zu melden, sie von der Plattform zu entfernen und betroffene Accounts zu löschen. Google investiere viel, um das Problem anzugehen.

Paradoxerweise hat sich das Unternehmen gerade bei den bekannten YouTubern Mystic7, Trainer Tips und Marksman wegen dieses Engagements entschuldigen müssen. Deren Accounts hatte Google wegen angeblich möglicher pädophiler Inhalte gelöscht. (BBC) Die YouTuber mit insgesamt rund 3,5 Millionen Followern hatten sich allerdings lediglich beim "Pokémon Go"-Spielen gefilmt.

Dabei verwendeten sie das Wort "CP" – bei Pokémon bedeutet es "Combat Points", außerhalb des Spiels kann es als Abkürzung für "Child Pornography" stehen. In diesem Fall reichten also zwei Buchstaben für Google aus, um die Accounts zu löschen.

An dem "Lifeline"-Kapitän soll ein Exempel statuiert werden

Video: watson/teamwatson

Das könnte dich auch interessieren:

Alle Storys anzeigen