Transparenzbericht
1. Januar 2020 – 30. Juni 2020
Veröffentlicht: 18. Dezember 2020
Aktualisiert: 18. Dezember 2020
Wir bei Snap möchten Menschen die Möglichkeit geben, sich frei auszudrücken, im Moment zu leben, mehr über die Welt zu erfahren und gemeinsam Spaß zu haben. Das Wohlergehen unserer Community liegt uns sehr am Herzen. Wenn wir Produkte entwickeln, berücksichtigen wir den Schutz der Privatsphäre und die Sicherheit von Snapchattern am Front-End des Designprozesses.
Wir haben klare und umfassende Richtlinien, die unsere Mission unterstützen: Wir fördern ein möglichst breites Spektrum der Selbstdarstellung und ermutigen Snapchatter gleichzeitig, unsere Dienste jeden Tag sicher zu nutzen. Unsere Community-Richtlinien untersagen die Verbreitung falscher Informationen, die Schaden verursachen können, Hassreden, Mobbing, Belästigung, illegale Aktivitäten, eindeutig sexuelle Inhalte, Gewaltdarstellung und vieles mehr.
Unser Transparenzbericht bietet wichtige Einblicke in die verletzenden Inhalte, gegen die wir vorgehen, in staatliche Anfragen zu den Account-Informationen von Snapchattern und in andere rechtliche Mitteilungen.
Weitere Informationen über unseren Ansatz und zu den Ressourcen für Sicherheit und Datenschutz findest du auf unserem Reiter Über Transparenzberichterstattung am Ende der Seite.
Account-/Inhaltsverstöße
Jeden Tag werden mit unserer Kamera mehr als vier Milliarden Snaps aufgenommen. Vom 1. Januar 2020 bis zum 30. Juni 2020 sind wir weltweit gegen 3.872.225 Inhaltsteile vorgegangen, die gegen unsere Community-Richtlinien verstoßen haben – das sind weniger als 0,012 % der gesamten Story-Posts. Unsere Teams ergreifen in der Regel schnell Maßnahmen gegen solche Verstöße, sei es, um Snaps zu entfernen, Accounts zu löschen, Informationen an das National Center for Missing & Exploited Children (NCMEC) – das Nationale Zentrum für vermisste und ausgebeutete Kinder – zu melden oder an die Strafverfolgungsbehörden weiterzuleiten. In der überwiegenden Mehrheit der Fälle ahnden wir Verstöße innerhalb von 2 Stunden nach Eingang der Meldung aus der App.
Total | Gesamte Inhalte | Gesamte Einzelkonten durchgeführte |
---|---|---|
13.207.971 | 3.872.245 | 1.692.859 |
H1'20: Inhalte, gegen die Maßnahmen ergriffen wurden

Chart | Grund | Content | Inhalt durchgesetzt | Einzigartige Konten durchgesetzt | Turnaround Time: |
---|---|---|---|---|---|
1 | Belästigung und Mobbing | 857.493 | 175.815 | 145.445 | 0,4 |
2 | Hassrede | 229.375 | 31.041 | 26.857 | 0,6 |
3 | Impersonation | 1.459.467 | 22.435 | 21.510 | 0,1 |
4 | Regulierte Waren | 520.426 | 234.527 | 137.721 | 0,3 |
5 | Sexuell freizügige Inhalte | 8.522.585 | 3.119.948 | 1.160.881 | 0,2 |
6 | Spam | 552.733 | 104.523 | 59.131 | 0,2 |
7 | Bedrohung/Gewalt / Schaden | 1.062.892 | 183.929 | 141.314 | 0,5 |
Die Meldungen von Inhalten beziehen sich auf über die App und über Supportanfragen gemeldete mutmaßliche Verstöße.
**Bearbeitungszeit zeigt in Stunden, wie lange es durchschnittlich dauert, bis Maßnahmen bezüglich der Meldung eines Benutzers ergriffen werden.
Erweiterte Verstöße
Sexuelle Ausbeutung Minderjähriger und Missbrauch
Der Missbrauch von Mitgliedern unserer Community, insbesondere von Minderjährigen, wird in keiner Weise geduldet und ist auf Snapchat verboten. Die Verhinderung, Erkennung und Beseitigung von Missbrauch auf unserer Plattform hat für uns Priorität, und wir verbessern ständig unsere Möglichkeiten zur Bekämpfung dieser Art von illegaler Tätigkeit.
Meldungen von Material zu sexuellem Kindesmissbrauch (CSAM – Child Sexual Abuse Materials) werden von unserem Team für Vertrauen und Sicherheit schnell geprüft. Beweise für diese Aktivität führen zur Account-Kündigung und zur Anzeige an das National Center for Missing & Exploited Children (NCMEC). Wir unterstützen rund um die Uhr internationale Strafverfolgungsbehörden, die sich an uns wenden, wenn sie Hilfe bei Fällen vermisster oder gefährdeter Jugendlicher benötigen.
Wir verwenden die PhotoDNA-Technologie, um das Hochladen bekannt gewordener Bilder von sexueller Ausbeutung und sexuellem Missbrauch von Kindern proaktiv zu identifizieren und zu melden. Alle Vorfälle melden wir den Behörden. 2,99 % der Accounts, gegen die wegen Verstößen gegen Community-Richtlinien Maßnahmen ergriffen wurden, wurden aufgrund von CSAM-Inhalten gelöscht.
Darüber hinaus hat Snap 70 % davon proaktiv gelöscht.
Löschungen des Gesamten Kontos | 47.136 |
---|
Terrorismus
Terrororganisationen und von Hass getriebene Gruppierungen dürfen unsere Plattform nicht nutzen und wir verfolgen einen Null-Toleranz-Ansatz bei Inhalten, die gewalttätigen Extremismus oder Terrorismus befürworten oder fördern.
Löschungen des Gesamten Kontos | <10 |
---|
Länderübersicht
Dieser Abschnitt gibt einen Überblick über die Durchsetzung unserer Regeln in den einzelnen Ländern. Unsere Community-Richtlinien gelten für alle Inhalte auf Snapchat – und für alle Snapchatter – rund um den Globus, unabhängig vom Standort.
Informationen für alle anderen Länder stehen in der beigefügten CSV-Datei zum Herunterladen zur Verfügung.
Region | Content | Inhalt durchgesetzt | Einzigartige Konten durchgesetzt |
---|---|---|---|
Nordamerika | 5.769.636 | 1.804.770 | 785.315 |
Europa | 3.419.235 | 960.761 | 386.728 |
Rest der Welt | 4.016.100 | 1.106.687 | 413.272 |
Gesamt | 13.204.971 | 3.872.218 | 1.578.985 |
PDF + CSV herunterladen
Direkte Downloads für:
Archivierte Transparenzberichte
- Januar 1, 2020 - Juni 30, 2020
- Juli 1, 2019 - Dezember 31, 2019
- Januar 1, 2019 - Juni 30, 2019
- Juli 1, 2018 - Dezember 31, 2018
- Januar 1, 2018 - Juni 30, 2018
- Juli 1, 2017 - Dezember 31, 2017
- Januar 1, 2017 - Juni 30, 2017
- Juli 1, 2016 - Dezember 31, 2016
- Januar 1, 2016 - Juni 30, 2016
- Juli 1, 2015 - Dezember 31, 2015
- Januar 1, 2015 - Juni 30, 2015
- November 1, 2014 - Februar 28, 2015