Transparenzbericht
1. Juli 2021 – 31. Dezember 2021
Veröffentlicht: 1. April 2022
Aktualisiert: 1. April 2022
Während Snapchat wächst ist es unser Ziel, Menschen zu ermöglichen, sich frei auszudrücken, im Moment zu leben, mehr von der Welt zu erfahren und gemeinsam Spaß zu haben, und zwar in einer sicheren Umgebung. Deshalb verbessern wir ständig unsere Maßnahmen zur Sicherheit und zum Datenschutz – darunter unsere Servicebestimmungen, Community-Richtlinien und Tools zur Vorbeugung, Erkennung und Beseitigung schädlicher Inhalte sowie Initiativen, die zur Aufklärung und Stärkung unserer Community beitragen.
Um Einblicke in diese Bemühungen und Transparenz über die Art und den Umfang der auf unserer Plattform veröffentlichten Inhalte zu geben, veröffentlichen wir zweimal im Jahr Transparenzberichte. Wir sind bestrebt, diese Berichte noch umfassender und informativer für die vielen Interessengruppen zu gestalten, denen die Sicherheit und Transparenz im Internet sehr am Herzen liegt.
Dieser Bericht deckt die zweite Hälfte des Jahres 2021 (1. Juli – 31. Dezember) ab. Wie bereits unsere Berichte zuvor enthält er Daten über die weltweite Zahl von In-App-Inhalten und Berichte auf Account-Ebene, die wir erhalten haben und gegen die wir in bestimmten Kategorien von Verstößen Maßnahmen ergriffen haben, wie wir auf Anfragen von Strafverfolgungs- und Regierungsbehörden reagiert haben sowie unsere Durchsetzungsmaßnahmen, aufgeteilt nach Ländern. Außerdem umfasst er die jüngsten Ergänzungen zu diesem Bericht, einschließlich der Violative View Rate von Snapchat-Inhalten, potenzielle Markenrechtsverletzungen und Vorfälle von Falschinformationen auf der Plattform.
Im Rahmen unserer kontinuierlichen Bemühungen, unsere Transparenzberichte zu verbessern, stellen wir in diesem Bericht mehrere neue Bereiche vor. Dafür ordnen wir Drogen, Waffen und reglementierte Güter in eigenen Kategorien ein, was zusätzliche Informationen über ihre Verbreitung und unsere Gegenmaßnahmen umfasst.
Erstmals haben wir außerdem eine neue Kategorie Selbstmord und Selbstschädigung erstellt, um Einblicke in alle Inhalte und Accountberichte zu bieten, die wir erhalten und bei denen wir Maßnahmen ergreifen. Im Rahmen unserer Verpflichtung zur Unterstützung des Wohlergehens unserer Community teilen unsere Vertrauens- und Sicherheitsteams In-App-Ressourcen mit Snapchattern, die sie nutzen wollen, und wir informieren genauer über diese Arbeit hier.
Weitere Informationen über unsere Richtlinien zur Bekämpfung von Online-Schäden und unsere Pläne zur Weiterentwicklung unserer Berichterstattungspraktiken findest du in unserem aktuellen Blog über Sicherheit und Auswirkungen über diesen Transparenzbericht.
Um zusätzliche Ressourcen für Sicherheit und Datenschutz bei Snapchat zu finden, siehe unseren Reiter über Transparenzberichterstattung am unteren Rand der Seite.
Überblick über Verstöße im Zusammenhang mit Inhalten und Accounts
Vom 1. Juli bis zum 31. Dezember 2021 haben wir bei weltweit 6.257.122 Inhalten, die gegen unsere Richtlinien verstießen, Maßnahmen ergriffen. Zu den Maßnahmen gehören die Entfernung des anstößigen Inhalts oder die Löschung des betreffenden Accounts.
Während des Berichtszeitraums ermittelten wir eine Violative View Rate (VVR) von 0,08 Prozent, was bedeutet, dass von jeweils 10.000 Ansichten von Inhalten von Snaps und Storys auf Snapchat acht Inhalte gegen unsere Richtlinien verstießen.
Gesamt: Inhalts- und Account-Meldungen | Gesamt: Inhalte, gegen die Maßnahmen ergriffen wurden | Gesamt: Einzelne Konten, gegen die Maßnahmen ergriffen wurden |
---|---|---|
12.892.617 | 6.257.122 | 2.704.771 |
Grund | Inhalts- und Account-Meldungen | Inhalte, gegen die Maßnahmen ergriffen wurden | Gesamt in %: Inhalte, gegen die Maßnahmen ergriffen wurden | Einzelne Konten, gegen die Maßnahmen ergriffen wurden | Durchschnittliche Bearbeitungszeit (Minuten) |
---|---|---|---|---|---|
Sexuell freizügige Inhalte | 7.605.480 | 4.869.272 | 77,8 % | 1.716.547 | <1 |
Drogen | 805.057 | 428.311 | 6,8 % | 278.304 | 10 |
Belästigungen und Mobbing | 988.442 | 346.624 | 5,5 % | 274.395 | 12 |
Bedrohungen und Gewalt | 678.192 | 232.565 | 3,7 % | 159.214 | 12 |
Spam | 463.680 | 153.621 | 2,5 % | 110.102 | 4 |
Hassrede | 200.632 | 93.341 | 1,5 % | 63.767 | 12 |
Andere regulierte Güter | 56.505 | 38.860 | 0,6 % | 26.736 | 6 |
Selbstverletzung und Selbstmord | 164.571 | 33.063 | 0,5 % | 29.222 | 12 |
Betrügerisches Auftreten | 1.863.313 | 32.749 | 0,5 % | 25.174 | <1 |
Waffen | 66.745 | 28.706 | 0,5 % | 21.310 | 8 |
Erweiterte Verstöße
Inhalte von sexuellem Missbrauch Minderjähriger bekämpfen
Die sexuelle Ausbeutung eines Mitglieds unserer Community, insbesondere Minderjähriger, ist illegal, inakzeptabel und durch unsere Community-Richtlinien verboten. Das Verhindern, Erkennen und Beseitigen von Material über sexuellen Kindesmissbrauch (Kinderpornografie) auf unserer Plattform hat für uns oberste Priorität, und wir entwickeln unsere Fähigkeiten zur Bekämpfung von Kinderpornografie und anderen Arten sexuell ausbeuterischer Inhalte gegenüber Kindern stetig weiter.
Unsere Vertrauens- und Sicherheitsteams nutzen aktive technologische Erkennungstools, wie z. B. PhotoDNA robust hash-matching und Googles Child Sexual Abuse Imagery (CSAI) Match, um bekannte illegale Bilder und Videos von Kinderpornografie zu identifizieren und sie, wie gesetzlich vorgeschrieben, an das U.S. National Center for Missing and Exploited Children (NCMEC) zu melden. Das NCMEC stimmt sich je nach Bedarf dann wiederum mit den nationalen und internationalen Strafverfolgungsbehörden ab.
In der zweiten Hälfte des Jahres 2021 haben wir 88 % der gesamten CSAM-Verstöße, die hier gemeldet worden sind, proaktiv erkannt und Maßnahmen ergriffen. Die Fortschritte bei unserer proaktiven Erkennungsfähigkeit führten in diesem Berichtszeitraum zu einem bemerkenswerten Anstieg in dieser Kategorie.
Account-Löschungen insgesamt | 198.109 |
---|
Verbreitung von Falschinformationen bekämpfen
Was schädliche Inhalte betrifft, waren wir schon immer der Ansicht, dass es nicht genug ist, sich mit den entsprechenden Richtlinien und ihrer Umsetzung zu beschäftigen – Plattformen müssen ihre grundlegende Architektur und das Produktdesign neu überdenken. Snapchat war von Anfang an anders aufgebaut als die traditionellen sozialen Medienplattformen, ohne ein offenes Newsfeed, bei dem jeder ohne Moderation eine große Zielgruppe ansprechen kann.
Unsere Richtlinien verbieten deutlich die Verbreitung von Falschinformationen, die Schäden verursachen könnten, einschließlich von Falschinformationen, die zivilgesellschaftliche Prozesse untergraben sollen, unbegründete medizinische Behauptungen und die Leugnung von tragischen Ereignissen. Unsere Richtlinien und ihre Durchsetzung gelten konsequent für alle Snapchatter – wir machen keine besonderen Ausnahmen für Politikerinnen und Politiker oder andere Personen des öffentlichen Lebens.
Während dieses Zeitraums ergriff Snapchat Maßnahmen gegen insgesamt 14.613 Accounts und Inhalte, die gegen unsere Richtlinien zu Falschinformationen verstoßen haben.
Gesamt: Inhalte und Account-Durchsetzungen | 14.613 |
---|
Terroristische und gewalttätige extremistische Inhalte
Während des Berichtszeitraums haben wir 22 Accounts wegen Verstößen gegen unser Verbot von terroristischen und gewalttätigen extremistischen Inhalten entfernt.
Bei Snapchat entfernen wir Inhalte im Bereich des Terrorismus und gewalttätigen Extremismus, die über mehrere Kanäle gemeldet werden. Das umfasst, Nutzern zu ermöglichen, Inhalte im Bereich des Terrorismus und gewalttätigen Extremismus, über unser In-App-Meldungsmenü zu melden, und wir arbeiten eng mit den Strafverfolgungsbehörden zusammen, um gegen Inhalte im Bereich des Terrorismus und gewalttätigen Extremismus, die auf Snapchat erscheinen, vorzugehen.
Account-Löschungen insgesamt | 22 |
---|
Inhalte zu Selbstschädigung und Selbstmord
Wir sorgen uns sehr um die psychische Gesundheit und das Wohlergehen von Snapchattern, was unsere eigenen Entscheidungen, wie wir Snapchat anders gestalten, beeinflusst hat. Als Plattform die wirklichen Freunden hilft, zu kommunizieren, glauben wir, dass Snapchat eine einzigartige Rolle dabei spielen kann, Freunden zu ermöglichen, sich in diesen schwierigen Zeiten zu helfen.
Wenn unser Vertrauens- und Sicherheitsteam erkennt, dass ein Snapchatter stark leidet, hat es die Möglichkeit, Ressourcen zur Prävention von Selbstschädigung und zur Unterstützung anzubieten und Rettungskräfte, falls nötig, zu alarmieren. Die Ressourcen, die wir teilen, sind auf unserer weltweiten Liste der Ressourcen zur Sicherheit verfügbar, und zwar öffentlich für alle Snapchatter.
Gesamtzeit Inhalte zum Thema Selbstmord geteilt | 21.622 |
---|
Länderübersicht
Dieser Abschnitt gibt einen Überblick über die Durchsetzung unserer Community-Richtlinien in ausgewählten geografischen Regionen. Unsere Richtlinien gelten für alle Inhalte auf Snapchat—und für alle Snapchatter—weltweit unabhängig vom Standort.
Informationen zu einzelnen Ländern können über die angehängte CSV-Datei heruntergeladen werden.
Region | Meldungen von Inhalten* | Inhalte, gegen die Maßnahmen ergriffen wurden | Einzelne Konten, gegen die Maßnahmen ergriffen wurden |
---|---|---|---|
Nordamerika | 5.309.390 | 2.842.832 | 1.237.884 |
Europa | 3.043.935 | 1.450.690 | 595.992 |
Rest der Welt | 4.539.292 | 1.963.590 | 668.555 |
Gesamt | 12.892.617 | 6.257.112 | 2.502.431 |
CSV-Download:
Archivierte Transparenzberichte
- 1. Juli 2021 - 31. Dezember 2021
- 1. Januar 2021 - 30. Juni 2021
- 1. Juli 2020 - 31. Dezember 2020
- 1. Januar 2020 - 30. Juni 2020
- 1. Juli 2019 - 31. Dezember 2019
- 1. Januar 2019 - 30. Juni 2019
- 1. Juli 2018 - 31. Dezember 2018
- 1. Januar 2018 - 30. Juni 2018
- 1. Juli 2017 - 31. Dezember 2017
- 1. Januar 2017 - 30. Juni 2017
- 1. Juli 2016 - 31. Dezember 2016
- 1. Januar 2016 - 30. Juni 2016
- 1. Juli 2015 - 31. Dezember 2015
- 1. Januar 2015 - 30. Juni 2015
- 1. November 2014 - 28. Februar 2015