Raport przejrzystości

1 stycznia 2021 – 30 czerwca 2021

Opublikowano: 22 listopada 2021

Zaktualizowano: 22 listopada 2021

Każdego dnia Snapchatterzy na całym świecie używają naszej aplikacji, aby rozmawiać ze swoimi bliskimi znajomymi i wyrażać siebie w kreatywny sposób. Naszym celem jest projektowanie produktów i tworzenie technologii, które pielęgnują i wspierają prawdziwe przyjaźnie w zdrowym, bezpiecznym i wesołym środowisku. Nieustannie pracujemy nad ulepszaniem metod, jakie do tego wykorzystujemy — począwszy od naszych zasad i Wytycznych dla społeczności, poprzez narzędzia do zapobiegania, wykrywania i podejmowania działań przeciwko szkodliwym treściom, aż po inicjatywy, które pomagają edukować naszą społeczność i wzmacniać jej pozycję. 

Dążymy do zapewnienia większej przejrzystości w zakresie rozpowszechnienia treści naruszających nasze wytyczne, sposobu wdrażania naszych zasad, reagowania na wnioski organów ścigania i instytucji państwowych o udzielenie informacji oraz obszarów, które w przyszłości będziemy chcieli bardziej obserwować. Dwa razy w roku publikujemy raporty dot. przejrzystości, aby zapewnić wgląd w te wysiłki, a także dokładamy starań, aby raporty te były bardziej wyczerpujące i pomocne dla wielu zainteresowanych stron, którym bardzo zależy na bezpieczeństwie w Internecie i przejrzystości.

Niniejszy raport obejmuje drugą połowę 2020 r. (od 1 lipca do 31 grudnia). Podobnie jak w przypadku naszych poprzednich raportów, zawiera on dane dotyczące całkowitej liczby naruszeń, jakie miały miejsce w tym okresie na całym świecie; liczby otrzymanych zgłoszeń dotyczących treści, i co do których podjęliśmy działania w poszczególnych kategoriach naruszeń; sposobu, w jaki wspieraliśmy i spełnialiśmy prośby organów ścigania i instytucji państwowych; i wdrażane przez nas przepisy z podziałem na kraje.

W ramach naszych ciągłych wysiłków zmierzających do poprawy zarówno egzekwowania przepisów dot. bezpieczeństwa, jak i samych raportów dotyczących przejrzystości, niniejszy raport zawiera również kilka nowych elementów:

  • Wskaźnik wyświetleń naruszających zasady (VVR) treści, który pozwala lepiej zrozumieć, jaka część wszystkich Snapów (lub wyświetleń) zawierała treści naruszające nasze zasady;

  • Podejmowanie działań o zasięgu globalnym wobec ogółu treści i kont zawierających fałszywe informacje — co było szczególnie istotne w tym okresie, ponieważ świat wciąż walczył z globalną pandemią i próbami podważenia norm obywatelskich i demokratycznych; oraz

  • Wnioski o wsparcie dochodzeń w sprawie potencjalnych naruszeń znaków towarowych.

Pracujemy nad szeregiem usprawnień, które zwiększą naszą zdolność do dostarczania bardziej szczegółowych danych w przyszłych raportach. Obejmuje to rozszerzenie podkategorii danych dotyczących naruszeń. Na przykład obecnie zgłaszamy naruszenia związane z towarami regulowanymi, do których należą nielegalne narkotyki i broń. W przyszłości planujemy umieścić każde naruszenie w osobnej podkategorii.

W miarę pojawiania się nowych zagrożeń i zachowań w sieci, będziemy nadal udoskonalać nasze narzędzia i taktyki walki z nimi. Nieustannie oceniamy ryzyko i sposób, w jaki możemy rozwijać nasze możliwości technologiczne, aby lepiej chronić naszą społeczność. Regularnie zwracamy się do ekspertów ds. bezpieczeństwa i ochrony o wskazówki, w jaki sposób możemy być o krok przed złymi aktorami i jesteśmy wdzięczni naszym partnerom, których jest coraz więcej, a którzy przekazują nam bezcenne informacje zwrotne i zachęcają nas do bycia jeszcze lepszymi.

Aby uzyskać więcej informacji o naszych działaniach w zakresie bezpieczeństwa i ochrony prywatności zapoznaj się z zakładką O raportach przejrzystości, znajdującą się na dole strony.

Przegląd naruszeń dotyczących treści i kont

Nasze Zasady społeczności zabraniają publikowania szkodliwych treści, w tym dezinformacji; teorii spiskowych, które mogą wyrządzić szkodę; zwodniczych praktyk; nielegalnych działań, w tym kupowania lub sprzedawania nielegalnych narkotyków, podrabianych towarów, przemytu lub nielegalnej broni; mowy nienawiści, aktywności grup nienawiści i terroryzmu; napastowania i nękania; gróźb, przemocy i wyrządzania krzywdy, w tym gloryfikacji samookaleczeń; treści o charakterze seksualnym; oraz wykorzystywania seksualnego dzieci.

Każdego dnia średnio ponad pięć miliardów Snapów jest tworzonych za pomocą naszej kamery Snapchat. Od 1 lipca do 31 grudnia 2020 r. podjęliśmy działania na skalę globalną wobec 5.543.281 treści, które naruszały nasze wytyczne.

Takie podejmowanie działań może obejmować usuwanie obraźliwych treści, likwidację lub ograniczenie widoczności danego konta oraz przekazywanie treści organom ścigania. Jeśli konto zostanie zlikwidowane za naruszenie naszych wytycznych, właściciel konta nie może założyć nowego konta ani ponownie korzystać ze Snapchata.

W okresie sprawozdawczym Wskaźnik wykroczeń (Violative View Rate — VVR) wyniósł 0,08 procent. VVR jest definiowany jako odsetek wyświetleń story, zawierających treści naruszające prawo, w stosunku do wszystkich wyświetleń na Snapie. Innymi słowy, na każde 10 000 wyświetleń na Snapie osiem zawierało treści naruszające nasze wytyczne.

Oferujemy narzędzia do składania raportów w aplikacji, które pozwalają użytkownikom Snapchatters szybko i łatwo zgłaszać treści do naszych zespołów ds. zaufania i bezpieczeństwa, które badają zgłoszenie i podejmują odpowiednie działania. Nasze zespoły starają się podejmować działania możliwie najszybciej i w zdecydowanej większości przypadków podejmują działania w ciągu dwóch godzin od otrzymania zgłoszenia w aplikacji.

Oprócz zgłoszeń dokonywanych w aplikacji oferujemy również opcje zgłoszeń online za pośrednictwem naszej strony wsparcia. Ponadto nasze zespoły stale doskonalą możliwości proaktywnego wykrywania treści naruszających prawo i treści niezgodnych z prawem, takich jak materiały związane z molestowaniem seksualnym dzieci, treści zawierające nielegalne narkotyki lub broń, czy też groźby użycia przemocy. W niniejszym sprawozdaniu przedstawiamy szczegółowe informacje na temat naszej pracy w zakresie zwalczania wykorzystywania seksualnego dzieci i ich niegodziwego traktowania.

Jak wynika z poniższych wykresów, w drugiej połowie 2020 roku otrzymaliśmy najwięcej zgłoszeń w aplikacji lub wniosków o wsparcie odnośnie do treści związanych z podszywaniem się pod użytkownika lub treściami o charakterze pornograficznym. Udało nam się znacznie skrócić czas reakcji na zgłoszenia naruszeń, w szczególności dotyczące towarów regulowanych, do których należą nielegalne narkotyki, podróbki i broń, treści o charakterze pornograficznym oraz napastowanie i nękanie.

Zgłoszenia treści ogółem*Treści, wobec których podjęto działania ogółemUnikatowe konta, wobec których podjęto działania ogółem
10.131.8915.543.2812.100.124
PowódRaporty dotyczące treści*Treści, co do których podejmujemy działaniaPodjęto działania wobec % treści ogółemUnikalne konta, wobec których podejmujemy działaniaCzas wykonania:**
Treści o charakterze pornograficznym5.839.7784.306.58977,7%1.316.4840,01
Towary regulowane523.390427.2727,7%209.2300,01
Groźby / Przemoc/ Wyrządzanie krzywdy882.737337.7106, 1%232.7050,49
Napastowanie i nękanie723.784238.9974,3%182.4140,75
Spam387.604132.1342,4%75.4210,21
Mowa nienawiści222.26377.5871,4%61.9120,66
Podszywanie się1.552.33522.9920,4%21.9580,33

*Raporty dotyczące treści odnoszą się do potencjalnych naruszeń, które zostały zgłoszone w aplikacji oraz do Zespołu wsparcia.

**Czas realizacji to średni czas reakcji od otrzymania zgłoszenia od użytkownika.

Naruszenia rozszerzone

Zwalczanie rozprzestrzeniania się fałszywych informacji

Zawsze uważaliśmy, że jeśli chodzi o szkodliwe treści, nie wystarczy myśleć tylko o polityce i jej egzekwowaniu — platformy muszą myśleć o swojej podstawowej architekturze i koncepcji produktu. Od początku Snapchat był stworzony inaczej niż tradycyjne platformy mediów społecznościowych, aby wspierać nasz podstawowy przypadek użycia, jakim jest rozmowa z bliskimi znajomymi — raczej niż otwarty newsfeed, gdzie każdy ma prawo rozpowszechniać jakiekolwiek informacje innym bez elementu moderacji.

Jak wyjaśniamy we wstępie, nasze wytyczne wyraźnie zabraniają rozpowszechniania fałszywych informacji, które mogłyby wyrządzić szkodę, w tym dezinformacji, które mają na celu podważenie procesów obywatelskich, takich jak tłumienie głosów wyborczych, bezpodstawne twierdzenia medyczne i teorie spiskowe, takie jak zaprzeczanie tragicznym wydarzeniom. Nasze wytyczne dotyczą wszystkich Snapchatterów — nie obowiązują specjalne wyjątki dla polityków czy osób publicznych.

Snapchat ogranicza możliwość szybkiego rozprzestrzeniania się treści, co eliminuje zachęty do tworzenia szkodliwych i sensacyjnych treści, a także ogranicza obawy związane z rozprzestrzenianiem się niewłaściwych treści. Nie mamy otwartego newsfeedu i nie pozwalamy, aby niesprawdzone treści miały szansę rozprzestrzenić się w sieci. Nasza platforma treści Discover zawiera wyłącznie treści pochodzące od sprawdzonych wydawców i twórców treści.

W listopadzie 2020 roku uruchomiliśmy nową platformę rozrywkową Spotlight i proaktywnie moderujemy treści, aby zapewnić, że są one zgodne z naszymi wytycznymi, zanim trafią do szerokiej publiczności.

Od dawna mamy inne podejście także do reklamy treści politycznych. Podobnie jak w przypadku wszystkich treści na Snapchacie, zabraniamy podawania fałszywych informacji i stosowania zwodniczych praktyk w naszych reklamach. Wszystkie reklamy polityczne, w tym reklamy związane z wyborami, ogłoszenia dotyczące różnych kwestii i ogłoszenia społeczne muszą zawierać przejrzysty komunikat, kto za nie zapłacił, ujawniający dane sponsora. Używamy ludzkiej oceny, aby sprawdzić wszystkie reklamy polityczne pod kątem faktów i udostępniamy informacje o wszystkich reklamach, które przeszły naszą ocenę w naszej Bibliotece reklam politycznych

To podejście nie jest idealne, ale pomogło nam ochronić Snapchat przed dramatycznym wzrostem dezinformacji w ostatnich latach, trendem, który był szczególnie istotny w okresie, gdy fałszywe informacje na temat COVID-19 i wyborów prezydenckich w USA w 2020 roku pochłonęły wiele platform.

W tym okresie na całym świecie Snapchat podjął działania przeciwko 5 841 treściom i kontom w związku z naruszeniem naszych wytycznych dotyczących fałszywych informacji. W przyszłych raportach planujemy przedstawić bardziej szczegółowe zestawienia naruszeń fałszywych informacji.

Biorąc pod uwagę zwiększone obawy związane z działaniami mającymi na celu osłabienie dostępu do głosowania i wyników wyborów w USA latem 2020 roku, utworzyliśmy wewnętrzną Grupę Zadaniową, która skupiła się na ocenie wszelkich potencjalnych zagrożeń lub wektorów niewłaściwego wykorzystania naszej platformy, monitorowała wszystkie wydarzenia i pracowała nad zapewnieniem, że Snapchat będzie źródłem rzeczowych wiadomości i informacji. Działania te obejmowały:

  • Aktualizację naszych wytycznych społecznościowych, tak by dodać manipulację mediami mającą na celu wprowadzanie w błąd, np. deepfakes, do kategorii treści zabronionych;

  • Współpracę z naszymi partnerami redakcyjnymi z Discover, aby upewnić się, że wydawcy nie wzmacniają nieumyślnie błędnych informacji w wiadomościach;

  • Zwrócenie się do Snap Stars, których treści pojawiają się również na naszej platformie Discover, by upewnić się, że postępują zgodnie z naszymi Wytycznymi dla społeczności i nie rozpowszechniają nieumyślnie fałszywych informacji;

  • Posiadanie jasnych wyników dotyczących podejmowania działań w przypadku treści naruszających prawo — zamiast etykietować treści, po prostu je usuwaliśmy, natychmiast zmniejszając szkody związane z możliwością ich szerszego udostępniania; oraz

  • Proaktywne analizowanie podmiotów i innych źródeł fałszywych informacji, które mogłyby zostać wykorzystane do rozpowszechniania takich informacji na Snapchacie w celu oceny ryzyka i podjęcia środków zapobiegawczych.

Przez cały czas trwania pandemii COVID-19, przyjęliśmy podobne podejście do dostarczania rzeczowych wiadomości i informacji, w tym poprzez relacje dostarczane przez naszych partnerów redakcyjnych Discover, poprzez PSA i Q&A i przedstawicieli służby zdrowia i ekspertów medycznych, a także poprzez kreatywne narzędzia, takie jak soczewki i filtry rozszerzonej rzeczywistości, przypominające Snapchatterom o wskazówkach ekspertów w dziedzinie zdrowia publicznego.

Działania podjęte wobec ogółu treści i kont5.841

Zwalczanie wykorzystywania i molestowania seksualnego dzieci

Wykorzystywanie jakiegokolwiek członka naszej społeczności, zwłaszcza młodzieży i nieletnich, jest nielegalne, niedopuszczalne i zabronione naszymi wytycznymi. Zapobieganie, wykrywanie i eliminowanie nadużyć na naszej platformie jest dla nas najwyższym priorytetem i stale rozwijamy nasze możliwości zwalczania materiałów przedstawiających seksualne wykorzystywanie dzieci (CSAM) oraz innych rodzajów treści pornograficznych.

Nasze zespoły ds. zaufania i bezpieczeństwa wykorzystują proaktywne narzędzia wykrywania, takie jak technologia PhotoDNA, do identyfikacji znanych wizerunków CSAM i zgłaszania ich do Krajowego Centrum ds. Dzieci Zaginionych i Wykorzystywanych (NCMEC). Kiedy proaktywnie wykrywamy lub identyfikujemy przypadki CSAM, zachowujemy je i zgłaszamy do NCMEC, który następnie dokonuje przeglądu i koordynuje działania z organami ścigania.

W drugiej połowie 2020 roku 2,99 procent wszystkich kont, wobec których na całym świecie podjęliśmy działania w związku z naruszeniem naszych Wytycznych dla społeczności, zawierało CSAM. W związku z tym wykryliśmy w sposób proaktywny 73 procent treści i podjęliśmy wobec nich działania. W sumie usunęliśmy 47 550 kont w związku z naruszeniem CSAM i w każdym przypadku zgłosiliśmy te treści do NCMEC.

W tym czasie podjęliśmy szereg kroków w celu dalszego zwalczania materiałów CSAM. Przyjęliśmy opracowaną przez Google technologię CSAI (Child Sexual Abuse Imagery) dla filmów wideo, co pozwala nam identyfikować filmy wideo przedstawiające CSAM i zgłaszać je do NCMEC. W połączeniu z naszym systemem wykrywania PhotoDNA dla znanych obrazów CSAM i branżowymi bazami danych hash, możemy teraz proaktywnie wykrywać i zgłaszać władzom znane obrazy wideo i zdjęcia. Te zwiększone możliwości pozwoliły nam na znacznie skuteczniejsze wykrywanie, a tym samym zgłaszanie tego przestępczego procederu.

Ponadto, nadal rozwijaliśmy współpracę z ekspertami branżowymi i wprowadziliśmy dodatkowe funkcje w aplikacji, które pomagają edukować użytkowników Snapchatów na temat ryzyka związanego z kontaktami z nieznajomymi oraz sposobów korzystania z raportowania w aplikacji, aby powiadomić nasze zespoły ds. zaufania i bezpieczeństwa o wszelkich rodzajach nadużyć. Kontynuowaliśmy dodawanie partnerów do naszego programu zaufanych flagowców, który zapewnia sprawdzonym ekspertom ds. bezpieczeństwa poufny kanał do zgłaszania eskalacji sytuacji kryzysowych, takich jak bezpośrednie zagrożenie życia lub przypadek z udziałem CSAM. Współpracujemy również blisko z tymi partnerami, aby zapewnić edukację w zakresie bezpieczeństwa, zasoby wellness i inne wsparcie w zakresie raportowania, aby mogli oni skutecznie wspierać społeczność Snapchata.

Ponadto jesteśmy członkiem rady dyrektorów Technology Coalition, grupy liderów branży technologicznej, którzy starają się zapobiegać i eliminować wykorzystywanie i nadużycia seksualne wobec dzieci w Internecie, a także stale współpracujemy z innymi platformami i ekspertami ds. bezpieczeństwa w celu poszukiwania dodatkowych rozwiązań, które wzmocnią nasze wspólne wysiłki w tej dziedzinie.

Usuwanie wszystkich kont47.550

Treści o charakterze terrorystycznym i ekstremistycznym

W firmie Snap monitorowanie rozwoju sytuacji w tym obszarze i ograniczanie wszelkich potencjalnych wektorów nadużyć na naszej platformie było częścią pracy naszej grupy zadaniowej ds. integralności wyborów w USA. Zarówno architektura naszego produktu, jak i projekt funkcji Czatu grupowego ograniczają rozprzestrzenianie się szkodliwych treści i możliwości organizowania się. Oferujemy Czaty Grupowe, ale ich wielkość jest ograniczona do kilkudziesięciu członków, nie są one rekomendowane przez algorytmy i nie można ich odkryć na naszej platformie, jeśli nie jesteś członkiem danej Grupy.

W drugiej połowie 2020 roku usunęliśmy osiem kont za naruszenie naszego zakazu dotyczącego terroryzmu, mowy nienawiści i treści ekstremistycznych.

Usuwanie wszystkich kont8

Omówienie poszczególnych krajów

W tej części przedstawiono informacje dotyczące stosowania naszych wytycznych w poszczególnych krajach. Nasze Wytyczne dla społeczności mają zastosowanie do wszelkich treści w aplikacji Snapchat — na całym świecie, bez względu na lokalizację.

Informacje dotyczące poszczególnych krajów dostępne są w pliku CSV do pobrania.

RegionRaporty dotyczące treści*Treści, co do których podejmujemy działaniaUnikalne konta, co do których podejmujemy działania
Ameryka Północna4.230.3202.538.416928.980
Europa2.634.8781.417.649535.649
Reszta świata3.266.6931.587.216431.407
Łącznie10.131.8915.543.2811.896.015
  • AustraliaAustralia
  • AustriaAustria
  • Belgia (1)Belgia (1)
  • BrazyliaBrazylia
  • Kanada (1)Kanada (1)
  • DaniaDania
  • FinlandiaFinlandia
  • Francja (1)Francja (1)
  • Niemcy (1)Niemcy (1)
  • Indie (1)Indie (1)
  • Irak (1)Irak (1)
  • Irlandia (1)Irlandia (1)
  • WłochyWłochy
  • Meksyk (1)Meksyk (1)
  • HolandiaHolandia
  • Nowa Zelandia (1)Nowa Zelandia (1)
  • Norwegia (1)Norwegia (1)
  • Polska (1)Polska (1)
  • Arabia Saudyjska (1)Arabia Saudyjska (1)
  • Hiszpania (1)Hiszpania (1)
  • SzwecjaSzwecja
  • TurcjaTurcja
  • Zjednoczone Emiraty ArabskieZjednoczone Emiraty Arabskie
  • Wielka BrytaniaWielka Brytania
  • Stany Zjednoczone Stany Zjednoczone

Pobieranie CSV:

Archiwum raportów dotyczących przejrzystości