Ogni giorno, gli Snapchatter di tutto il mondo utilizzano la nostra app per parlare con i loro amici stretti e per esprimersi in modo creativo. Il nostro obiettivo è progettare prodotti e costruire una tecnologia che alimentino e supportino la vera amicizia, in un ambiente sano, sicuro e divertente. Lavoriamo costantemente per migliorare il modo in cui lo facciamo: dalle nostre politiche e Linee guida per la community ai nostri strumenti per prevenire, identificare e prendere provvedimenti contro i contenuti nocivi, alle iniziative che educano e danno forza alla nostra community.

Ci impegniamo a fornire maggiore trasparenza sulla diffusione di contenuti che violano le nostre linee guida, su come applichiamo le nostre politiche, su come reagiamo alle richieste delle forze dell'ordine e d'informazioni da parte dei governi, oltre a come vorremmo darvi maggiori informazioni in futuro. Pubblichiamo i report sulla trasparenza due volte all'anno per fornire informazioni su questi sforzi, impegnandoci per renderli più esaustivi e utili ai tanti investitori che hanno a cuore la sicurezza e la trasparenza online.

Questo report riguarda la seconda metà del 2020 (1 luglio - 31 dicembre). Come nei nostri report precedenti, anche questo condivide i dati sulle violazioni da noi ricevute in tutto il mondo durante il presente periodo; il numero di report sui contenuti che abbiamo ricevuto e applicato contro specifiche categorie di violazioni; come abbiamo sostenuto e soddisfatto le richieste da parte delle forze dell'ordine e dei governi; e le nostre forze divise per Paese.

Come parte dei nostri sforzi futuri per migliorare l'applicazione delle norme sulla sicurezza e gli stessi report sulla trasparenza, questo report include diversi nuovi elementi:

  • Il Violative View Rate (VVR) dei contenuti, che fa comprendere meglio la percentuale di tutti gli Snap (o visualizzazioni) contenenti violazioni delle nostre politiche;

  • Il totale delle applicazioni contro contenuti e account di false informazioni in tutto il mondo: quali sono state particolarmente rilevanti durante questo periodo mentre il mondo continuava a combattere contro la pandemia, oltre agli sforzi per minare le norme civiche e democratiche; e

  • Richieste di sostegno alle indagini su potenziali violazioni dei marchi.

Lavoriamo su un certo numero di miglioramenti, che accresceranno la nostra capacità di fornire dati più dettagliati nei report futuri. Questo include l'espansione in sottocategorie dei dati violanti. Per esempio, attualmente segnaliamo violazioni relative ai beni regolamentati, che includono droghe e armi illegali. Stiamo pianificando, per il futuro, d'includerli tutti nella propria sottocategoria.

Con l'emergere di nuove minacce e nuovi comportamenti online, continueremo a migliorare i nostri strumenti e le nostre tattiche per combatterli. Valutiamo costantemente i rischi e come far progredire le nostre funzionalità tecnologiche per proteggere meglio la nostra community. Cerchiamo regolarmente l'aiuto di esperti di difesa e sicurezza per capire come possiamo sempre stare un passo avanti rispetto ai cattivi: e siamo grati della nostra lista crescente di partner che danno un feedback prezioso e che ci spingono a fare meglio.

Per maggiori informazioni sul nostro approccio e sulle nostre risorse in materia di sicurezza e privacy, si prega di consultare la schedaInformazioni sul Report sulla trasparenza in fondo alla pagina.

Panoramica dei contenuti e delle violazioni degli account

Le nostre Linee Guida per la Community vietano i contenuti nocivi, inclusa la disinformazione; le teorie cospirative che possono causare danno; le pratiche ingannevoli; le attività illegali, tra cui l'acquisto o la vendita di droghe illegali, beni contraffatti, armi di contrabbando o illegali; i discorsi d'odio, i gruppi di odio e il terrorismo; molestie o atti di bullismo; minacce, violenza e lesioni, inclusa la glorificazione di autolesionismo; contenuti sessualmente espliciti; e lo sfruttamento sessuale.

Ogni giorno vengono creati in media più di cinque miliardi di Snap utilizzando la nostra fotocamera Snapchat. Dal 1° luglio al 31 dicembre 2020 abbiamo segnalato 5.543.281 contenuti che violavano le nostre linee guida in tutto il mondo.

Le azioni di applicazione potrebbero includere la rimozione dei contenuti offensivi; la risoluzione o la limitazione della visibilità dell'account in questione; e la segnalazione del contenuto alle forze dell'ordine. Se un account viene chiuso per la violazione delle nostre linee guida, al titolare dell'account non è consentito creare un nuovo account o utilizzare di nuovo Snapchat.

Durante il periodo del report, abbiamo constatato un Violative View Rate (VVR) dello 0,08%, ovvero che su ogni 10.000 visualizzazioni di contenuti su Snap, otto di questi violavano le nostre linee guida.

Offriamo strumenti di segnalazione in-app che permettono agli Snapchatter di segnalare in modo rapido e semplice i contenuti ai nostri team di Fiducia e sicurezza, i quali investigheranno sulla segnalazione e prenderanno i dovuti provvedimenti. I nostri team lavorano per intraprendere le azioni esecutive il più rapidamente possibile e nella maggior parte dei casi, agiscono entro due ore dalla ricezione della segnalazione in-app.

Oltre alla segnalazione in-app, offriamo anche opzioni di segnalazione online tramite il nostro sito di assistenza. Inoltre, i nostri team migliorano costantemente le funzionalità per il rilevamento proattivo di contenuti violanti e illegali, come il materiale pedopornografico, i contenuti che includono droghe o armi illegali o le minacce violenza. In questo report sottolineiamo i dettagli specifici del nostro lavoro per combattere lo sfruttamento sessuale e gli abusi sui minori.

Come mostrano i grafici di seguito, durante la seconda metà del 2020 abbiamo ricevuto un grosso numero di segnalazioni in-app o richieste di aiuto su contenuti che comprendevano contenuti sessualmente espliciti o simili. Siamo stati in grado di migliorare significativamente il nostro tempo di risposta alle segnalazioni di violazioni, in particolare sui beni regolamentati, che includono droghe illegali, beni contraffatti e armi; contenuti sessualmente espliciti; molestie e bullismo.

Numero totale di segnalazioni di contenuti*

Numero totale di contenuti moderati

Numero totale di singoli account soggetti a imposizioni

10.131.891

5.543.281

2.100.124

Motivo

Report sui contenuti*

Contenuti moderati

% di contenuti totali soggetti ad azioni

Numero di account unici soggetti a imposizioni

Tempo di elaborazione**

Contenuti sessualmente espliciti

5.839.778

4.306.589

77,7%

1.316.484

0,01

Merci regolamentate

523.390

427.272

7,7%

209.230

0,01

Minacce / Violenza / Danni

882.737

337.710

6,1%

232.705

0,49

Molestie e bullismo

723.784

238.997

4,3%

182.414

0,75

Spam

387.604

132.134

2,4%

75.421

0,21

Incitamento all'odio

222.263

77.587

1,4%

61.912

0,66

Furto d'identità

1.552.335

222.992

0,4%

21.958

0,33

*Le segnalazioni di contenuti rispecchiano le presunte violazioni tramite la nostra funzione di segnalazione nell'app.

**Il tempo di elaborazione rispecchia il tempo medio, calcolato in ore, impiegato per intervenire su una segnalazione effettuata da un utente.

Ulteriori violazioni

Combattiamo la diffusione d'informazioni false

Abbiamo sempre creduto che quando si tratta di contenuti nocivi, non è sufficiente pensare alle politiche e alla segnalazione: le piattaforme devono pensare alla loro architettura di base e al design del prodotto. Snapchat è stato costruito sin dall'inizio in modo diverso rispetto alle tradizionali piattaforme di social media, allo scopo di sostenere il nostro scopo d'utilizzo primario, ovvero parlare con gli amici stretti: piuttosto che avere una sezione notizie in cui chiunque possa divulgare qualsiasi cosa senza moderazione.

Come spiegato nella nostra introduzione, le nostre linee guida vietano chiaramente la diffusione d'informazioni false che potrebbero causare danno, incluse le disinformazioni che intendono minare i processi civili, come anche l'influenza sugli elettori, le dichiarazioni mediche non motivate e le teorie di cospirazione come la negazione di eventi tragici. Le nostre linee guida si applicano in modo coerente a tutti gli Snapchatter: non facciamo eccezioni per politici o per le figure pubbliche.

Grazie alla nostra app, Snapchat limita la viralità, la quale elimina qualsiasi incentivo ai contenuti dannosi e sensazionalistici e limita le preoccupazioni associate alla diffusione di contenuti dannosi. Non abbiamo una sezione notizie aperta e non diamo la possibilità di "diventare virali" ai contenuti non verificati. La nostra piattaforma di contenuti Scopri presenta solo contenuti da editori di media e creatori di contenuti verificati.

Nel novembre del 2020 abbiamo lanciato la nostra nuova piattaforma d'intrattenimento Spotlight e moderiamo in modo proattivo i contenuti, allo scopo di assicurarci che siano conformi alle linee guida prima che raggiungano un pubblico vasto.

Abbiamo adottato da tempo un approccio diverso anche alla propaganda politica. Come in tutti i contenuti su Snapchat, vietiamo informazioni false e pratiche ingannevoli nelle nostre inserzioni. Tutte le inserzioni politiche, incluse quelle relative alle elezioni, al patrocinio e alle problematiche devono includere un messaggio trasparente "offerto da" che riveli l'organizzazione sponsorizzante. Usiamo la revisione umana per verificare tutta la propaganda politica e forniamo informazioni su tutti gli annunci che passano la nostra revisione nella nostra Libreria della propaganda politica.

Questo approccio non è perfetto, ma ci ha aiutato a proteggere Snapchat dal drammatico aumento della disinformazione degli ultimi anni, una tendenza che è stata particolarmente rilevante durante un periodo in cui le informazioni false sul COVID-19 e le elezioni presidenziali degli Stati Uniti del 2020 consumavano molte piattaforme.

In quel periodo, Snapchat ha segnalato 5.841 contenuti e account per violazione delle nostre linee guida sulle informazioni false. Nei report futuri abbiamo intenzione di fornire un'analisi dettagliata della violazione delle informazioni false.

Data la preoccupazione crescente riguardo ai tentativi di minare l'accesso al voto e dei risultati delle elezioni degli Stati Uniti nell'estate del 2020, abbiamo costituito una task force interna che si concentra sulla valutazione di qualsiasi rischio o vettore per l'uso errato della nostra piattaforma e monitorandone tutti gli sviluppi, lavorando per essere sicuri che Snapchat fosse una risorsa di notizie e informazioni concrete. Questi risultati includono:

  • L'aggiornamento delle nostre linee guida per la community, allo scopo di aggiungere la manipolazione dei media per scopi fuorvianti, come i deepfake, nelle nostre categorie di contenuti proibiti;

  • Abbiamo lavorato con i nostri partner editoriali di Scopri per assicurarci che gli editori non avrebbero amplificato inavvertitamente alcuna disinformazione tramite la copertura mediatica;

  • Abbiamo chiesto a Snap Stars, i cui contenuti appaiono anche sulla nostra piattaforma di contenuti Scopri, per assicurarci che si attengano alle nostre Linee guida per la community e che non diffondano involontariamente informazioni false;

  • Avere esiti di applicazione chiari per qualsiasi contenuto in violazione (invece di etichettare il contenuto, semplicemente lo rimuoviamo) riduce immediatamente il danno che potrebbe creare se diffuso in modo più vasto;

  • Analizzare proattivamente le entità e altre fonti d'informazioni false che potrebbero essere utilizzate per distribuire tali informazioni su Snapchat, allo scopo di valutare il rischio e prendere misure preventive.

Durante tutta la pandemia di COVID-19 abbiamo adottato un approccio simile, fornendo notizie e informazioni fattive, anche attraverso la copertura fornita dai nostri partner editoriali di Scopri e gli strumenti creativi, come le lenti e i filtri di realtà aumentata, ricordando agli Snapchatter le guide degli esperti per la salute pubblica.

Totale dei contenuti e delle azioni sugli account

5.841

Sfruttamento e abuso sessuale di minori

Lo sfruttamento di qualsiasi membro della nostra community, specialmente di giovani e minori, è illegale, inaccettabile e vietato dalle nostre linee guida. Per noi prevenire, rilevare ed eliminare gli abusi sulla nostra piattaforma è una priorità assoluta e sviluppiamo continuamente le nostre funzionalità per combattere il Child Sexual Abuse Material (CSAM) e altri tipi di contenuti riguardanti lo sfruttamento.

I nostri team di Fiducia e sicurezza utilizzano strumenti di rilevamento proattivi, come la tecnologia PhotoDNA, per identificare le immagini chiaramente CSAM e segnalarle al National Center for Missing and Exploited Children (NCMEC). Quando rileviamo o identifichiamo proattivamente i casi di CSAM, li conserviamo e li segnaliamo al NCMEC, che li esaminerà e si coordinerà con le forze dell'ordine.

Nella seconda metà del 2020, il 2,99% degli account in tutto il mondo contro cui abbiamo intrapreso un'azione per la violazione delle nostre Linee guida della community contenevano CSAM. Di questi, abbiamo proattivamente rilevato e intrapreso azioni sul 73% dei contenuti. Abbiamo cancellato 47.550 account in totale per violazioni CSAM, tutte segnalate al NCMEC.

In questo lasso di tempo abbiamo intrapreso una serie di misure per combattere ulteriormente i CSAM. Abbiamo adottato la tecnologia per i video Child Sexual Abuse Imagery (CSAI) di Google, la quale ci permette d'identificare i video CSAM e di segnalarli al NCMEC. In combinazione con il nostro rilevamento PhotoDNA per immagini CSAM note e il database di hash del settore, ora possiamo rilevare in modo proattivo e segnalare alle autorità immagini video e foto note. Questa funzionalità potenziata ci ha consentito di diventare molto più efficienti nell'individuazione e nella segnalazione di comportamenti criminali.

Abbiamo continuato, inoltre, a espandere le nostre partnership con esperti del settore e abbiamo implementato ulteriori funzionalità in-app per istruire gli Snapchatter sui rischi del contatto con estranei e su come utilizzare la segnalazione in-app per avvisare i nostri team di Fiducia e sicurezza di qualsiasi tipo di abuso. Abbiamo continuato ad aggiungere partner al nostro programma affidabile di segnalazione, che fornisce agli esperti di sicurezza controllati un canale riservato per segnalare escalation di emergenza, come un'imminente minaccia alla vita o un caso che coinvolga CSAM. Lavoriamo anche a stretto contatto con questi partner per fornire educazione alla sicurezza, risorse per il benessere e altro supporto per la segnalazione in modo che possano supportare efficacemente la comunità Snapchat.

Facciamo parte del consiglio di amministrazione di Technology Coalition, un gruppo di leader del settore tecnologico che cercano di prevenire e sradicare lo sfruttamento e l'abuso sessuale di minori online e lavorano costantemente con altre piattaforme ed esperti di sicurezza per esplorare ulteriori soluzioni per rafforzare i nostri sforzi collettivi in questo spazio.

Numero totale degli account eliminati

47.550

Contenuti terroristici ed estremisti

Da Snap, monitorare gli sviluppi in questo ambito e mitigare eventuali potenziali vettori di abuso sulla nostra piattaforma faceva parte del lavoro della nostra task force per l'integrità delle elezioni negli Stati Uniti. Sia la nostra architettura di prodotto che il design della nostra funzionalità di Chat di gruppo limitano la diffusione di contenuti dannosi e le opportunità di organizzazione. Offriamo chat di gruppo, ma sono di dimensioni limitate a diverse dozzine di membri, non sono consigliate dagli algoritmi e non sono rilevabili sulla nostra piattaforma se non sei membro di quel gruppo.

Durante la seconda metà del 2020, abbiamo rimosso otto account per violazioni del nostro divieto di terrorismo, incitamento all'odio e contenuti estremisti.

Numero totale degli account eliminati

8

Panoramica per paese

Questa sezione fornisce una panoramica sull'applicazione delle nostre norme in un campione di singoli paesi. Le Linee guida della Community si applicano a tutti i contenuti pubblicati su Snapchat nonché a tutti gli Snapchatter in tutto il mondo, a prescindere dalla posizione geografica.

Le informazioni relative a tutti gli altri paesi sono consultabili scaricando il file CSV allegato.

Regione

Segnalazioni sulla regione*

Contenuti moderati

Numero di account unici soggetti a imposizioni

America del Nord

4.230.320

2.538.416

928.980

Europa

2.634.878

1.417.649

535.649

Resto del mondo

3.266.693

1.587.216

431.407

Totale

10.131.891

5.543.281

1.896.015