Rapport sur la transparence
1 juillet 2021 – 31 décembre 2021
Publication : 1 avril 2022
Mise à jour : 1 avril 2022
À mesure que Snapchat se développe, notre objectif est de continuer à donner aux utilisateurs les moyens de communiquer, de vivre l'instant présent et de découvrir le monde tout en s'amusant ensemble, le tout dans un environnement sûr et sécurisé. Pour ce faire, nous améliorons constamment nos pratiques en matière de sécurité et de confidentialité, notamment nos Conditions d'utilisation du service, nos Règles communautaires ; nous améliorons également les outils de prévention, de détection et de sanction des contenus préjudiciables, ainsi que les initiatives qui contribuent à éduquer et à responsabiliser notre communauté.
Afin de vous fournir des informations portant sur ces efforts ainsi que la visibilité sur la nature et le volume de contenu signalé sur notre plateforme, nous publions des rapports de transparence deux fois par an. Nous entendons poursuivre la publication de ces rapports dans l'objectif de les rendre plus complets et plus documentés afin de répondre aux besoins des nombreuses parties prenantes qui s'intéressent particulièrement à la sécurité et à la transparence en ligne.
Le présent rapport couvre le deuxième semestre 2021 (du 1er juillet au 31 décembre). Comme pour nos rapports précédents, il partage les données sur le nombre total de contenus dans l'application et des signalements au niveau des comptes que nous avons reçus et sanctionné dans des catégories spécifiques de violations, la manière dont nous avons répondu aux demandes des forces de l'ordre et des gouvernements, et nos différentes sanctions ventilées par pays. Il inclut également les ajouts récents, notamment le taux de vues non conformes du contenu Snapchat, les violations potentielles des marques déposées et les cas de fausses informations sur la plateforme.
Dans le cadre de notre volonté permanente d'améliorer nos rapports de transparence, nous introduisons plusieurs nouveaux éléments dans le présent rapport. Dans le cadre de cette édition et des suivantes, nous classons les drogues, les armes et les marchandises réglementées dans des catégories distinctes, ce qui nous permettra d'obtenir des informations supplémentaires sur leur prévalence et nos efforts de sanction.
Pour la première fois, nous avons également créé une nouvelle catégorie relative aux signalements des cas de suicide et d'automutilation afin de donner un aperçu du contenu total et des signalements de comptes que nous recevons et auxquels nous donnons suite. Dans le cadre de notre engagement à soutenir le bien-être de notre communauté, nos équipes Trust and Safety partagent les ressources dans l'application avec les Snapchatters qui en ont besoin, et nous partageons également plus de détails sur ce travail dans le présent rapport.
Pour plus d'informations sur nos politiques de lutte contre les contenus préjudiciables en ligne et sur nos plans visant à améliorer nos pratiques de signalement, veuillez consulter notre récent blog Sécurité et impact sur ce rapport sur la transparence.
Pour trouver des ressources supplémentaires en matière de sécurité et de vie privée sur Snapchat, cliquez sur notre onglet À propos du rapport de transparence au bas de la page.
Aperçu du contenu et des comptes en infraction
Du 1er juillet au 31 décembre 2021, nous avons sanctionné 6 257 122 éléments de contenu violant nos politiques dans le monde entier. Les mesures de sanction peuvent inclure la suppression du contenu offensant ou la fermeture du compte concerné.
Pendant la période considérée, nous avons vu un taux de vues non conformes (TVNC) de 0,08 %, ce qui signifie que sur les 10 000 vues de contenu Snap et de Story sur Snapchat, huit contenaient du contenu qui violait nos Règles.
Rapports sur le nombre total de contenu et de comptes | Nombre total de contenu sanctionné | Nombre total des comptes uniques sanctionnés |
---|---|---|
12 892 617 | 6 257 122 | 2 704 771 |
Raison | Rapports sur le contenu et les comptes | Contenu sanctionné | % de contenu total sanctionné | Comptes uniques sanctionnés | Délai médian (en minutes) |
---|---|---|---|---|---|
Contenu sexuellement explicite | 7 605 480 | 4 869 272 | 77,8 % | 1 716 547 | <1 |
Drogues | 805 057 | 428 311 | 6,8 % | 278 304 | 10 |
Harcèlement et intimidation | 988 442 | 346 624 | 5,5 % | 274 395 | 12 |
Menaces et violence | 678 192 | 232 565 | 3,7 % | 159 214 | 12 |
Spam | 463 680 | 153 621 | 2,5 % | 110 102 | 4 |
Discours haineux | 200 632 | 93 341 | 1,5 % | 63 767 | 12 |
Autres marchandises réglementées | 56 505 | 38 860 | 0,6 % | 26 736 | 6 |
Automutilation et suicide | 164 571 | 33 063 | 0,5 % | 29 222 | 12 |
Usurpation d'identité | 1 863 313 | 32 749 | 0,5 % | 25 174 | <1 |
Armes | 66 745 | 28 706 | 0,5 % | 21 310 | 8 |
Infractions élargies
Combattre le matériel pédopornographique
L'exploitation sexuelle de tout membre de notre communauté, en particulier les mineurs, est illégale, inacceptable et interdite par nos Règles communautaires. La prévention, la détection et l'éradication du matériel pédopornographique (CSAM) sur notre plateforme est une priorité absolue pour nous, et nous améliorons constamment nos capacités afin d’éradiquer tout matériel pédopornographique et tout autre types de contenu qui favorise l'exploitation sexuelle des enfants.
Nos équipes Trust and Safety utilisent des outils de détection de technologie active, tels que le hachage robuste de PhotoDNA et l'imagerie pédopornographique Match de Google, pour identifier les images et vidéos illégales répertoriées par le matériel pédopornographique et les signaler au Centre américain pour les enfants disparus et exploités (NCMEC), comme l'exige la loi. Le NCMEC assure ensuite, à son tour, la coordination avec les forces de l'ordre nationales ou internationales, selon les besoins.
Au deuxième semestre 2021, nous avons détecté et traité de manière proactive 88 % des violations totales liées au matériel pédopornographique signalées ici. Les progrès réalisés dans notre capacité de détection proactive ont entraîné une augmentation notable dans cette catégorie pour cette période de rapport.
Nombre total de suppressions de comptes | 198 109 |
---|
Lutte contre la propagation de fausses informations
Nous avons toujours pensé que lorsqu'il s'agit de contenu préjudiciable, il ne suffit pas de penser aux politiques et à leur mise en œuvre, mais que les plateformes doivent tenir compte de leur architecture fondamentale et de la conception de leurs produits. Dès le début, Snapchat a été construit différemment des plateformes de médias sociaux traditionnelles, sans un fil d'actualité ouvert où n'importe qui peut diffuser à une large audience sans modération.
Nos règles interdisent clairement la propagation de fausses informations susceptibles de causer des dommages, notamment les fausses informations visant à porter atteinte aux processus civiques, les allégations médicales non fondées et la négation d'événements tragiques. Nos Règles et leur mise en œuvre s'appliquent systématiquement à tous les Snapchatters. Nous n'aménageons aucune exception spéciale en faveur des politiciens ou autres personnalités publiques.
Au cours de cette période, Snapchat a pris des mesures à l'encontre d'un total combiné de 14 613 comptes et contenus pour violation de nos règles relatives aux fausses informations.
Nombre total de contenus et de comptes sanctionnés | 14 613 |
---|
Le contenu terroriste, violent et extrémiste
Au cours de la période considérée, nous avons supprimé 22 comptes pour violation de nos mesures de prohibition du contenu terroriste et extrémiste violent.
Chez Snap, nous supprimons les contenus terroristes et extrémistes violents signalés sur des canaux multiples. Nous permettons notamment aux utilisateurs de signaler les contenus terroristes et extrémistes violents via notre menu de signalement dans l'application, et nous travaillons en étroite collaboration avec les forces de l'ordre pour traiter les contenus terroristes et extrémistes violents susceptibles d'apparaître sur Snap.
Nombre total de suppressions de comptes | 22 |
---|
Contenu relatif à l'automutilation et au suicide
Nous nous soucions énormément de la santé mentale et du bien-être des Snapchatters, ce qui a influencé plusieurs de nos propres décisions visant à définir une approche de construction de Snapchat différente. La plateforme Snapchat a été conçue pour permettre aux véritables amis de communiquer ; et nous pensons qu'elle peut jouer un rôle unique en permettant aux amis de s'entraider dans ces moments difficiles.
Lorsque notre équipe Trust & Safety reconnaît un Snapchatter en détresse, elle a la possibilité de transmettre des ressources de prévention et d'assistance en matière d'automutilation, et d'informer le personnel d'intervention d'urgence le cas échéant. Les ressources que nous partageons sont disponibles sur notre liste mondiale de ressources en matière de sécurité, et ces ressources sont accessibles à tous les Snapchatters.
Nombre total de fois où les ressources pour les suicides ont été partagées. | 21 622 |
---|
Aperçu de pays
Cette section fournit un aperçu de l'application de nos Règles communautaires dans un échantillon de régions géographiques. Nos Règles s'appliquent à tout le contenu de Snapchat - et à tous les Snapchatters - à travers le monde, peu importe leur localisation.
Les informations des pays individuels sont disponibles pour le téléchargement via le fichier CSV ci-joint.
Région | Rapports de contenu* | Contenu sanctionné | Comptes uniques sanctionnés |
---|---|---|---|
Amérique du Nord | 5 309 390 | 2 842 832 | 1 237 884 |
Europe | 3 043 935 | 1 450 690 | 595 992 |
Reste du monde | 4 539 292 | 1 963 590 | 668 555 |
Total | 12 892 617 | 6 257 112 | 2 502 431 |
Télécharger le fichier CSV :
Rapports sur la transparence - Archives
- 1 juillet 2021 - 31 décembre 2021
- 1 janvier 2021 - 30 juin 2021
- 1 juillet 2020 - 31 décembre 2020
- 1 janvier 2020 - 30 juin 2020
- 1 juillet 2019 - 31 décembre 2019
- 1 janvier 2019 - 30 juin 2019
- 1 juillet 2018 - 31 décembre 2018
- 1 janvier 2018 - 30 juin 2018
- 1 juillet 2017 - 31 décembre 2017
- 1 janvier 2017 - 30 juin 2017
- 1 juillet 2016 - 31 décembre 2016
- 1 janvier 2016 - 30 juin 2016
- 1 juillet 2015 - 31 décembre 2015
- 1 janvier 2015 - 30 juin 2015
- 1 novembre 2014 - 28 février 2015