Informe de transparencia
1 de julio de 2021 – 31 de diciembre de 2021
Publicado: 1 de abril de 2022
Actualizado: 1 de abril de 2022
A medida que Snapchat crece, nuestro objetivo es seguir haciendo que las personas se expresen, vivan el presente, aprendan cosas sobre el mundo y que se diviertan juntas, todo ello en un entorno seguro. Para ello, mejoramos continuamente nuestras prácticas de seguridad y privacidad, incluyendo nuestras Condiciones de Servicio, Pautas para la Comunidad; herramientas para evitar, detectar y hacer cumplir las leyes contra el contenido nocivo; e iniciativas que ayudan a educar y apoyar a nuestra comunidad.
Para ofrecer información sobre estos esfuerzos y darle visibilidad a la naturaleza y el volumen de contenido notificado en nuestra plataforma, publicamos informes de transparencia dos veces al año. Tenemos el compromiso de seguir haciendo que estos informes sean más completos e informativos para las muchas partes interesadas que se preocupan profundamente por la seguridad y la transparencia en línea.
Este informe abarca el segundo semestre de 2021 (del 1 de julio al 31 de diciembre). Al igual que nuestros informes anteriores, comparte datos sobre el número internacional de informes sobre contenido interno de la aplicación y los informes en el ámbito de cuentas que recibimos y aplicamos en las categorías específicas de infracciones; cómo hemos respondido a las solicitudes de las autoridades policiales y los gobiernos; y nuestras acciones desglosadas por país. También incluye adiciones recientes a este informe, incluida la Tasa de vistas violatorias de contenido de Snapchat, posibles infracciones de marcas registradas, e incidencias de información falsa en la plataforma.
Como parte de nuestro enfoque continuo en la mejora de nuestros informes de transparencia, estamos introduciendo varios elementos nuevos a este informe. Para esta entrega y las siguientes, estamos dividiendo las drogas, las armas y las mercancías reguladas en sus propias categorías, lo que proporcionará detalles adicionales sobre su prevalencia y nuestros esfuerzos de aplicación.
Por primera vez, también hemos creado una nueva categoría de informes sobre suicidio y daño autoinfligido para proporcionar información sobre los informes totales de cuentas y contenido que recibimos y sobre los cuales tomamos acciones. Como parte de nuestro compromiso con el bienestar de nuestra comunidad, nuestros equipos de confianza y seguridad comparten recursos dentro de la aplicación con los Snapchatters que lo necesiten, y también estamos compartiendo más detalles sobre ese trabajo aquí.
Para obtener más información sobre nuestras políticas para combatir daños en línea, y sobre los planes para seguir evolucionando nuestras prácticas de notificación, consulte nuestro reciente blog de Seguridad e impacto sobre este informe de transparencia.
Para encontrar recursos adicionales para la seguridad y la privacidad en Snapchat, consulte nuestra pestaña de Informes de transparencia en la parte inferior de la página.
Resumen de las infracciones de cuentas y contenidos
Desde el 1 de julio al 31 de diciembre de 2021, hemos actuado contra 6 257 122 piezas de contenido internacional que infringieron nuestras políticas. Las acciones de aplicación incluyen eliminar el contenido ofensivo o cerrar la cuenta en cuestión.
Durante el periodo del informe, vimos una Tasa de Visualización Violenta (VVR por sus siglas en inglés, Violative View Rate) del 0.08 %, lo que significa que de cada 10 000 vistas de Snap y Story, 8 incluían contenido que infringía nuestras pautas.
Informes de contenido total y de cuenta | Total de contenido regulado | Total de cuentas únicas comprometidas |
---|---|---|
12.892.617 | 6.257.122 | 2.704.771 |
Motivo | Informes de contenido y cuenta | Contenido regulado | % de contenido total regulado | Cuentas únicas reguladas | Tiempo medio de respuesta (minutos) |
---|---|---|---|---|---|
Contenido sexualmente explícito | 7.605.480 | 4.869.272 | 77,8 % | 1.716.547 | <1 |
Drogas | 805.057 | 428.311 | 6,8 % | 278.304 | 10 |
Acoso y bullying | 988.442 | 346.624 | 5,5 % | 274.395 | 12 |
Amenazas y violencia | 678.192 | 232.565 | 3.7 % | 159.214 | 12 |
Spam | 463.680 | 153.621 | 2,5 % | 110.102 | 4 |
Discurso sobre el odio | 200.632 | 93.341 | 1,5 % | 63.767 | 12 |
Otros Bienes regulados | 56.505 | 38.860 | 0,6 % | 26.736 | 6 |
Autolesiones y suicidio | 164.571 | 33.063 | 0,5 % | 29.222 | 12 |
Suplantación | 1.863.313 | 32.749 | 0,5 % | 25.174 | <1 |
Armas | 66.745 | 28.706 | 0,5 % | 21.310 | 8 |
Infracciones ampliadas
Combatiendo el material de explotación sexual infantil
La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, inaceptable y está prohibida por nuestras Pautas para la comunidad. La prevención, detección y erradicación del contenido de abuso sexual infantil (CSAM, por sus siglas en inglés) en nuestra plataforma es una de nuestras máximas prioridades, y nuestras capacidades están en constante evolución para abordar CSAM y otros tipos de contenidos de explotación sexual infantil.
Nuestros equipos de confianza y de seguridad utilizan herramientas de detección de tecnología activa, tales como la robusta detección de coincidencias de hash PhotoDNA, y el cotejo de imágenes de abuso sexual infantil de Google (Child Sexual Abuse Imagery, CSAI, por sus siglas en inglés) para identificar imágenes y videos ilegales de CSAM conocidos y notificarlos al Centro nacional estadounidense de menores desaparecidos y explotados (U.S. National Center for Missing and Exploited Children, NCMEC, por sus siglas en inglés), según lo requerido por la ley. El NCMEC, a su vez, coordina con las autoridades policiales nacionales o internacionales, según se requiera.
En el segundo semestre de 2021, detectamos proactivamente y actuamos en el 88 % de las infracciones de CASM indicadas aquí. Los avances en nuestra capacidad de detección proactiva resultaron en un aumento notable de esa categoría para ese período informado.
Total de cuentas eliminadas | 198 109 |
---|
Cómo combatir la difusión de información falsa
Siempre hemos creído que cuando se trata de contenido dañino, no basta pensar en políticas y en hacerlas cumplir; las plataformas necesitan tener en cuenta su arquitectura fundamental y el diseño de sus productos. Desde el principio, Snapchat se construyó de manera diferente a la de las plataformas de redes sociales tradicionales, sin un servicio de noticias abierto donde cualquiera pueda transmitirle a una gran audiencia sin moderación.
Nuestras Pautas prohíben claramente la difusión de información falsa que pudiera causar daño, incluida la información falsa que trata de socavar procesos cívicos, afirmaciones médicas infundadas, y la negación de acontecimientos trágicos. Nuestras pautas y su cumplimiento se aplican de manera uniforme a todos los Snapchatters; no hacemos excepciones especiales para políticos u otras figuras públicas.
Durante este periodo, a nivel mundial, Snapchat aplicó medidas contra un total combinado de 14 613 cuentas y piezas de contenido por infracciones de nuestras pautas sobre la información falsa.
Total de ejecuciones de contenidos y de cuentas | 14 613 |
---|
Contenido extremista terrorista y violento
Durante el período del informe, eliminamos 22 cuentas por infracciones de nuestra prohibición de contenido terrorista o extremista violento.
En Snap, eliminamos el contenido terrorista y extremista violento, informado a través de múltiples canales. Entre ellos se incluyen permitir que los usuarios informen del contenido terrorista y extremista violento, a través de nuestro menú de reporte dentro de la aplicación, y trabajamos en estrecha colaboración con las autoridades policiales para abordar el contenido terrorista y extremista violento que pueda aparecer en Snap.
Total de cuentas eliminadas | 22 |
---|
Contenido de autolesión y suicidio
Nos preocupamos profundamente por la salud mental y el bienestar de los Snapchatters, lo que ha influido en muchas de nuestras decisiones sobre cómo construir Snapchat de forma diferente. Como plataforma diseñada para ayudar a que se comuniquen amigos reales, creemos que Snapchat puede jugar un papel único en fomentar que los amigos se ayuden unos a otros en esos momentos difíciles.
Cuando nuestro equipo de seguridad y confianza reconoce a un Snapchatter en situación de angustia, tiene la opción de enviarle recursos de prevención y ayuda contra las autolesiones, y de informar al personal de emergencias si es necesario. Los recursos que compartimos están disponibles en nuestra lista mundial de recursos de seguridad, y están disponibles públicamente para todos los Snapchatters.
Total de veces en que se han compartido recursos suicidas | 21 622 |
---|
Resumen general por países
Esta sección ofrece un resumen de la aplicación de nuestras Pautas para la comunidad en una muestra de regiones geográficas. Nuestras pautas aplican para todo el contenido en Snapchat, y para todos los Snapchatters del mundo, independientemente de su ubicación.
La información por países individuales está disponible para descargarse por medio del archivo CSV adjunto.
Región | Informes sobre el contenido* | Contenido regulado | Cuentas únicas reguladas |
---|---|---|---|
Norteamérica | 5 309 390 | 2 842 832 | 1 237 884 |
Europa | 3 043 935 | 1 450 690 | 595 992 |
Resto de mundo | 4 539 292 | 1 963 590 | 668 555 |
Total | 12 892 617 | 6 257 112 | 2 502 431 |
Descargar CSV:
Archivo de Informes de transparencia
- 1 de julio de 2021 - 31 de diciembre de 2021
- 1 de enero de 2021 - 30 de junio de 2021
- 1 de julio de 2020 - 31 de diciembre de 2020
- 1 de enero de 2020 - 30 de junio de 2020
- 1 de julio de 2019 - 31 de diciembre de 2019
- 1 de enero de 2019 - 30 de junio de 2019
- 1 de julio de 2018 - 31 de diciembre de 2018
- 1 de enero de 2018 - 30 de junio de 2018
- 1 de julio de 2017 - 31 de diciembre de 2017
- 1 de enero de 2017 - 30 de junio de 2017
- 1 de julio de 2016 - 31 de diciembre de 2016
- 1 de enero de 2016 - 30 de junio de 2016
- 1 de julio de 2015 - 31 de diciembre de 2015
- 1 de enero de 2015 - 30 de junio de 2015
- 1 de noviembre de 2014 - 28 de febrero de 2015