Informe de transparencia

1 de julio de 2020 – 31 de diciembre de 2020

Publicado: 1 de julio de 2021

Actualizado: 1 de julio de 2021

Cada día, los Snapchatters de todo el mundo utilizan nuestra aplicación para hablar con sus amigos íntimos y para expresarse de forma creativa. Nuestro objetivo es diseñar productos y crear tecnologías que promuevan y apoyen amistades verdaderas en un entorno saludable, seguro y divertido. Trabajamos constantemente para mejorar la forma en que lo hacemos, desde nuestras políticas y Pautas para la comunidad, nuestras herramientas de prevención, detección y eliminación de contenidos dañinos, hasta iniciativas que ayuden a educar y a apoyar a nuestra comunidad.

Estamos comprometidos a ofrecer la mayor transparencia sobre la prevalencia de contenidos que infrinjan nuestras pautas, el modo en que aplicamos nuestras políticas, la manera en que respondemos a las solicitudes de información de gobiernos y fuerzas del orden, y los ámbitos donde pretendemos proporcionar más información en el futuro. Publicamos informes de transparencia dos veces al año para proporcionar información sobre estos esfuerzos, y también nos comprometemos a hacer que estos informes sean más completos y útiles para las muchas partes interesadas que se preocupan profundamente por la seguridad y la transparencia en línea.

Este informe abarca el segundo semestre de 2020 (del 1 de julio al 31 de diciembre). Al igual que en informes anteriores, compartimos datos sobre el total de infracciones globales durante este período; el número de informes sobre contenidos recibidos y eliminados en todas las categorías de infracción específicas; cómo atendemos y cumplimos con las solicitudes tanto de las fuerzas del orden como de los gobiernos; y nuestras ejecuciones, desglosadas por país.

Como parte de nuestros continuos esfuerzos por mejorar tanto nuestras medidas de seguridad como nuestros propios informes de transparencia, este informe incluye también varios elementos nuevos:

  • La Tasa de Visualización Violatoria (VVR) del contenido, que ofrece una mejor comprensión de la proporción de todos los Snaps (o visualizaciones) que contenían contenido que violaba nuestras políticas;

  • El total de eliminaciones de cuentas y contenidos por falsa información a nivel mundial, especialmente relevante durante este período al seguir el mundo inmerso en su lucha contra una pandemia mundial y los esfuerzos para socavar las normas cívicas y democráticas; y

  • Las solicitudes de apoyo a las investigaciones sobre posibles infracciones de marcas registradas.

Estamos trabajando en una serie de mejoras que aumentarán nuestra capacidad para proporcionar información más detallada en informes futuros. Esto incluye la ampliación de las subcategorías de datos fraudulentos. Por ejemplo, mientras que ahora informamos de las infracciones relacionadas con bienes regulados, incluidas las drogas ilegales y las armas. En el futuro, tenemos previsto incluir cada una en su propia subcategoría.

A medida que surjan nuevas amenazas y conductas en línea, seguiremos mejorando nuestras herramientas y tácticas para combatirlas. Evaluamos constantemente los riesgos y el modo de avanzar en nuestras capacidades tecnológicas para proteger mejor a nuestra comunidad. Buscamos continuamente la orientación de los expertos en seguridad y prevención para descubrir la manera de continuar siempre un paso por delante de los transgresores, y damos las gracias a nuestra creciente lista de socios, que nos proporcionan comentarios valiosos y nos impulsan a ser mejores.

Para obtener más información sobre nuestro enfoque y recursos para la seguridad y la privacidad consulta nuestra pestaña de Informes sobre transparencia en la parte inferior de la página.

Resumen de las infracciones de cuentas y contenidos

Nuestras Pautas para la comunidad prohíben el contenido dañino, incluidas las informaciones falsas; las teorías conspiratorias que puedan causar daños; las prácticas deshonestas; las actividades ilegales, incluidas la compra o venta de drogas ilegales, bienes falsificados, contrabando o armas ilegales; el discurso de odio, grupos de odio y el terrorismo; el acoso y el bullying; las amenazas, la violencia y el daño, incluida la glorificación del autolesionado; el contenido sexualmente explícito y la explotación sexual infantil.

Cada día se crean más de 5 mil millones de Snaps con la cámara de Snapchat en promedio. Desde el 1 de julio al 31 de diciembre de 2020, hemos actuado contra 5.543.281 piezas de contenido a nivel mundial que infringieron nuestras pautas.

Las medidas de actuación pueden incluir la eliminación del contenido ofensivo; la terminación o la limitación de visibilidad de la cuenta en cuestión; y la remisión del contenido a las fuerzas del orden. Si una cuenta es rescindida por violar nuestras Pautas, el titular de la cuenta no estará autorizado para crear una nueva cuenta o utilizar Snapchat de nuevo.

Durante el período que abarca el informe, observamos una Tasa de Vista Violatoria (VVR) del 0,08 por ciento. La VVR se define como el porcentaje de visualizaciones de historias de snap que incluyen contenido que infringe nuestras políticas, como una proporción de todas las visualizaciones de contenido en Snap. Dicho de otro modo, ocho de cada 10 000 visualizaciones de contenido en Snap incluían contenido que infringía nuestras pautas.

La aplicación dispone de herramientas de denuncia que permiten a los Snapchatters notificar rápida y fácilmente el contenido a nuestros equipos de confianza y seguridad, quienes investigan las denuncias y toman las medidas apropiadas. Nuestros equipos trabajan para tomar las medidas de acción tan rápido como sea posible y, en la gran mayoría de los casos, las ponen en acción dentro de las dos horas siguientes a la recepción de una denuncia en la aplicación.

Además de las denuncias desde la aplicación, también ofrecemos la posibilidad de denunciar en línea a través de nuestra página de asistencia. Por si fuera poco, nuestros equipos siempre están mejorando sus capacidades para detectar proactivamente infracciones y contenidos ilegales, como pueden ser el material de abuso sexual infantil, aquel que implique drogas o armas ilegales, o bien amenazas de violencia. En este informe exponemos detalles específicos de nuestro trabajo para combatir la explotación y el abuso sexual infantil.

Tal y como se muestra en los gráficos a continuación, durante la segunda mitad de 2020 recibimos el mayor número de denuncias o solicitudes de asistencia en la aplicación, sobre contenidos que implicaban suplantación de identidad o contenidos sexualmente explícitos. Hemos podido mejorar significativamente nuestro tiempo de respuesta a las denuncias de infracciones, en particular aquellas sobre bienes regulados, incluidas las drogas ilegales, falsificaciones y armas; el contenido sexualmente explícito; y el acoso y el bullying.

Total de informes de contenido*Total de contenido comprometidoTotal de cuentas únicas comprometidas
10.131.8915.543.2812.100.124
MotivoInformes sobre el contenido*Contenido regulado% del total de contenido ejecutadoCuentas únicas reguladasTiempo de repuesta**
Contenido sexualmente explícito5.839.7784.306.58977.7 %1.316.4840.01
Bienes regulados523.390427.2727.7 %209.2300.01
Amenaza/ Violencia/ Daño882.737337.7106.1 %232.7050.49
Acoso e intimidación723.784238.9974.3 %182.4140.75
Spam387.604132.1342.4 %75.4210.21
Discurso sobre el odio22.26377.5871.4 %61.9120.66
Suplantación1.552.33522.9920.4 %21.9580.33

*Las denuncias de contenido indican presuntas violaciones a través de nuestras solicitudes de ayuda y en la app.

**El tiempo de respuesta refleja el promedio en horas que puede demorar la toma de acción sobre una denuncia de un usuario.

Violaciones ampliadas

Cómo combatir la difusión de información falsa

Siempre hemos creído que cuando se trata de contenidos dañinos, no basta con ceñirse a medidas o políticas, las plataformas han de pensar en la arquitectura fundamental y el diseño de su producto. Desde el principio, Snapchat se construyó de manera distinta a las plataformas tradicionales de redes sociales, para apoyar nuestro principal uso práctico: charlar con nuestros mejores amigos, en lugar de una fuente abierta de noticias donde cualquiera tenga el derecho de distribuir lo que sea a cualquier otro sin moderación.

Tal y como explicamos en nuestra introducción, nuestras pautas prohíben claramente la difusión de información falsa susceptible de causar daño, incluida la desinformación que pretenda socavar los procesos cívicos, como la supresión de votantes, las afirmaciones médicas sin fundamento, y las teorías conspiratorias como la negación de acontecimientos trágicos. Nuestras pautas se aplican de forma igualitaria a todos los Snapchatters, y no hacemos excepciones con políticos o personajes públicos.

En nuestra aplicación, Snapchat restringe la viralidad, lo que elimina los incentivos tras el contenido dañino y sensacionalista, y reduce las preocupaciones asociadas a la difusión de contenido maligno. No disponemos de bandeja de noticias abierta, y no damos a los contenidos no supervisados la oportunidad de «volverse virales». Nuestra plataforma de contenidos, Descubre, solo presenta el contenido de editores de medios y creadores de contenido verificados.

En noviembre de 2020, lanzamos nuestra nueva plataforma de entretenimiento, Spotlight, y moderamos proactivamente su contenido para asegurarnos de que cumple con nuestras pautas antes de que pueda llegar al gran público.

Llevamos mucho tiempo adoptando un enfoque diferente también con la publicidad política. Al igual que con todo el contenido en Snapchat, prohibimos la información falsa y las prácticas deshonestas en nuestra publicidad. Todos los anuncios políticos, incluidos los anuncios relacionados con elecciones, los anuncios de promoción de causas, y los anuncios temáticos, han de incluir un mensaje en transparencia de "pagado por" que revele la organización patrocinadora. Utilizamos la revisión humana para comprobar todos los hechos en todos los anuncios políticos, y proporcionamos información sobre todos los anuncios que superan nuestra revisión en nuestra biblioteca de anuncios políticos.

Aunque este enfoque no es perfecto, sí nos ha ayudado a proteger a Snapchat del dramático aumento de la desinformación en los últimos tiempos, una tendencia que ha sido especialmente relevante durante un período en el que la información falsa sobre la COVID-19 y las elecciones presidenciales de los EE. UU. en 2020 devoró a muchas plataformas.

Durante este período, a nivel global, Snapchat ejecutó medidas contra 5.841 cuentas y piezas de contenido por infracciones de nuestras pautas sobre información falsa. En futuros informes, tenemos previsto proporcionar desgloses más detallados de las infracciones por información falsa.

Dada la creciente preocupación por los esfuerzos por socavar el acceso al voto y los resultados electorales en los Estados Unidos en el verano de 2020, formamos un grupo de trabajo interno centrado en evaluar cualquier riesgo potencial o vectores de uso indebido de nuestra plataforma, monitorizamos todos los acontecimientos y trabajamos para asegurarnos de que Snapchat fuera una fuente de información y noticias fidedigna. Estos esfuerzos incluyeron:

  • La actualización de nuestras pautas para la comunidad para añadir la manipulación de medios con fines engañosos, tales como "deepfakes", a nuestras categorías de contenidos prohibidos;

  • trabajar con nuestros socios editoriales de Descubre para asegurarnos de que los editores no amplificaran inadvertidamente ninguna información falsa en su cobertura informativa;

  • preguntar a las Snapstrellas, cuyo contenido también aparece en nuestra plataforma de contenidos Descubre, para asegurarnos de que cumplen con nuestras Pautas para la comunidad y no divulgan información falsa deliberadamente;

  • contar con resultados claros de actuación para cualquier contenido infractor en lugar de limitarnos a etiquetar contenido (nosotros lo eliminamos) para reducir así el daño de forma inmediata antes de que se siga compartiendo; y

  • analizar las entidades y demás fuentes de información falsa de forma proactiva por si pudieran ser utilizadas para distribuir esa información en Snapchat, para evaluar los riesgos y tomar medidas preventivas.

Durante la pandemia de COVID-19 hemos adoptado un enfoque similar para proporcionar noticias e información objetiva, incluso mediante la cobertura proporcionada por nuestros socios editoriales en Descubre y a través de anuncios de servicio público y de preguntas y respuestas con expertos en medicina y salud pública, y mediante herramientas creativas, como lentes y filtros de realidad aumentada, que recuerdan a los Snapchatters los consejos de los expertos en temas de salud pública.

Total de contenidos y cuentas ejecutadas5.841

Cómo combatir la explotación y el abuso sexual de menores

La explotación de cualquier miembro de nuestra comunidad, especialmente de jóvenes y menores, es ilegal, inaceptable y está prohibida por nuestras pautas. La prevención, detección y eliminación de los abusos en nuestra plataforma es una de nuestras prioridades absolutas, y no dejamos de trabajar en el desarrollo de capacidades para combatir el material de abuso sexual infantil (CSAM) y otros tipos de contenido abusivo.

Nuestros equipos de confianza y seguridad utilizan herramientas proactivas de detección, como la tecnología PhotoDNA, para identificar imágenes conocidas de CSAM y notificarlas al Centro Nacional de Niños Desaparecidos y Explotados (NCMEC). Cuando detectamos o identificamos de forma proactiva casos de CSAM, los guardamos y los notificamos al NCMEC, quienes se encargan de revisarlos y de coordinarse con las fuerzas del orden.

En el segundo semestre de 2020, el 2.99 por ciento del total de las cuentas contra las que tomamos medidas coercitivas a nivel mundial por infracciones de nuestras Pautas para la comunidad contenían CSAM. De entre estas, detectamos y tomamos medidas de forma proactiva en el 73 por ciento del contenido. En total, eliminamos 47.550 cuentas por infracciones de CSAM, y se notificó cada uno de los casos al NCMEC.

Durante este período de tiempo, tomamos una serie de medidas para mejor combatir el CSAM. Para los vídeos, adoptamos la tecnología de imágenes de abuso sexual infantil (CSAI) de Google, lo que nos permite identificar vídeos de CSAM y notificarlos al NCMEC. En combinación con nuestra detección mediante PhotoDNA de imágenes conocidas de CSAM junto a las bases de datos indexadas del sector, ahora podemos detectar y notificar a las autoridades de forma proactiva las fotografías y vídeos conocidos. Esta capacidad mejorada nos ha permitido ser mucho más eficaces en nuestra detección y, por lo tanto, en nuestra denuncia de esta conducta delictiva.

Además, hemos seguido ampliando nuestras asociaciones con expertos del sector y hemos desplegado funciones adicionales en la aplicación para ayudar a educar a los Snapchatters sobre los riesgos del contacto con extraños y sobre cómo utilizar la aplicación para realizar denuncias con las que alertar a nuestros equipos de confianza y seguridad sobre cualquier tipo de abuso. Hemos seguido incorporando socios a nuestro programa de informadores de confianza, que proporciona un canal confidencial a los expertos en seguridad verificados para notificar cualquier escalada de emergencia, como puede ser una amenaza inminente para la vida o un caso que implique CSAM. También trabajamos en estrecha colaboración con estos socios para proporcionar educación sobre seguridad, recursos para el bienestar y otros apoyos para la notificación que sirvan para ayudar de manera efectiva a la comunidad de Snapchat.

De forma adicional, formamos parte del Consejo de Administración de la Coalición de Tecnologías, un grupo de líderes del sector tecnológico que busca evitar y erradicar la explotación y el abuso sexual de menores en línea, y que trabaja constantemente con otras plataformas y expertos en seguridad para explorar soluciones adicionales con las que reforzar nuestros esfuerzos colectivos en este ámbito.

Total de cuentas eliminadas47.550

Contenido terrorista y extremista

En Snap, el seguimiento de los desarrollos en este ámbito y la mitigación de cualquier posible vector potencial de abuso en nuestra plataforma, ha formado parte de la labor de nuestro grupo de trabajo sobre integridad electoral en los Estados Unidos. Tanto la arquitectura de nuestro producto como el diseño de nuestra función de Chat grupal limitan la difusión de contenidos dañinos y las oportunidades de organización. Ofrecemos Chats grupales, pero su tamaño está limitado a varias docenas de miembros, no se recomienda mediante algoritmos y no pueden descubrirse en nuestra plataforma si no eres miembro de dicho Grupo.

Durante el segundo semestre de 2020, eliminamos ocho cuentas por infringir nuestra prohibición sobre terrorismo, discurso de odio y contenido extremista.

Total de cuentas eliminadas8

Perspectiva general del país

हा सेक्‍शन वैयक्तिक देशांच्‍या सॅम्‍पलिंगमध्‍ये आमच्‍या नियमांची अंमलबजावणी करण्‍याचे ओव्‍हरव्‍ह्यू देते. Nuestras Pautas para la comunidad se aplican a todo el contenido en Snapchat (y a todos los Snapchatters) en todo el mundo, independientemente de su ubicación. 

La información relativa al resto de países puede consultarse mediante la descarga del archivo CSV adjunto.

RegiónInformes sobre el contenido*Contenido reguladoCuentas únicas reguladas
Norteamérica4.230.3202.538.416928.980
Europa2.634.8781.417.649535.649
Resto de mundo3.266.6931.587.216431.407
Total10.131.8915.543.2811.896.015
  • AustraliaAustralia
  • AustriaAustria
  • Bélgica (1)Bélgica (1)
  • BrasilBrasil
  • Canadá (1)Canadá (1)
  • DinamarcaDinamarca
  • FinlandiaFinlandia
  • Francia (1)Francia (1)
  • Alemania (1)Alemania (1)
  • India (1)India (1)
  • Irak (1)Irak (1)
  • Irlanda (1)Irlanda (1)
  • ItaliaItalia
  • México (1)México (1)
  • Países BajosPaíses Bajos
  • Nueva Zelanda (1)Nueva Zelanda (1)
  • Noruega (1)Noruega (1)
  • Polonia (1)Polonia (1)
  • Arabia Saudí (1)Arabia Saudí (1)
  • España (1)España (1)
  • SueciaSuecia
  • TurquíaTurquía
  • Emiratos Árabes UnidosEmiratos Árabes Unidos
  • Reino UnidoReino Unido
  • Estados UnidosEstados Unidos

Descargar CSV:

Archivo de Informes de transparencia