Los reguladores de la Unión Europea están investigando a Snapchat ante la preocupación de que la plataforma no esté haciendo suficiente para proteger a los menores y los exponga a riesgos como una mayor vulnerabilidad ante depredadores infantiles o al reclutamiento por parte de delincuentes.
La Comisión Europea, el órgano ejecutivo del bloque de 27 naciones, anunció el jueves la apertura de una investigación formal a Snapchat en virtud del amplio reglamento comunitario conocido como la Ley de Servicios Digitales, diseñada para proteger a los usuarios de internet.
La Comisión Europea indicó que Snapchat exige que los usuarios tengan al menos 13 años para usar la plataforma, pero sospecha que su sistema de “verificación de edad” es “insuficiente” para impedirles el acceso.
Los reguladores señalaron que el sistema tampoco comprueba de forma adecuada si un usuario es menor de 17 años, algo que debe hacer para ofrecerle una experiencia “apropiada para su edad”. También preocupa que los sistemas de verificación de edad no impidan que personas adultas se hagan pasar por menores.
La Comisión sospecha que Snapchat no está tomando medidas suficientes para impedir que los niños sean contactados por “usuarios con intenciones dañinas, como la explotación sexual o el reclutamiento para actividades delictivas”.
Los sistemas de Snapchat tampoco son lo bastante eficaces para impedir que usuarios menores de edad vean información sobre productos ilegales o restringidos como drogas, vapeadores o alcohol.
Snapchat “parece haber pasado por alto” los “altos estándares de seguridad para todos los usuarios” de la Ley de Servicios Digitales, afirmó Henna Virkkunen, vicepresidenta ejecutiva del bloque para soberanía tecnológica, seguridad y democracia.
La investigación examinará el grado de cumplimiento de Snapchat con la legislación de la UE, agregó.
La empresa señaló en un comunicado que ha “cooperado plenamente” con la Comisión al “participar de manera proactiva, transparente y actuando de buena fe para cumplir los altos estándares de seguridad de la Ley de Servicios Digitales, y seguiremos haciéndolo durante toda esta investigación”.
La seguridad y el bienestar de los usuarios es una “prioridad máxima” y la plataforma está diseñada con “privacidad y seguridad integradas desde el inicio, incluida una protección adicional para adolescentes”, explicó la compañía.
La investigación se suma a la presión a la que se enfrentan las empresas de redes sociales en ambos lados del Atlántico por el bienestar de los jóvenes. El miércoles, un jurado de California concedió millones de dólares en indemnizaciones a una mujer de 20 años tras decidir que Meta y YouTube diseñaron sus plataformas para enganchar a los usuarios jóvenes sin preocuparse por su bienestar.
La empresa matriz de Snapchat, Snap Inc., y TikTok también estaban incluidos en la demanda, pero llegaron a un acuerdo por sumas no reveladas antes del juicio.
Un día antes, un jurado de Nuevo México impuso una sanción de 375 millones de dólares a Meta tras determinar que la empresa perjudicó a sabiendas la salud mental de los niños y ocultó lo que sabía sobre la explotación sexual infantil en sus plataformas.
Mientras tanto, la UE acusó a TikTok a principios de este año de incumplir la Ley de Servicios Digitales con funciones de “diseño adictivo” que conducen a un uso compulsivo por parte de los niños, y e investiga a Facebook e Instagram desde 2024 por deficiencias en la protección infantil.
También el jueves, Bruselas acusó a cuatro de las mayores webs de pornografía del mundo de no proteger a los niños del contenido para adultos en sus sitios, tras una investigación abierta el año pasado.
La Ley de Servicios Digitales exige que las empresas de internet y las plataformas online tomen más medidas para proteger a los usuarios europeos de cuestiones como contenidos perjudiciales y productos sospechosos, so pena de fuertes multas de hasta el 6% de sus ingresos anuales.
Pornhub, Stripchat, XNXX y XVideos no respondieron a solicitudes de comentarios.
De acuerdo con las conclusiones preliminares, los reguladores señalaron que los operadores de las webs no “identificaron y evaluaron de forma diligente” los riesgos para los niños y no utilizaron medidas eficaces para impedirles el acceso.
“Los menores están accediendo a contenido para adultos a edades cada vez más tempranas y estas plataformas deben implementar medidas sólidas, que preserven la privacidad y sean eficaces para mantenerlos fuera de sus servicios”, apuntó Virkkunen.
Las webs pornográficas ahora tienen la oportunidad de responder a las acusaciones antes de que la Comisión emita su decisión final.