Instagram sabía del problema de desnudos en DM desde 2018 y tardó 6 años en actuar

Seis años de advertencias ignoradas

Instagram y Meta ya sabían desde 2018 que el envío de imágenes desnudas en los mensajes directos (DM) era un problema grave. Sin embargo, no fue hasta abril de 2024 que implementaron una función para difuminar estas imágenes, dejando a los usuarios elegir si verlas o no.

¿Por qué esta demora cambia todo?

Una cadena de correos internos de 2018 revela que el vicepresidente de Seguridad de Meta advertía sobre posibles «cosas horribles» relacionadas con ese contenido. Sin embargo, durante años la compañía priorizó una supuesta «privacidad» por encima de medidas básicas de protección.

Mientras tanto, una encuesta interna mostró que casi una quinta parte de usuarios entre 13 y 15 años había visto desnudos no deseados en Instagram, y un 8,4% amenazas o autolesiones recientes. Medidas tardías y tibias, que dejan expuestos a los menores justo en el lugar donde Meta sabía que ocurrían los mayores riesgos.

¿Qué se oculta tras la pantalla?

La demanda federal contra Meta acusa a la empresa de diseñar funciones que crean dependencia, especialmente en menores, con consecuencias dañinas para su salud mental. En juicio, el CEO Mark Zuckerberg negó que busquen aumentar el tiempo de uso o atraer menores con estas características, aunque la evidencia interna sugiere lo contrario.

Lo que viene: ¿más riesgos o más controles?

Este atraso pone en jaque la responsabilidad real de Meta; ahora que están en evidencia, la presión sobre la compañía aumentará. Si no se implementan controles más efectivos, el riesgo de que los menores sigan siendo explotados y expuestos no disminuirá. La cuestión es clara: ¿la seguridad de los usuarios menores será realmente prioridad o solo un discurso para evitar escándalos?

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Desplazarse hacia arriba