
Por Jeff Horwitz
25 sep (Reuters) - Numerosas funciones de seguridad que Meta asegura haber implementado para proteger a los usuarios jóvenes de Instagram no funcionan correctamente o, en algunos casos, no existen, según un informe de grupos defensores de la seguridad infantil respaldado por investigadores de la Universidad Northeastern.
El estudio, que Meta tachó de engañoso, llega en un contexto de renovada presión sobre las empresas tecnológicas para que protejan a los niños y a otros usuarios vulnerables en sus plataformas de redes sociales.
De las 47 medidas de seguridad probadas, los grupos consideraron que solo ocho eran completamente eficaces. El resto eran defectuosas, "ya no estaban disponibles o eran sustancialmente ineficaces", según el informe.
Las funciones destinadas a impedir que los jóvenes usuarios encontraran contenidos relacionados con autolesiones por medio del bloque de términos de búsqueda se eludían fácilmente, según los investigadores.
Los filtros de mensajes de acoso tampoco se activaban, ni siquiera cuando se usaban las mismas frases que Meta había puesto de ejemplo en un comunicado de prensa para promocionarlos.
Una función destinada a evitar que los adolescentes se dieran un atracón de contenidos relacionados con la autolesión nunca se activó, según los investigadores.
El informe, titulado "Cuentas de adolescentes, promesas incumplidas", recopila y analiza las actualizaciones de las funciones de seguridad y bienestar de los jóvenes anunciadas públicamente por Instagram desde hace más de una década.
Dos de los grupos que lo elaboraron, Molly Rose Foundation en el Reino Unido y Parents for Safe Online Spaces en Estados Unidos, fueron fundados por padres que afirman que sus hijos murieron como consecuencia de contenidos de acoso y autolesión en las plataformas de la empresa.
Según Laura Edelson, profesora de la Universidad Northeastern que supervisó la revisión de los resultados, estos ponen en duda los esfuerzos de Meta "por proteger a los adolescentes de las peores partes de la plataforma".
Meta calificó los hallazgos de erróneos y engañosos.
"Los adolescentes que fueron con estas protecciones vieron menos contenido sensible, experimentaron menos contactos no deseados y pasaron menos tiempo en Instagram por la noche", dijo Stone. "Seguiremos mejorando nuestras herramientas, y agradecemos los comentarios constructivos, pero este informe no lo es".
Los grupos de defensa y los investigadores de la universidad recibieron consejos de Arturo Bejar, un exejecutivo de seguridad de Meta, que indicó que las características de Instagram eran defectuosas.
Bejar trabajó en Meta hasta 2015, y luego regresó a finales de 2019 como consultor de Instagram hasta 2021. Durante su segunda etapa en la compañía, dijo a Reuters, Meta no respondió a los datos que indicaban graves problemas de seguridad para los adolescentes en Instagram.