Meta ha respondido con acciones concretas a los últimos reclamos sobre el abuso infantil en sus redes, especialmente Instagram y Facebook. La compañía liderada por Mark Zuckerberg anunció mayores restricciones sobre quién puede enviar mensajes a menores de edad. También está implementando nuevas funciones que le ofrecen mayor control a los padres sobre la configuración de los perfiles de sus hijos.
Meta explicó este jueves que, de manera predeterminada, los menores de 16 años —o menores de 18 en algunos países— ya no recibirán mensajes de usuarios que no sigan o con los que no estén conectados en Instagram y Messenger. Tampoco podrán ser agregados en chat grupales por extraños.
El cambio también se implementará en Messenger. Los niños y adolescentes solo recibirán mensajes de amigos de Facebook o de personas con las que estén conectados a través de contactos telefónicos. La nueva medida «ayudará a los adolescentes y sus padres a sentirse aún más seguros de que no tendrán noticias de personas que no conocen», dijo Meta en un comunicado.
La Comisión Europea le ha llamado la atención a Meta en varias ocasiones por la falta de medidas efectivas para prevenir el abuso infantil en sus plataformas. En diciembre pasado, el organismo hizo un pedido de información relacionado, específicamente, sobre la circulación de pornografía infantil en Instagram. También hizo referencia a la denuncia sobre cómo los algoritmos de Instagram y Facebook facilitan la creación de redes de pedófilos.
Las otras medidas de Meta contra el abuso infantil en Instagram y Facebook
La gestión de Meta está bajo la lupa luego de que una investigación del Wall Street Journal, realizada en colaboración con la Universidad de Stanford, advirtiera el año pasado que Instagram permitía incluso hashtags que hacían clara referencia a la pedofilia. Estas «etiquetas» enlazaban con cuentas que anunciaban la venta de material sexual infantil.
Otro reporte del medio estadounidense informó que lo mismo está pasando en Facebook. Descubrieron la existencia de grupos públicos que discutían abiertamente sobre sexo con menores. La investigación también dio cuenta sobre cómo el algoritmo recomienda grupos similares a los usuarios, los cuales llegan a tener entre 200.000 y 800.000 suscriptores.
En consecuencia, Meta dijo en diciembre que ampliaría la lista de frases y emojis relacionados con el abuso infantil para frenar estos contenidos. La tecnológica también indicó que estaba usando herramientas de aprendizaje automático para detectar conexiones entre diferentes términos de búsqueda.
Junto con las nuevas restricciones sobre el envío de mensajes a niños, Meta informó que los padres ahora deberán dar su visto bueno cuando un menor de edad quiere cambiar su cuenta privada a pública en Instagram. Pasará lo mismo cuando sus hijos quieran cambiar la categoría del control de contenido delicado o la configuración sobre los mensajes directos.
Esto será posible en los perfiles que tengan activado el modo de control parental, una herramienta que Meta estrenó en marzo de 2022. En lugar de recibir una simple notificación, los padres recibirán la opción para aprobar o rechazar estos cambios.
Los directivos de redes sociales rendirán cuentas
Las nuevas funciones «empoderan a los padres» y «les brinda las herramientas que necesitan para ayudar a protegerlos», dijo Larry Magid, CEO de ConnectSafely, una organización sin fines de lucro dedicada a la seguridad en Internet. Magid destacó que estas medidas, al mismo tiempo, protegen «la privacidad de sus hijos adolescentes y su capacidad para comunicarse con sus amigos y familiares».
Las nuevas funciones de Meta llegan en un momento oportuno. La semana que viene, Mark Zuckerberg tendrá que testificar ante el Senado de Estados Unidos para discutir sobre la problemática de la explotación infantil en línea. A la sesión, pautada para el 31 de enero, también fueron convocados los directivos de X (anteriormente Twitter), TikTok, Snap y Discord.
Meta, además, enfrenta demandas de decenas de estados en Estados Unidos por supuestamente propiciar una crisis de salud mental juvenil. Los fiscales que impulsan la acción sostienen que la compañía de Zuckerberg ha engañado repetidamente al público sobre los peligros sustanciales de sus plataformas. Y, aun conociendo los riesgos, igual ha inducido el uso compulsivo de sus en niños y adolescentes.