Un tribunal español ha reconocido el daño que sufren los moderadores de contenido de Facebook. Un juzgado de Barcelona confirmó que un extrabajador subcontratado por la red social, propiedad de Meta, sufre un trauma mental por las tareas que realizaba. Entre ellas, filtrar material sobre suicidios, mutilaciones, decapitaciones y torturas.

El juzgado de lo social número 28 de Barcelona determinó que los problemas de salud mental del exmoderador califican como un accidente laboral. No una enfermedad común, como sostenía Facebook.

El moderador beneficiado con el fallo estuvo empleado entre 2018 y 2020 por CCC Barcelona Digital Services. La compañía pertenece a Telus International, uno de los proveedores externos de Meta.

«El trabajador viene sufriendo una situación de gran impacto emocional y psicológico en su puesto de trabajo», dice el fallo dictado el pasado 12 de enero, al que tuvo acceso Reuters. La sentencia agrega que la baja concedida al moderador en 2019 fue «exclusiva e indudablemente» provocada por su trabajo. Por lo tanto, tiene derecho a una compensación adicional.

Es la primera vez en España que un tribunal reconoce el daño al que son sometidos los moderadores de contenido. El afectado, de quien no trascendió su identidad como medida de protección, tuvo que ver contenidos que incluían «automutilaciones, decapitaciones de civiles asesinados por grupos terroristas, torturas infligidas a personas y suicidios», afirmó el el juez Jesús Fuertes.

Facebook
Foto por Joshua Hoehne en Unsplash

Sobrecarga de trabajo por culpa de Facebook

El exmoderador ya había recibido el apoyo de Instituto Nacional de la Seguridad Social (INSS) de España. En consecuencia, la CCC presentó una demanda en 2022 con el objetivo de revocar la decisión de la agencia de seguridad social sobre su responsabilidad en la salud del trabajador. El mismo caso resuelto ahora por Fuertes a favor del trabajador.

La sentencia también hace mención de que los moderadores en CCC están sometidos a una fuerte presión debido a la cantidad de trabajo. Este tipo de labor es «una fuente de estrés que puede causar daños psicológicos y trastorno de estrés postraumático», remarca el documento. También cuestiona a la empresa de no haber tomada ninguna medida, a pesar de conocer los problemas de salud que padecían sus empleados.

Otros 20 moderadores de contenido anteriores y actuales en CCC adelantan acciones legales por motivos similares, detalló Francesc Feliu, abogado que representa a todo el grupo de trabajadores. Meta, liderada por Mark Zuckerberg, no respondió a las solicitudes de comentarios de varios medios. En Telus, por su parte, dijeron que estaban decepcionados por el fallo y que apelarían.

Facebook Meta, con zUCKERBERG

Un reclamo mundial

El caso español fija un antecedente importante en el reclamo de moderadores de contenido en todo el mundo. Desde hace varios años, trabajadores subcontratados por Facebook vienen reclamando por las condiciones de trabajo deplorables a las que están expuestos.

«Imagínese ver horas de contenido violento o abuso infantil en línea como parte de su trabajo diario», dijeron moderadores de Facebook en al menos siete países, en una carta abierta publicada en 2021. «No hay forma de que salgas ileso. Este trabajo no debe costarnos nuestra salud mental», denunciaron en la misiva.

En este caso, los trabajadores también advirtieron sobre «la cultura del miedo y el secretismo» que impone la red social. Y pidieron a Facebook no los obliguen a firmar acuerdos de confidencialidad extremadamente restrictivos.

Facebook llegó a un acuerdo con moderadores en California, Estados Unidos, que implicó el pago de 52 millones de dólares en 2020. Y el año pasado, un empleado en Alemania, también subcontratado de Telus, recibió una licencia remunerada luego de que se quejara formalmente por sus condiciones de trabajo. La compañía dijo que investigaría el caso.

Meta les debe «brindar atención de salud mental real y continua, y lugares de trabajo seguros a las decenas de miles de trabajadores que realizan este trabajo en todo el mundo», dijo Martha Dark, directora de la organización de defensa de derechos tecnológicos Foxglove. En declaraciones a Reuters, Dark pidió a los gobiernos más regulaciones para garantizar que las redes sociales sean espacios seguros, tanto para usuarios como para empleados.