_
_
_
_
_

‘Podcast’ | Moderadores de contenido en redes: protectores desprotegidos

Los trabajadores de la subcontrata de META en Barcelona tienen que ver a diario vídeos violentos, de decapitaciones o suicidios para evitar que se publiquen. Por primera vez, un juez considera accidente laboral, y no baja común, las secuelas psicológicas de uno de ellos

Una mujer sostiene un teléfono inteligente con el logotipo de Meta frente al nuevo logotipo de cambio de marca de Facebook.
Una mujer sostiene un teléfono inteligente con el logotipo de Meta frente al nuevo logotipo de cambio de marca de Facebook.DADO RUVIC (REUTERS)

Para que a nuestras redes sociales no lleguen vídeos ni fotografías violentas, alguien tiene que filtrarlos. Ellos son los moderadores de contenido que trabajan para las tecnológicas, según denuncian, sin la prevención ni la protección suficientes. En Barcelona, un trabajador de una subcontrata de META, la dueña de Facebook, WhatsApp e Instagram, ha conseguido que un juez le reconozca como accidente laboral las secuelas que sufre por haber tenido que ver suicidios, asesinatos y abusos. META ha recurrido e insiste en que su baja es común y que es la Seguridad Social la que debe hacerse cargo.

Créditos:

Realización:  Dani Sousa
Con información de:  Josep Catà 
Presenta:  Ana Fuentes 
Edición:  Ana Ribera 
Diseño de sonido:  Camilo Iriarte 
Sintonía: Jorge Magaz 

Si tienes quejas, dudas o sugerencias, escribe a defensora@elpais.es o manda un audio a +34 649362138 (no atiende llamadas)

Disponible en todas las plataformas de podcast: Podium Podcast | Podimo | Spotify | Apple Podcasts | iVoox | Podcasts de Google | Amazon Music | Alexa | RSS Feed

Tu comentario se publicará con nombre y apellido
Normas

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_