Tecnología
La agotadora rutina de los moderadores de Facebook que deben ver publicaciones de contenido violento
11 de noviembre de 2017
Un grupo de amigos prende fuego a un perro de la calle; unos adolescentes son obligados a tener sexo oral; una niña con una cuchilla de afeitar anuncia su suicidio en un video en vivo; un recién nacido es golpeado por un pariente en la cuna…
La lista es interminable. Todo lo peor que puede haber en Facebook durante ocho horas, de lunes a viernes, a cambio de un salario mínimo.
Sergio, un joven brasileño que pidió no ser identificado, vivió esta rutina durante casi un año, hasta que abandonó su empleo como revisor de denuncias sobre violencia y odio en la página en portugués de la red social.
Desde entonces, dice, se ha convertido en una persona más «fría e insensible» en la vida fuera de internet.
«Veía vídeos en directo por si alguien iba a matarse», explica.
Su función era decidir lo más rápido posible si las publicaciones agresivas que otros usuarios denunciaban eran tolerables o pasaban de los límites establecidos por Facebook.
En su oficina, la meta para cada revisor era evaluar 3.500 fotos, videos y textos denunciados al día. Más de siete por minuto o uno cada 8,5 segundos.
«Imposible no tener error humano en ese ritmo», dice Sergio, que hoy trabaja como freelancer y decidió apagar sus rastros en la red social después de conocerla «por dentro».