A rotina traumatizante dos moderadores de redes sociais: ‘Sacrifico minha saúde mental pelos outros’


A BBC conversou com moderadores de redes sociais, cujo trabalho é analisar e remover fotos e vídeos ilegais ou perturbadores no TikTok, Instagram ou Facebook. Moderadores analisam e removem fotos e vídeos ilegais ou perturbadores nas redes sociais.
Getty Images via BBC
Importante: esta reportagem contém detalhes que podem ser perturbadores para alguns leitores.
A BBC conheceu de perto, nos últimos meses, um mundo oculto e sombrio. Nele, é possível encontrar o que há de pior, mais tenebroso e mais perturbador no conteúdo online.
Grande parte deste conteúdo é ilegal. Decapitações, assassinatos em massa, abuso infantil, discurso de ódio – tudo isso acaba nas caixas de entrada de um exército global de moderadores de conteúdo.
Você certamente não ouve falar deles com frequência. O trabalho dessas pessoas é analisar e, quando necessário, excluir conteúdo denunciado por outros usuários ou assinalado automaticamente pelas ferramentas da tecnologia.
A segurança na internet vem se tornando uma questão cada vez mais relevante. As empresas de tecnologia enfrentam pressões para remover rapidamente o material nocivo que é postado online.
No entanto, apesar da grande quantidade de pesquisas e investimentos em soluções tecnológicas para ajudar neste processo, até o momento, a palavra final ainda fica, em grande parte, a cargo de moderadores humanos.
Os moderadores costumam ser funcionários de empresas terceirizadas, mas seu trabalho é analisar conteúdo postado diretamente nas grandes redes sociais, como o Instagram, o TikTok e o Facebook.
Os moderadores ficam espalhados pelo mundo.
Conversei com vários deles para a série da BBC Rádio 4 The Moderators, disponível em inglês no site BBC Sounds. Eles moram principalmente no leste africano e todos já deixaram seus cargos desde então.
Suas histórias são angustiantes. Algumas das nossas gravações eram chocantes demais para irem ao ar. Às vezes, meu produtor Tom Woolfenden e eu terminávamos uma gravação e simplesmente ficávamos parados, em silêncio.
“Se você pegar seu celular e for ao TikTok, irá ver uma série de atividades, danças, sabe… coisas alegres”, conta o ex-moderador Mojez, de Nairóbi, no Quênia. Ele trabalhava com conteúdo do TikTok.
“Mas, por trás disso, eu moderava pessoalmente centenas de vídeos horríveis e traumatizantes.”
“Eu assumi aquilo para mim. Deixei que minha saúde mental absorvesse o golpe para que os usuários comuns pudessem prosseguir com suas atividades na plataforma”, ele conta.
Existem em andamento diversas ações judiciais alegando que o trabalho destruiu a saúde mental desses moderadores. Alguns dos antigos profissionais do leste africano se reuniram e formaram um sindicato.
“De fato, a única coisa que me impede de assistir a uma decapitação quando entro em uma plataforma de rede social é que há alguém sentado em um escritório, em algum lugar, assistindo àquele conteúdo para mim e analisando para que eu não precise ver”, conta Martha Dark, responsável pela organização ativista Foxglove, que apoia as ações judiciais.
Mojez trabalhava removendo conteúdo perturbador no TikTok. Ele afirma que o trabalho prejudicou sua saúde mental.
Via BBC
Em 2020, a Meta – na época, conhecida como Facebook – concordou em pagar um acordo de US$ 52 milhões (cerca de R$ 300 milhões) para moderadores que desenvolveram problemas de saúde mental devido a esse trabalho.
O processo judicial foi aberto por uma antiga moderadora dos Estados Unidos chamada Selena Scola. Ela descreveu os moderadores como “guardiões de almas”, devido à quantidade de vídeos a que eles assistem, mostrando os momentos finais da vida das pessoas.
Todos os ex-moderadores com quem conversei usaram a palavra “trauma” para descrever o impacto do trabalho sobre eles. Alguns tinham dificuldade para dormir e se alimentar.
Um deles contou sobre um colega que entrava em pânico ao ouvir um bebê chorar. Outro disse que tinha dificuldades para interagir com sua esposa e os filhos, devido aos abusos infantis que ele havia presenciado online.
Eu esperava que eles dissessem que este é um trabalho tão extenuante, mental e emocionalmente, que nenhum ser humano deveria estar a cargo dele. Pensei que eles fossem apoiar totalmente a automação completa do setor, com a evolução de ferramentas de inteligência artificial para desempenhar esta tarefa em larga escala.
Mas não. O que surgiu, com muita força, foi o imenso orgulho dos moderadores pelo papel que eles desempenharam para proteger o mundo dos danos online.
Eles se consideram um serviço de emergência fundamental. Um deles declarou que queria um uniforme e um distintivo, comparando-se com um bombeiro ou paramédico.
“Nem um só segundo foi mal empregado”, disse alguém que chamamos de David. Ele pediu para permanecer anônimo.
David trabalhou com material usado para treinar o chatbot viral de IA ChatGPT, fazendo com que ele fosse programado para não regurgitar esse horrível material.
“Tenho orgulho dos indivíduos que treinaram este modelo para ser o que ele é hoje em dia”, declarou. Mas a própria ferramenta que David ajudou a treinar poderá, um dia, concorrer com ele.
A ativista Martha Dark trabalha em defesa dos moderadores das redes sociais.
Martha Dark
Dave Willner é o ex-chefe de confiança e segurança da OpenAI, a empresa criadora do ChatGPT. Ele afirma que sua equipe construiu uma ferramenta de moderação rudimentar, baseada na tecnologia do chatbot. Esta ferramenta, segundo ele, conseguiu identificar conteúdo prejudicial com índice de precisão de cerca de 90%.
“Quando eu meio que finalmente percebi, ‘oh, isso vai funcionar’, honestamente me engasguei um pouco”, ele conta. “[As ferramentas de IA] não ficam entediadas. Elas não ficam cansadas, não ficam chocadas… elas são infatigáveis.”
Mas nem todos estão certos de que a IA seja uma bala de prata para os problemas do setor de moderação online.
“Acho que é problemático”, afirma o professor de comunicação e democracia Paul Reilly, da Universidade de Glasgow, no Reino Unido. “Claramente, a IA pode ser uma forma binária e bastante obtusa de moderar conteúdo.”
“Ela pode acabar bloqueando excessivamente a liberdade de expressão e, é claro, pode deixar passar nuances que moderadores humanos seriam capazes de identificar”, explica ele.
“A moderação humana é essencial para as plataformas. O problema é que não há moderadores suficientes e o trabalho é incrivelmente prejudicial para os profissionais.”
Nós também entramos em contato com as empresas de tecnologia mencionadas na série.
Um porta-voz do TikTok declarou que a empresa sabe que a moderação de conteúdo não é uma tarefa fácil e procura promover um ambiente de trabalho solidário para seus funcionários. Suas medidas incluem a oferta de apoio clínico e a criação de programas de apoio ao bem-estar dos moderadores.
O TikTok destaca que os vídeos são inicialmente analisados por tecnologia automatizada que, segundo a empresa, remove um grande volume de conteúdo prejudicial.
Já a OpenAI – a empresa responsável pelo ChatGPT – declarou reconhecer o trabalho importante e, às vezes, desafiador dos profissionais humanos que treinam a IA para identificar essas fotos e vídeos.
Um porta-voz da empresa acrescentou que, junto com seus parceiros, a OpenAI executa políticas de proteção ao bem-estar das suas equipes.
Por fim, a Meta – proprietária do Instagram e do Facebook – afirma exigir que todas as suas empresas parceiras forneçam apoio presencial, 24 horas por dia, com profissionais treinados. Ela destaca que os moderadores podem personalizar suas ferramentas de análise, para desfocar as imagens sensíveis.
Adicionar aos favoritos o Link permanente.

Os comentários estão desativados.