Vivo Novidades

Blog Post

Vivo Novidades > Tecnologia e Ciência > Ser moderador de pornografia causou-lhe trauma psicológico.

Ser moderador de pornografia causou-lhe trauma psicológico.

A lei aperta as regras para a pornografia online e as empresas são obrigadas a ter moderadores. Dada a quantidade de conteúdos submetidos, os moderadores estão expostos, com frequência, a conteúdos gráficos e extremamente violentos. As consequências psicológicas estão a levá-los a processar as plataformas.

Ilustração de um moderador de pornografia

Profissão: moderador de conteúdos pornográficos

Quando falamos de sites com conteúdos para adultos, o Chaturbate não só tem um dos nomes mais sonantes, como é também uma das plataformas de webcams gratuitas mais populares do mundo.

Hoje está nas notícias porque um dos seus moderadores apresentou uma queixa contra a empresa. A razão: sofre de stress pós-traumático.

Neal Barber foi contratado em 2020 pela Bayside Support Services e pela Multi Media LLC, empresa proprietária do Chaturbate, como “supervisor de riscos do serviço ao cliente” (moderador). O seu trabalho consistia em rever o conteúdo publicado e garantir que cumpria a legislação.

No passado dia 22 de julho, Barber apresentou uma queixa alegando sofrer trauma psicológico devido à exposição diária a “conteúdos extremos, violentos, gráficos e sexualmente explícitos”. Embora, para já, apenas Barber conste na queixa, o caso poderá abrir caminho a outros moderadores contratados nos últimos quatro anos.

Violência filtrada é atroz

Os moderadores são a primeira linha de defesa contra conteúdos ilegais, que, segundo a queixa, no Chaturbate incluem frequentemente “exploração infantil, conteúdos não consensuais, violentos, obscenos ou de autoagressão”. Barber acusa a plataforma de não proteger a saúde mental dos seus funcionários, algo que deveria ser uma norma do sector.

Em declarações ao 404 Media, um representante do Chaturbate afirma que a empresa “valoriza profundamente o trabalho dos seus moderadores e está comprometida em apoiar a equipa responsável por essa função essencial”, mas sem esclarecer como pretende fazê-lo.

Sem qualquer tipo de proteção, o queixoso desenvolveu perturbação de stress pós-traumático e encontra-se atualmente em tratamento.

A exposição diária a este tipo de conteúdo “concebido para provocar trauma” resultou, segundo o seu advogado, em “pesadelos vívidos, distanciamento emocional, ataques de pânico e outros sintomas compatíveis com perturbação de stress pós-traumático”. E não é caso único.

Imagem moderador de pornografia

Abriu-se a caixa de pandora?

Há anos que os moderadores de conteúdo denunciam as condições laborais, sobretudo o impacto psicológico, e não falamos apenas de plataformas para adultos, o mesmo acontece em apps de conteúdos aparentemente inofensivos, que usamos todos os dias.

Um dos primeiros casos conhecidos surgiu em 2017, quando dois funcionários da equipa de segurança online da Microsoft atingiram o limite após verem um vídeo com uma violação seguida de homicídio.

Em 2020, uma moderadora processou o YouTube, e em 2021 aconteceu o mesmo com o TikTok. O padrão repete-se: as plataformas falharam na proteção da saúde mental dos seus trabalhadores. Atualmente, a Meta enfrenta processos judiciais no Quénia e em Barcelona pelos mesmos motivos: danos psicológicos e más condições laborais.

Já existem medidas de proteção para moderadores, mas nem todas as empresas as aplicam.

A queixa contra o Chaturbate acusa a plataforma de não implementar práticas-padrão como “filtros de conteúdo, pausas de bem-estar, apoio psicológico especializado em trauma ou redes de apoio entre colegas”.  Também não seguem outras práticas comuns como colocar os vídeos em tons de cinzento ou silenciar a reprodução automática.

Segundo a empresa de moderação CheckStep, a inteligência artificial pode ser uma solução eficaz para reduzir a exposição. Para além de acelerar o trabalho, os sistemas de reconhecimento avançado permitem que os moderadores se concentrem apenas nos casos mais complexos e minimizem o contacto com material potencialmente prejudicial.



#Ser #moderador #pornografia #causoulhe #trauma #psicológico

Leave a comment

Your email address will not be published. Required fields are marked *