É assim que funcionam os centros de censura no Facebook

É assim que funcionam os centros de censura no Facebook

"A Clockwork Orange" foi um filme de Stanley Kubrick famoso por ter sido proibido em muitos países, devido às suas imagens violentas e uma mensagem ambígua que muitos poderiam interpretar mal. Nele, um jovem ultraviolento é capturado pelas autoridades e exposto a um teste para inibir, em sua personalidade, o livre arbítrio, ou seja, aplicar um método para torná-lo uma pessoa boa. Como eles fizeram isso? Através de um tratamento de choque: o sujeito é amarrado em frente a uma tela gigante , com os olhos permanentemente abertos, e é obrigado a assistir cenas desagradáveis ​​por horas e horas. Ao ser libertado e sentir vontade de cometer atos violentos, surge a náusea, condicionada pela situação em que se encontrava dias antes.

É assim que funcionam os centros de censura no Facebook

Agora, imagine que você está assistindo a imagens violentas e desagradáveis, conteúdo odioso, insultos, vídeos de decapitações ... durante oito horas por dia para uma grande empresa. Seu trabalho neste centro é usado para determinar o que outras pessoas podem e não podem ver. Você trabalha para um dos 20 centros que o Facebook organizou no mundo para administrar a censura em relação a conteúdo proibido pela rede social de Mark Zuckerberg. Eldiario.es teve acesso a fontes destes centros em cidades como Varsóvia ou Lisboa, bem como a documentos que revelam as condições em que estes agentes têm de aplicar a censura.

De acordo com esses documentos, os agentes da moral e da boa conduta do Facebook têm que trabalhar em condições deploráveis . Escritórios sem janelas nos quais centenas de pessoas precisam olhar continuamente para uma tela onde um conteúdo grotesco está acontecendo, a fim de eliminá-lo e evitar que se espalhe. Eles são, como Álex em 'A Clockwork Orange', assuntos expostos a imagens terríveis durante oito horas por dia, sem serem totalmente avaliados quais podem ser as consequências de tal ato. Os algoritmos dos quais tanto falamos nada mais são do que pessoas, como você e eu.

facebook 02

Suas condições físicas e mentais de trabalho são extremas

Um total de 15.000 pessoas trabalham em centros como esse. Muitos deles afirmam que é impossível ser 100% justo, que nas condições em que trabalham, e pela natureza da tarefa, as falhas podem ocorrer continuamente. Os censores do Facebook cobram, cada um, 700 euros por mês e são subcontratados através de consultores internacionais, são proibidos de dizer a quem quer que seja que trabalham para o Facebook , tendo sempre de se referir a ele como 'o cliente. A Eldiario.es obteve os depoimentos de três funcionários deste tipo de centro, devendo manter o seu anonimato.

As condições de trabalho são extremas. Eles têm meia hora para descansar em seu turno de oito horas, e têm que administrar de hora em hora para fazer pausas visuais, esticar as pernas, ir ao banheiro e até comer. Na sala há sempre um revisor que nota e pune comportamentos inadequados: a parada do funcionário, ao selecionar imagens, para beber água ou tirar o celular para consultar algo é motivo de sanção. Além disso, os próprios funcionários são incentivados, por meio de um programa de pontuação, a acusar uns aos outros se virem algum de seus colegas praticando comportamento punível.

É assim que funcionam os centros de censura no Facebook 1

Qual é o seu trabalho?

O trabalho funciona da seguinte maneira. O funcionário tem à sua frente uma tela onde estão acontecendo todos os conteúdos que mais reclamações, por parte do usuário, acumulam. O trabalhador então tem duas opções de 'Excluir', com as quais ele exclui o conteúdo, 0 'Ignorar', se considerar que não está violando as regras do Facebook. Cada pessoa pode analisar até 600 casos por dia e tem, para pressionar um dos dois botões de decisão, trinta segundos no total para cada um deles. É normal, claro, que sejam cometidas injustiças, levando em consideração tudo o que agora se sabe sobre esses centros.

O jornal dá exemplos de casos reais em que os funcionários entrevistados tiveram de intervir. Por exemplo, esta imagem apareceu para eles, uma ilustração que alerta para o câncer de mama.

mamilos

Um dos algoritmos, este automático, que já começou a funcionar é o das imagens em que se avistam os mamilos femininos. No entanto, há exceções, como no caso das imagens serem informativas . Parece claro que, ao ver a ilustração acima, o colaborador deve 'desbloquear' a imagem, pois se trata de uma informação de interesse geral sobre o câncer e não é uma imagem de caráter erótico.

meme de bullying infantil

Neste outro vemos como o trabalho que esses moderadores fazem pode ser tão complicado. É um meme que representa um ato de intimidação infantil? O funcionário deve decidir, em trinta segundos, se vai retirá-lo ou não. Este é um instantâneo de uma entrevista real e a obesidade não é considerada uma deficiência. No Facebook, nada é excluído que possa ofender alguém, a menos que essa pessoa pertença a um grupo de deficientes físicos. Nesse caso, o moderador escolheria o botão 'Ignorar'.

As contradições da censura no Facebook

Dois exemplos que podem ser mais ou menos claros, mas que estão incluídos em muitos outros onde a ambigüidade das regras do Facebook aparece. Por exemplo, o conteúdo que se refere a Hitler é excluído automaticamente. No entanto, o conteúdo em que o pedido de desculpas de Franco é feito é permitido. Um dos revisores consultados afirma que o fascismo é permitido no Facebook. Você pode preencher sua parede com fotos de Mussolini que nada vai acontecer. Mas cuidado com Hitler . Ou mamilos femininos.

É assim que funcionam os centros de censura no Facebook 2

Uma das decisões mais insanas que os censores do Facebook devem tomar é considerar o tamanho da barba dos homens árabes para determinar se eles são ou não terroristas; Além disso, os entrevistados denunciam um claro duplo padrão em ter que beneficiar grupos específicos. ' Insultar certas crenças é permitido e outras completamente proibido .' Por exemplo, sionismo. Qualquer apelo ao boicote aos produtos israelenses, devido aos massacres que o país realiza na Palestina, é censurado. Além disso, a probabilidade de que um conteúdo seja removido do Facebook tem muito a ver com o poder e a capacidade organizacional do grupo interessado em que ele desapareça.

No futuro, será preciso ver as consequências psicológicas que esses funcionários do Facebook terão, bem como o uso ideológico peculiar que eles dão à moderação de conteúdo.