A “cruz vermelha” usada no Facebook para filtrar conteúdos indesejáveis
O volume de tráfego é de tal ordem que impõe aos “moderadores” uma urgência de decisão quase insuportável. Há tanto material a chegar constantemente, com violência explícita, apelo ao ódio, terrorismo, pornografia (incluindo revenge porn, a exibição de imagens que podem ter sido realizadas por consenso, mas que são utilizadas mais tarde como vingança ou para efeitos de extorsão), que os operadores da moderação de conteúdos reconhecem que têm de tomar decisões “em dez segundos”...
O problema que vem com este é o da justeza da decisão: o que é que pode passar? Na prática, a empresa está a formular os seus próprios códigos de conduta sobre o que é adequado mostrar ou não, para instrução dos funcionários responsáveis por essa missão.
Emily Bell cita alguns exemplos concretos de posts com expressões de violência e descreve um dos procedimentos usados na triagem - uma cruz vermelha para assinalar o que deve ser apagado, e a marca de check, a verde, para o que é aceitável - que, de passagem, lhe parece infeliz.
Outro problema resulta de uma coisa que é boa à partida, na cultura de Silicon Valley, mas que acaba por ser mal usada. “As raízes da moderação, no Facebook, assentam nas instituições policiais e legais, e por esse motivo estão muito influenciadas pelo ideal americano da liberdade de expressão tal como é definida na Primeira Emenda. Em consequência disto, o Facebook, talvez ainda mais do que as empresas noticiosas, está ligado aos princípios de liberdade de expressão.”
David Levesly, que foi curador de conteúdos no Facebook e que é agora o editor de redes sociais num jornal britânico, explica que o facto de o Facebook querer ser ao mesmo tempo “a impressora, o livro que é impresso, a biblioteca onde os livros são colocados e as casas das pessoas que vão à biblioteca”, cria um problema que já não é só de escala, mas de governação.
“Eu não penso que o Facebook possa arbitrar sozinho” – diz Levesley. “Nem quero ver as empresas a desenvolverem corpos de legislação para elas e só para elas.”
A conclusão de Emily Bell é que, num terreno de tanta importância para o interesse público, o desenvolvimento destas regras “será mais efectivo se for feito através de informação e debate público”:
“Assim como o Facebook descobriu que era difícil manter a ideia de que não tem responsabilidades editoriais regulares, será igualmente difícil convencer o público de que os seus padrões e prática de moderação não serão melhores se forem desenvolvidos às claras.”
Mais informação no artigo original, na Columbia Journalism Review, que tem os links para as revelações publicadas em The Guardian