Redes sociais e a monitorização das notícias do conflito Israel-Hamas
Nas semanas que se seguiram a 7 de outubro, quando o Hamas atacou civis israelitas, e durante os bombardeamentos à Faixa de Gaza que se seguiram, as pessoas nas redes sociais queixaram-se de que as publicações de apoio aos palestinianos foram restringidas ou removidas.
Num artigo publicado no Columbia Journalism Review, Yona TR Golding aborda essa restrição de publicações após 7 de outrubro.
“Houve alguns exemplos de grande visibilidade: O Facebook retirou as páginas em inglês e árabe da ‘Quds News Network’”, exemplifica.
“A imprensa também noticiou que contas individuais que partilhavam material relativamente inócuo – um emoji com uma bandeira palestiniana, por exemplo – foram classificadas como ‘potencialmente ofensivas’. A Al Jazeera, o Wall Street Journal, o The Guardian e o The Intercept descobriram que publicações e contas foram removidas ou viram o seu alcance limitado”, descreve.
Contudo, a autora salienta que “tem sido difícil provar se isso equivale a uma tentativa coordenada de silenciamento”, mas a organização sem fins lucrativos 7amleh documentou exemplos de moderação excessiva e criou um formulário para reunir provas de publicações que foram restringidas de forma inadequada. Um esforço que resultou em mais de 1400 denúncias desde 7 de outubro.
Nadim Nashif, o director da 7amleh, monitoriza as redes sociais a partir do seu escritório em Haifa, uma cidade portuária na costa norte de Israel e, em 2020, publicou o relatório "Esforços sistemáticos para silenciar o conteúdo palestiniano nas redes sociais".
"Quando se faz uma coisa destas", disse Nashif, "significa que se está a trabalhar a favor do lado poderoso e menos a favor do lado fraco".
A equipa começou a documentar exemplos em 2021, quando eclodiram protestos contra despejos no bairro palestino de Sheikh Jarrah, em Jerusalém Oriental, e Israel lançou ataques aéreos mortais em Gaza.
As descobertas da 7amleh – quinhentas submissões no espaço de cerca de duas semanas – provocaram uma reação internacional, levando dezenas de organizações a escreverem uma carta à Meta apelando a uma maior transparência na moderação de conteúdo, incluindo a influência de funcionários israelitas.
Uma auditoria encomendada pela Meta, cujos resultados foram publicados em setembro, elogiou a empresa pelos esforços em monitorizar situações, mas também concluiu que essas açcões tiveram "um impacto adverso" nos direitos civis dos palestinianos e dos defensores que dependem do Facebook e do Instagram para documentar e partilhar informações. Houve exemplos de publicações em árabe e hebraico que foram removidas sem violar quaisquer regras, mas, segundo Golding, as publicações em árabe estavam a ser moderadas de forma desproporcionada.
De acordo com a autora, a Meta tem enfrentado um escrutínio contínuo sobre o seu papel na promoção de conflitos – disseminação de desinformação relacionada com as eleições nos Estados Unidos, criação de plataformas de comunicação no período que antecedeu a insurreição, incentivo do genocídio contra os Rohingya – e a empresa fez alterações à forma como monitoriza os conteúdos.
“A Meta aperfeiçoou os algoritmos para detectar melhor o incitamento à violência; recentemente, a empresa adicionou ‘classificadores’ hebraicos – termos utilizados pelos algoritmos para determinar se um conteúdo viola a política – para melhorar a sua capacidade de sinalizar o discurso de ódio anti-árabe”, escreve Golding.
"Estão a fazer alguma coisa", disse Nashif. "Mas não é muito eficaz."
A 7amleh descobriu que, durante períodos de grande agitação, aumentam as queixas de moderação injustificada de conteúdo e a equipa está a trabalhar para restaurar o conteúdo removido, frequentemente apelando diretamente às empresas de redes sociais.
"Estamos a tentar dizer à Meta que, se há uma situação em que algumas pessoas estão a ser oprimidas, as redes sociais devem ser a sua voz", afirmou Nashif. "Especialmente quando os principais meios de comunicação social não estão a dar suficientemente o seu lado da história."
Desde 7 de outubro, a equipa recebeu mais de 1400 denúncias – as denuncias visam comentários bloqueados, hashtags ocultadas e “stories” do Instagram relacionadas com a Palestina que receberam muito menos visualizações do que outras publicações da mesma pessoa.
O artigo destaca ainda que as explicações para a moderação injusta variam, desde erros humanos à utilização de listas de termos associados a organizações terroristas que impactam de maneira desproporcional utilizadores palestinianos e de língua árabe.
Um dos exemplos dados foi o caso de um moderador externo, que adicionou #AlAqsa a uma lista de bloqueio, o que impediu que as pessoas pudessem pesquisar esta hashtag, referindo-se a um local sagrado muçulmano em Jerusalém; o moderador confundiu-a com "Brigada Al Aqsa".
O papel dos funcionários do governo israelita na revisão de conteúdos não foi visado na auditoria, mas a comunicação entre a equipa de moderação da empresa e a unidade cibernética de Israel é documentada.
“De acordo com um relatório do gabinete do procurador-geral de Israel, a unidade apresentou mais de 14 mil pedidos de remoção ao Google e ao Facebook em 2018, cerca de 90% dos quais foram cumpridos”, escreve Golding.
"O Meta afirma que tem normas, que tem regras que são aplicadas igualmente a toda a gente. Depois, verificamos essa afirmação e descobrimos que não é verdadeira", defende Nashif.