O “YouTube” não fez tudo o que podia contra a desinformação
Como explica num artigo muito recente Mark Bergen, da Bloomberg, o YouTube já sabia dos problemas causados pelas recomendações do seu algoritmo há bastante tempo, e fez pouco ou nada a esse respeito. Segundo esta agência noticiosa, “vários funcionários séniores do serviço de vídeos demitiram-se durante o ano passado, mencionando a falta de acção sobre a desinformação”.
As fontes da empresa contactadas pela Bloomberg contam que a equipa dirigente desvalorizou sempre estas preocupações. Os eventuais receios ficaram em segundo lugar perante a necessidade de aumentar cada vez mais os números de visitantes. Como diz um dos elementos contactados:
“O YouTube deu prioridade à busca do lucro”, sobre a segurança dos utentes. “Nós podíamos estar a perder muito dinheiro, mas, pelo menos, cãezinhos a fazerem skate nunca mataram ninguém.”
Guillaume Chaslot, que foi engenheiro do YouTube até sair, em 2013, trabalhava precisamente nos algoritmos que recomendam quais os vídeos a ver a seguir, e disse à CJR que a prioridade fundamental era a de desenvolver mais envolvimento de utentes.
“Ele propôs uma variedade de ferramentas para tentar conter o efeito que tinham os vídeos enganadores, mas a administração não estava interessada.” (...)
Fundou mais tarde o projecto Algo Transparency, que procura informar os utentes sobre o modo como funciona o algoritmo de recomendação do YouTube.
O artigo aqui citado acrescenta uma lista de exemplos sobre problemas deste tipo, com o link para outros estudos ou artigos publicados sobre o mesmo tema.
Mais informação na Columbia Journalism Review e o artigo da Bloomberg.