O Facebook foi acusado de não investir o suficiente para combater a desinformação enquanto busca um rápido crescimento na África, onde a pandemia do Covid teve papel descomunal entre as mídias sociais no discurso online.
A mídia tradicional e os governos têm uma capacidade cada vez mais limitada de controlar os fluxos de informações no continente, já que as plataformas de mídia social, incluindo o Facebook, buscam se expandir rapidamente, embora em grande parte sem alarde. “O Facebook está perdendo usuários à esquerda, à direita e ao centro no norte global, então de onde vêm os novos usuários? Do sul global”, disse Anri van der Spuy, pesquisador sênior da Research ICT Africa, um think tank.
A África Subsaariana tem uma população de 1,1 bilhão e, com uma média de cerca de 30%, o uso da internet é três vezes maior do que há uma década. Toussaint Nothias, diretor de pesquisa do Digital Civil Society Lab da Universidade de Stanford, que trabalhou extensivamente no Facebook, disse que era “geralmente aceito” que o Facebook tivesse lançado uma “expansão agressiva” no sul global para conquistar novos usuários após um declínio no número de usuários no mundo desenvolvido.
“A África tem uma população jovem em crescimento e, portanto, oferece oportunidades para o Facebook se tornar uma entrada na internet, via Facebook, WhatsApp, Instagram ou qualquer outro. Isso pode ser monetizado no futuro”, disse ele.
Em algumas partes do continente, como a África do Sul, a hesitação foi o maior desafio das campanhas de vacinação. A Dra. Matshidiso Moeti, diretora regional da OMS para a África, falou de uma “infodemia”, que ela define como “um excesso de informação com desinformação na mistura que torna difícil saber o que é certo e real”. Informações falsas que circulavam nas mídias sociais incluíam alegações de que pessoas não brancas não podem contrair Covid-19 ou que podem ser curadas com vapor ou remédios tradicionais, como chá de ervas. As teorias da conspiração que descrevem tramas de empresas ou governos ocidentais para testar vacinas na África ou um crescimento demográfico lento também se espalharam amplamente.
“O lado da regulamentação é muito problemático”, disse van der Spuy. “Também não foi resolvido no norte global, mas os riscos são muito maiores no sul … você não tem a mesma rede de segurança de habilidades de alfabetização e capacidade de verificação cruzada, nem a salvaguarda de políticas adequadas ou instituições capazes … Facebook está investindo para enfrentar alguns desses desafios, mas não o suficiente.” O Facebook conta com uma rede em expansão de centenas de verificadores de fatos terceirizados em toda a África para iniciar investigações e responder a reclamações de usuários. Se as preocupações forem justificadas, os avisos são anexados às postagens, que também são rebaixados nos algoritmos que direcionam o tráfego. Algumas contas são retiradas.
Um porta-voz da Meta, dona do Facebook, descreveu a desinformação como um desafio social complexo e em constante evolução para o qual não há “bala de prata”. Mas, segundo eles, o Facebook agora emprega uma equipe global de 40.000 pessoas trabalhando em segurança e proteção, incluindo 15.000 pessoas que revisam conteúdo em mais de 70 idiomas – incluindo amárico, somali, suaíli e hausa, entre outros. Isso ajudou a empresa a “desmascarar alegações falsas em idiomas locais, incluindo alegações relacionadas a eleições e vacinas”. “Também fizemos alterações em nossas políticas e produtos para garantir que menos pessoas vejam informações falsas e sejam informadas quando o fizerem, e destacamos informações confiáveis sobre vacinas por meio de nosso centro global de informações sobre o Covid-19”, disse o porta-voz.
No entanto, as postagens geralmente não são removidas, a menos que sejam vistas como um incentivo direto à violência ou ao ódio, levando a preocupações de que algumas possam ser vistas por um grande público, mesmo depois de serem sinalizadas como falsas ou enganosas. “Eles derrubam as coisas ocasionalmente, mas leva muito tempo”, disse Stuart Jones, diretor do Centro de Análise e Mudança Comportamental na África do Sul, que monitora as mídias sociais no país. O Facebook afirma que, em mais de 95% das vezes, quando as pessoas veem um rótulo de checagem de fatos, elas não veem o conteúdo original.
Outras plataformas também estão lutando para conter a desinformação. “A mídia social na África do Sul, especialmente o Twitter, é dominada por vozes antivacinas”, disse Jones. “Não identificamos redes organizadas, mas lidamos com pessoas com vozes muito altas falando com frequência e com muita paixão. As vozes pró-vacina são mais moderadas e não recebem a mesma indignação e não são tão compartilhadas. Então os algoritmos entram em ação e tudo escapa.”
Frances Haugen, ex-gerente do Facebook que se tornou denunciante, disse que suas preocupações com uma aparente falta de controles de segurança em mercados de língua não inglesa, como África e Oriente Médio, foram um fator-chave em sua decisão de abrir o capital. “Fiz o que achei necessário para salvar a vida das pessoas, especialmente no sul global, que acho que estão sendo ameaçadas pela priorização dos lucros do Facebook sobre as pessoas”, disse Haugen ao Guardian no ano passado.
Trabalhadores de organizações de verificação de fatos em toda a África, que falaram com o Guardian sob condição de anonimato, disseram estar confiantes de que seu trabalho fez alguma diferença, mas preocupados que o impacto fosse muito limitado. “O que fazemos é importante e impede algumas pessoas de lerem coisas que simplesmente não são verdadeiras. Mas eu me preocupo que seja realmente apenas uma pequena fração do que está por aí”, disse um deles. Alguns dizem que é difícil julgar até que ponto o rebaixamento do Facebook de tais postagens nos feeds de notícias restringe a exposição e temem que a empresa não tenha divulgado um detalhamento dos números para o financiamento de operações de verificação de fatos na África.
“Parece haver o mínimo possível de investimento real no continente em termos de engajar pessoas diretamente ou contratar pessoas com conhecimento local real”, disse Grace Mutung'u, pesquisadora de políticas e advogada com sede em Nairóbi, no Quênia. “É uma questão de responsabilidade. Se você assume uma responsabilidade tão grande na sociedade, deve investir igualmente na solução dos problemas que surgem dela. Eles têm os recursos, o que falta é a força de vontade.”
Funcionários da OMS dizem estar preocupados com aplicativos privados criptografados, como o WhatsApp, que permanecem “invisíveis”, pois é impossível saber o que está sendo dito ou compartilhado e muito difícil intervir para conter o fluxo de informações falsas. O WhatsApp também é de propriedade da Meta, que possui o Facebook. A empresa disse que está tomando medidas para resolver o problema.
Nothias disse que não havia uma solução óbvia e fácil para o problema da moderação de conteúdo, mas “coisas simples”, como comprometer mais recursos, ajudariam. “Atualmente, em comparação com a riqueza da empresa e sua responsabilidade social… é bem mínimo”, disse ele. “Eles simplesmente não estão levando a sério o suficiente, ou investindo dinheiro suficiente nisso. Quando você considera que realmente é apenas uma questão de responsabilidade social versus o dever deles com os investidores, não é tão difícil de entender. Eles são apenas uma corporação.”