Telefone:
11 97853 5494E-mail:
[email protected] Idioma:
PT-BR
Idioma:
ESP
Idioma:
ENG
4 de julho de 2022
Ex-funcionária diz que há menos proteção contra tentativas de interferência na eleição brasileira do que houve na dos EUA
O Facebook não prioriza o Brasil no combate às operações coordenadas de desinformação eleitoral, alerta a cientista de dados Frances Haugen, a ex-funcionária da plataforma de internet que liberou à imprensa documentos da empresa, os chamados Facebook Papers, no ano passado.
“Eu garanto que há muito menos proteção no Brasil contra tentativas de interferir nas eleições do que nos Estados Unidos“, disse Haugen em entrevista exclusiva à Folha.
Haugen, que cuidava da área de integridade cívica na empresa, chega ao Brasil neste domingo (3) para participar de uma audiência pública na Câmara na terça (5) sobre o projeto de lei das fake news e conversar com organizações da sociedade civil.
A cientista de dados afirma que o mecanismo anunciado pelo Facebook no Brasil em outubro, que detecta conteúdo desinformativo eleitoral e coloca etiquetas que direcionam os usuários para links do TSE, é muito ineficiente.
“Na melhor das hipóteses, o Facebook consegue detectar 20% do conteúdo desinformativo –mas, pensando de forma realista, eles devem estar rotulando no máximo 5%”, disse, afirmando se basear nos números a que teve acesso na empresa.
Ela critica a falta de investimento e transparência em moderação e inteligência artificial em português. “Eles só se preocupam com moderação de conteúdo em países onde correm o risco de serem alvo de regulação, como os Estados Unidos.”
Qual é o objetivo de sua viagem ao Brasil? O Facebook vem nos dizendo há anos que o melhor caminho para tornar a plataforma segura é a moderação de conteúdo por meio da inteligência artificial “mágica”. Mas eles sempre sub-investiram em segurança em idiomas fora o inglês e também não investiram o suficiente em moderadores.
O Brasil é uma das democracias mais importantes do mundo e eu garanto a vocês que o português brasileiro é um dos idiomas que não têm os sistemas básicos de segurança que deveria.
O Ministério Público enviou ofício ao Facebook e às outras plataformas de internet indagando quantas pessoas que falam português eles têm nas equipes de moderação de conteúdo e pedindo informações sobre a inteligência artificial em português. As empresas não especificaram. O Facebook revela esses números em algum país? Eles vêm se recusando a fornecer as informações mais básicas sobre o desempenho de seus sistemas para todos os governos na Europa. Os governos perguntaram seguidamente quantos moderadores de conteúdo falam alemão, quantos falam francês, espanhol, e eles nunca respondem.
A Meta [empresa dona do Facebook] não responde porque, se fosse honesta sobre o quanto investe em segurança em línguas sem ser inglês, as pessoas ficariam furiosas. Eles têm sido muito negligentes. Vou te dar um exemplo que mostra porque eu aposto que o sistema é muito ruim com o português brasileiro.
Há 500 milhões de pessoas que falam espanhol no mundo, e apenas 130 milhões que falam alemão. Em 2019, o Facebook gastava cerca de 58% de seu orçamento para combate a discurso de ódio em moderação em inglês, e só cerca de 2% ou 3% para alemão e espanhol.
Isso porque eles têm mais medo que os alemães baixem regulamentação sobre o Facebook —e isso é profundamente injusto.
A senhora acha que o Facebook não investe o suficiente em moderação em línguas que não o inglês, e não são transparentes, porque é muito caro? Se fosse baseado em necessidade e urgência, eles estariam investindo muito mais em idiomas em que há um histórico de violência étnica, do que em inglês. O motivo real é que o Facebook aloca seus recursos de segurança nos países onde ele teme ser regulamentado.
Esse é o motivo de eles gastarem cerca de 87% de seu orçamento de desinformação no idioma inglês, em 2020, apesar de uma proporção muito menor de usuários falarem inglês. Basicamente, o Facebook tenta minimizar os riscos para a empresa, e não otimizar recursos para a segurança das pessoas.
A senhora pode explicar quais são as consequências concretas de não investir em moderação de conteúdo em outros idiomas? Em 2015, em meio a crescentes tensões em Mianmar que acabaram desembocando no genocídio dos rohyngia, o Facebook tinha apenas dois moderadores que falavam birmanês e a plataforma foi um dos principais veículos de discurso de ódio contra a minoria muçulmana. Mark Zuckerberg admitiu, em 2018, que a promoção de conteúdo baseada em engajamento é perigosa. Ela é perigosa porque as pessoas são mais atraídas por conteúdo extremista. Quando o Facebook não investe o necessário em um idioma, as pessoas acabam usando a versão mais violenta do Facebook.
O Brasil terá eleições presidenciais em 2 de outubro. O presidente Jair Bolsonaro tem espalhado sua versão do “Stop the Steal” de Donald Trump, afirmando que as eleições serão fraudadas. A senhora acha que o Facebook aprendeu com os erros que cometeu nas eleições americanas de 2016 e 2020? A rede que existia em 2020 para lidar com as eleições, chamada de Integridade Cívica, foi desmantelada imediatamente depois da eleição daquele ano.
E para ter inteligência artificial que garanta segurança na plataforma, é preciso construí-la para cada língua, cada contexto. No momento, não existe transparência em relação ao que o Facebook está ou não fazendo. Sou muito cética em relação à ideia de que o Facebook fez o trabalho necessário para garantir a segurança da eleição [brasileira].
O que o Facebook deveria estar fazendo para garantir a segurança da eleição do Brasil? No verão de 2020 nos EUA, o Facebook estava recomendando aos usuários entrarem em grupos, durante dias, antes que o sistema de segurança pudesse avaliar se os grupos eram seguros. Havia grupos com atividades ilegais. Eles estavam ativamente promovendo esses grupos [alguns eram sobre o Stop the Steal, a teoria da conspiração sobre suposta fraude nas eleições].
Isso era muito perigoso, porque grupos estavam enviando milhares de convites por dia, e o sistema de segurança não conseguia dar conta.
Ao fazer pequenas mudanças como reduzir o número de convites para grupos que podem ser enviados por dia [feito posteriormente na eleição americana], diminuindo de 2000 para 200 o número de convites que um grupo ou usuário pode mandar por dia, já fica significativamente mais difícil espalhar desinformação e burlar as regras de uso.
Esses ajustes são fáceis de “ligar e desligar” e o Facebook sabe disso.
E como sabemos se o Facebook está implementando esses ajustes? Não temos a menor ideia. O Facebook tem se negado a tratar o governo brasileiro e a população brasileira como parceiros. Tenho certeza de que o Facebook não está dando o mesmo nível de prioridade para o Brasil [em comparação aos EUA].
O Facebook anunciou em outubro do ano passado que passaria a detectar posts com conteúdo relacionado à eleição brasileira e iria colocar rótulos direcionando os usuários ao site oficial da Justiça Eleitoral. Mas não sabemos quão eficiente é esse sistema, porque a empresa só revela o total de posts rotulados, e não quantas pessoas foram expostas aos posts antes de eles terem sido rotulados, por exemplo. Será que esse sistema consegue detectar a maior parte da desinformação eleitoral? Levando em conta as informações que revelamos [nos Facebook Papers], podemos presumir que o sistema não funciona bem.
Segundo documentos do próprio Facebook, eles só conseguiam filtrar entre 3% e 5% do discurso de ódio. Na melhor das hipóteses, o Facebook consegue detectar 20% do conteúdo desinformativo. Mas esse número é muito otimista, porque depende da precisão da inteligência artificial em outros idiomas.
Pensando de forma realista, eles devem estar rotulando no máximo 5% [em português]. Não podemos confiar neles e é por isso que estou indo para o Brasil.
A senhora esteve na União Europeia e no Congresso dos EUA discutindo regulação das plataformas de internet. Baseado na sua experiência, que tipo de regulação é mais urgente e deveria ser adotada o mais rápido possível em todos os lugares? Nós definitivamente precisamos ter acesso aos dados do Facebook. Qualquer indústria ou empresa do mundo com o mesmo nível de poder que o Facebook é mais transparente. Por exemplo, a indústria automobilística, nós podemos comprar os carros, testar colisões.
A legislação aprovada na UE, o Digital Services Act [Lei de Serviços Digitais], estabelece acesso dos pesquisadores aos dados das plataformas. Ou seja, por enquanto, ainda estamos no estágio de negociar poder comprar um Modelo T., não podemos nem tocar no carro.
E em relação a responsabilização? Alguns pesquisadores propõem a revogação ou mudanças na Seção 230 do Ato de Decência nas Comunicações dos EUA, que exime as plataformas de responsabilidade por conteúdos postados por terceiros. Eu passei muito tempo discutindo com reguladores que tipo de legislação seria mais construtiva.
Parece óbvio dizer que o Facebook removeria mais conteúdo irregular se nós o tornássemos responsável por isso. Como a inteligência artificial ainda é muito ineficiente para entender certos conteúdos, tirar a proteção na realidade inviabilizaria plataformas de publicarem posts de terceiros.
Agora, acho que o Facebook deveria ser responsabilizado por algumas decisões que toma. Ele teve centenas de oportunidades de ganhar mais dinheiro com aumento de discurso de ódio e desinformação, e fez isso. Então, deveria ser responsável por esse padrão de comportamento.
Por que o Facebook não faz essas mudanças para combater desinformação? Certas mudanças diminuiriam o tempo que as pessoas gastam na plataforma, fariam com que as pessoas curtissem menos posts ou se logassem menos frequentemente. Então a decisão fica entre ter 95% menos desinformação ou ter 5% mais lucros.
Considerando seu conhecimento sobre o funcionamento da equipe de integridade cívica do Facebook, a senhora acha que a plataforma está preocupada com as eleições brasileiras? Eu acho que há pessoas no Facebook prestando atenção nas eleições do Brasil, que, vou repetir, é uma das democracias mais importantes do mundo.
Mas será que há um número suficiente de pessoas acompanhando as eleições brasileiras e como podemos saber? Não há transparência, nem responsabilidade.
Documentos revelados nos Facebook Papers mostram que, no Brasil, as declarações e mensagens políticas são o tipo de desinformação com maior alcance na plataforma no Brasil, na percepção das pessoas. O que o Facebook deveria fazer para combater esse tipo de desinformação no Brasil? Em primeiro lugar, investir em sistemas para português do Brasil. Eu te garanto que há muito menos proteção no Brasil contra tentativas de interferir nas eleições do que nos Estados Unidos. Isso é muito grave.
Raio X
Frances Haugen, 38
Nascida no estado de Iowa (EUA), em 1984, é formada em engenharia da computação e elétrica pelo Olin College e tem um MBA pela Universidade Harvard. É especialista em administração de produtos algorítmicos e trabalhou no Google, no Pinterest, no Yelp e no Facebook. Em 2019, foi recrutada para ser líder no grupo de desinformação cívica do Facebook, cuidando de questões ligadas a democracia e desinformação. Ela deixou a empresa e, em 2021, revelou documentos do Facebook com críticas às práticas da plataforma, nos chamados Facebook Papers
Confira matéria na Folha
Compartilhar
Telefone:
11 97853 5494E-mail:
[email protected]WhatsApp us