O X (antigo Twitter) foi a única das redes sociais que, até o momento, contestou as ordens judiciais emitidas pelo Tribunal Superior Eleitoral (TSE) para bloquear perfis e remover conteúdos classificados como desinformação, principalmente entre 2022 e 2023. Já o Google e a Meta (empresa dona do Facebook, do WhatsApp e do Instagram), que também receberam tais ordens, não se opuseram publicamente e estão até preparando ferramentas como inteligência artificial e uso de agências de checagem para atender às exigências da justiça brasileira nas eleições municipais de 2024.
Elon Musk, dono do X, tem se manifestado contra a censura no Brasil desde a divulgação dos documentos do Twitter Files Brasil. Eles mostraram uma série de ofícios e decisões da justiça que foram encaminhados à plataforma solicitando dados sobre o alcance de determinadas hashtags (como #VotoImpressoNão e #Barrosonacadeia), pedindo a restrição da divulgação desses temas, bem como informações sobre os usuários que fizeram comentários sobre eles, entre outras medidas. As críticas do bilionário, focadas no ministro Alexandre de Moraes, o levaram a ser alvo de um inquérito para apurar suposta desobediência às determinações de Moraes.
Soma-se a isso a divulgação, na semana passada, do relatório elaborado por deputados dos Estados Unidos, com base em ofícios da justiça brasileira expedidos ao X, ordenando a remoção e bloqueio de diversos perfis e publicações na rede social. Parlamentares e influenciadores de direita foram alvos destas decisões. Os documentos foram encaminhados pelo X ao Congresso americano a pedido de deputados do Partido Republicano.
O Google e a Meta foram procurados pela Gazeta do Povo para comentar as contestações públicas feitas por Musk, que acusou Moraes de censura, e para se posicionar sobre as regras sobre redes sociais impostas pelo TSE para as próximas eleições. As empresas afirmaram que não vão se manifestar sobre esses assuntos.
Analistas ouvidos pela reportagem afirmam que tendência no Brasil é que, mesmo diante da repercussão internacional do caso Twitter Files, as restrições impostas às redes sociais se repitam nas eleições municipais de 2024. O silêncio das outras redes sociais em relação a tais atos reforça essa percepção.
De acordo com André Marsiglia, advogado especialista em liberdade de expressão, Musk tem sido uma voz solitária contrária a esses abusos. “As demais plataformas parecem preferir a adesão aos governos. Não significa que concordem com eles, mas elas precisam sobreviver em um ambiente jurídico minimamente estável e se submetem, temendo multas e cassação de suas operações”, observa.
O especialista ainda comenta que as revelações documentais do Twitter Files deixaram claro que “a submissão das demais plataformas não vem de hoje”. Ele diz acreditar que esse cenário não mudará.
O mais provável, na sua visão, é que as demais plataformas se interessem pela reabertura das discussões sobre a regulação nas redes, após o engavetamento do Projeto de Lei 2630/20 (chamado de PL das Fake News ou PL da Censura), em vez de fazer coro às denúncias e enfrentamentos promovidos por Musk.
O sociólogo professor aposentado da UnB e consultor Antônio Flávio Testa afirma que a omissão de Meta e Google, em tese, demonstra que há uma falta de reação das plataformas diante das ações do TSE. E que, caso se colocassem de forma distinta ou se manifestassem, poderiam sofrer perseguição. Ele não acredita que haja uma colaboração formal, mas sim uma adequação às várias dificuldades geradas pela legislação e, até mesmo, pela indefinição de regras objetivas que pautem a questão.
TSE exigirá mais rigor contra “desinformação” nas eleições 2024
Para as eleições de 2024, o TSE aumentou seu aparato para o combate à desinformação. Além do recente lançamento do Centro Integrado de Enfrentamento à Desinformação e Defesa da Democracia (CIEDDE), uma nova resolução do TSE, aprovada no fim de fevereiro, prevê que as plataformas derrubem conteúdos considerados como desinformação antes mesmo de receber ordens judiciais.
Um trecho da norma diz que as plataformas da internet, como as redes sociais, serão “solidariamente responsáveis”, civil e administrativamente, se, durante o período das Eleições 2024, não removerem imediatamente conteúdos e contas considerados de risco pela Corte, como a divulgação ou compartilhamento de “fatos notoriamente inverídicos ou gravemente descontextualizados que atinjam a integridade do processo eleitoral”.
Essa responsabilização das redes pela moderação e remoção de conteúdo foi um dos pontos que as fizeram se manifestar de forma contrária ao PL da Censura, quando da votação de sua urgência na Câmara dos Deputados no primeiro semestre do ano passado. Na ocasião, a Secretaria Nacional do Consumidor (Senacon), do Ministério da Justiça, ameaçou o Google com multa de R$ 1 milhão por hora, caso não retirasse do seu site principal um link para uma mensagem contra o projeto.
Empresas criam procedimentos e ferramentas para atender a governos e juízes
O Goole e a Meta têm adotado políticas globais para tentar responder às demandas crescentes de governos e poderes judiciários para combater o que alegam ser “desinformação”. Para as eleições brasileiras neste ano, por exemplo, a Meta se manifestou por meio de uma nota oficial na qual elenca as ações que a empresa adota em todos os países em contextos eleitorais.
“Colaboramos com autoridades eleitorais e trabalhamos para combater a desinformação em nossas plataformas. Temos anunciado medidas para assegurar o uso responsável e mitigar os riscos de tecnologias emergentes, como a Inteligência Artificial”, afirmou a Meta.
O Google se manifestou de forma similar. Especificamente em relação ao Youtube, a empresa afirmou que suas políticas contra desinformação em períodos eleitorais fazem parte dos esforços para se manter uma “plataforma segura, imparcial e equilibrada, especialmente durante as eleições”.
Um ponto delicado em todo esse contexto, porém, são as fontes de verificação utilizadas por essas empresas para distinguir e classificar o que é ou não desinformação.
Em sua nota, a Meta afirma que trabalha com “parceiros independentes de verificação de fatos para checar a veracidade de conteúdos que não violam as nossas políticas”. No Brasil, a Meta possui seis parceiros para essa iniciativa: Agência Lupa, Agência France Presse, Aos Fatos, Estadão Verifica, Reuters Fact Check e UOL Confere.
Contudo, há dúvidas sobre a imparcialidade de algumas dessas agências de verificação por já terem demonstrado viés político em suas apurações, conforme abordado pela Gazeta do Povo ainda em 2021.
Banimento de perfis com ações suspeitas
A Meta também afirma em sua nota que colabora com as autoridades dos países onde atua e lista as ações utilizadas para coibir a disseminação de desinformação durante o período eleitoral.
No WhatsApp, por exemplo, a limitação da quantidade de contatos para os quais se pode enviar informações recorrentemente compartilhadas é um desses artifícios. O banimento de contas que apresentam comportamento anormal de disparos em massa também é utilizado.
Além disso, em redes como Facebook e Instagram, a Meta utiliza sistemas de inteligência artificial para detectar conteúdos violadores de suas políticas em grande escala, antes mesmo que haja denúncias de usuários, por exemplo.
Já o Google, lista o tipo de ações e informações que não estão permitidas em suas políticas contra desinformação em eleições e as penalizações para os perfis que as infringirem.
De acordo com a assessoria da empresa, as políticas do YouTube passam por constante avaliação e, quando necessário, por atualizações para contemplar os desdobramentos do cenário local e para combater conteúdos que busquem interferir nos processos democráticos, sem mais esclarecimentos sobre as medidas adotadas especificamente para o Brasil.
Sistemas de IA podem trazer resultados não isentos
As ações listadas por ambas as redes não estão de tudo isentas de influências e vieses políticos, possibilitando que determinados conteúdos, como os de perfis conservadores e liberais, sejam tachados de desinformação ou simplesmente excluídos por erros ou “alucinações”, que são defeitos dos computadores e sistemas que ocorrem com certa frequência.
O especialista em IA e gerente de projetos de dados para a Rede Nacional de Ensino e Pesquisa, Marcos Rogério Estevam, explica que toda e qualquer ferramenta de inteligência artificial precisa ser treinada e que, até ela ficar “madura” e conseguir entender os padrões de comportamento (de disparo, conteúdo da mensagem, etc) erros podem ser cometidos.
No caso da exclusão de perfis com comportamento anormal, por exemplo, isso poderia levar ao banimento de usuários comuns.
Outro ponto destacado por Estevam são os vieses no treinamento dos sistemas de IA. “Imagine que uma empresa tenha uma cultura, digamos, mais de direita e treine uma rede para detectar fake news. Pode haver uma chance de (até mesmo inconscientemente) a rede ser treinada para identificar posts da esquerda como sendo ‘falsos’ mesmo que não sejam”, afirma.
Vale notar que o TSE também está preocupado com o uso da inteligência artificial nas eleições, mas sob outro viés. Um dos tópicos da mesma resolução do órgão que trata sobre a responsabilidade das plataformas de mídias sociais em relação ao que é postado – que trata de propaganda eleitoral – também proíbe “deepfakes” em campanhas para prejudicar ou favorecer uma candidatura. Deepfakes são fotos, vídeos ou áudios criados artificialmente para simular a voz ou imagem de uma pessoa real.
O TSE também determina que candidatos que utilizarem inteligência artificial em seus materiais da campanha precisarão usar rótulos para identificar “conteúdo sintético multimídia” produzido com inteligência artificial.
Quando a resolução foi aprovada, Moraes, presidente do TSE, disse que a norma “talvez seja a mais importante resolução para garantir a total liberdade do eleitor – liberdade de escolha, de votação”.
Congresso busca mais informações de plataformas
Diante da divulgação do Twitter Files Brasil, alguns parlamentares, liderados pelo senador Rogério Marinho (PL-RN), solicitaram ao Google e à Meta uma série de “informações e documentos comprobatórios sobre eventuais tratativas do Tribunal Superior Eleitoral (…), no sentido de determinar (…) a não sugestão de determinados perfis, a redução de engajamento de determinadas hashtags, e o fornecimento de dados pessoais de usuários que tenham engajado em hashtags específicas”. A iniciativa é similar ao que o Comitê Judiciário da Câmara dos EUA solicitou ao X.
A assessoria do senador Rogério Marinho afirmou que ainda não havia recebido resposta das redes.
O Google e a Meta foram procurados pela Gazeta do Povo para comentar as contestações públicas feitas por Musk, que acusou Moraes de censura, e para se posicionar sobre as regras sobre redes sociais impostas pelo TSE para as próximas eleições. As empresas afirmaram que não vão se manifestar sobre esses assuntos, embora tenham enviado suas normas globais para atuação em contextos eleitorais, com comentários da assessoria do Google.