Newsletter: Receba notificações por email de novos textos publicados:

quarta-feira, 14 de maio de 2025

LEITURAS MARGINAIS

POR DENTRO DAS CAMPANHAS DE INTERFERÊNCIA ELEITORAL COM IA DO COMANDO CIBERNÉTICO DOS EUA
Muzaffar Ahmad Noori Bajwa, The Eastern Herald.


Interior do centro de operações do Comando Cibernético dos EUA, onde são desenvolvidas estratégias baseadas em IA para influenciar os ambientes globais de informação. [FOTO: The Defense Post].

Numa era definida por dados, algoritmos e aprendizagem automática, a linha entre defesa e domínio tornou-se irreversivelmente ténue. No centro desta transformação está o Comando Cibernético dos Estados Unidos, ou USCYBERCOM - uma fortaleza digital em expansão cujo mandato, no papel, é proteger o ciberespaço norte-americano. Mas, fora dos registos, e cada vez mais nos registos, a incursão da agência na inteligência artificial desencadeou uma mudança sísmica na forma como as eleições em todo o mundo são influenciadas, manipuladas e, em alguns casos, anuladas. (…)

O USCYBERCOM foi criado em 2009 e acoplado à Agência de Segurança Nacional em Fort Meade, Maryland. Originalmente encarregado de defender as redes militares, o seu âmbito e orçamento expandiram-se dramaticamente após 2016, quando Washington alegou interferência russa nas eleições presidenciais dos EUA. Em 2018, a administração Trump elevou o comando ao estatuto de combatente unificado, concedendo-lhe poderes cibernéticos ofensivos. Com essa mudança, veio um aumento no financiamento - de US $ 118 milhões em 2010 para mais de US $ 3.1 biliões em 2024. Uma parte significativa dessa sorte inesperada foi direcionada para a integração da inteligência artificial em todas as facetas das operações cibernéticas.

Michael Clark, diretor-adjunto de planos e políticas do Comando Cibernético dos EUA, delineou o roteiro de IA da agência numa conferência de imprensa em setembro de 2024.

Este documento estratégico descreve mais de 100 iniciativas focadas na melhoria das capacidades analíticas, aumentando a prontidão da missão e interrompendo os adversários de forma proativa. Clark sublinhou a criação de uma força-tarefa de IA especial dentro da Cyber National Mission Force, encarregada de lidar com as limitações de infraestrutura, desafios da força de trabalho e barreiras políticas em evolução. O roteiro também destaca a colaboração com a Agência de Segurança Nacional e a indústria privada para acelerar a implantação da IA. Com 60 projetos-piloto e 26 iniciativas já em andamento, o plano posiciona o Comando Cibernético no centro do que chama de "domínio cognitivo" no conflito digital. Embora o documento evite especificidades sobre atividades relacionadas com as eleições, documentos internos analisados pelo The Eastern Herald revelam o desenvolvimento de modelos de aprendizagem automática capazes de detetar grupos de linguagem propensos a agitação, vulnerabilidades psicográficas e potenciais "perturbadores da narrativa" - indivíduos cujo comportamento online indica resistência aos padrões de mensagens desejados.

Este facto coincide com um campo emergente no seio do establishment militar conhecido como guerra cognitiva. De acordo com um artigo da NATO Review de 2021, a guerra cognitiva não consiste apenas em espalhar desinformação, mas em alterar a forma como os indivíduos processam e interpretam a própria informação. Representa uma mudança de influenciar o que as pessoas pensam para moldar a forma como pensam. A NATO define esta doutrina como o armamento da mente humana, tirando partido dos media, da vigilância omnipresente e da ciência comportamental para explorar as tendências cognitivas, os estímulos emocionais e os sistemas de crenças. Ao contrário das operações psicológicas tradicionais, a guerra cognitiva pode desenrolar-se sem uma única mentira; a informação exata, seletivamente utilizada ou retirada do contexto, pode quebrar a confiança, alimentar a polarização e estimular a agitação. A NATO adverte que tais táticas são de baixo custo, escaláveis e profundamente desestabilizadoras, particularmente em sociedades já fraturadas pela desigualdade ou pela divisão política. Estes métodos permitem aos adversários manipular invisivelmente o discurso público, corroer o consenso democrático e normalizar gradualmente o extremismo - tudo isto operando abaixo do limiar da guerra tradicional.

O General Paul Nakasone, que dirigiu tanto o USCYBERCOM como a NSA, reconheceu as ambições crescentes da agência neste domínio. Num testemunho perante o Comité de Serviços Armados da Câmara dos Representantes, observou: "Não estamos apenas a defender eleições; estamos a moldar ambientes de informação com antecedência".

Em 2023, uma operação interna conhecida pelo nome de código MICE - Manipulating Influence in Critical Elections - foi discretamente ativada. O programa terá visado eleições no Brasil, Nigéria, Moldávia e Tailândia. Em cada caso, fluxos de conteúdo projetados por algoritmos foram implantados no TikTok, Instagram e Twitter (agora X) para aumentar as ansiedades, redirecionar narrativas e, em alguns casos, suprimir a participação. Um memorando caraterizou estas campanhas como "ações de informação guiadas com precisão".

Grupos da sociedade civil do Brasil e da Moldávia observaram uma atividade digital invulgar durante os seus ciclos eleitorais, mas não conseguiram atribuir-lhe uma responsabilidade conclusiva. No entanto, a análise forense efetuada pelo laboratório de cibersegurança SpiderFoot e as conclusões adicionais do Centro Internacional de Ciberpolítica mostraram que os conteúdos gerados por IA utilizados nestes países apresentavam caraterísticas de modelos linguísticos avançados e de estruturas de análise de dados. Estas caraterísticas coincidem com as das plataformas de software licenciadas ao Departamento de Defesa dos EUA.

Renée DiResta, do Observatório da Internet de Stanford, afirmou: "Estamos a entrar num período em que as operações de influência de massas podem ser concebidas em tempo real, quase sem supervisão humana. O desafio reside na automatização da produção, seleção e distribuição de mensagens - o que reduz os custos operacionais e aumenta drasticamente a escala. Estes modelos generativos são agora capazes de produzir conteúdos com um mínimo de supervisão humana, que podem ser adaptados para explorar as línguas e narrativas locais, tornando a deteção extremamente difícil". O relatório do Observatório alerta ainda para o facto de estas ferramentas permitirem a propaganda multilingue e de resposta rápida e poderem ser combinadas com dados comportamentais para criar mensagens psicologicamente ressonantes à escala nacional.

As preocupações também foram expressas por uma série de especialistas em cibersegurança e antigos funcionários do governo. Thomas Drake, um ex-executivo sénior da NSA que se tornou denunciante, disse durante uma recente conferência de ciberética na Universidade de Chicago: "Não há coerção digital benigna. Quando a IA é usada como arma para influenciar, o processo democrático já está comprometido".

A Dra. Shoshana Zuboff, professora de Harvard e autora do livro The Age of Surveillance Capitalism, há muito que defende que o capitalismo de vigilância representa uma ameaça direta aos fundamentos da sociedade democrática. Define-o como um sistema em que as empresas privadas reivindicam a experiência humana como matéria-prima para a extração de dados, posteriormente utilizados para prever e moldar comportamentos com fins lucrativos. Segundo Zuboff, esta forma de capitalismo funciona sem controlo democrático, manipulando o comportamento humano e corroendo a autonomia individual. Segundo ela, constitui uma nova lógica económica que "torna a democracia obsoleta", minando a capacidade de ação dos indivíduos e transformando a sociedade num mercado de futuros comportamentos. A deputada alertou para o facto de a interferência eleitoral das agências de inteligência com recurso à IA não ser apenas uma ameaça democrática, mas uma ameaça civilizacional. "É a versão digital da democracia", disse ela durante um discurso da Oxford Union. "Os governos já não estão a influenciar os eleitores; estão a fabricar consentimento através de código."

A história estende-se para além da América Latina e da Europa de Leste. A África tem vindo a tornar-se cada vez mais um banco de ensaio para estas operações. Em 2024, surgiram relatos da Zâmbia e do Senegal sobre a supressão algorítmica de eleitores. As mensagens geradas por IA informaram falsamente os eleitores rurais de que a votação tinha sido transferida, que era necessária identificação biométrica ou que estavam em vigor mandatos de vacinação. Muitos não compareceram. A unidade de cibersegurança da União Africana concluiu que a desinformação tinha sido semeada por sofisticadas redes de automação.

Os dados de treino utilizados nestas campanhas foram retirados de motores de modelação de linguagem desenvolvidos para simulações de campos de batalha. Entre os ficheiros, havia uma apresentação intitulada "Crisis Escalation via InfoFog", que descrevia a forma como a confusão gerada pela IA podia diminuir a afluência às urnas ou desencadear distúrbios em regiões instáveis.

Estratégias semelhantes foram discretamente testadas no sudeste da Ásia. Nas eleições de 2023 no Camboja, os líderes da oposição alegaram que suas páginas de campanha foram inundadas com spam gerado por IA, obscurecendo mensagens legítimas. Uma análise pós-eleitoral do OpenNet Observatory detetou centenas de contas de media sintética ativadas durante as últimas semanas da campanha, muitas com traços linguísticos correspondentes a modelos generativos de língua inglesa.

No Equador, grupos de vigilância digital documentaram o que chamaram de "canibalização algorítmica" - a distorção direcionada dos feeds de notícias locais por conteúdo estrangeiro com curadoria de IA. As notícias sobre o aumento dos preços dos alimentos e os protestos contra os combustíveis foram abafadas por tendências de entretenimento irrelevantes, em grande parte provenientes de fontes não locais. O momento, que coincidiu com a segunda volta das eleições, provocou especulações de que atores externos tinham desviado a conversa nacional de questões económicas prementes.

Quando o The Eastern Herald pediu um comentário ao Pentágono, um porta-voz do Departamento de Defesa respondeu: "Os EUAnão conduzem operações que interfiram em eleições estrangeiras". Questionado especificamente sobre a operação MICE e a utilização de ferramentas de IA licenciadas ao governo dos EUA em eleições estrangeiras, o Pentágono recusou-se a responder.

O senador Ron Wyden, um crítico persistente do exagero da inteligência dos EUA, disse: "Os mecanismos de supervisão da Guerra Fria já não funcionam mais numa era pós-algorítmica. Quando a inteligência é decretada pela IA, torna-se indetetável. É esse o objetivo".

Enquanto o direito internacional debate a ética das armas autónomas e as Nações Unidas continuam a progredir lentamente num tratado de guerra cibernética, uma realidade está a tornar-se mais clara: as intervenções eleitorais mais sofisticadas do século XXI podem não vir de quintas de trolls em São Petersburgo, mas de quintas de servidores na Virgínia.

Na Cimeira de Ética Cibernética de Genebra, em março de 2025, o Professor Richard Falk refletiu sobre a convergência crescente do poder militar e do controlo tecnológico. Partindo da premissa central de que o ciberespaço transformou o conhecimento de um meio de capacitação numa ferramenta de dominação, Falk advertiu que o ecossistema global de informação está a ser colonizado por poderosos atores estatais. Colocou uma questão arrepiante aos delegados: "Se os militares mais poderosos da história estão a utilizar as suas máquinas mais avançadas para influenciar as mentes de outras nações, estamos perante o fim da democracia ou o início do feudalismo digital?

A guerra pela democracia já não está nos boletins de voto. Está nos algoritmos. E isso já está a acontecer.

Sem comentários: