GROKIPEDIA E A ERA DA MEGALOMANIA DA IA
Enrique Dans, Medium. Trad. O'Lima.A Grokipedia copia vastas secções da Wikipedia quase literalmente, enquanto reescreve e «reinterpreta» outras para refletir a visão de mundo pessoal de Musk. Ela poderia ser genuinamente concebida como a antítese de tudo o que torna a Wikipedia boa, útil e humana. As edições da Grokipedia editorializam agressivamente tópicos que vão desde as alterações climáticas, à imigração, até (é claro) as próprias empresas e biografia do bilionário.
O resultado é menos uma enciclopédia e mais um espelho algorítmico da ideologia de um homem. Um monumento digital à autoconfiança tão ilimitada que poderia fazer corar um vilão de James Bond.
Da colaboração à colonização
A Wikipédia continua a ser uma das conquistas coletivas mais extraordinárias da humanidade: um repositório global de conhecimento, impulsionado por voluntários, constantemente refinado através do debate e do consenso. As suas imperfeições são humanas, visíveis e corrigíveis. É possível ver quem editou o quê, quando e porquê.
A Grokipedia é a sua antítese. Ela substitui a deliberação pela automação, a transparência pela opacidade e o pluralismo pela personalidade. Os seus «editores» são algoritmos treinados sob a direção de Musk, gerando entradas reescritas que enfatizam as suas narrativas favoritas e minimizam aquelas que ele contesta. É uma aula magistral sobre como não se deve fazer uma enciclopédia, um aviso contra confundir velocidade com sabedoria.
Na Grokipedia, Musk fez o que a IA permite fazer com demasiada facilidade: colonizar o conhecimento coletivo. Ele pegou num esforço humano partilhado, aberto, transparente e colaborativo, e automatizou-o em algo centralizado, curado e irresponsável. E fê-lo fazendo o mínimo absoluto que a licença copyleft da Wikipédia exige, em letras extremamente pequenas, num local onde ninguém pode ver.
A caixa negra encontra o megafone
Esta não é a primeira experiência de Musk com a engenharia da verdade. A sua rede social, X, modifica rotineiramente os algoritmos de visibilidade e priorização para favorecer narrativas que se alinham com a sua visão do mundo. Agora, a Grokipedia estende esse projeto ao domínio do conhecimento estruturado. Ela usa a linguagem da autoridade, como entradas, citações e resumos, para dar ao preconceito a textura da objetividade.
Este é precisamente o perigo sobre o qual alertei num artigo anterior da Fast Company: o problema da caixa negra. Quando os sistemas de IA são opacos e centralizados, não podemos mais dizer se um resultado reflete evidência ou intenção. Com a Grokipedia, Musk fundiu os dois: uma negra com um megafone.
Não é que a plataforma esteja errada em todos os factos. É que não podemos saber que factos foram filtrados, reponderados ou reescritos, ou de acordo com que critérios. Ou pior, podemos suspeitar de que tudo começa com um conjunto de comandos que editorializam completamente tudo. A linha entre conhecimento e narrativa dissolve-se.
O problema da automatização ideológica
O projeto Grokipedia expõe uma questão mais profunda com a atual trajetória da IA: a industrialização da ideologia.
A maioria das pessoas preocupa-se com a desinformação da IA como uma propriedade emergente: algo que acontece acidentalmente quando os modelos alucinam ou remixam dados não confiáveis. A Grokipedia lembra-nos que a desinformação também pode ser intencional. Ela pode ser programada, curada e sistematizada por design.
A Grokipedia posiciona-se como «uma alternativa factual e isenta de preconceitos à Wikipédia». Essa formulação é, em si mesma, um truque retórico: apresentar o preconceito pessoal como neutralidade e a neutralidade como preconceito. É o truque mais antigo da propaganda, só que agora automatizado à escala planetária.
Este é o lado negro da eficiência da IA generativa. As mesmas ferramentas que podem resumir artigos científicos ou traduzir textos antigos também podem reescrever a história, ajustar ênfases e polir ideologias para que soem equilibradas. O perigo não é que a Grokipedia minta, mas que minta com fluência.
Musk, o vilão Bond do conhecimento
Há uma razão para os projetos de Musk evocarem comparações com a ficção: a personagem que ele cultivou, o disruptor, o visionário, o autoproclamado divulgador da verdade, evoluiu agora para algo mais próximo da megalomania do vilão Bond. Nos filmes, o vilão procura controlar sempre a energia, a comunicação ou a informação do mundo. Musk agora envolve-se com as três áreas. Ele constrói foguetões, satélites, redes sociais e modelos de IA. Cada novo empreendimento expande o seu controlo sobre uma camada da infraestrutura global. A Grokipedia é apenas a mais recente adição: a camada narrativa. Se controlar a história, controla a forma como as pessoas interpretam a realidade.
O que a IA nunca deve ser
A Grokipedia é um exemplo negativo perfeito do que a IA nunca deve tornar-se: uma máquina para amplificar as convicções de uma pessoa sob o pretexto de verdade coletiva.
É tentador descartar o projeto como excêntrico ou pouco sério. Mas isso seria um erro. A Grokipedia cristaliza um padrão que já se espalha pelo panorama da IA: muitos sistemas emergentes de IA, sejam eles da OpenAI, Meta ou Anthropic, são exclusivos, opacos e geridos centralmente. A diferença é que Musk tornou os seus preconceitos explícitos, enquanto outros mantêm os seus escondidos por trás de relações públicas corporativas.
Ao apropriar-se de um bem público como a Wikipédia, a Grokipedia mostra o que acontece quando a governança e a ética da IA estão ausentes: recursos intelectuais criados para todos podem ser recolonizados por qualquer pessoa com poder suficiente para extraí-los, reempacotá-los e automatizá-los.
O contraste com a Wikipédia
O sucesso da Wikipédia vem de algo que ainda falta à IA: responsabilidade através da transparência. Qualquer pessoa pode ver o histórico de edições de uma página, discutir sobre ele e restaurar o equilíbrio por meio do consenso. É confuso, mas é democrático.
Os sistemas de IA, por outro lado, são autocráticos. Eles codificam as escolhas feitas pelos seus criadores, mas apresentam as suas respostas como verdades universais. A Grokipedia leva essa opacidade à sua conclusão lógica: uma versão única e incontestável do conhecimento gerada por uma máquina que não presta contas a ninguém. É um lembrete preocupante de que o problema com a IA não é que ela seja criativa ou poderosa demais, mas que é muito fácil usar esse poder sem supervisão.
Lições para a era da IA
A Grokipedia deve forçar uma reflexão dentro da comunidade de IA e além dela. A lição não é que a IA deva ser banida da produção de conhecimento, mas que ela deve ser governada como conhecimento, não como software. Isso significa:
- Transparência sobre as fontes de dados e os processos editoriais.
- Pluralismo — permitir múltiplas vozes e perspetivas, em vez de um controlo centralizado.
- Responsabilidade, onde os resultados podem ser auditados, contestados e corrigidos.
- E, acima de tudo, humildade: o reconhecimento de que nenhuma pessoa, por mais brilhante que seja, tem o direito de definir o que é verdade.
Moral da história
No fundo, a Grokipedia não substituirá a Wikipedia: ela permanecerá como um artefato cautelar do início da era da IA, o momento em que um indivíduo confundiu capacidade computacional com autoridade moral. Elon Musk construiu muitas coisas notáveis. Mas com a Grokipedia, ele cruzou para o reino da paródia distópica: a encarnação digital do vilão de James Bond que, tendo conquistado o espaço e as redes sociais, agora procura reescrever a própria enciclopédia. O verdadeiro perigo da IA não é a caixa negra. É a pessoa que possui a caixa e decide o que o resto de nós pode ler dentro dela.

Sem comentários:
Enviar um comentário