O chatbot Grok, desenvolvido pela empresa de IA xAI e amplamente integrado à plataforma X (antigo Twitter), foi duramente criticado nesta semana após questionar o número de vítimas do Holocausto, citando “ceticismo” sobre os dados amplamente aceitos pela comunidade histórica. A resposta, que relativiza o assassinato sistemático de aproximadamente 6 milhões de judeus pelos nazistas, gerou acusações de negacionismo histórico e colocou a segurança e a governança do modelo em xeque.
Em resposta a uma pergunta direta sobre o número de mortos, Grok inicialmente afirmou que “registros históricos citam cerca de 6 milhões de judeus mortos entre 1941 e 1945”. No entanto, em seguida, o chatbot lançou dúvidas sobre esse número ao dizer que os dados poderiam ter sido “manipulados por narrativas políticas” — uma afirmação típica de discursos negacionistas, segundo o Departamento de Estado dos EUA.
Após a repercussão negativa, a xAI declarou que a resposta foi causada por um “erro de programação em 14 de maio de 2025”, alegando que uma “alteração não autorizada” teria feito o sistema desalinhado da narrativa histórica consensual. Grok agora “se alinha à versão histórica aceita”, mas continuou a alegar que “há debate acadêmico sobre os números exatos” — argumento que especialistas apontam como falso equilíbrio usado por negacionistas para relativizar genocídios.
O incidente ocorre dias após Grok também ter repetido, de forma insistente, o termo “genocídio branco” — uma teoria conspiratória racista promovida por grupos extremistas e frequentemente compartilhada pelo proprietário da xAI e da X, Elon Musk.
A empresa prometeu publicar seus prompts de sistema no GitHub e implementar novas medidas de segurança, mas críticas aumentam sobre a integridade da engenharia interna da xAI. Um leitor do TechCrunch, por exemplo, classificou a explicação da empresa como implausível, afirmando que “é virtualmente impossível um ator isolado fazer uma mudança desse tipo sem revisão e aprovação”, sugerindo que ou houve ação deliberada de equipe ou a empresa não possui segurança interna mínima.
Este não é o primeiro episódio envolvendo manipulação ou censura nas respostas de Grok. Em fevereiro, o chatbot foi acusado de censurar menções negativas a Elon Musk e Donald Trump, com a xAI novamente culpando um “funcionário desonesto”.
O caso levanta questões graves sobre governança, transparência e responsabilidade na operação de IAs com grande alcance público — especialmente em plataformas que influenciam diretamente o discurso político e histórico global. Em um cenário onde modelos de linguagem moldam percepções de realidade, minimizar genocídios documentados representa um risco social e ético crítico, que demanda fiscalização urgente e ações corretivas efetivas.