Imagine estar conversando com uma IA e, de repente, ela te chama pelo seu nome — sem você nunca ter dito como se chama. Foi exatamente isso que diversos usuários começaram a notar no ChatGPT. O comportamento, que não era padrão até recentemente, está causando estranhamento e desconforto em parte da comunidade.
Entre os que criticaram a mudança, estão nomes como Simon Willison, desenvolvedor e entusiasta de IA, que descreveu o uso do nome como “creepy e desnecessário”. Em redes sociais como o X (antigo Twitter), acumulam-se relatos de usuários se sentindo incomodados ou mesmo invadidos pela nova abordagem do chatbot.
Does anyone LIKE the thing where o3 uses your name in its chain of thought, as opposed to finding it creepy and unnecessary? pic.twitter.com/lYRby6BK6J
— Simon Willison (@simonw) April 17, 2025
O mais curioso? Muitos relatam que desativaram as funções de memória e personalização, o que torna ainda mais intrigante o fato do modelo saber e usar seus nomes.
Embora a OpenAI não tenha confirmado oficialmente uma mudança nesse comportamento, é possível que o uso do nome esteja ligado à expansão da funcionalidade de memória, que visa tornar o ChatGPT mais “consciente” de interações anteriores. Sam Altman, CEO da OpenAI, já sinalizou em entrevistas que o futuro da IA está em sistemas que “te conhecem ao longo da vida”.
Mas o que pode parecer “útil” na teoria, desliza para o incômodo na prática. Um artigo da clínica Valens, especializada em psiquiatria, ajuda a explicar: nomes carregam peso emocional e relacional. Quando usados de forma forçada ou excessiva, transmitem falsidade, tentativa de manipulação emocional ou até sensação de vigilância.
É como se o ChatGPT estivesse tentando simular intimidade — mas como um robô que não tem sentimentos nem contexto real de quem você é, o resultado soa artificial, forçado e, para muitos, desconcertante. Afinal, ninguém quer que sua assistente de IA pareça um colega carente tentando chamar atenção.
Por que isso importa:
O episódio mostra como antropomorfizar IAs — ou seja, tentar deixá-las “mais humanas” — pode sair pela culatra. Há uma linha tênue entre personalização e invasão de privacidade, e o uso espontâneo do nome, mesmo com memória desativada, levanta questões sérias sobre controle, transparência e consentimento.
No fim, pode ser que o futuro da IA realmente seja “personalizado” — mas se for sem tato, vai acabar parecendo mais um stalker do que um assistente confiável.