A Google deu um salto inusitado no uso de inteligência artificial ao apresentar o DolphinGemma, um modelo especializado em decodificar vocalizações de golfinhos. Desenvolvido em parceria com o Instituto de Tecnologia da Geórgia (Georgia Tech) e baseado na tecnologia do modelo Gemma, a IA foi treinada com décadas de gravações coletadas pelo Wild Dolphin Project, um dos maiores acervos de sons de golfinhos selvagens.
O DolphinGemma aplica métodos semelhantes aos de modelos de linguagem natural (LLMs), analisando sequências sonoras para identificar padrões e prever vocalizações subsequentes — como um tradutor de linguagem animal, mas com estrutura probabilística semelhante à utilizada em humanos.
A inovação não para na teoria. A Google desenvolveu também um protótipo físico batizado de CHAT (Cetacean Hearing and Telemetry), baseado no Pixel 9, que une microfones e alto-falantes subaquáticos para possibilitar interação em tempo real entre humanos e golfinhos, transmitindo vocalizações sintetizadas pela IA em seu ambiente natural.
O projeto será lançado como open-source no verão de 2025, com o intuito de permitir que pesquisadores ao redor do mundo adaptem o modelo para estudar diferentes espécies de golfinhos e contextos ecológicos variados.
A iniciativa representa um marco: embora existam registros extensos de sons de golfinhos, a compreensão real de sua linguagem ainda é limitada. Tentativas anteriores falharam em decifrar padrões consistentes. Com o poder de processamento e aprendizado das redes neurais modernas, o DolphinGemma pode finalmente abrir caminho para uma comunicação interestímulo entre espécies — e um novo entendimento sobre a inteligência animal.
Se bem-sucedido, o projeto redefine os limites da IA aplicada à biologia e à cognição animal, e pode inaugurar uma nova era na relação entre humanos e os demais seres inteligentes do planeta.