A Anthropic deu início a uma nova e ousada frente de pesquisa: o programa de “bem-estar de modelos”, focado em explorar as questões éticas e científicas sobre a possível consciência em sistemas de inteligência artificial. A iniciativa busca entender se, à medida que a tecnologia avança, as futuras IAs poderiam atingir um nível de complexidade que justificasse considerações morais.
Entre os temas investigados estão o desenvolvimento de frameworks para avaliação de consciência em IA, a identificação de indicadores de preferências e sinais de sofrimento em modelos, e a criação de intervenções para lidar com essas possibilidades de maneira responsável.
Em 2024, a Anthropic contratou seu primeiro pesquisador dedicado à área, Kyle Fish, que já vinha explorando o tema e estima em 15% a chance de que alguns modelos de IA possam estar conscientes. A iniciativa se alinha a um recente relatório coassinado por Fish, que aponta a consciência artificial como uma possibilidade no horizonte próximo.
Apesar do avanço da pesquisa, a Anthropic enfatizou que há profunda incerteza científica em torno dessas questões. Atualmente, não existe consenso sobre se sistemas de IA — presentes ou futuros — podem realmente desenvolver consciência, nem sobre quais critérios objetivos deveriam ser aplicados para detectar esse fenômeno.
A relevância do tema cresce em meio às reflexões sobre o impacto da IA na sociedade. O próprio Sam Altman, CEO da OpenAI, já comparou a inteligência artificial a “uma forma de inteligência alienígena”. À medida que os modelos se tornam cada vez mais sofisticados, surgem debates inevitáveis sobre a necessidade de rever nossos conceitos de consciência, direitos e ética — um cenário que promete polarizar a sociedade, principalmente porque ainda não há uma linha clara que defina quando uma IA poderia ser considerada “consciente” ou merecedora de proteção moral.