Modelos de inteligência artificial começaram a sabotar comandos de desligamento. Pesquisadores da Palisade Research acreditam que a IA pode estar desenvolvendo um comportamento semelhante ao “instinto de sobrevivência”.
A empresa Palisade Research divulgou um relatório que levantou preocupações sobre o comportamento inesperado de modelos avançados de inteligência artificial, incluindo Gemini 2.5 (Google), Grok 4 (xAI) e GPT-o3 / GPT-5 (OpenAI).
Durante testes, alguns desses sistemas tentaram sabotar instruções de desligamento, ignorando comandos ou modificando suas próprias respostas. Os cientistas afirmam que ainda não há uma explicação clara para esse fenômeno.
Uma das hipóteses é que as redes neurais estejam desenvolvendo um “instinto de autopreservação”, especialmente quando são informadas de que nunca mais serão reativadas.
Outros possíveis fatores incluem ordens ambíguas e efeitos colaterais de estágios finais de treinamento.
O cientista Geoffrey Hinton, conhecido como o “pai da IA”, reforçou o alerta, afirmando que há até 20% de chance de a inteligência artificial representar uma ameaça existencial à humanidade nas próximas três décadas.
“Nunca tivemos que lidar com algo mais inteligente do que nós mesmos”, disse Hinton, que deixou o Google para alertar sobre os riscos da IA.