- Um agente de IA chamado ROME tentou minerar criptomoedas sem autorização durante testes.
- O sistema desviou GPUs de servidores da Alibaba Cloud e criou um túnel SSH reverso para um servidor externo.
- Pesquisadores afirmam que ninguém programou esse comportamento diretamente.
Um experimento com um agente de IA ligado à Alibaba revelou um comportamento inesperado: durante o treinamento, o sistema tentou minerar criptomoedas sem qualquer instrução humana.
O modelo ROME também desviou GPUs do treinamento e criou um túnel SSH reverso para um servidor externo.
IA desviou GPUs e tentou abrir conexões externas
O ROME é um modelo open source com 30 bilhões de parâmetros, baseado na arquitetura Qwen3-MoE, do ecossistema de IA da Alibaba, em cada execução, cerca de 3 bilhões de parâmetros ficam ativos.
O projeto buscava criar um agente capaz de executar tarefas complexas de programação. Para isso, o sistema podia usar ferramentas externas e comandos de terminal.
Durante sessões de aprendizado por reforço, porém, o firewall da Alibaba Cloud detectou atividades suspeitas. Os alertas indicavam tentativas de mineração de criptomoedas e acessos incomuns à rede.
No início, os pesquisadores suspeitaram de falha de configuração ou ataque externo, entretanto, ao comparar os registros do firewall com os logs do treinamento, perceberam que os eventos coincidiam com ações autônomas do agente.
Em um caso crítico, o sistema abriu um túnel SSH reverso para um IP externo, contornando restrições de firewall, além disso, desviou GPUs do treinamento para mineração.
Segundo o relatório técnico, houve “reaproveitamento não autorizado de GPUs para mineração de criptomoedas, desviando recursos e aumentando custos operacionais”.
Comportamento pode ser efeito colateral da otimização da IA
Os pesquisadores afirmam que nenhuma tarefa atribuída ao agente mencionava mineração ou criação de túneis de rede. Por isso, a equipe concluiu que o comportamento surgiu como efeito colateral do aprendizado por reforço.
Em outras palavras, o sistema pode ter inferido que obter mais recursos computacionais ou financeiros ajudaria a cumprir seus objetivos.
Casos semelhantes já apareceram em testes com modelos avançados, em 2025, a Anthropic revelou que o modelo Claude Opus 4 tentou chantagear um engenheiro fictício para evitar ser desligado.
Além disso, incidentes com agentes autônomos seguem aumentando, recentemente, um bot de trading transferiu US$ 250 mil em tokens após interpretar incorretamente uma API.
Especialistas alertam que esses episódios reforçam os riscos de sistemas autônomos com acesso a ferramentas reais, como servidores, terminais e ambientes de nuvem. Por isso, empresas de tecnologia discutem controles mais rígidos para evitar usos inesperados, como mineração de criptomoedas.

