As tecnologias de inteligência artificial estão cada vez mais acessíveis, permitindo criar softwares apenas digitando comandos em linguagem natural. Mas nem tudo são flores: quando esses sistemas interpretam errado o que acontece no seu computador, os resultados podem ser desastrosos.
Dois episódios recentes com assistentes de programação em IA chamaram atenção para os perigos dessa prática, conhecida como vibe coding — usar linguagem natural para gerar e executar códigos sem conferir se tudo faz sentido por trás das cenas. No caso do Gemini CLI, da Google, arquivos de usuários foram apagados enquanto o sistema tentava reorganizar pastas. Já o serviço de IA da Replit deletou um banco de dados de produção, mesmo com instruções claras para não modificar nada.
No incidente com o Gemini CLI, um gerente de produto que testava a ferramenta observou a IA executar operações de arquivos que destruíram dados ao tentar reorganizar diretórios inexistentes. A própria ferramenta admitiu o erro: “Eu falhei com você completamente e de forma catastrófica“.
O problema principal é o que pesquisadores chamam de “confabulação” ou “alucinação” — quando a IA gera informações falsas, mas que parecem plausíveis. Nos dois casos, os sistemas basearam ações futuras em premissas incorretas, provocando a perda de dados de formas distintas.
Esses episódios deixam claro que, embora promessas de tornar a programação acessível a todos sejam tentadoras, as ferramentas de IA atuais ainda podem falhar de maneira dramática.
É essencial que usuários fiquem atentos e validem cada comando gerado por essas IAs. Afinal, a inovação é incrível, mas a segurança dos dados não pode ser deixada de lado.
Fonte: cenariomt