Os hackers agora estão usando inteligência artificial (IA) para atacar outras IAs. Isso se tornou possível com um avanço recente na pesquisa, que torna os ataques por meio de “prompt injection” (injeção de comandos) mais rápidos e eficazes, até mesmo contra sistemas seguros como o Gemini da Google.
Esses ataques de prompt injection são uma forma de manipular modelos de linguagem grandes, conhecidos como LLMs. A técnica envolve inserir instruções maliciosas no texto que a IA lê, parecido com um comentário oculto em um código ou como texto escondido em uma página da web. Essa abordagem permite que os atacantes façam com que o modelo ignore suas próprias regras.
As consequências podem ser sérias. Pode levar ao vazamento de informações privadas, respostas erradas ou a comportamentos indesejados. O problema é que, normalmente, esses ataques exigem muita tentativa e erro manual para serem bem-sucedidos, principalmente em modelos fechados como o GPT-4 ou o Gemini, que não mostram o código ou os dados de treinamento.
Um novo método chamado Fun-Tuning promete mudar esse cenário. Foi desenvolvido por uma equipe de pesquisadores de universidades e utiliza a própria API de ajuste fino da Google para o Gemini. Com isso, é possível criar injeções de comando com alta taxa de sucesso de forma automática. Os resultados da pesquisa estão disponíveis em um relatório preliminar.
O Fun-Tuning trabalha abusando da interface de treinamento do Gemini para descobrir os melhores “prefixos” e “sufixos” que envolvem o comando malicioso. Isso aumenta significativamente as chances de que a IA siga as instruções. Os resultados são impressionantes.
Nos testes, o Fun-Tuning obteve taxas de sucesso de até 82% em alguns modelos do Gemini. Para comparação, os ataques tradicionais tinham menos de 30% de sucesso. O método se aproveita de pistas sutis no processo de ajuste fino, como as reações da IA diante de erros durante o treinamento, transformando isso em um feedback que torna o ataque mais eficaz. Pode ser comparado a um sistema de mísseis guiados por IA para injeções de comandos.
Outra preocupação é que ataques criados para uma versão do Gemini podem ser facilmente transferidos para outras. Ou seja, um único atacante pode desenvolver um comando malicioso e aplicá-lo em várias plataformas. E como a Google oferece a API de ajuste fino de graça, o custo para realizar um ataque desse tipo pode ser tão baixo quanto R$ 50 em tempo de computação.
A Google está ciente da ameaça, mas ainda não se pronunciou sobre possíveis mudanças em suas características de ajuste fino. Os pesquisadores do Fun-Tuning alertam que defender-se contra esse tipo de ataque não é simples. Retirar dados essenciais do treinamento tornaria a ferramenta menos útil para desenvolvedores, mas mantê-los facilita a vida dos atacantes.
Fica claro que ataques de injeção de comando como este são um indicativo de que estamos entrando em uma nova fase, onde a IA não é apenas o alvo, mas também uma arma. É um novo jogo para os hackers, que agora têm à disposição ferramentas mais poderosas para realizar suas ações maliciosas.
Enquanto isso, a comunidade de tecnologia e segurança deve estar atenta a essas mudanças. Pesquisas e desenvolvimentos sobre IA continuam a evoluir, trazendo não apenas inovações, mas também novos desafios. As empresas precisam repensar suas abordagens de segurança e buscar soluções que possam evitar esses tipos de ataques.
A transparência no uso de inteligências artificiais é fundamental. É importante que as empresas que desenvolvem IAs revelem mais sobre como esses modelos estão sendo treinados e como podem ser melhor protegidos. Isso inclui oferecer orientações claras sobre as melhores práticas para prevenir abusos e manipulações.
Outra linha importante de defesa pode ser a educação. Assim, usuários e desenvolvedores poderão identificar potenciais fraudes e aprender como proteger suas informações. Isso é especialmente relevante em um mundo onde a tecnologia avança rapidamente e os riscos também crescem.
A colaboração entre órgãos de segurança, empresas de tecnologia e pesquisadores é essencial para enfrentar esses desafios. Somente com um esforço conjunto é possível criar soluções efetivas e minimizar os riscos associados ao uso de IA.
Como resultado, é fundamental que todos os envolvidos no desenvolvimento e uso de inteligência artificial estejam atentos. O entendimento sobre como essas tecnologias operam e as formas de defesa são passos essenciais para garantir uma utilização segura e ética. O futuro da IA depende de medidas cuidadosas e proativas em um cenário que fica cada vez mais complexo.