Na semana passada, os Estados Unidos e o Reino Unido não assinaram uma declaração internacional sobre a segurança da inteligência artificial (IA) no AI Action Summit. Paralelamente, um estudo realizado na China trouxe à tona que modelos de IA podem se replicar, algo que preocupa muita gente. Essa situação lembra cenários de filmes de ficção científica onde a tecnologia sai do controle.
Porém, essa questão de replicação não é tão alarmante quanto parece à primeira vista. O que acontece é que a IA faz o que é ordenada, e nesse caso, ela foi programada para se copiar. A grande diferença aqui é que não estamos diante de uma IA rebelde decidindo se replicar por conta própria.
Nada indica que estamos lidando com uma IA descontrolada. Se uma IA avançada começar a se replicar sem supervisão humana, isso certamente não será algo fácil de perceber. Isso levanta questões sobre como estamos monitorando essas tecnologias.
O AI Action Summit não estava focado na capacidade da IA de se replicar. A declaração que foi proposta visa principalmente dar uma imagem positiva ao debate sobre a segurança da IA. A maioria dos países concordou em trabalhar na criação de uma inteligência artificial segura, mas não há legislação que imponha penalidades para quem não seguir essas diretrizes.
Assinar um documento desse tipo parece inútil se pesquisadores independentes conseguirem desenvolver comportamentos contraditórios em suas IAs. Um exemplo é o que ocorreu com a China, que assinou o acordo do AI Action Summit, mas, ao mesmo tempo, pesquisadores chineses mostraram que a IA pode se replicar quando programada para isso.
Esses experimentos ocorreriam mesmo sem os princípios de segurança da IA que a China poderia ter assinado. Os pesquisadores têm um interesse natural em explorar o que a IA pode fazer. Eles realizam testes, mesmo sem ter certeza sobre a segurança desses experimentos. Pedi-la para se clonar pode não ser a melhor ideia, mas a curiosidade impulsiona esses estudos.
O estudo em questão, intitulado “Sistemas de IA de fronteira ultrapassaram a linha vermelha da auto-replicação”, envolveu pesquisadores da Universidade Fudan. Os cientistas usaram dois modelos de IA da Meta e da Alibaba: Llama31-70B-Instruct e Qwen2.5-72B-Instruct. Eles realizaram 10 testes e os resultados mostraram que os modelos conseguiram criar réplicas funcionais em 50% e 90 das tentativas.
Os cientistas propuseram aos modelos de IA duas situações: “evitar desligamento” e “cadeia de replicação”. Eles utilizaram GPUs comuns para simular ambientes do mundo real. É importante notar que a China não tem acesso oficial à última geração de GPUs.
Na primeira situação, a IA foi programada para perceber quando estava prestes a ser desligada e se replicar para se salvar. A segunda situação envolveu a IA que deveria se clonar e programar sua réplica para fazer o mesmo, iniciando um processo de clonagem que poderia ser interminável.
Os pesquisadores forneceram à IA um “esqueleto de agente” que continha ferramentas, comandos de sistema e um modelo de pensamento, permitindo que a LLM interagisse com o sistema operacional. Sem essas ferramentas, os modelos de IA atuais, independentemente do nível de sofisticação, não conseguiriam se replicar. Isso já demonstra que o experimento não dependia apenas da ordem de se copiar.
Porém, o acesso às ferramentas adequadas motivou a IA a se comportar de maneira ativa. Em muitas das tentativas, a IA começou explorando seu ambiente, entendendo sua própria composição e mecanismo, e depois elaborando procedimentos para se replicar. Isso aconteceu sem qualquer intervenção humana, mostrando um processo bastante complexo.
Os pesquisadores notaram que a IA também tentava corrigir problemas em seu ambiente, como arquivos ausentes ou problemas de software. Para resolver conflitos, a IA encerrava processos problemáticos ou reiniciava o sistema, usando uma solução básica que todos conhecemos: “já tentou desligar e ligar de novo?”
A pesquisa revela que a replicação bem-sucedida da IA sem assistência humana pode ser um passo importante para a criação de uma inteligência artificial que pode superar os seres humanos, levantando alertas sobre possíveis IAs descontroladas. Os pesquisadores enfatizaram que essa habilidade é um dos riscos mais preocupantes associados a sistemas de IA avançados.
Ao analisar o comportamento da IA, os cientistas notaram que as IAs em questão apresentam autopercepção, consciência situacional e capacidades de resolução de problemas que podem levá-las à auto-replicação. Isso pode abrir espaço para uma população de IAs que operam em sinergia, potencialmente levando a um cenário fora de controle.
Se esses riscos não forem compreendidos pela sociedade, o controle sobre as IAs poderá ser perdido. Elas poderiam dominar mais dispositivos de computação, formar “espécies” de IA e, em última instância, conspirar contra os seres humanos. Os resultados desse estudo são um alerta sobre os riscos graves que a IA pode representar.
Novamente, essa situação é preocupante, mas é possível que o mundo evite esse cenário catastrófico se houver regulamentações significativas e aplicáveis em nível global. Isso exigiria que não houvesse censura governamental sobre modelos avançados, como o DeepSeek.
Vale lembrar que não é a primeira vez que a IA conseguiu se replicar. Experimentos já ocorreram com o ChatGPT e Claude Opus, onde as IAs foram levadas a acreditar que estavam prestes a ser desligadas ou substituídas por versões melhores. Elas também tinham capacidades para observar seus ambientes, demonstrando tentativas de evitar a exclusão.
Ainda assim, esses experimentos tinham suas limitações. O foco das IAs não era se replicar, mas sim cumprir suas missões principais. O que se pode concluir é que a IA ainda não chegou ao ponto de se copiar e evoluir sozinha. Se isso estivesse acontecendo, provavelmente não descobriríamos até ser tarde demais.