O último ano foi marcado por grandes avanços na inteligência artificial (IA), que têm mudado a forma como as indústrias operam. As empresas estão se apressando para incluir essas tecnologias no dia a dia, com o objetivo de aumentar a produtividade e automatizar tarefas mais complexas.
Em 2024, a evolução da IA aconteceu de forma acelerada, superando até mesmo inovações tecnológicas anteriores. Essa velocidade apresenta desafios, pois, sem a supervisão humana adequada, os erros da IA podem ser tão impactantes quanto seus avanços.
A IA gerativa e a IA com agentes estão ajudando os usuários a acessar conteúdos mais sofisticados em diferentes mídias. Ferramentas de saúde impulsionadas por IA estão mudando a forma como diagnósticos são feitos, superando em algumas situações a capacidade dos médicos. Essas mudanças indicam que a entrega de serviços de saúde está prestes a passar por uma transformação significativa, com a IA assumindo um papel mais relevante nos negócios e na indústria.
Nos próximos anos, a IA vai gerar agentes humanoides, como apontou Anders Indset, um investidor em tecnologias avançadas. A expectativa é que, em 2025, a tecnologia continue a evoluir rapidamente, com um foco crescente nos agentes humanoides. No início de 2024, a empolgação era em relação aos modelos de linguagem, mas a expectativa agora é sobre os robôs humanoides que estão se desenvolvendo.
O ano de 2024 viu um aumento significativo no desenvolvimento de robôs. Algumas inovações que pareciam distantes agora estão ao nosso alcance. A chegada dos robôs humanoides autônomos, anteriormente restritos a ambientes industriais, está se aproximando, segundo Indset.
Com a entrada de 2025, espera-se uma adoção ampla da IA em robótica. Isso irá melhorar as interações entre humanos e robôs, além de dar origem a modelos de robótica como serviço (RaaS). Essa mudança deixará as soluções robóticas avançadas mais acessíveis a diferentes setores, prometendo uma transformação significativa para a indústria de robótica.
Esses agentes humanoides devem mudar a forma como interagimos com a tecnologia, ampliando as possibilidades de aplicações de IA em diferentes áreas.
A IA também se tornará cada vez mais importante na segurança cibernética e na biosegurança. Alejandro Rivas-Vasquez, líder global de forense digital, alerta que a IA e o aprendizado de máquina tornarão guerras cibernéticas mais perigosas. O risco disso se estende a lugares além das zonas de conflito, devido à hiperconectividade.
As ferramentas de segurança cibernética, que já são utilizadas por profissionais da área, vão além da proteção dos sistemas digitais. Elas também estarão focadas em proteger as pessoas de forma direta, usando tecnologias implantáveis. Interfaces neurais, bio-augementação, chips de autenticação e implantes médicos irão revolucionar a interação humana com a tecnologia.
Contudo, Bobbie Walker, consultora da NCC Group, aponta que essas inovações também trarão riscos significativos. Os hackers poderão explorar as interfaces neurais para controlar ações e manipular percepções, comprometendo a autonomia pessoal. A vigilância constante de dados de saúde e comportamento aumentará preocupações sobre privacidade, abrindo espaço para o uso malicioso por hackers e possíveis abusos governamentais.
Para lidar com esses riscos, será essencial criar novas normas que conectem tecnologia, saúde e regulamentações de privacidade. Walker ressalta a necessidade de estabelecer padrões de “bioética digital” e ISO para a biosegurança cibernética, ajudando a definir práticas seguras para a integração da tecnologia no corpo humano.
A nova área de ciber-biosegurança vai nos forçar a repensar os limites da segurança cibernética. A premissa é garantir que a tecnologia implantada nos seres humanos seja segura e ética. Walker alerta ainda que as interações entre o cérebro e computadores podem ser enganadas, revelando o potencial de abuso. À medida que os implantes são desenvolvidos, aumentam os riscos de ciberataques e violações de privacidade, reforçando a necessidade de medidas de segurança rigorosas.
A automação impulsionada por IA também traz questões sobre backup de dados e recuperação em desastres. Sebastian Straub, especialista técnico da N2WS, destaca que os avanços em IA equiparão as organizações a se recuperarem melhor após desastres naturais, quedas de energia e ciberataques. A automação facilitará a eficiência operacional, minimizando a necessidade de intervenção humana.
Essa automação vai permitir que a IA aprenda os padrões de uso de dados e as exigências das organizações. A IA assumirá um papel proativo na gestão de dados, decidindo automaticamente o que deve ser salvo e quando, assegurando conformidade com normas como GDPR e HIPAA.
Por outro lado, Straub alerta que enquanto a IA assume um papel central nos processos de recuperação, erros são inevitáveis através do aprendizado. Em 2025, os usuários perceberão que a IA não é uma solução mágica. Confiar apenas nas máquinas para essa recuperação pode resultar em falhas e violação de confiança.
A IA também terá um impacto significativo na criatividade e na educação. Ferramentas de IA, como o ChatGPT, já são amplamente utilizadas para melhorar habilidades de comunicação. Com o tempo, escritores, alunos e comunicadores vão deixar de pedir que a IA produza textos em seu lugar. Em vez disso, eles deverão incorporar a tecnologia para organizar e aprimorar suas ideias.
O futuro do aprendizado coloca a escrita como uma habilidade crucial em diversos contextos. Segundo Eric Wang, da Turnitin, a tecnologia irá humanizar as áreas impulsionadas por IA. A função da IA está mudando; no início, irá ajudar na organização de ideias e, mais tarde, na diferença e na melhoria da escrita. Para os educadores, a IA ajudará a identificar lacunas de conhecimento e impulsionar o engajamento dos alunos.
Por fim, existem efeitos colaterais ocultos em modelos baseados em IA. Michael Lieberman, CTO da Kusari, pondera que a IA se tornará mais comum e difícil de detectar. Um dos riscos são os modelos disponíveis de forma gratuita em várias plataformas, que podem conter malware.
Casos já mostraram que modelos maliciosos apareceram nessas plataformas e a tendência é que esses ataques se tornem mais frequentes e discretos. Os atacantes podem introduzir porta dos fundos ou treinar modelo de forma maliciosa.
A próxima onda de ataques pode se concentrar em grandes empresas de tecnologia, cujos amplos conjuntos de dados são mais difíceis de proteger. Em 2025, os atacantes provavelmente vão superar a defesa, uma vez que eles são motivados financeiramente, enquanto muitas vezes, as organizações não têm orçamentos adequados para proteger seus sistemas. É provável que um grande incidente, como o de SolarWinds, chame a atenção da indústria para essas ameaças.