A corrida para desenvolver inteligência artificial (IA) tá a mil por hora e, com isso, começam a surgir ideias sobre como regular esse tipo de tecnologia. A parada é que isso pode atrapalhar alguns projetos de IA, mas por outro lado, promete dar mais clareza para quem usa essas ferramentas.
Com os riscos que envolvem o que a IA pode gerar, essas regulações parecem ser uma boa jogada. Mas, sinceramente, será que a galera vai realmente fiscalizar direito? É importante que essa tecnologia seja usada de maneira segura e que traga benefícios de verdade para a sociedade.
Um dos primeiros problemas que podem surgir são os controles de dados. Todas as empresas que estão na corrida da IA enfrentam desafios legais porque podem estar utilizando materiais com direitos autorais para desenvolver seus modelos. Isso é uma treta que não tá para brincadeira.
Recentemente, um grupo de editoras na França entrou com um processo contra a Meta (controladora do Facebook e Instagram), alegando que a empresa usou conteúdo protegido sem autorização. Essa ação se juntou com a de autores nos Estados Unidos que também estão na bufa contra os abusos de um gigante da tecnologia.
Se esse processo resultar em uma grana alta, pode ter certeza que outras editoras pelo mundo vão pegar a mesma manha e entrar na jogada. Isso seria um baita problema para a Meta, que pode pagar caro pelas suas manobras, principalmente no que se refere aos modelos iniciais da sua IA, chamada Llama.
E não é só a Meta que tá no olho do furacão. A OpenAI, Google, Microsoft e outras empresas que fazem IA também estão enfrentando dificuldades legais por causa do uso de conteúdos protegidos. A galera tá preocupada com o roubo de textos que alimentam essas IAs.
Se isso continuar, pode criar um novo entendimento sobre como os dados podem ser usados, e só as grandes redes sociais podem se dar bem, pois têm dados próprios que podem alimentar seus modelos. Mas isso também vem com um porre de regras que surgiram após escândalos, como o da Cambridge Analytica, e por conta da regulação na Europa.
Além disso, a Meta foi acusada de usar livros piratas para desenvolver sua IA, já que os dados coletados de postagens dos usuários não eram suficientes. Essa situação pode ser um baita empecilho para quem desenvolve IA nos Estados Unidos, enquanto a China já tem regras que permitem o governo acessar dados de empresas por lá.
É por isso que as empresas dos EUA estão pedindo para as regras de uso de dados serem menos rígidas. A OpenAI, por exemplo, pediu diretamente ao governo para facilitar o uso de dados protegidos por copyright no treinamento de IA.
Outra coisa que tá rolando é uma aproximação de líderes de tecnologia com a administração do Trump. O objetivo é criar uma relação boa nas negociações sobre tecnologia. Se as empresas americanas enfrentarem barreiras, os provedores da China vão sair na frente nessa corrida.
Mas, por outro lado, a proteção dos direitos autorais é super importante. Deixar que seu trabalho seja usado para treinar máquinas que podem acabar tirando seu emprego é complicado. E a grana, sempre a grana, é um motivo que leva as empresas a explorarem essas situações, como já vimos com advogados que se aproveitaram do YouTube.
Por enquanto, várias regiões estão começando a criar leis para a transparência na IA. A China se juntou à União Europeia e aos Estados Unidos para implantar regras sobre a rotulagem de conteúdos gerados pela IA.
As redes sociais já estão se antecipando a isso. Facebook, Instagram, TikTok e outras estão implementando regras sobre a divulgação de conteúdos gerados por IA. O LinkedIn também começou a marcar conteúdos de IA, e o Snapchat tá fazendo o mesmo com imagens criadas na sua plataforma.
Vale lembrar que o Twitter (hoje X) começou a desenvolver regras de divulgação sobre IA desde 2020, mas ainda não colocou isso em prática. É uma boa iniciativa, mas, como tudo relacionado à IA, tá sendo feito devagar, e as plataformas têm que se adaptar de acordo com suas próprias regras, sem diretrizes mais amplas.
Essa abordagem “move fast and break things” (mova rápido e quebre coisas) é o que tenta facilitar a inovação. E com a quantidade de lideranças tecnológicas na Casa Branca, essa estratégia tende a continuar. Porém, é bom ficar ligado, porque empurrar a inovação pode criar mais riscos.
À medida que as pessoas confiando mais na IA para pensar e criar para elas, nós podemos dar um vacilo ao não perceber os perigos do uso em massa da IA, tudo em nome do sucesso corporativo.
Mas a real é: temos que nos perguntar se devemos nos preocupar mais com os danos que a IA pode causar. Regurgitar informações da internet pode parecer normal, mas isso esconde riscos. Crianças já estão deixando de pensar criticamente e criando laços com personagens gerados por IA, que vão se tornar cada vez mais comuns nas redes sociais.
Ainda bem que na última eleição dos EUA, não rolou aquele bombardeio de conteúdos gerados por IA, mas isso não significa que o impacto não esteja presente. O conteúdo gerado por IA pode influenciar opiniões e interações de pessoas, e isso é alarmante.
A história se repete com as redes sociais, que liberaram ferramentas para bilhões de pessoas, mas agora estamos tentando controlar os danos causados. Algumas regiões estão até barrando adolescentes de usar redes sociais pra proteger a molecada. Porém, já se passaram 20 anos e os esforços para lidar com os perigos dessas interações só começaram a ser implementados de verdade na última década.
Parece que não aprendemos nada. A realidade é que estamos ainda nessa lógica de “move fast and break things”, que é o lema das empresas que mais lucram com a popularização dessas tecnologias.
Não dá pra dizer que a IA é completamente ruim, também não é para ignorarmos as melhorias que podem trazer. Mas o plano de ação pro AI que vem da Casa Branca e outras iniciativas relacionadas deveriam considerar os riscos de forma mais séria na hora de desenvolver a IA.
E a gente sabe que isso não deve acontecer. Em uma década, vamos estar tentando gerenciar problemas gerados por ferramentas de IA e restringindo seu uso. Os grandes players vão se sair melhor nessa jogada e provavelmente as reclamações de direitos autorais acabarão se dissipando em nome da inovação rápida.
A febre da IA é real e o setor está a caminho de se tornar um mercado de 1,3 trilhões de dólares. Isso vai impactar nossa capacidade de pensar criticamente, nossa interação e até nossa saúde mental em larga escala.
Fiquem ligados, porque as coisas estão mudando rápido, bicho!