Trabalhos premiados com o Nobel de Física costumam ser de difícil entendimento – as complexidades sobre as quais os pesquisadores da área se debruçam levam mesmo a caminhos enigmáticos e promissores. Mas neste ano a Real Academia Sueca de Ciências escolheu estudos pioneiros para o desenvolvimento de soluções acessíveis até mesmo para quem nunca entrou em um laboratório: a inteligência artificial. Tecnologias baseadas em IA chegam cada vez mais às residências, permitindo, por exemplo, que geladeiras façam lista de compras e câmeras de segurança identifiquem comportamentos suspeitos. Nem por isso esses recursos estão na prateleira da simplicidade. Ao contrário. Os próprios laureados de 2024 são enfáticos ao alertar sobre os riscos de lidarmos “com coisas mais inteligentes que nós”.

Geoffrey Hilton, um dos vencedores, pediu demissão do Google em 2023 para poder falar mais livremente sobre os perigos da inteligência artificial. Antes, abandonou um projeto financiado pelo Pentágono por não concordar com o uso dessa tecnologia em guerras, o que chamou de robôs soldados. Na última terça-feira, após o anúncio do Nobel, o hoje professor da Universidade de Toronto disse que a IA tem o poder de causar mudanças tão grandes quanto a Revolução Industrial e não descartou a possibilidade de ela sair do controle.

John Hopfield, que divide o Nobel 2024 com Hilton, chega a cogitar uma catástrofe caso o uso da IA não seja mediado. Já com o Nobel em mãos, o professor da Universidade de Princeton lembrou do surgimento de outras duas tecnologias também promissoras e perigosas, a engenharia genética e a física nuclear, e admitiu não saber quais limites deveriam ser impostos à inteligência artificial. Ellen Moons, presidente do Comitê Nobel de Física, deu um norte ao anunciar os vencedores deste ano: “Podemos escolher utilizar ferramentas com bons fins”.

Na prática, porém, é extensa a lista de aplicações dessa tecnologia para objetivos escusos e criminosos. Dois casos recentes no Brasil ilustram bem a dimensão desse desafio. Ao menos uma dezena de candidatas no primeiro turno das eleições municipais de 2024 foi vítima de deep nudes, a divulgação na internet de fotos manipuladas por IA em que pessoas, principalmente mulheres, aparecem em poses sensuais. Operações da Polícia Federal – como a Terabyte, deflagrada no mês passado – têm mostrado o quanto redes internacionais de pedofilia têm recorrido à IA para criar imagens sexualizadas de crianças.

Em ambos os casos, há de se ressaltar que essas inovações tecnológicas são empregadas para a prática de violências que são estruturais no país, o que torna urgente a atualização dos arcabouços de enfrentamento, como as legislações e as estruturas investigativas. O Brasil está atrasado nessa questão. Existem iniciativas pontuais, como a Estratégia Nacional de Inteligência Artificial e a Lei Geral de Proteção de Dados, mas há a necessidade de uma regulação ampla e que garanta a segurança da população, como tenta fazer a União Europeia.

Em maio, os europeus aprovaram uma legislação abrangente, com aplicação progressiva até 2026, para garantir que o avanço da IA não atropele os direitos fundamentais. Sendo o Brasil um dos países em que há mais confiança nessa tecnologia – ocupa a quarta posição, segundo levantamento da KPMG Austrália –, passou da hora da adoção de medidas que impeçam que esse entusiasmo se transforme em vulnerabilidade para os crimes cibernéticos.