Líderes mundiais se reuniram em Paris nas últimas segunda e terça-feira (10 e 11) para discutir os caminhos que nós, a humanidade, queremos para a inteligência artificial e o resultado foi xôxo, tendo sido materializado em um conjunto de intenções belíssimo, mas que não teve a assinatura do Reino Unido e de um dos players mais importantes nesse assunto: os Estados Unidos.
Segundo apuração do portal Politico, o que teria tirado os Estados Unidos do texto seria o fato dele conter as palavras “inclusivo e sustentável”, já a Reuters insinua que o que teria incomodado a delegação americana seria o trecho “a IA deve ser inclusiva, aberta, ética e segura”. No entanto, faltam explicações sobre as razões pelas quais o Reino Unido pulou fora do texto final da AI Action Summit.
Diplomatas muitas vezes dizem mais por meio do que não falam. Questionados pelo Tom Bristow, do Politico, a diplomacia britânica destacou “o envolvimento do Reino Unido em uma série de outras iniciativas na cúpula, incluindo uma ‘Coalizão para IA Sustentável’ para rastrear o impacto da tecnologia no planeta”. Ou seja, sustentabilidade, inclusão, abertura, ética e segurança não seriam o problema que teria inviabilizado a assinatura da declaração final pelos britânicos.
Muita coisa mudou desde a primeira AI Action Summit, que aconteceu em 2023 e, na ocasião, se chamava AI Safety Summit, tendo sua primeira edição no simbólico Bletchley Park, hoje um museu no Reino Unido, mas que, durante a segunda guerra, foi o local de trabalho de Alan Turing, personalidade tão importante para a história da IA, da criptografia e da computação.
Tanto em 2023, quanto, no ano passado, em Seul, o encontro tinha um viés de segurança no sentido de “safety” (o nome do evento já dizia isso), ou seja, que se abordava aos danos e riscos ligados as atividades não necessariamente adversariais envolvendo IA.
Safety e security são palavras que, no português, se traduzem como segurança, mas que, no inglês possuem sentidos específicos e complementares: safety tem mais a ver com preservar algo ou protegê-lo do dano. Já o termo security está mais ligado às medidas protetivas contra ameaças, perigos e adversários.
Dessa vez, com a mudança de governo nos EUA, já estava antecipadamente claro que a questão adversarial, tanto no uso de IA no âmbito de cibersegurança, quanto da concorrência econômica, contaminaria cada molécula que voava no ar do Palácio do Eliseu. A tensão já estava dada e, ao ler o cenário, o Reino Unido talvez preferiu a garantia dos contratos e oportunidades com os EUA, um dos seus principais aliados.
A verdade é que discutir inteligência artificial é discutir segurança. Pelo menos por enquanto.
Por que, então, não mudaram o nome do evento para AI Security Summit? São nessas sutilezas linguísticas que mora a beleza da diplomacia. O “action” diz muitas coisas, inclusive que há mais o que se fazer para o benefício da humanidade em termos de IA do que ficar brigando, ou concorrendo. Mas, infelizmente, não deu certo. Colocar nomes nas coisas que expressam uma intenção (ou diluem a tensão) ajuda, mas é preciso ter uma espécie de “caldo” para o consenso brotar. Eu não diria que seria um “caldo mágico”, pois há muito trabalho de negociação entre as chancelarias para fazer isso acontecer. Mas a maior evidência de que esse caldo do consenso não estava presente em Paris foi o discurso do vice-presidente do EUA JD Vance.
Ele abre sua fala dizendo que não estava ali para falar sobre segurança (safety) em IA, mas sim sobre oportunidades em IA, como se uma coisa só pudesse se desenvolver livre da outra. Também é perceptível nessa fala um pacote de ressentimentos com origem em Big Techs que têm apanhado da Digital Services Act (DSA), lei da União Europeia que as regula desde outubro de 22 e a preocupação com o suposto potencial de a AI Act - a ser paulatinamente implementada no continente até o ano que vem - “estrangular” a capacidade de inovação dessa tecnologia antes dela florescer. Parafraseando Delfim Netto é como se a União Européia estivesse colocando o xerife antes do faroeste e isso resultaria em obstáculos a uma mentalidade que supostamente seria essencial para a inovação tecnológica: a do “move fast and break things”.
Estive na Infosecurity Europe logo após a GDPR (a lei de proteção de dados da UE) ter entrado em vigor. Na ocasião a lei era vista como uma oportunidade tão grande que o assunto era praticamente incontornável em qualquer estande ou palestra no evento. Já a AI Act, ou qualquer outra regulamentação sobre o tema, tem sido interpretada ou como algo preocupante, a ser ponderado ou evitado. Henna Virkkunen, chefe de tecnologia da Comissão Europeia já falava, na segunda, que a regulação “não deveria criar um fardo adicional”. Na mesma linha, sua chefe, Ursula Von der Leyen, Presidente da Comissão Europeia, disse que a UE deveria “reduzir a burocracia” e investir mais em IA.
Após os Chineses da DeepSeek terem demonstrado que é possível fazer um modelo de IA decente, barato e que não depende de um hardware colossal, se instalou um pânico que todo mundo viu se alastrar pelos mercados.
Quando vemos um concorrente tirar um coelho da cartola, é comum implorarmos por mais investimento para fazer algo semelhante. No entanto, essa não é uma medida racional para combater o DeepSeek, pois eles gastaram menos do que todas as grandes o fizeram até o momento. Então, se esse movimento dos chineses não serve para pedir mais dinheiro, ele pode servir para tirar o ímpeto dos reguladores do meio do caminho.
Pode parecer conversa de “engenheiro de obra pronta”, mas quando, em 1938, Otto Hahn e Fritz Strassmann conseguiram dividir um núcleo de urânio, criando o que chamamos de fissão nuclear, já era evidente que todos os grandes players perseguiriam bomba. Einstein “cantou essa bola” em agosto de 39. Não houve equilíbrio no processo de tomada de decisão que tirasse a construção da bomba da agenda dos grandes líderes mundiais, e vimos o resultado.
Agora, a nova bomba é a Inteligência Artificial Geral (AGI). Ou seja, “sistemas de IA capazes de realizar qualquer tarefa intelectual que um ser humano possa executar, demonstrando uma compreensão e aprendizado em diversos domínios não se limitando a funções específicas” (pedi para o ChatGPT gerar essa definição pra vocês).
Enquanto o desânimo pairava na AI Action Summit, os cientistas Jim Mitre e Joel B. Predd da RAND Corporation, apimentaram ainda mais o ambiente publicando um relatório contendo os “Os Cinco Problemas Difíceis de Inteligência Artificial Geral para a Segurança Nacional”. Ou seja, o que poderia acontecer para a segurança dos EUA se alcançássemos a AGI. Ou melhor, se alguém, que não os EUA, alcançasse essa tecnologia.
O primeiro problema é que quem fizer esse movimento primeiro terá vantagem para construir o que eles chamam de “Wonder Weapon”, uma arma cuja posse cria uma assimetria enorme entre os poderes dos players a qual permite subjugar qualquer um. Exatamente o que aconteceu quando o mundo viu os EUA jogarem aquelas bombas em Hiroshima e Nagasaki.
Em termos de cibersegurança, isso poderia ser usado para identificar e explorar vulnerabilidades nas defesas tecnológicas do inimigo; simular cenários complexos de modo a prever resultados com alto nível de precisão, o que melhora drasticamente o planejamento e execução de operações militares; desenvolver sistemas de armas autônomas para obter dominância militar e criar situações de “fog-of-war” em que uma avalanche de informação não confiável pode atordoar o adversário e levá-lo a tomar decisões com base em suposições incorretas.
O segundo problema é que a AGI pode causar uma séria mudança sistêmica “nos instrumentos de poder nacional ou nos fundamentos sociais da competitividade nacional que alterariam o equilíbrio do poder global“. Imagine que a gente vive num aquário em que toda a paisagem é resultado de anos e anos de tradição, regulamentações e regras sociais sedimentada naquela areia que é o nosso chão. Aí acontece uma mudança tão grande no jogo que o aquário todo é chacoalhado. O que poderia acontecer enquanto a areia desce novamente?
Os cientistas da RAND afirmam que uma mudança como esta poderia minar as fundações da competitividade nacional; acentuar as condições para a manipulação da opinião pública, ameaçando o processo democrático de tomada de decisão; pode atropelar frameworks regulatórios, minando a efetividade das instituições e causar um deslocamento bruto da força de trabalho, gerando impacto no PIB dos países. Ao mesmo tempo, a AGI pode também curar o câncer e doenças infecciosas. Mas essa cura estaria disponível para quem, nesse contexto?
Em terceiro lugar, a AGI poderia capacitar não-especialistas a desenvolverem armas de destruição em massa. Diferentemente da bomba atômica, que demanda um alto custo para se tornar realidade, armas de destruição em massa criadas por uma AGI podem ser muito mais baratas. Os autores citam, por exemplo, os meios para se acessar, editar e sintetizar genomas virais. Algo que não demandaria o custo e a complexidade de uma instalação para enriquecimento de urânio, por exemplo.
O quarto problema, talvez o mais conceitual, é o de que “a AGI pode se manifestar como uma entidade artificial com agência para ameaçar a segurança global”. Desde que passou a existir. A tecnologia digital encurtou o tempo de nosso processo de tomada de decisão. Vivemos sob um “timming” que visa o instantâneo: mensagens instantâneas, compras por impulso, reações nas redes sociais... Isso porque temos um arcabouço tecnológico que nos presta um suporte para não pensar muito.

O relatório da RAND diz que à medida que a IA se torna mais poderosa e ubíqua, menor ainda se tornaria o espaço humano na tomada de decisão. Antes, a gente questionava cada linha de uma resposta do ChatGPT. Hoje, nem tanto. E isso pode ser perigoso, sobretudo quando a IA determina quem é um alvo e o quem não é.
Com a IA decidindo por nós, por meio de um raciocínio que talvez não teríamos condições de compreender, essa situação pode ficar ainda mais complexa, sobretudo com AGIs interagindo com outros agentes de inteligência artificial que controlariam sistemas de transportes, água, energia e outros sistemas críticos. Quem é de segurança já imagina a criação de AGIs ou agentes fake, desenvolvidos para se passarem por homólogos legítimos e tomarem decisões autônomas em meio à operações hostis, feitas para desestabilizar uma nação inimiga.
Por fim, em quinto lugar, pode haver instabilidade, tanto no caminho para chegarmos à AGI, quanto em um mundo em que a AGI está estabelecida. E aqui, prevalece o conceito da teoria das relações internacionais chamado “dilema da segurança” que descreve a situação em que medidas tomadas para aumentar a segurança de um ator (pode ser um país, uma empresa ou um indivíduo) acabam sendo percebidas como uma ameaça por outros, gerando uma reação que pode tornar todos menos seguros. Ter colocado mísseis em Cuba em 1962, foi um ato de segurança para a União Soviética, mas foi considerado como uma ameaça pelos EUA e quase embarcamos em uma guerra nuclear por causa disso.
Já abordei a aplicação desse mesmo dilema na cibersegurança aqui a TLP Black, mas basta lembrar do impacto que a divulgação do DeepSeek teve no ocidente, sobretudo nos mercados, e considerar o que aconteceria se uma AGI chinesa que identificasse e explorasse vulnerabilidades em sistemas de adversários políticos fosse descoberta.
Em que nível de tensão nós embarcaríamos numa situação dessa magnitude?
Talvez, essa se tornasse a “brecha que o sistema queria” e chegássemos a um nível de tensão em que ações da AGI fossem interpretadas como atos de guerra, podendo desencadear um bombardeio de data centers chineses pelos EUA. Em situações como estas, o pensamento de “move fast and break things” pode causar uma tragédia.
Quanto mais deslocarmos o debate sobre IA para o âmbito de “security”, mais nos distanciamos do “safety”, e aí não vai ter “action” que dê conta da escalada nas tensões que teremos que enfrentar.
Nota: Hoje a TLP Black não terá as seções “No Horizonte” e “Link Aleatório” por dois motivos. O primeiro é que eu já tomei muito tempo de vocês falando sobre o AI Action Summit e o segundo é que fiz uma pequena cirurgia dentária que me deixou meio derrubado no final de semana. Voltamos à programação normal na semana que vem.