Acompanhe toda a atualidade informativa em 24noticias.sapo.pt

Na sexta-feira passada, expirou o prazo que o Pentágono deu à Anthropic (a empresa de inteligência artificial criadora do modelo Claude) para abandonar as suas salvaguardas éticas sobre armas autónomas e vigilância em massa. O CEO, Dario Amodei, não cedeu. Horas depois, o Presidente Trump ordenou o corte de relações entre todas as agências federais e a empresa. E depois disso, o exército americano continuou a usar o Claude em operações militares ativas contra o Irão.

O episódio seria apenas mais um capítulo na turbulenta relação entre tecnologia e poder, se não revelasse algo de mais fundo e mais duradouro sobre o mundo em que vivemos. Estamos perante uma disputa que não é apenas sobre um contrato de 200 milhões de dólares. É sobre quem tem, afinal, autoridade sobre as tecnologias que estão a remodelar o equilíbrio estratégico entre Estados.

O que está em causa?

Para entender o conflito, é preciso entender o que mudou. Os Estados Unidos sempre trataram tecnologias críticas como instrumentos de poder estratégico, da internet à computação avançada, do setor espacial ao nuclear. A novidade está noutra parte.

Como explica Adolfo Mesquita Nunes, sócio da Pérez-Llorca e autor do livro “Algoritmocracia – Como a IA está a transformar as nossas democracias”, a tensão entre o Estado e a Anthropic nasce de uma transformação estrutural dentro da inovação:

“Pela primeira vez, um pequeno número de empresas privadas controla capacidades de fronteira em inteligência artificial, assentes em modelos fundacionais, infraestruturas de computação massiva e equipas científicas altamente concentradas. Essas capacidades têm impacto potencial direto em áreas sensíveis da segurança nacional e não foram desenvolvidas dentro do aparelho público.”

Daqui nasce o choque. O Estado quer acesso sem restrições; a empresa impõe limites. O que está a definir-se, nas palavras de Mesquita Nunes, é algo mais fundamental do que um litígio contratual:

“A discussão deixa de ser meramente contratual. Está em causa a definição de quem fixa, em última instância, as regras de utilização de tecnologias que passaram a ter relevância direta no equilíbrio estratégico entre Estados.”

O ultimato e a ironia

O Pentágono usava o Claude nas suas redes classificadas para tarefas como planeamento operacional e identificação de alvos. Em julho, a Anthropic juntou-se à OpenAI, ao Google Gemini e ao Grok da xAI num contrato de 200 milhões de dólares com o Departamento de Defesa. Mas apenas o modelo da Anthropic operava nas redes classificadas.

Pela primeira vez, um pequeno número de empresas privadas controla capacidades de fronteira em inteligência artificial, assentes em modelos fundacionais, infraestruturas de computação massiva e equipas científicas altamente concentradas.

A Anthropic estabeleceu dois limites inegociáveis: o Claude não seria usado em armas autónomas (onde a inteligência artificial, e não um ser humano, toma a decisão final de matar) e não seria usado para vigilância em massa de cidadãos americanos. O Pentágono queria poder usar a tecnologia “para todos os fins legais”, sem restrições contratuais explícitas.

Quando o prazo expirou sem acordo, a reação foi imediata. O Secretário de Defesa Pete Hegseth classificou a Anthropic como um “risco para a cadeia de abastecimento nacional”, designação habitualmente reservada a empresas de países adversários como a China. Hegseth acusou a empresa de tentar exercer “poder de veto sobre as decisões operacionais das Forças Armadas dos Estados Unidos.”

A ironia veio poucas horas depois. No sábado, forças americanas e israelitas lançaram uma campanha de ataques coordenados contra instalações iranianas. O Comando Central dos EUA terá usado o Claude para processar intercepções, imagens de satélite e informações de sinais, gerar resumos, avaliações de ameaças e visão situacional. A tecnologia banida estava a funcionar nas operações, a medida foi ignorada.

O Estado pode exigir que uma empresa abandone a sua ética?

A questão de fundo que o episódio coloca é uma das mais difíceis da governação contemporânea: até que ponto é legítimo que o Estado pressione empresas privadas a remover salvaguardas éticas em nome da defesa e da segurança nacional?

Adolfo Mesquita Nunes aceita que a defesa nacional pode justificar exigências fortes, mas há limites:

“O problema surge quando o acesso ou a utilização, pelo Estado, de tecnologias privadas com impacto estratégico é imposto através de pressão política ou de negociações casuísticas entre governos e empresas. Decisões desta natureza não podem ser tomadas de forma casuística.”

Quando o uso de tecnologias estratégicas depende de acordos pontuais negociados sob pressão, cria-se incerteza jurídica e desloca-se para relações comerciais específicas uma matéria que deveria estar enquadrada por regras públicas claras.

“Caso contrário, cada episódio transforma-se numa negociação sob pressão estratégica, sem previsibilidade nem legitimidade institucional”, sintetiza o sócio da Pérez-Llorca.

A abordagem da OpenAI ilustra bem o dilema. Sam Altman chegou a acordo com o Pentágono baseando-o nas leis existentes em vez de insistir em proibições contratuais explícitas, essencialmente confiando em que o governo não vai violar a lei, em vez de o contratualizar. O acordo incluía proteções contra armas autónomas e vigilância doméstica em massa, quase idênticas ao que a Anthropic tinha pedido. A diferença era de forma, não de substância.

A militarização acelerada da inteligência artificial

O que este episódio torna visível é um processo mais amplo: a integração crescente da inteligência artificial em sistemas de defesa e em operações militares. A velocidade a que isso acontece levanta questões que as instituições existentes não estão preparadas para responder.

Adolfo Mesquita Nunes identifica o nó central do problema:

O que torna este processo mais complexo é o facto de a inovação ocorrer sobretudo no setor privado e fora dos circuitos tradicionais da defesa. Sistemas que podem ter impacto em operações militares são desenvolvidos por empresas cujo modelo de negócio não está necessariamente alinhado com a lógica estratégica do Estado.

“O principal risco está no desfasamento entre a velocidade da evolução tecnológica e a capacidade das instituições para definir regras claras sobre acesso, limites de utilização e responsabilidade.

Num contexto de competição estratégica intensa, como o que envolve os Estados Unidos, a China e as suas esferas de influência, esse desfasamento tende a comprimir o espaço para a prudência. A corrida tecnológica favorece a integração rápida em vez da reflexão cautelosa”.

O que é que a Europa pode aprender?

Para a Europa, o episódio tem leituras próprias. A primeira é a noção de que a maioria das tecnologias de inteligência artificial com impacto em áreas sensíveis de segurança e defesa são desenvolvidas fora da Europa. Isso cria uma dependência que limita a margem de decisão política quando surgem conflitos sobre acesso ou condições de utilização.

O principal risco está no desfasamento entre a velocidade da evolução tecnológica e a capacidade das instituições para definir regras claras sobre acesso, limites de utilização e responsabilidade.

A segunda lição é institucional. O debate europeu tem sido dominado pela regulação e pela gestão de riscos, uma abordagem que tem méritos, mas que não resolve a questão da capacidade. Adolfo Mesquita Nunes explica as consequências:

“A inteligência artificial começa a assumir características de infraestrutura crítica. Se assim for, a discussão deixa de ser apenas regulatória. Passa a envolver capacidade própria, acesso soberano a tecnologias essenciais e modelos de governação capazes de conciliar segurança, inovação e controlo democrático.”

A Europa pode regular o uso da inteligência artificial. Mas se não desenvolver capacidades próprias relevantes, regular o que não controla é uma posição de dependência mal disfarçada.

O fruto proibido é o mais apetecido

Há um episódio irónico nesta história. Nos dias seguintes ao confronto público com o governo Trump, a aplicação Claude disparou para o primeiro lugar na App Store americana. Os utilizadores gratuitos aumentaram mais de 60% desde janeiro e as subscrições pagas duplicaram.

Ser designado “risco para a cadeia de abastecimento nacional” pela administração Trump acabou por ser, pelo menos por agora, um excelente negócio. Mas essa ironia não deve apagar o que está em jogo: a disputa entre o Pentágono e a Anthropic não foi resolvida. Foi adiada. E os termos em que será finalmente resolvida, com que regras, por quem, com que legitimidade democrática, vão moldar a relação entre tecnologia e poder durante décadas.

A pergunta que fica não é apenas quem ganha este contrato. É quem decide, afinal, como se usa a tecnologia que está a mudar o mundo.

__

A sua newsletter de sempre, agora ainda mais útil

Com o lançamento da nova marca de informação 24notícias, estamos a mudar a plataforma de newsletters, aproveitando para reforçar a informação que os leitores mais valorizam: a que lhes é útil, ajuda a tomar decisões e a entender o mundo.

Assine a nova newsletter do 24notícias aqui.