Quem Define as Regras da IA?

Quem Define as Regras da IA?
Dario Amodei (CEO da Anthropic) no TechCrunch Disrupt

A Anthropic abandonou a sua promessa de segurança. O Pentágono exigiu acesso sem restrições. A UE impõe novas regras. Três modelos de governação em colisão.


Os Factos

Na terça-feira, 25 de fevereiro de 2026, a Anthropic — empresa criadora do Claude e considerada a mais focada em segurança entre os grandes laboratórios de IA — anunciou uma revisão da sua Responsible Scaling Policy (RSP). A promessa central da política original, de setembro de 2023, foi eliminada: a empresa já não se compromete a parar o desenvolvimento de modelos de IA se não puder garantir antecipadamente que as medidas de segurança são adequadas.

No mesmo dia, o Secretário da Defesa dos EUA, Pete Hegseth, reuniu-se com o CEO da Anthropic, Dario Amodei, no Pentágono. Hegseth apresentou um ultimato: até sexta-feira às 17h01, a empresa teria de permitir que o exército americano usasse o Claude sem as restrições atuais — ou enfrentaria a rescisão do contrato de $200 milhões, a designação como «risco para a cadeia de abastecimento», ou a invocação do Defense Production Act.

A Anthropic afirma que a revisão da RSP estava em preparação há quase um ano e não está relacionada com a pressão do Pentágono. Críticos consideram a coincidência temporal significativa. As duas leituras coexistem.

Duas Leituras Possíveis

A Perspetiva da Anthropic

Jared Kaplan, co-fundador e Chief Science Officer da Anthropic, explicou a lógica da empresa:

Sobre a competição: «Sentimos que não ajudaria ninguém se parássemos de treinar modelos de IA. Não sentimos, com o avanço rápido da IA, que fizesse sentido fazermos compromissos unilaterais... se os concorrentes estão a avançar a toda a velocidade.» A empresa argumenta que parar sozinha resultaria em modelos igualmente poderosos desenvolvidos por empresas com menos foco em segurança.

Sobre a ciência das avaliações: Em 2025, a Anthropic ativou salvaguardas ASL-3 para certos modelos porque não conseguiu excluir a possibilidade de facilitarem um ataque bioterrorista. Mas também não tinha evidência forte de que representassem esse perigo. «O que imaginámos como uma linha vermelha clara revelou-se um gradiente difuso», disse Kaplan.

Sobre regulação: A RSP foi criada com a esperança de servir de modelo para regulação governamental. Essa regulação nunca surgiu nos EUA. A administração Trump adoptou uma postura de «deixar correr». Sem enquadramento legal, argumenta a Anthropic, compromissos unilaterais colocam-na em desvantagem competitiva sem benefício para a segurança global.

Sobre transparência: A nova RSP compromete a empresa a publicar «Risk Reports» a cada 3-6 meses e «Frontier Safety Roadmaps» com objetivos detalhados. A Anthropic argumenta que esta transparência é mais valiosa do que compromissos rígidos de parar.

A Perspetiva Crítica

Chris Painter, diretor de política na METR (organização sem fins lucrativos focada em avaliação de modelos de IA), que reviu um rascunho da nova RSP, disse que a mudança sinaliza que a Anthropic «acredita que precisa de mudar para modo de triagem com os seus planos de segurança, porque os métodos para avaliar e mitigar risco não estão a acompanhar o ritmo das capacidades».

A diferença prática é significativa. A promessa original era: «Paramos se não pudermos garantir segurança.» A nova versão é: «Continuamos a menos que estejamos na frente e achemos que os riscos são muito altos.» A segunda é uma condição muito mais restritiva.

A mudança acontece num momento de sucesso comercial: em fevereiro de 2026, a Anthropic levantou $30 mil milhões, avaliando-a em $380 mil milhões. Críticos questionam se promessas voluntárias resistem à combinação de sucesso financeiro e pressão governamental.

Três Modelos de Governação

Este momento ilustra três abordagens diferentes à governação da IA, todas ativas simultaneamente:

Modelo 1: Autorregulação Empresarial

As empresas definem as suas próprias regras. A RSP original da Anthropic era o exemplo mais ambicioso. O problema: quando a pressão aumenta, as regras podem mudar. A xAI de Elon Musk, por contraste, acordou permitir que o Grok seja usado para «qualquer uso legal» em ambientes classificados.

Modelo 2: Regulação Vinculativa (UE)

A União Europeia avançou com o AI Act, que entrou em vigor em agosto de 2024 e terá aplicação plena em agosto de 2026. Define práticas proibidas, requisitos para sistemas de alto risco, e multas até €35 milhões ou 7% do volume de negócios global. Portugal está a alinhar o seu enquadramento nacional para garantir conformidade.

Modelo 3: Estado como Coator (EUA)

O governo não regula a IA, mas usa o seu poder como comprador e detentor de autoridade coerciva para pressionar empresas. O Defense Production Act, uma lei de 1950 para emergências nacionais, está a ser ameaçado para forçar acesso a tecnologia de IA. Este modelo não exige legislação ou debate público.

O Contexto Português

Portugal não é um espetador passivo no desenvolvimento da IA. O país tem um ecossistema crescente de empresas, investigação e infraestrutura.

Empresas

Portugal produziu sete unicórnios tecnológicos, vários com componente forte de IA: OutSystems (plataforma low-code com IA), Feedzai (deteção de fraude — protege 800 milhões de clientes em 190 países), Talkdesk (contact centers com IA), Unbabel (tradução assistida por IA), Sword Health (fisioterapia digital).

A Feedzai desenvolveu algoritmos premiados por uso responsável de IA, com paridade entre grupos demográficos. A Unbabel lidera o Center for Responsible AI, um consórcio de €78 milhões financiado pelo PRR.

Investigação

Miriam Seoane Santos, investigadora do INESC TEC e docente na FCUP, tornou-se em 2025 a primeira portuguesa a ganhar o prémio ERCIM Cor Baayen, pelo seu trabalho em desenvolvimento responsável de IA.

Arlindo Oliveira, professor catedrático do IST e presidente do INESC, foi nomeado para presidir à Comissão de Acompanhamento da Agenda Nacional de Inteligência Artificial.

Regulação

O AI Act da UE é diretamente aplicável em Portugal. A ANACOM foi designada como coordenadora das autoridades nacionais. Datas-chave: fevereiro 2025 — práticas proibidas e literacia em IA; agosto 2025 — regras para modelos GPAI; agosto 2026 — aplicação plena para sistemas de alto risco.

Implicações Práticas

Para Utilizadores de Ferramentas de IA

A mudança na RSP da Anthropic não afeta diretamente a utilização quotidiana do Claude. Os termos de serviço para utilizadores comerciais mantêm-se. A questão é mais sobre precedentes: se compromissos de segurança podem mudar sob pressão, é prudente não assumir que as políticas atuais são permanentes.

Para Empresas que Integram IA

O AI Act da UE exige, até agosto de 2026, conformidade para sistemas de alto risco — incluindo avaliações de conformidade, documentação técnica, marcação CE e registo na base de dados da UE. Setores afetados: saúde, finanças, emprego, infraestruturas críticas.

Passos recomendados: estabelecer inventário de sistemas de IA com classificação de risco; clarificar papel da empresa (fornecedor ou implementador); preparar documentação técnica; formar colaboradores em literacia de IA.

Para Startups e Investigadores

O Center for Responsible AI oferece plataforma de colaboração. O IST, através do LUMLIS (unidade do ELLIS), agrega investigação em machine learning e NLP. O AI Act prevê sandboxes regulatórias — cada Estado-Membro deve estabelecer pelo menos uma até agosto de 2026.

Questões em Aberto

Esta história não tem conclusão — está a acontecer em tempo real. O prazo do ultimato do Pentágono expira sexta-feira, 28 de fevereiro. À data de publicação, não há indicação de que a Anthropic tenha cedido nas suas «linhas vermelhas» sobre vigilância em massa e armas autónomas.

Algumas questões para reflexão:

  • A autorregulação empresarial é suficiente quando os incentivos mudam?
  • O modelo europeu de regulação vinculativa será mais eficaz — ou tornará a Europa menos competitiva?
  • Quando um governo usa o seu poder de compra e autoridade coerciva para forçar empresas, quem protege o interesse público?
  • Para Portugal e para a Europa, como equilibrar soberania tecnológica com acesso a inovação?

Não há respostas fáceis. A governação da IA está a ser definida agora. Os próximos meses determinarão muito do que é possível — e do que é permitido.