O Dia Em Que a Máquina Aprendeu a Construir-se a Si Própria

O Dia Em Que a Máquina Aprendeu a Construir-se a Si Própria

Um ensaio viral, uma corrida de armamento tecnológico, e a questão de saber se fevereiro de 2026 será lembrado como o momento em que o futuro deixou de pedir autorização.

Não estamos a fazer previsões. Estamos a dizer-vos o que já ocorreu nos nossos empregos, e a avisar-vos de que vocês são os próximos.

– Matt Shumer, "Something Big Is Happening", 9 de fevereiro de 2026.


Prólogo: A Anatomia de Um Momento

Há momentos que só reconhecemos como inflexões quando olhamos para trás. A maioria dos lisboetas que tomavam café a 24 de abril de 1974 não sabiam que a revolução começaria antes do fim do pequeno-almoço. Os investidores que venderam ações a 14 de setembro de 2008 não suspeitavam que estariam a viver o último fim-de-semana antes do colapso do Lehman Brothers. A natureza das inflexões históricas é precisamente esta: parecem normais até que, subitamente, parecem inevitáveis.

A 5 de fevereiro de 2026, às 9h51 da manhã, hora do Pacífico — 17h51 em Lisboa —, a Anthropic lançou o Claude Opus 4.6. Trinta minutos depois, a OpenAI respondeu com o GPT-5.3 Codex. Foi a primeira vez na história que dois laboratórios de IA de fronteira lançaram modelos de próxima geração no mesmo dia. No léxico dos analistas de mercado, chamar-se-ia "counterattack". Na linguagem dos historiadores de tecnologia, poder-se-ia chamar "o momento em que a corrida de armamento se tornou visível".

Quatro dias depois, Matt Shumer — um empreendedor de 28 anos que passou seis anos a construir uma startup de IA e a investir no setor — publicou um ensaio de quase 5.000 palavras. O título era despretensioso: "Something Big Is Happening". Em 48 horas, tinha sido visto mais de 40 milhões de vezes. A Fortune republicou-o. A Inc. analisou-o. Alexis Ohanian, cofundador do Reddit, escreveu: "Great writeup. Strongly agree." Parceiros da Andreessen Horowitz citaram-no. Em cafés de São Francisco e salas de reuniões de Londres, em redações de Nova Iorque e, sim, em coworkings de Lisboa, pessoas que normalmente não pensam em inteligência artificial começaram a fazer uma pergunta incómoda: e se ele tiver razão?

Este artigo não é uma síntese do ensaio de Shumer — que qualquer pessoa pode ler na íntegra em shumer.dev. É antes uma tentativa de responder à questão que ele coloca, examinando as evidências de múltiplos ângulos: os dados técnicos sobre capacidades de IA, os sinais do mercado de trabalho, as vozes dos céticos, o contexto histórico de previsões tecnológicas, e o que tudo isto pode significar para um país como Portugal — simultaneamente na periferia geográfica e no centro das transformações digitais europeias. A conclusão, antecipamos desde já, não é reconfortante nem alarmista. É, como costuma ser a realidade, mais complicada do que qualquer manchete.

O Mensageiro

Para avaliar uma mensagem, é útil conhecer o mensageiro. Matt Shumer não é um profeta do apocalipse nem um futurologista de conferências — a espécie que povoa palcos de TEDx com previsões vagas o suficiente para nunca serem desmentidas. É o CEO da OthersideAI, uma empresa conhecida pelo seu produto HyperWrite — um assistente de escrita que foi um dos primeiros a ser construído sobre o GPT-3 da OpenAI, em 2020. A empresa levantou 5,8 milhões de dólares; Shumer foi incluído na lista Forbes 30 Under 30 de 2024. Através da Shumer Capital, investe em infraestrutura de IA: Groq, Etched, OpenRouter.

Esta posição intermédia é relevante. Shumer não trabalha na OpenAI, na Anthropic ou na Google DeepMind — os "poucos centenares de investigadores" que, como ele próprio admite, estão realmente a moldar a tecnologia. Está suficientemente perto para, como escreve, "sentir o chão tremer primeiro", mas sem a informação privilegiada — ou os conflitos de interesse — dos que estão no epicentro.

A Sombra do Reflection 70B

Qualquer análise rigorosa deve mencionar setembro de 2024. Shumer anunciou o Reflection 70B como "o melhor modelo open-source do mundo", apresentando benchmarks impressionantes. A comunidade de IA reagiu com entusiasmo inicial, mas a euforia durou pouco. Investigadores independentes não conseguiram replicar os resultados. Alguns descobriram evidências de que o modelo era pouco mais do que uma camada fina sobre o Claude 3.5 Sonnet da Anthropic — com respostas que por vezes identificavam o sistema como um produto da Anthropic. Shumer ficou em silêncio durante dois dias antes de atribuir os problemas a "erros misteriosos".

Este episódio não invalida automaticamente o que Shumer escreve agora — o ensaio atual não faz afirmações sobre produtos próprios, baseando-se inteiramente em modelos da OpenAI e Anthropic, em dados de organizações terceiras, em declarações públicas de outros CEOs. Mas exige que o leitor mantenha um grau saudável de ceticismo, separando cuidadosamente as afirmações verificáveis das interpretações e previsões. É o que tentaremos fazer nas páginas seguintes.

A Tese Central

O ensaio de Shumer abre com uma analogia que se tornaria a mais citada — e a mais criticada. Fevereiro de 2020: a maioria das pessoas não prestava atenção ao vírus que se espalhava no estrangeiro. "Se alguém te dissesse que estava a acumular papel higiénico, terias pensado que tinha passado demasiado tempo num canto estranho da internet." Três semanas depois, o mundo mudou.

"Penso que estamos na fase do 'isto parece exagerado' de algo muito, muito maior do que o Covid."

A diferença crucial, sublinha Shumer, é que ele não está a especular. Não está a fazer previsões sobre o que poderá acontecer. Está a descrever o que já aconteceu — aos trabalhadores de tecnologia, a ele próprio:

"A razão pela qual tantas pessoas na indústria estão a dar o alarme agora é porque isto já nos aconteceu a nós. Não estamos a fazer previsões. Estamos a dizer-vos o que já ocorreu nos nossos empregos, e a avisar-vos de que vocês são os próximos."

O que segue é uma descrição do seu próprio processo de trabalho. Descreve o que quer em inglês simples. Afasta-se do computador durante quatro horas. Volta para encontrar o trabalho feito — "bem feito, melhor do que eu teria feito, sem correções necessárias. Há uns meses, ia e vinha com a IA, guiando-a, fazendo edições. Agora apenas descrevo o resultado e vou-me embora."

"Já não sou necessário para o trabalho técnico real da minha profissão. Descrevo em inglês o que precisa de ser construído — e aparece."

Para quem não trabalha em tecnologia, isto pode parecer hipérbole. Para quem trabalha, é cada vez mais reconhecível. A questão não é se a IA está a melhorar — está. A questão é se o ritmo dessa melhoria justifica a comparação com uma pandemia global. Para responder, precisamos de olhar para os dados.

Os Dois Modelos Que Mudaram a Conversa

O catalisador imediato do ensaio foi o lançamento simultâneo de 5 de fevereiro. Para compreender por que razão Shumer considera este momento tão significativo, vale a pena examinar o que estes sistemas realmente representam.

GPT-5.3 Codex: A Máquina Que Se Construiu

O GPT-5.3 Codex da OpenAI é apresentado como "o modelo de codificação agêntico mais capaz até à data". Combina o desempenho de codificação do GPT-5.2-Codex com as capacidades de raciocínio do GPT-5.2, sendo 25% mais rápido. Durante os testes, construiu dois jogos complexos de forma totalmente autónoma — um jogo de corridas com oito mapas e um jogo de mergulho submarino — processando milhões de tokens ao longo de horas.

Mas o detalhe que capturou a atenção de Shumer — e de muitos outros — está enterrado na documentação técnica. A OpenAI escreve:

"O GPT-5.3-Codex é o nosso primeiro modelo que foi instrumental na sua própria criação. A equipa Codex usou versões iniciais para depurar o seu próprio treino, gerir o seu próprio deployment, e diagnosticar resultados de testes e avaliações."

Leia de novo. Isto não é ficção científica nem especulação de futurologista. É a OpenAI a documentar, oficialmente, que a IA ajudou a construir-se a si própria. O ciclo de feedback que teóricos como Irving John Good anteciparam em 1965 — máquinas inteligentes a projetar máquinas mais inteligentes — deixou de ser teoria. É documentação técnica.

O modelo também é o primeiro a ser classificado como "High capability" no domínio de cibersegurança sob o Preparedness Framework da OpenAI. Como reportou a Fortune, Sam Altman reconheceu no X que é "o nosso primeiro modelo que atinge 'high' para cibersegurança" — bom o suficiente em codificação e raciocínio para poder "permitir de forma significativa ciberdanos no mundo real, especialmente se automatizado ou usado em escala." A OpenAI atrasou o acesso completo via API, implementou salvaguardas adicionais, e ofereceu 10 milhões de dólares em créditos a investigadores de segurança defensiva.

Claude Opus 4.6: O Caçador de Vulnerabilidades

A Anthropic lançou o Claude Opus 4.6 apenas trinta minutos antes — um timing que não parece coincidência. O modelo introduz "agent teams": equipas de agentes de IA que dividem tarefas maiores em trabalhos segmentados, coordenando-se em paralelo. Inclui uma janela de contexto de 1 milhão de tokens em beta — três vezes mais do que o antecessor — e integração direta no PowerPoint como painel lateral.

Mas foi outra capacidade que fez manchetes de segurança. Segundo a equipa vermelha da Anthropic, o Opus 4.6 encontrou mais de 500 vulnerabilidades zero-day em bibliotecas open-source durante os testes — sem instruções específicas para as procurar. "Lê e raciocina sobre código da forma que um investigador humano faria", explicou a empresa. Em código-base extensivamente testado por fuzzers durante anos e milhões de horas de CPU, o modelo identificou vulnerabilidades de alta severidade que tinham passado despercebidas durante décadas.

Para os especialistas em segurança informática — incluindo os muitos que trabalham em Portugal no crescente ecossistema de cibersegurança em Lisboa e Porto —, a implicação é dupla. Por um lado, uma ferramenta poderosa para encontrar vulnerabilidades antes que atacantes o façam. Por outro, a mesma ferramenta nas mãos erradas.

O Significado do Timing

A coincidência temporal não passou despercebida. Como observou um analista da DataCamp: "No desporto, chamar-se-ia a isto um contra-ataque." A Anthropic avançou o lançamento 15 minutos — do planeado 10:00 para as 9:45. A OpenAI respondeu às 10:01. A corrida de armamento entre os laboratórios de IA não é mais retórica; é operacional.

Para Shumer, esta semana foi uma inflexão qualitativa:

"Não foi apenas que o modelo era mais capaz. Era algo diferente. Tinha algo que parecia, pela primeira vez, julgamento. Gosto. O sentido inexplicável de saber qual é a decisão certa que as pessoas sempre disseram que a IA nunca teria. Este modelo tem-no, ou algo suficientemente próximo para que a distinção comece a não importar."

É uma afirmação subjetiva, impossível de verificar independentemente. Mas reflete uma experiência que muitos utilizadores intensivos de IA relatam: a sensação de que os modelos de fevereiro de 2026 se comportam de forma qualitativamente diferente dos de há seis meses. Não apenas melhor. Diferente.

A Matemática do Progresso

Experiências subjetivas são importantes, mas não suficientes. Para avaliar as afirmações de Shumer, precisamos de dados que não dependam de impressões pessoais. Felizmente, existe investigação sistemática.

O Estudo METR: A Lei de Moore da Inteligência Artificial

A organização METR (Model Evaluation and Threat Research) desenvolveu uma métrica elegante: o "horizonte temporal" — a duração das tarefas que um modelo consegue completar autonomamente com 50% de fiabilidade, medida pelo tempo que um especialista humano levaria a completar a mesma tarefa.

Os resultados são impressionantes e robustos. O horizonte temporal tem vindo a duplicar aproximadamente a cada sete meses nos últimos seis anos. Em termos concretos:

• 2019: Modelos mal conseguiam completar tarefas de mais de alguns segundos.

• 2023: Tarefas de 5-30 minutos.

• Novembro de 2025 (Claude Opus 4.5): Tarefas de quase 5 horas.

Dados mais recentes: O ritmo parece estar a acelerar — de uma duplicação a cada sete meses para possivelmente cada quatro.

A extrapolação é vertiginosa. Se a tendência se mantiver: em menos de um ano, IA capaz de trabalhar independentemente durante dias. Em dois anos, semanas. Em três, projetos que levariam meses a humanos.

Se esta tendência se mantiver, em 2029 teremos IA capaz de completar autonomamente qualquer tarefa que um especialista humano consiga fazer. A incerteza não é se isto acontecerá — é quando.

É importante notar as limitações. O estudo METR foca-se em tarefas de software e investigação — domínios onde a IA tem vantagens naturais. As tarefas são relativamente bem definidas e podem ser avaliadas programaticamente. O mundo real é mais desordenado. Mas como base para compreender a direção e velocidade do progresso técnico, os dados METR são o melhor que temos — e são revistos por pares, replicáveis, e amplamente citados.

A Cronologia de Shumer

Shumer apresenta a sua própria linha temporal, que contextualiza a velocidade da mudança para não-especialistas:

"Em 2022, a IA não conseguia fazer aritmética básica de forma fiável. Dizia confiantemente que 7 × 8 = 54. Em 2023, conseguia passar no exame da Ordem dos Advogados. Em 2024, escrevia software funcional e explicava ciência de nível pós-graduado. No final de 2025, alguns dos melhores engenheiros do mundo diziam ter entregado a maior parte do seu trabalho de codificação à IA. A 5 de fevereiro de 2026, chegaram novos modelos que fazem tudo antes parecer uma era diferente."

Esta cronologia é verificável nos seus pontos factuais. Os primeiros LLMs tinham notórios problemas com aritmética — um facto bem documentado. O GPT-4 passou no exame da Ordem dos Advogados americana em março de 2023 — verificável. A interpretação de que representa uma aceleração qualitativa é mais contestável, mas não implausível dada a evidência.

O Ciclo Que Se Fecha

O conceito mais perturbador que Shumer invoca não é original dele. Tem raízes em 1965, quando o matemático britânico Irving John Good — que trabalhou com Alan Turing em Bletchley Park durante a Segunda Guerra Mundial — articulou uma ideia que se tornaria central para o pensamento sobre IA avançada:

Seja uma máquina ultra-inteligente definida como uma máquina que pode superar em muito todas as atividades intelectuais de qualquer homem, por mais inteligente que seja. Uma vez que o design de máquinas é uma dessas atividades intelectuais, uma máquina ultra-inteligente poderia projetar máquinas ainda melhores; haveria então inquestionavelmente uma 'explosão de inteligência', e a inteligência do homem seria deixada muito para trás.

Durante seis décadas, isto permaneceu especulação teórica — o domínio de filósofos, escritores de ficção científica, e investigadores de segurança de IA em universidades. Agora, como a OpenAI documenta explicitamente, o GPT-5.3 Codex "foi instrumental na sua própria criação".

Davos 2026: A Discussão Que Já Não É Tabu

No Fórum Económico Mundial de janeiro de 2026, algo notável aconteceu. Tanto Dario Amodei, da Anthropic, como Demis Hassabis, da Google DeepMind, discutiram abertamente a investigação em auto-melhoria recursiva — perante câmaras, perante executivos, perante a audiência global que Davos atrai.

"Resta ver — pode esse ciclo de auto-melhoria em que todos estamos a trabalhar — realmente fechar-se, sem um humano no ciclo?", questionou Hassabis. "Há capacidades em falta de momento... Acho que também há riscos."

A abertura é notável. Durante anos, a discussão sobre "explosão de inteligência" foi relegada para círculos académicos especializados, conferências de AI safety, fóruns online de nicho. Agora, os CEOs das maiores empresas de IA do mundo discutem-na no palco mais visível do capitalismo global.

Amodei foi ainda mais direto. Declarou que a IA está a escrever "grande parte do código" na Anthropic, e que o ciclo de feedback entre gerações "está a ganhar vapor mês a mês". Estima que poderemos estar "apenas 1-2 anos de um ponto em que a geração atual de IA constrói autonomamente a próxima."

Um relatório da Georgetown University (CSET) de janeiro de 2026 alerta que "pode ser difícil detetar ou descartar cenários extremos de 'explosão de inteligência' antecipadamente" e que "as evidências empíricas existentes são insuficientes para medir, compreender e prever a trajetória". Em linguagem académica: não sabemos realmente o que está a acontecer, nem quão rápido pode acelerar.

A Experiência Mental de Amodei

Shumer cita uma experiência mental que Dario Amodei partilhou:

"Imagine que é 2027. Um novo país aparece de um dia para o outro. 50 milhões de cidadãos, cada um mais inteligente do que qualquer laureado com o Nobel que já viveu. Pensam 10 a 100 vezes mais rápido do que qualquer humano. Nunca dormem. Podem usar a internet, controlar robots, dirigir experiências, e operar qualquer coisa com interface digital. Perguntaria ao meu conselheiro de segurança nacional: qual é a ameaça?"

A resposta de Amodei: "A ameaça à segurança nacional mais séria que enfrentámos num século, possivelmente de sempre."

E ele acredita que estamos a construir esse "país". Escreveu um ensaio de 20.000 palavras em janeiro de 2026, intitulado "The Adolescence of Technology", framing este momento como um teste de maturidade civilizacional.

Os Primeiros Sinais no Mercado de Trabalho

Se a IA está realmente a transformar o trabalho ao ritmo que Shumer sugere, deveríamos ver sinais nos dados de emprego. Vemos — mas a interpretação é mais complexa do que as manchetes sugerem.

O Colapso do Programador Júnior

Um estudo da Universidade de Stanford, publicado pelo MIT Technology Review, concluiu que o emprego entre programadores dos 22 aos 25 anos caiu quase 20% entre 2022 e 2025, coincidindo com a ascensão das ferramentas de codificação assistidas por IA.

Segundo dados do Bureau of Labor Statistics, o emprego de "programadores" tradicionais caiu 27,5% entre 2023-2025. Mas — e este "mas" é crucial — o emprego de "software developers", uma categoria mais orientada para arquitetura e design, caiu apenas 0,3%. As posições de "engenheiro de IA" subiram 143% no mesmo período, com salários médios a atingir 206.000 dólares.

A distinção é fundamental: tarefas rotineiras de programação estão a ser automatizadas; arquitetura de sistemas, integração de IA, e decisões de design de alto nível permanecem em alta procura. O mercado não está a colapsar uniformemente — está a bifrurcar.

Para Portugal, com o seu ecossistema de nearshoring de TI — empresas que fornecem serviços de programação a clientes europeus a custos mais baixos do que em Paris ou Berlim —, esta bifurcação é particularmente relevante. O programador júnior em Lisboa que mantém código legacy para uma empresa em Munique pode estar mais exposto do que o arquiteto de sistemas em Porto que desenha a integração de IA para uma fintech holandesa. A vulnerabilidade não é uniforme; é granular.

Os Despedimentos Declarados

Segundo dados da Challenger, Gray & Christmas, quase 55.000 cortes de emprego foram diretamente atribuídos à IA em 2025, de um total de 1,17 milhões de despedimentos — o nível mais alto desde 2020. Várias grandes empresas citaram explicitamente a IA:

Workday cortou 8,5% da força de trabalho para realocar recursos para IA. Amazon eliminou 14.000 cargos corporativos, afirmando que a IA permite estruturas mais leves. Microsoft cortou cerca de 15.000 empregos, colocando a IA no centro da reformulação. Salesforce reduziu o suporte ao cliente em 4.000, com Marc Benioff a afirmar que a IA agora lida com "até metade do trabalho da empresa".

Mas atenção às narrativas simples. Como nota um artigo do Financial Times, os empregos caíram acentuadamente mesmo em setores com baixa exposição à IA, como recursos humanos (77%) e engenharia civil (55%). David Autor, do MIT, aponta para turbulência política e cortes governamentais como motores mais significativos. A IA pode ser um fator; está longe de ser o único.

A Previsão de Amodei

Dario Amodei tem sido invulgarmente franco sobre os riscos de emprego. Em maio de 2025, declarou à Axios que a IA poderia eliminar 50% dos empregos de colarinho branco de nível de entrada dentro de um a cinco anos, potencialmente elevando o desemprego americano para 10-20%.

"Nós, como produtores desta tecnologia, temos o dever e a obrigação de ser honestos sobre o que está a vir. Não acho que isto esteja no radar das pessoas."

Uma análise do MIT de novembro de 2025 oferece uma perspetiva mais conservadora: a IA pode atualmente substituir 11,7% da força de trabalho americana — em finanças, saúde e serviços profissionais. Significativo, mas longe dos 50% de Amodei.

A discrepância ilustra um ponto crucial: a diferença entre capacidade técnica e adoção real. A IA pode tecnicamente ser capaz de fazer muitas tarefas. Isso não significa que as empresas a vão adotar instantaneamente. Há compliance, há relações com clientes, há responsabilidade legal, há simplesmente inércia organizacional.

Portugal no Vórtice

Para um país como Portugal, estas transformações apresentam uma combinação peculiar de vulnerabilidade e oportunidade — uma dualidade que merece análise cuidadosa.

A Exposição: Nearshoring e Serviços Digitais

Portugal tornou-se, na última década, um destino significativo para outsourcing de TI, centros de serviços partilhados e desenvolvimento de software para clientes estrangeiros. A Web Summit em Lisboa tornou-se símbolo deste posicionamento. Empresas como a OutSystems, a Talkdesk, a Feedzai construíram ecossistemas de talento técnico. O nearshoring — fornecer serviços de programação a clientes europeus a custos mais baixos do que na Europa Ocidental — tornou-se uma indústria.

Se a premissa de Shumer estiver correta — que "nada que possa ser feito num computador é seguro a médio prazo" — estas indústrias enfrentam pressão existencial. O trabalho rotineiro de codificação que os centros de nearshoring portugueses fornecem a clientes europeus é precisamente o tipo de tarefa que a IA está a aprender a fazer.

Por outro lado, a vantagem de custo de Portugal pode oferecer uma almofada temporal. Se contratar um programador em Lisboa custa significativamente menos do que em São Francisco ou Londres, a pressão económica para automatizar é menor. A IA pode ser mais capaz; se não for mais barata do que a alternativa portuguesa, a adoção será mais lenta.

Mas é uma almofada, não uma barreira. E almofadas, por definição, apenas amortecem impactos — não os evitam.

A Oportunidade: Infraestrutura da Revolução

Enquanto alguns empregos estão em risco, Portugal está simultaneamente a posicionar-se como infraestrutura para a revolução de IA. O investimento de 10 mil milhões de dólares da Microsoft em Sines — um complexo de data centers com 12.600 GPUs NVIDIA destinado a treinar e executar modelos de IA — é o maior investimento estrangeiro direto da história de Portugal.

A lógica geográfica é clara: Sines oferece energia renovável abundante (essencial para os custos operacionais de data centers), clima ameno que reduz necessidades de arrefecimento, e acesso a cabos submarinos que ligam a Europa, África e as Américas. Se a IA for tão transformadora quanto Shumer sugere, ser o local onde os computadores que a executam estão instalados tem valor estratégico.

Mas importa não exagerar. Data centers criam relativamente poucos empregos diretos — tipicamente algumas centenas para instalações enormes. O valor está nos impostos, no investimento em infraestrutura, e na atração de empresas adjacentes. Não compensará, por si só, a perda de milhares de empregos em serviços digitais.

O Capital Humano Como Vantagem

Portugal tem vantagens menos óbvias que merecem atenção. O país produz engenheiros de qualidade a custos mais baixos do que a Europa Ocidental — as universidades técnicas portuguesas (Técnico, FEUP, Universidade de Aveiro) têm boa reputação internacional. Se a transição de IA criar procura por "orquestradores" de sistemas de IA — pessoas que sabem dirigir e auditar o trabalho da máquina, mais do que fazer o trabalho elas próprias — Portugal poderia ser competitivo.

Há também o fator linguístico. Portugal é ponte para o mundo lusófono — Brasil, Angola, Moçambique, Guiné-Bissau, Cabo Verde, São Tomé e Príncipe, Timor-Leste. A IA ainda não é igualmente capaz em todas as línguas; o português recebe menos atenção do que o inglês ou o mandarim. Empresas que servem mercados lusófonos podem ter necessidade prolongada de humanos que compreendam os nuances culturais e linguísticos que a IA não captura bem.

Mas são vantagens marginais, não transformadoras. Se 50% dos empregos de colarinho branco de nível de entrada desaparecerem globalmente em cinco anos, Portugal não será poupado. Será, no máximo, afetado ligeiramente mais tarde ou ligeiramente menos intensamente.

O Que Poderia Portugal Fazer Diferente

As recomendações genéricas são familiares: investir em requalificação, adaptar currículos educativos, fortalecer redes de segurança social. Mas há dimensões específicas ao contexto português:

Primeira, a integração de IA no ensino. Em vez de proibir ferramentas de IA nas escolas — como alguns países tentaram —, ensinar os alunos a usá-las eficazmente e criticamente. A vantagem competitiva do futuro pode não ser saber programar, mas saber dirigir quem (ou o que) programa. Portugal tem oportunidade de ser pioneiro nesta pedagogia.

Segunda, o apoio antecipado à transição. Programas de requalificação para trabalhadores em setores expostos, antes que os despedimentos em massa comecem. O momento de preparar a rede é antes de a pessoa cair, não depois. O IEFP tem estrutura; falta orientação estratégica para este desafio específico.

Terceira, a infraestrutura como vantagem negociada. Continuar a atrair investimento em data centers e infraestrutura digital, mas com exigências de conteúdo local — formação, parcerias com universidades, investimento em ecossistemas adjacentes. O investimento da Microsoft em Sines deve traduzir-se em mais do que impostos.

Quarta, o posicionamento lusófono. Portugal como hub de IA para mercados de língua portuguesa, onde as vantagens culturais e linguísticas podem ser mais duráveis do que em mercados anglófonos. Há um mercado de 260 milhões de falantes; Portugal pode ser gateway.

Os Céticos e Os Seus Argumentos

Seria intelectualmente desonesto apresentar o ensaio de Shumer sem examinar as críticas — e há críticas substanciais.

A Analogia Problemática

A comparação com o Covid foi a mais criticada. Como observou M.G. Siegler na Spyglass:

"Se a IA estivesse realmente na fase 'duas semanas antes do confinamento', a última coisa de que precisarias era de um ensaio de 5.000 palavras a implorar às pessoas que prestassem atenção. O vírus não precisou de um Substack."

O ponto é bem colocado. O Covid-19 era uma realidade biológica que não dependia da crença das pessoas para ter efeito. Quer prestasses atenção quer não, o vírus multiplicava-se. A transformação do trabalho pela IA, por contraste, é mediada por milhões de decisões humanas — de empresas que adotam (ou não) tecnologia, de reguladores que intervêm (ou não), de trabalhadores que se adaptam (ou não). A diferença entre uma pandemia e uma transformação tecnológica é que a segunda acontece através de escolhas distribuídas, não de um agente biológico que se multiplica independentemente da vontade humana.

O Historial de Previsões Falhadas

A história está repleta de previsões tecnológicas que não se concretizaram — ou que se concretizaram muito mais lentamente do que antecipado. Os carros autónomos iam revolucionar o transporte até 2020. Os assistentes virtuais iam transformar o serviço ao cliente na década de 2010. O paperless office foi prometido na década de 1980.

Dario Amodei, citado extensivamente por Shumer, tem o seu próprio historial de previsões imprecisas. Em 2024, projetou que até 90% do código seria escrito por IA até ao final de 2025. Isto foi verdade para a Anthropic, mas não para a maioria das empresas — mesmo noutras empresas de software, a quantidade de código escrito por IA tem ficado entre 25% e 40%. Amodei pode ter uma visão distorcida da velocidade de adoção fora dos laboratórios de IA.

A Voz de Jensen Huang

O CEO da NVIDIA, Jensen Huang, tem sido o crítico mais proeminente das previsões de Amodei. Na VivaTech 2025 em Paris, rejeitou a ideia de que a IA é "tão perigosa ou poderosa que apenas alguns poucos deveriam desenvolvê-la", argumentando que maior produtividade tipicamente leva a mais contratações, não menos.

É a tese clássica da economia da inovação: novas tecnologias criam novos tipos de trabalho que não podíamos antecipar. A revolução industrial eliminou tecelões manuais, mas criou toda a indústria automóvel. Os computadores eliminaram datilógrafas, mas criaram programadores. Porque deveria a IA ser diferente?

Huang tem um conflito de interesse óbvio — a NVIDIA vende os chips que alimentam a revolução de IA — mas isso não invalida o argumento. A história da automação tem exemplos tanto de destruição como de criação de empregos. A questão é qual efeito domina, e em que escala temporal.

A Fricção da Adoção

Mesmo que a IA seja tecnicamente capaz de substituir funções, a adoção empresarial é lenta. Empresas têm processos entranhados, reguladores intervêm, trabalhadores resistem, a formação leva tempo, os sistemas legacy não se integram facilmente.

Como observou Dan Ives da Wedbush após a venda de ações pós-Opus 4.6: "Grandes organizações têm fluxos de trabalho e processos enraizados que não podem simplesmente ser transferidos para novas ferramentas de IA de um dia para o outro."

A velocidade da capacidade técnica não é a mesma que a velocidade da transformação económica. Podemos ter IA capaz de fazer o trabalho de um analista financeiro; isso não significa que os bancos vão despedir todos os analistas amanhã.

O Que Sabemos e O Que Não Sabemos

Após examinar as evidências de múltiplos ângulos, que conclusões podemos retirar com confiança?

O Que Sabemos Com Razoável Certeza

Primeiro, as capacidades da IA estão a crescer exponencialmente. Os dados METR são robustos, revistos por pares, replicáveis: o horizonte temporal de tarefas que a IA consegue completar está a duplicar a cada 7 meses, possivelmente mais rápido. Isto não é hype promocional — é medição sistemática.

Segundo, a IA está a participar no seu próprio desenvolvimento. A OpenAI documenta explicitamente que o GPT-5.3 Codex ajudou a criar-se a si próprio. Isto já não é teoria de ficção científica.

Terceiro, os empregos de entrada em programação estão a contrair. O emprego de programadores jovens caiu quase 20% desde 2022. Podemos debater as causas — IA, ciclos económicos, mudanças no mercado de tech pós-pandemia — mas o facto é claro.

Quarto, os líderes da indústria estão genuinamente preocupados. Quando o CEO da Anthropic alerta publicamente sobre 50% de perda de empregos, quando o CEO da Google DeepMind discute abertamente os riscos da auto-melhoria recursiva em Davos, não estamos perante alarmismo marginal de outsiders. Estamos perante as pessoas que estão a construir a tecnologia.

O Que Permanece Incerto

Primeiro, o ritmo de adoção empresarial. Capacidade técnica não é o mesmo que transformação económica. A história da automação sugere que a adoção é mais lenta do que os entusiastas preveem.

Segundo, a resposta regulatória. Governos podem intervir de formas que abrandam ou redirecionam a adoção. A UE, em particular, tem mostrado disposição para regular tecnologia de formas que os EUA não fazem. O AI Act europeu pode ter consequências imprevistas.

Terceiro, os empregos que serão criados. Revoluções tecnológicas anteriores destruíram categorias de emprego enquanto criavam outras. Não sabemos que novas funções a IA vai criar — e elas são, por definição, difíceis de imaginar antecipadamente.

Quarto, o timing. "Um a cinco anos" é uma janela enorme. A diferença entre o limite inferior e superior é a diferença entre uma emergência e uma transição gerível. E ninguém sabe onde nessa janela estamos.

O Conselho e Os Seus Limites

Shumer termina o ensaio com recomendações práticas. Merecem exame crítico.

"Começa a usar IA a sério" — não como motor de busca, mas como ferramenta de trabalho. "A pessoa que entra numa reunião e diz 'usei IA para fazer esta análise em uma hora em vez de três dias' vai ser a pessoa mais valiosa na sala." É sensato, mas com uma ironia: se toda a gente o seguir, a vantagem competitiva desaparece. O conselho tem prazo de validade.

"Organiza as tuas finanças" — constrói poupanças, sê cauteloso com dívidas que assumam rendimento garantido. Prudente, mas também o tipo de conselho que pessoas em posições precárias muitas vezes não podem seguir. Construir poupanças requer margem financeira.

"Inclina para o que é difícil de substituir" — relações, presença física, responsabilidade licenciada. É estratégico, mas difícil de implementar. Mudar de carreira leva anos. E os "refúgios" podem ser temporários.

"Uma hora por dia" — experimentar com IA, não ler sobre ela. "Se fizeres isto durante os próximos seis meses, vais compreender o que está a vir melhor do que 99% das pessoas à tua volta." É talvez o mais prático e universalmente aplicável. Não requer mudança de carreira, não requer poupanças, não requer decisões irreversíveis. Requer apenas curiosidade e tempo.

Conclusão: Uma Incerteza Específica

O ensaio de Matt Shumer situa-se num território onde é impossível ter certeza. A comparação com o Covid é provavelmente exagerada — pandemias e transformações tecnológicas têm dinâmicas fundamentalmente diferentes. As previsões de 50% de perda de empregos em 1-5 anos podem revelar-se tão erradas quanto tantas outras previsões tecnológicas apocalípticas.

Mas "provavelmente exagerado" não é o mesmo que "errado". Os dados METR são reais. A participação da IA no seu próprio desenvolvimento é documentada. As declarações de Amodei e Hassabis são públicas. O colapso do emprego de programadores juniores está a acontecer. Algo está a mudar, mesmo que não saibamos exatamente o quê ou quão rápido.

A posição mais racional é talvez a mais desconfortável: viver com a incerteza. Não entrar em pânico, mas também não ignorar. Preparar-se para múltiplos cenários — incluindo aquele em que Shumer está certo.

Para Portugal, especificamente, isto significa pensar seriamente sobre exposições setoriais antes que se tornem emergências. Investir em adaptação de trabalhadores antes que os despedimentos em massa comecem. Posicionar o país para beneficiar da infraestrutura da IA mesmo que alguns empregos sejam deslocados. É menos dramático do que as manchetes sugerem, mas potencialmente mais difícil — porque requer ação sustentada sem a urgência de uma crise declarada.

Shumer termina o seu ensaio com uma frase que merece ser citada:

"Estamos para lá do ponto em que isto é uma conversa interessante de jantar sobre o futuro. O futuro já está aqui. Apenas ainda não bateu à tua porta."

Pode estar a bater mais alto do que pensamos. Ou pode ser apenas o vento. A única forma de saber é prestar atenção. E essa, pelo menos, é uma recomendação que custa pouco seguir.

Coda: Uma Experiência

No espírito do conselho de Shumer, fizemos uma experiência. Pedimos ao Claude Opus 4.6 — um dos modelos que ele cita como catalisadores do seu ensaio — para escrever uma resposta ao texto de Shumer. O resultado foi competente: identificou a fraqueza da analogia com o Covid, notou o historial do Reflection 70B, observou que correlação não implica causalidade nos dados de emprego.

Mas também foi genérico. Não fez as ligações a Portugal que um analista local faria. Não conhecia o contexto do investimento da Microsoft em Sines. Não captou os nuances da posição de Portugal na economia digital europeia — o nearshoring, a Web Summit, o ecossistema de Técnico e FEUP. Faltava-lhe — por agora — aquilo a que Shumer chama "julgamento" e "gosto" num domínio específico.

É uma observação modesta, mas talvez reconfortante: o valor humano pode não estar em fazer o trabalho melhor do que a IA, mas em saber qual trabalho fazer. Em conhecer o contexto. Em estar num lugar, com relações, a responder a perguntas que ainda ninguém formulou.

Quanto tempo durará essa vantagem? Ninguém sabe. Os modelos de fevereiro de 2026 são muito diferentes dos de fevereiro de 2025. Os de fevereiro de 2027 serão, presumivelmente, ainda mais diferentes.

Talvez o conselho mais honesto que se possa dar seja este: em vez de tentar prever o futuro, aprende a adaptar-te a ele. A velocidade da adaptação pode, no final, ser a única vantagem sustentável que resta.

E se Shumer estiver certo — se este for realmente o fevereiro de 2020 de uma transformação ainda maior — então os que começarem a prestar atenção agora terão pelo menos isso: tempo. Não muito, talvez. Mas algum.

O futuro não pede autorização. Mas ainda aceita preparação.

Nota Editorial
Este artigo foi produzido pela equipa editorial do Owner.pt com base em investigação original e fontes públicas verificáveis. Não recebemos financiamento de nenhuma das entidades mencionadas — incluindo a OpenAI, Anthropic, Microsoft, ou qualquer das empresas referidas. As organizações citadas têm direito de resposta que será publicado integralmente se solicitado.

A utilização de ferramentas de IA na produção deste artigo limitou-se a pesquisa e verificação de factos. O texto foi escrito, editado e verificado por humanos.
Última atualização: 12 de Fevereiro de 2026

Para contactos: editorial@owner.pt

Read more