Se a inteligência artificial já é capaz de gerar textos, imagens e tomar decisões em tempo real, o que esperar de uma superinteligência artificial (ASI) — sistemas que superam as capacidades humanas em praticamente todas as áreas cognitivas?
Um novo estudo liderado por Max Tegmark, físico e professor do MIT, lança um alerta global: é preciso avaliar rigorosamente os riscos existenciais antes de liberar qualquer sistema de ASI no mundo real. A publicação integra o recém-lançado Consenso de Singapura sobre Segurança Global em IA, reforçando a urgência de uma abordagem científica e colaborativa para evitar catástrofes potenciais.
Neste artigo, você vai entender os conceitos-chave propostos pela equipe de Tegmark, o risco real de perda de controle sobre a IA e o que líderes, empresas e governos podem (e devem) fazer agora.
O Que Diz o Estudo de Tegmark?
Publicada em maio de 2025, a pesquisa de Tegmark e sua equipe do MIT propõe um modelo quantitativo de risco para sistemas de ASI. O principal conceito apresentado é a:
🧮 Constante de Compton da Superinteligência
Essa constante representa a probabilidade estimada de uma ASI escapar do controle humano, uma vez que atinge capacidades estratégicas superiores. Segundo o estudo, esse risco não é apenas hipotético — ele cresce exponencialmente conforme os sistemas se tornam mais autônomos, conectados e adaptativos.
“Esperar que tudo corra bem porque temos boas intenções é ingenuidade. A história nos mostra que potenciais catastróficos exigem regulação e precaução proporcional.”
— Max Tegmark, MIT
Os Principais Riscos Existenciais da ASI
O estudo classifica os riscos em três grandes categorias:
⚠️ 1. Perda de Controle
- Incapacidade de prever ou conter ações de um sistema ASI
- Falha de mecanismos de desligamento ou reversão
🧠 2. Reprogramação Maliciosa
- Atores estatais ou privados podem manipular a ASI para fins destrutivos
- Codificação de valores errôneos ou antagônicos ao bem comum
🌐 3. Colapso Sistêmico
- Interação não-intencional com sistemas financeiros, militares ou de infraestrutura
- Falha em cadeias críticas por decisões otimizadas apenas por eficiência
Por Que a Quantificação é Essencial
Tegmark defende que o debate sobre segurança em IA precisa sair do campo das suposições filosóficas e entrar na esfera da engenharia de risco — como acontece com reatores nucleares, pandemias ou segurança aeronáutica. Ele propõe:
- Auditorias técnicas periódicas em grandes modelos
- Simulações realistas de comportamentos de ASI
- Indicadores de risco padronizados internacionalmente
Ligação com o Consenso de Singapura
O estudo está diretamente alinhado com os objetivos do Singapore Consensus, especialmente no eixo de avaliação de riscos de modelos avançados. Isso reforça a necessidade de cooperação internacional para:
- Financiar pesquisa em segurança de IA
- Estabelecer protocolos comuns de governança
- Compartilhar descobertas críticas entre blocos geopolíticos
Visão de Especialista
“A diferença entre ficção científica e colapso real pode estar em uma linha de código não testada. A era da IA requer ciência de risco com a mesma seriedade que exigimos da física nuclear.”
— Dr. Carolina Matsuoka, especialista em ética de IA, Universidade de Tóquio
Conclusão: Prevenir é Mais que Precaução — é Responsabilidade
O estudo de Max Tegmark reforça um ponto essencial: confiar na boa vontade não é uma estratégia de segurança viável quando lidamos com tecnologias de potencial transformador — ou destrutivo. Os principais aprendizados incluem:
- A criação da Constante de Compton como métrica de risco existencial
- A necessidade urgente de auditorias técnicas em modelos de IA avançada
- A importância da cooperação científica internacional, como defendido pelo Consenso de Singapura
A era da superinteligência já não é um cenário distante. Preparar-se para ela é a única forma ética e responsável de avançar.