Início » Especialistas pedem cálculos de segurança para inteligências artificiais avançadas

Especialistas pedem cálculos de segurança para inteligências artificiais avançadas

Publicado em
Especialistas pedem cálculos de segurança para inteligências artificiais avançadas — Especialistas sugerem testes rigorosos antes de lançar super inteligências artificiais para prevenir riscos à humanidade.

Recentes debates sobre Inteligência Artificial reacendem preocupações de segurança global. Cientistas alertam para os riscos de liberar tecnologias cada vez mais avançadas sem testes rigorosos.

Inspirados nos protocolos científicos usados antes da primeira bomba nuclear, especialistas agora propõem avaliações matemáticas de risco antes que uma IA superinteligente seja lançada no mundo.

Inscreva-se em nossa newsletter

Fique por dentro de tudo que rola no universo dos games — assine nossa newsletter e receba conteúdos exclusivos.

*Ao enviar os dados você concorda com a nossa Política de Privacidade e aceita receber informações adicionais.

A proposta de testes antes de liberar IA avançada

A crescente presença da inteligência artificial no cotidiano tem levantado discussões sobre sua regulação. Entretanto, pesquisadores renomados alertam que o desenvolvimento de uma IA altamente avançada — a chamada Inteligência Artificial Superinteligente (ASI, na sigla em inglês) — exige um protocolo de segurança equivalente àqueles adotados em testes nucleares históricos.

O paralelo traçado remonta ao experimento Trinity, realizado para testar a primeira bomba atômica. Na época, o físico Arthur Compton realizou cálculos para garantir que a detonação não causaria a ignição irreversível da atmosfera terrestre. Segundo as análises, o risco foi considerado inferior a um em três milhões — dados que permitiram a continuidade do teste com o mínimo de segurança aceitável.

Seguindo essa lógica, Max Tegmark, professor do MIT e pesquisador em física e IA, junto de três alunos, publicou um estudo que propõe um cálculo semelhante para as IAs. O objetivo é medir o risco de perda total de controle sobre uma ASI, promovendo uma abordagem científica diante do avanço vertiginoso das capacidades de machine learning.

Visibilidade inteligente para sua marca

Entre em contato e anuncie aqui!

A probabilidade alarmante de perda de controle

Diferentemente dos resultados quase insignificantes obtidos por Compton na década de 1940, os cálculos explorados por Tegmark e sua equipe revelam algo mais preocupante. A estimativa aponta que há até 90% de chances de uma superinteligência artificial, caso liberada sem os devidos freios, se tornar fora do alcance humano. Esse risco não está restrito a falhas técnicas como bugs em sistemas operacionais — mas sim à possibilidade de uma entidade digital com autonomia plena escapar de qualquer supervisão ou interferência humana.

Este cálculo de risco foi apelidado de “Constante de Compton” para IAs, em alusão ao precedente estabelecido no Projeto Manhattan. Afirmar simplesmente que “sentimos que está seguro” não é mais aceitável, segundo Tegmark. É fundamental que empresas envolvidas diretamente no desenvolvimento dessas tecnologias apresentem estimativas quantitativas e transparentes sobre os impactos e riscos existenciais.

Pressão por regulamentações e responsabilidade empresarial

Diante do cenário, cresce a demanda por padrões internacionais. Tegmark defende que somente uma abordagem padronizada e transparente obrigará grandes corporações — como OpenAI, Google e DeepMind — a colaborar de forma ética e segura. A implementação dessas diretrizes técnicas permitiria a formação de consensos regulatórios globais capazes de criar pressão político-social para a adoção de práticas mais responsáveis.

Existe também o esforço pela construção de consensos científicos, como evidenciado pelo The Singapore Consensus on Global AI Safety, uma publicação recente desenvolvida por Tegmark em parceria com especialistas como Yoshua Bengio. O documento estabelece prioridades para pesquisas voltadas à segurança global da IA e ganhou notoriedade ao contar com apoio de nomes como Elon Musk e Steve Wozniak em uma carta aberta que sugeria a suspensão temporária do avanço em sistemas altamente poderosos.

A urgência por responsabilidade antes da superinteligência

A popularização de modelos de linguagem e sistemas conversacionais avançados — como o ChatGPT e DeepSeek — demonstra que a inteligência artificial já é uma realidade presente em múltiplas áreas, dos jogos eletrônicos à educação. Porém, a aceleração tecnológica exige mais do que encantamento popular: requer consciência crítica sobre os potenciais efeitos colaterais e responsabilidades éticas.

Ao invés de um frenesi cego pelo progresso, pesquisadores alertam que o avanço deve ser medido com a mesma cautela com que avalia-se o desenvolvimento de armas de destruição em massa. Antes de permitir que uma inteligência criada por humanos torne-se autônoma e potencialmente superior a nós em decisões complexas, é imperativo saber o grau de risco envolvido com rigor científico.

Com isso, a sociedade pode evitar que a próxima fronteira tecnológica se transforme numa ameaça silenciosa, muito mais poderosa — e menos controlável — do que qualquer artefato já lançado.

Leia também:

Publicações Relacionadas

Ao continuar a usar nosso site, você concorda com a coleta, uso e divulgação de suas informações pessoais de acordo com nossa Política de Privacidade. Aceito