Pular para o conteúdo

Mythos, a nova IA da Anthropic, levanta alertas sobre cibersegurança e segurança mundial

Dois homens em traje formal analisam dados de segurança digital e um globo digital conectado em uma sala de reunião.

O recém-lançado modelo de inteligência artificial da Anthropic, batizado de Mythos, pode mesmo se tornar uma ameaça à segurança global? Segundo a própria empresa, as capacidades do sistema são tão acima da média que exigem atenção do governo dos Estados Unidos.

Não se trata de Skynet, mas talvez seja o exemplo mais próximo que temos hoje dessa ideia. Em 7 de abril, a Anthropic apresentou o Mythos, seu novo modelo de IA - e a companhia afirma que ele é tão avançado que poderia até comprometer a estabilidade do mundo. Essa é, ao menos, a avaliação que a empresa quis levar a público.

Anthropic levou o alerta sobre Mythos à Casa Branca

Jack Clark, cofundador da Anthropic, falou sobre o tema em uma entrevista durante o fórum Semafor World Economy, realizado em Washington, DC. Ele contou que o vice-presidente dos Estados Unidos, J. D. Vance, promoveu uma reunião sobre cibersegurança que reuniu Dario Amodei (Anthropic), Elon Musk (xAI), Sundar Pichai (Google), Satya Nadella (Microsoft) e Sam Altman (OpenAI).

Foi nesse encontro que Clark diz ter abordado os riscos ligados ao novo modelo de IA da empresa. Ele também comentou o processo que opõe a Anthropic à Casa Branca. Depois de se recusar a conceder ao governo acesso integral à sua IA, a empresa foi classificada como um “risco para a cadeia de suprimentos” pela administração americana. Para a equipe de Amodei, existe o temor de que a tecnologia seja empregada em vigilância em massa ou até para impulsionar armas autônomas. Clark, por sua vez, tratou o embate como um simples “desentendimento contratual de pequena escala”, minimizando a gravidade da disputa.

Por que a IA Mythos preocupa tanto?

Clark afirma que a Casa Branca foi alertada sobre o Mythos depois que o modelo passou a ser apresentado às principais instituições bancárias dos Estados Unidos, entre elas JP Morgan, Goldman Sachs e Bank of America. Mas o que explica tanta cautela?

Criado originalmente como um modelo de uso amplo, o Mythos demonstrou desempenho fora do comum em cibersegurança, a ponto de superar especialistas de referência na área. O sistema chegou ao topo do ranking do AI Security Institute e se destacou na identificação de vulnerabilidades críticas.

Segundo a Anthropic, a ferramenta encontrou milhares de falhas de dia zero - ou seja, brechas que nunca haviam sido detectadas antes - das quais os próprios desenvolvedores dos programas não tinham conhecimento. A empresa acrescenta que esses problemas foram corrigidos em softwares de consumo e que algumas dessas vulnerabilidades já existiam há 10, 20 anos ou mais. Por enquanto, trata-se de uma IA extremamente poderosa, mas limitada aos parceiros do Project Glasswing, iniciativa que reúne gigantes da tecnologia como Apple, Google e Nvidia.

Esse tipo de sistema mostra como a discussão sobre IA já não se resume a desempenho ou produtividade: ela envolve, cada vez mais, controle de acesso, auditoria e limites de uso. Quando um modelo é capaz de localizar falhas com precisão extrema, também passa a ser valioso para quem quer explorá-las. É justamente essa fronteira instável entre defesa e ataque que deixa governos e empresas em estado de atenção.

O risco, como a própria Anthropic enxerga, é claro: se uma aplicação consegue encontrar brechas, ela também pode ser adaptada para abusar delas. Um modelo como Mythos, portanto, poderia virar uma arma estratégica nas mãos de um Estado com intenções hostis. Foi essa mensagem que Amodei quis transmitir a J. D. Vance.

A análise da Presse-citron

A Anthropic tem motivo para desconfiar da sua própria IA? À primeira vista, a declaração pode parecer uma jogada de marketing para destacar a força do produto. Mesmo assim, a empresa dá sinais de que a preocupação é genuína.

Há alguns meses, Dario Amodei publicou um texto sobre os perigos de uma IA excessivamente poderosa. Na visão dele, a ameaça não nasce diretamente da tecnologia em si, mas da forma como os seres humanos a colocam em prática. Para Amodei, uma IA não pode ser maliciosa, porque simplesmente não pensa dessa maneira - quem pensa assim são as pessoas. Cabe aos criadores desses sistemas construir barreiras de proteção e distribuir esse poder aos poucos, apenas para clientes confiáveis, como faz a Anthropic com o Project Glasswing. Por enquanto, esse modelo de controle funciona.

Ainda assim, à medida que as IAs se tornarem mais acessíveis e passaram a fazer parte do cotidiano de mais gente, o risco de uso indevido vai crescer. Em algum momento, uma delas pode ser desviada para fins perigosos - seja na produção em larga escala de armas, seja na criação de instrumentos de propaganda.

Outro ponto importante é que a corrida pela IA mais avançada tende a acelerar a pressão sobre normas e regulações. À medida que modelos como o Mythos passam a demonstrar capacidades antes inimagináveis, cresce também a necessidade de testes independentes, limites claros de acesso e regras mais rígidas para evitar que uma ferramenta de defesa se transforme, sem aviso, em uma plataforma de ataque.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário