Há cerca de duas semanas, a Anthropic publicou no LinkedIn uma vaga que chama atenção: a empresa quer contratar um especialista em armas químicas e explosivos de alto rendimento. Embora o anúncio possa soar alarmante à primeira vista, o objetivo declarado não é “ensinar” a IA a fabricar uma bomba, e sim reforçar barreiras para impedir que a tecnologia seja usada de forma maliciosa.
A proposta vem da Anthropic, uma das principais concorrentes da OpenAI e responsável pelo chatbot Claude. Segundo a divulgação, a contratação seria para a função de gerente de políticas (policy manager), com foco em definir regras, limites e procedimentos para lidar com informações sensíveis relacionadas a químicos e explosivos. Em outras palavras, a empresa busca alguém capaz de traduzir conhecimento técnico de alto risco em políticas de segurança práticas para modelos de linguagem.
Os grandes modelos de linguagem podem elevar a produtividade e acelerar tarefas do dia a dia, mas também podem ser explorados para fins nocivos quando não existem restrições adequadas - ou quando mecanismos de proteção são burlados. No texto da vaga, a Anthropic afirma que a posição seria uma oportunidade de ajudar a determinar como sistemas de IA tratam informações sensíveis sobre produtos químicos e explosivos, atuando ao lado de pesquisadores de ponta em segurança de IA e enfrentando problemas críticos para reduzir o risco de usos indevidos com consequências potencialmente catastróficas.
A descrição também indica que o perfil procurado deve entender como explosivos de alto rendimento podem ser aplicados a dispositivos de dispersão radiológica, conhecidos como “bomba suja”. A remuneração anunciada fica entre US$ 245 mil e US$ 285 mil por ano (valores em dólares), e o cargo exige doutorado e 5 a 8 anos de experiência em defesa contra armas químicas ou contra explosivos.
Anthropic, Claude e o reforço de segurança em IA com especialistas em armas químicas e explosivos
A estratégia de trazer especialistas para impedir o uso malicioso de IA não é exclusiva da Anthropic. A OpenAI, criadora do ChatGPT, também tem buscado perfis técnicos voltados a riscos, incluindo especialistas em ameaças biológicas e químicas. A lógica por trás dessas contratações é semelhante: estabelecer políticas internas, critérios de bloqueio, métodos de avaliação e protocolos de escalonamento quando a IA é provocada a fornecer instruções perigosas.
Na prática, esse tipo de profissional costuma contribuir com taxonomias de risco, listas de “sinais de alerta” em solicitações de usuários, testes de resistência (red teaming) e orientação sobre quais conteúdos devem ser recusados, parcialmente respondidos ou redirecionados para informações seguras. Além disso, ajuda a calibrar o equilíbrio entre utilidade do modelo e prevenção de danos, especialmente em temas de dupla utilização - quando o mesmo conhecimento pode servir para aplicações legítimas e para ataques.
Anthropic em disputa com o Pentágono
A vaga ganhou ainda mais repercussão porque surgiu no momento em que a Anthropic vive um impasse com o Pentágono. De acordo com o que foi divulgado, a startup e o governo dos Estados Unidos não teriam chegado a um acordo para uso das tecnologias da empresa no setor de defesa, por divergências sobre condições que a Anthropic pretendia impor.
Um dos pontos citados é a intenção de proibir o uso das IAs do Claude em vigilância em massa dentro dos Estados Unidos. Em decorrência disso, a administração Trump teria classificado a Anthropic como uma empresa que representaria risco à segurança nacional na cadeia de fornecimento. Também foi atribuída ao secretário americano da Guerra, Pete Hegseth, a orientação de que contratantes, fornecedores ou parceiros com relações comerciais com as Forças Armadas dos EUA não poderiam manter atividades comerciais com a Anthropic. Como reação, a empresa decidiu contestar essa designação na Justiça dos Estados Unidos.
Esse embate teve um efeito colateral: impulsionou de forma repentina os downloads do aplicativo do Claude pelo público geral, mesmo sendo um produto que já vinha ganhando espaço e preferência no mercado corporativo.
Um desdobramento relevante, inclusive para empresas fora dos EUA, é que disputas desse tipo tendem a acelerar exigências de governança e conformidade em IA. Para o mercado brasileiro, isso se traduz em mais atenção a processos de avaliação de risco, auditoria de sistemas, registro de incidentes, treinamento de equipes e políticas claras sobre o que modelos podem ou não responder - especialmente em temas ligados a segurança, químicos, explosivos e outras áreas sensíveis.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário