A disputa entre a startup de IA Anthropic e o governo dos EUA ganhou destaque após a empresa se recusar a flexibilizar suas regras éticas, que proíbem o uso de sua tecnologia em armas autônomas letais e vigilância doméstica em massa. Como consequência, o governo classificou a Anthropic como um "risco à cadeia de suprimentos", cancelou contratos e a rival OpenAI assumiu sua posição com um acordo de uso irrestrito. O caso, que está sendo judicialmente contestado pela Anthropic com apoio da Microsoft, é visto como um precedente crucial para definir os limites éticos e o controle da inteligência artificial em aplicações militares e de segurança nacional.
Principais tópicos abordados:
1. O conflito ético-regulatório entre a Anthropic e o governo dos EUA sobre o uso militar da IA.
2. As consequências comerciais e legais para a startup (classificação como risco, cancelamento de contratos).
3. O contraste com a postura da rival OpenAI, que aceitou os termos do governo.
4. As implicações mais amplas do caso para o futuro da guerra e do controle da tecnologia de IA.
A disputa entre a startup de inteligência artificial Anthropic e o governo dos Estados Unidos sobre o uso militar da tecnologia chegou à capa da revista Time na última sexta-feira (6).
A publicação entrevistou executivos, engenheiros, lÃderes de produto e de segurança da Anthropic para investigar como a startup, descrita como a "excêntrica irmã caçula da corrida de IA", de repente se tornou a "lÃder do pelotão" e a "empresa mais disruptiva do mundo".
Segundo a Time, é a primeira vez que se tem conhecimento de os EUA classificarem uma empresa americana como um "risco à cadeia de suprimentos", o que ocorreu após meses de embates.
A empresa dona do Claude âaté então o único modelo de IA utilizado em operações secretas dos EUA, como na captura do ditador venezuelano Nicolás Maduroâ recusou-se a flexibilizar regras que limitam aplicações da tecnologia em armas autônomas letais e vigilância doméstica em massa. Essa condição era apontada como essencial pelo Pentágono para manter e ampliar contratos.
A Anthropic defende que mesmo os melhores modelos de IA não são confiáveis o suficiente para armas totalmente autônomas e que usá-las para esse fim seria perigoso. A empresa também traçou uma linha vermelha na vigilância doméstica dos americanos, chamando isso de violação dos direitos fundamentais.
Trump já ordenou que os EUA cancelem todos os contratos com a startup. Enquanto isso, a rival OpenAI aproveitou a oportunidade e assinou um acordo de uso irrestrito com o governo americano. Pete Hegseth, o secretário de Defesa, anunciou que qualquer empresa que fizesse negócios com o governo estaria proibida de fazer negócios com a Anthropic.
A revista Time destaca que o caso da Anthropic pode definir o futuro da guerra e que "os riscos só estão aumentando", prevendo que "disputas sobre quem controla a IA vão se intensificar à medida que a tecnologia se torna mais poderosa". "Como biólogos que criam patógenos mortais em laboratório para encontrar uma cura, a Anthropic assumiu a responsabilidade de mapear os perigos da IA, avançando as fronteiras do desenvolvimento em vez de deixar isso para outros mais dispostos a tomar atalhos imprudentes", diz trecho da reportagem.
A empresa está contestando na Justiça o rótulo de risco ao governo americano, e recebeu apoio da Microsoft âa primeira grande companhia de tecnologia a tomar partido na disputa. A startup afirma, na ação, que a inclusão da empresa na lista é ilegal e viola seus direitos de liberdade de expressão e devido processo legal.