O Departamento de Defesa norte-americano enfrentou um revés judicial ao ser temporariamente impedido de classificar a empresa de inteligência artificial Anthropic como um risco para a cadeia de fornecimento de tecnologia. A juíza distrital dos Estados Unidos, Rita Lin, decidiu a favor da Anthropic, bloqueando uma ordem da administração de Donald Trump que poderia ter consequências severas para a empresa, incluindo a proibição de fornecer tecnologia ao governo dos EUA. A decisão foi proferida após uma audiência de 90 minutos em um tribunal federal em São Francisco, onde a juíza questionou a necessidade da administração de Trump em rotular a Anthropic como um risco. Essa medida foi tomada em meio a negociações sobre um contrato de defesa, onde a Anthropic buscava garantir que sua tecnologia de IA não fosse utilizada em armas autônomas ou na vigilância de cidadãos americanos. A Anthropic, conhecida por desenvolver o chatbot Claude, argumentou que a classificação de risco foi aplicada injustamente como parte de uma campanha de retaliação. A empresa processou a administração de Trump, solicitando uma ordem de emergência para remover o estigma que poderia prejudicar suas operações e reputação. A juíza Lin enfatizou que sua decisão não se referia ao debate sobre políticas públicas, mas sim às ações do governo que pareciam ter como objetivo punir a Anthropic. A situação levanta questões sobre a relação entre inovação em tecnologia e a regulamentação governamental, especialmente em um campo tão sensível como a inteligência artificial.
Sociedade
Defesa dos EUA impede classificação de empresa de IA como risco
2 min de leitura
Lê todas as notícias na app Kabu Verdi
Notícias, alertas, eleições e mais — tudo de Cabo Verde num só lugar.
Explorar Kabu Verdi