O grande problema com a marca “Security AI” da Anthropic

Com o uso da inteligência artificial se tornando mais popular a cada dia, nos surge a pergunta de quando isso virará assunto de guerra e exércitos a implementarão em suas tropas. Veremos mais sobre isso no artigo abaixo:

A atual disputa da empresa com o Pentágono desvia a atenção do uso militar de seu modelo principal.

A empresa de inteligência artificial Anthropic, sediada em São Francisco, ganhou atenção nacional após uma disputa pública de grande repercussão com o Pentágono sobre padrões de segurança de IA e o potencial uso de sua tecnologia para vigilância doméstica em massa. Sua recusa em atender às exigências do governo Trump — que no mês passado levou à proibição de contratos do governo federal com a empresa, agora a base de um processo movido pela Anthropic contra o governo — fez com que as elites do Vale do Silício se unissem em apoio à Anthropic e ao seu CEO, Dario Amodei.

O episódio mobilizou o Vale do Silício em apoio à empresa de maneiras que lembram a era liberal pré-Trump do mundo da tecnologia. “O que começou como um sussurro de apoio à Anthropic na indústria de tecnologia se transformou em um clamor”, relata o New York Times.

O jornalista independente Jack Poulson disse ao The American Conservative que suspeita que conquistar esse apoio possa ser o objetivo da Anthropic — que a disputa com o governo Trump funcione menos como uma defesa de princípios em prol das liberdades civis do que como uma estratégia de marketing calculada. Essa estratégia seria concebida para atrair liberais e progressistas do Vale do Silício que não gostam de Trump, são céticos quanto à forma como o governo usa sua tecnologia, mas que, em última análise, estão dispostos a fornecer aos EUA e a outros governos as ferramentas mais poderosas para censurar, vigiar e até mesmo matar seus inimigos pelo preço certo.

Poulson, que deixou seu cargo de cientista sênior no Google em 2017 em protesto contra o trabalho da empresa em um projeto de mecanismo de busca censurado para a China, apontou para o fato de que toda a distinção da marca Anthropic em relação à OpenAI se baseia em seus supostos padrões éticos. O fato de a Anthropic estar agora envolvida em uma disputa altamente pública — que, segundo relatos, ajudou a impulsionar seu chatbot Claude, ultrapassando o ChatGPT em downloads de aplicativos em março — está “dentro da sua marca”, disse Poulson. Pode ser simplesmente uma maneira “de a Anthropic se estabelecer como  uma forma de resistência”, argumentou ele, para que “seus funcionários ainda se sintam bem-vindos em círculos liberais”.

Jack Clark, cofundador da Anthropic, por sua vez, tem experiência com essas estratégias de marketing calculadas, adquirida durante seu período como diretor de políticas da OpenAI, ajudando a empresa a explorar a falsa aparência de organização sem fins lucrativos para obter benefícios financeiros.

Poulson apontou para uma série de revelações pouco discutidas que colocam em xeque a imagem da Anthropic como uma empresa guiada exclusivamente por preocupações éticas sobre vigilância e o uso indevido da inteligência artificial. Um livreto de reunião vazado, descoberto por Poulson em 2023, revela representantes da Anthropic participando de uma colaboração de inteligência a portas fechadas envolvendo altos funcionários da CIA — incluindo o diretor de tecnologia e o diretor de inteligência artificial da agência — juntamente com funcionários do governo australiano.

O workshop, organizado por meio de fóruns conduzidos pelo Projeto de Estudos Competitivos Especiais do ex-CEO do Google, Eric Schmidt, e pelo Instituto Australiano de Política Estratégica, fazia parte de um esforço mais amplo para explorar como grandes modelos de linguagem poderiam ser integrados aos sistemas de segurança dos estados ocidentais. Ao mesmo tempo, a Anthropic expandiu seus negócios com o governo, contratando Steve Sloss, funcionário de longa data da Palantir, para liderar as vendas para o governo dos EUA e apresentando sua tecnologia a várias agências de inteligência, incluindo a Agência Nacional de Inteligência Geoespacial.

Essas revelações levantam questões mais amplas sobre os laços da Anthropic com o Estado profundo. Poulson observou que a empresa fez parceria com a Palantir, cujas plataformas são construídas em torno da fusão de dados comerciais e governamentais em larga escala, apesar dos alertas públicos da Anthropic sobre os riscos de tais sistemas. Ele também mencionou a Open Source Enterprise da CIA, que há muito discute o uso de grandes modelos de linguagem para processar vastos conjuntos de dados disponíveis publicamente. A reunião de 2023 entre representantes da Anthropic e da CIA levanta questões sobre o conhecimento ou a cooperação da Anthropic com esses esforços.

Mesmo que a empresa agora resista publicamente a certas exigências do Pentágono, seu principal modelo de IA, Claude, já foi integrado à infraestrutura de direcionamento das forças armadas dos EUA, onde opera sob o sistema Maven da Palantir. O modelo é usado por planejadores militares para analisar fluxos de inteligência e gerar listas de alvos priorizados para ataques dos EUA no Irã, e provavelmente esteve envolvido no bombardeio americano a uma escola primária que matou mais de 160 pessoas, a maioria meninas. Anteriormente, foi relatado que a IA da Anthropic desempenhou um papel na operação para sequestrar o líder venezuelano Nicolás Maduro, na qual mais de 80 pessoas foram mortas.

Embora se apresente como contrária a armas totalmente autônomas, a Anthropic parece ter poucos limites quanto ao uso de seus produtos para matar não americanos.

Embora a Anthropic seja hoje amplamente celebrada como defensora das liberdades civis e da ética da IA, sua relação próxima com o aparato de segurança nacional dos EUA — e o uso crescente de sua tecnologia em operações militares — deveria suscitar muito mais ceticismo em relação à imagem da empresa do que o que tem recebido até agora.

Fonte

Harrison Berger
Harrison Berger
Artigos: 58

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *