Mais de 560 funcionários do Google assinaram uma carta aberta pedindo que a empresa se recuse a permitir o uso de suas tecnologias de inteligência artificial em operações militares sigilosas do governo dos Estados Unidos.

O documento, enviado ao CEO Sundar Pichai, expõe uma nova onda de tensão interna em torno do papel das big techs na crescente militarização da IA.

No texto, os empregados afirmam que querem ver a tecnologia “beneficiando a humanidade”, e não sendo usada em aplicações consideradas nocivas, como armas autônomas letais e sistemas de vigilância em massa.

Pressão interna e risco reputacional

A mobilização ocorre em meio a relatos de que o Google estaria próximo de fechar um acordo com o Departamento de Defesa dos EUA para uso de seu modelo de IA, o Gemini, em operações classificadas, possivelmente sem as salvaguardas exigidas por outras empresas do setor.

Para os signatários, aceitar esse tipo de contrato criaria um risco reputacional significativo e limitaria a capacidade dos próprios funcionários de fiscalizar como a tecnologia é utilizada.

Parte deles argumenta que, em projetos confidenciais, não haveria transparência suficiente para evitar abusos.

Continua após a publicidade

Disputa com governo amplia tensão no setor

O episódio não é isolado. Empresas de tecnologia vêm sendo pressionadas a definir limites claros para o uso militar de suas ferramentas.

A startup Anthropic, por exemplo, entrou em confronto com o governo americano ao impor restrições ao uso de seus modelos, especialmente em aplicações ligadas a armas autônomas e vigilância doméstica.

A decisão levou a uma reação direta do governo liderado por Donald Trump, que classificou a empresa como risco na cadeia de suprimentos e determinou a suspensão de seus serviços em órgãos federais. A disputa foi parar na Justiça.

Histórico de conflitos dentro do Google

A resistência interna no Google tem precedentes. Em 2018, milhares de funcionários protestaram contra o chamado Project Maven, iniciativa que utilizava IA para aprimorar ataques com drones.

Continua após a publicidade

O movimento levou a empresa a não renovar o contrato e a adotar princípios que limitavam o uso da tecnologia em armas e vigilância.

Essas diretrizes, no entanto, foram suavizadas recentemente.

A empresa retirou de seus princípios de IA trechos que proibiam explicitamente o desenvolvimento de tecnologias voltadas a causar danos diretos a pessoas.

A mudança reflete uma reavaliação estratégica diante de um cenário global mais competitivo e instável, segundo executivos.

Continua após a publicidade

Demis Hassabis, cofundador da DeepMind, afirmou que o contexto atual, com múltiplos atores desenvolvendo sistemas avançados, impõe às empresas americanas um papel na defesa nacional.

Divisão entre segurança e direitos civis

A carta também levanta preocupações com o uso da IA em vigilância em massa, apontando riscos a liberdades civis.

O cientista-chefe do Google, Jeff Dean, já se manifestou publicamente contra esse tipo de aplicação, citando impactos negativos sobre a liberdade de expressão.

Funcionários envolvidos na mobilização afirmam que o debate não é teórico.

Continua após a publicidade

Eles citam exemplos de uso de tecnologias digitais para reforçar mecanismos de controle estatal em países como China.

Corrida pela IA redefine fronteiras éticas

O impasse ocorre em um momento de intensa competição global por liderança em inteligência artificial, envolvendo empresas como OpenAI e gigantes de tecnologia tradicionais.

À medida que governos ampliam o interesse em aplicações militares e estratégicas, cresce também a pressão sobre as empresas para definir limites éticos, e comerciais, para suas tecnologias.

No centro desse debate está uma pergunta ainda sem resposta clara: até que ponto companhias privadas devem colaborar com usos militares da inteligência artificial, especialmente quando os impactos podem extrapolar o campo de batalha e atingir a sociedade civil.



Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *