Mais de 500 funcionários da Google enviaram uma carta ao CEO Sundar Pichai nesta segunda-feira (27) pedindo que a empresa não utilize sua tecnologia de inteligência artificial em projetos militares nos Estados Unidos.

No documento, os colaboradores demonstram preocupação com possíveis negociações entre a empresa e o Departamento de Defesa dos Estados Unidos. Segundo eles, o uso da IA em operações confidenciais pode trazer riscos éticos e consequências graves.
Preocupação com uso da tecnologia
Os funcionários afirmam que a inteligência artificial deve beneficiar a sociedade. Por isso, eles rejeitam sua aplicação em atividades que possam causar danos.
Além disso, o grupo destaca que quem trabalha diretamente com a tecnologia entende seus riscos. Segundo o texto, sistemas de IA concentram poder e podem cometer erros significativos.
“Como pessoas trabalhando com IA, sabemos que esses sistemas conseguem centralizar poder e que cometem erros. Por isso, sentimos a responsabilidade de prevenir usos antiéticos e perigosos”, afirma a carta.
Debate ético cresce no setor
O caso reforça um debate cada vez mais presente no setor de tecnologia. Empresas e profissionais discutem limites para o uso da inteligência artificial, principalmente em áreas sensíveis como segurança e defesa.
Além disso, especialistas alertam que o uso militar da IA pode ampliar riscos globais. Isso inclui desde decisões automatizadas em conflitos até sistemas de vigilância mais avançados.
Caso semelhante envolve outra empresa
A situação lembra o caso da Anthropic, responsável pela IA Claude. Em fevereiro, a empresa recusou um contrato com o Departamento de Defesa dos EUA.
Na ocasião, o órgão exigia autorização para utilizar a tecnologia em qualquer atividade considerada legal. No entanto, a empresa rejeitou os termos por não garantir limites claros, principalmente em relação à vigilância em massa.
Pressão interna e futuro das decisões
Até o momento, nem o Google nem o governo dos Estados Unidos comentaram oficialmente o caso. Mesmo assim, a mobilização interna mostra que cresce a pressão dentro das grandes empresas de tecnologia.
Com isso, o debate sobre o uso ético da inteligência artificial ganha ainda mais força. Ao mesmo tempo, decisões futuras podem definir como essas tecnologias serão aplicadas em áreas críticas ao redor do mundo.













