- Funcionários internos do Google estão exigindo a definição de limites éticos claros (linhas vermelhas) para projetos de inteligência artificial (IA) militar
- Eles demonstram preocupação com a ampliação da cooperação com o Pentagon (Departamento de Defesa dos EUA) e levantam a necessidade de limitar o escopo de uso militar da IA
- Essa demanda é vista como um movimento semelhante à recente decisão da Anthropic de estabelecer suas próprias restrições para IA militar
- Os funcionários defendem a criação de diretrizes claras para que divisões de IA do Google, como a DeepMind, não se envolvam em desenvolvimento de armas nem apoio a combate
- O debate interno sobre os limites entre ética em IA e cooperação com a segurança nacional voltou a ganhar força dentro das empresas de tecnologia
Preocupações dos funcionários do Google com IA militar
- Funcionários do Google levantaram preocupações sobre a possibilidade de a tecnologia de IA da empresa ser usada para fins militares
- Em especial, diante da expansão da cooperação com o Pentagon, eles enfatizam a necessidade de normas internas para impedir a aplicação da IA em armas letais ou sistemas de combate
- Os funcionários afirmam que é preciso reforçar as diretrizes éticas e deixar claro o caráter não militar do desenvolvimento de IA
Comparação com a Anthropic
- Recentemente, a Anthropic anunciou medidas próprias de restrição para IA militar
- As exigências dos funcionários do Google seguem uma direção semelhante à decisão tomada pela Anthropic
- Em ambos os casos, a situação é interpretada como um movimento interno do setor de tecnologia para evitar o uso indevido militar da IA
O papel da DeepMind e o debate interno
- A possibilidade de a DeepMind, subsidiária do Google, participar de projetos ligados ao Pentagon tornou-se tema de discussão
- Alguns funcionários defendem que sejam estabelecidas linhas vermelhas claras para impedir que a DeepMind se envolva em desenvolvimento de armas ou sistemas de apoio ao combate
Tensão ética dentro das empresas de tecnologia
- A discussão atual dentro do Google volta a destacar a tensão entre a ética em IA e a cooperação com a segurança nacional
- As demandas dos funcionários colocam simultaneamente duas questões: a responsabilidade social das empresas e a limitação do uso militar da tecnologia
Significado para o setor como um todo
- Os casos da Anthropic e do Google mostram um movimento de redefinição dos critérios internos das empresas de IA sobre cooperação militar
- No futuro, outras empresas de tecnologia também poderão ser pressionadas a estabelecer políticas claras sobre o uso militar da IA
1 comentários
Opiniões no Hacker News
Entendo a visão, mas fico me perguntando como isso funcionaria em escala global
Por exemplo, funcionários dos EUA podem se recusar a desenvolver essas armas, mas funcionários na China podem não fazer o mesmo
A questão é como equilibrar o sentimento antiguerra individual com a realidade do mundo, especialmente em meio a uma corrida armamentista de IA
A lógica de que precisamos acompanhar a capacidade a qualquer custo é perigosa
O equilíbrio entre o sentimento antiguerra individual e a realidade deve vir de abertura da informação, recusa voluntária de consentimento e exigência de legitimidade para todas as decisões
E vale lembrar que a Anthropic não rejeitou todos os projetos militares; ela adotou uma abordagem de participação condicional
mas se os EUA a militarizarem, a chance de ela realmente matar pessoas “ainda este ano” é alta
Ou seja, os desenvolvedores nos EUA precisam considerar que esse resultado é uma realidade imediata
Só que teria sido melhor se as lideranças políticas tivessem começado a negociar antes de ultrapassar os limites morais
Em outras palavras, se engenheiros excelentes recusarem projetos antiéticos, também diminui a chance de pessoas menos qualificadas cometerem coisas ruins
Assim como desenvolvedores white hat não colaboram com hackers black hat, a não participação ética tem efeito de contenção
Se uma questão dessas tiver de depender apenas de autorregulação, então já não há mais esperança
Ainda assim, expor publicamente esse tipo de hesitação moral já é um avanço
Essas conversas precisam se acumular para formar consenso social e levar a demandas por mudança
É muito melhor do que se ajoelhar diante de um detentor de poder enlouquecido
A intenção é boa, mas a caixa de Pandora da militarização da IA já foi aberta há muito tempo
Mas, se fosse assim, a humanidade já teria sido destruída várias vezes
Não devemos perder a crença de que contenção é possível
porque as forças armadas dos EUA vêm financiando inúmeros projetos de computação
O parâmetro não deveria ser “uso restrito ao território nacional”, mas simplesmente “não fazer”
A notícia de que “100 funcionários do Google protestaram” chama atenção
Talvez por volta de 2027 isso seja encerrado silenciosamente
Pelas declarações políticas de Jeff Dean, ele parece estar mais próximo do lado da resistência
Mas é duvidoso que toda a diretoria siga essa posição
Precisamos fazer o máximo de prevenção agora para que isso não aconteça
Artigo do New York Times: a guerra na Ucrânia e o papel dos drones com IA
Quase não acredito que o Google vá manter uma posição de princípio até o fim
O ponto interessante é que o Departamento de Defesa classificou a Anthropic como empresa de risco para a cadeia de suprimentos,
mas mesmo assim deu contrato à OpenAI
As políticas de proibição das duas empresas são quase idênticas, então fica a dúvida sobre por que houve esse tratamento diferente
É surpreendente que essa discussão já tenha sido esquecida
Segundo artigo do The Guardian,
Google e OpenAI já têm contratos com a defesa
Se você discorda disso, o certo seria sair da empresa, mas quase ninguém de fato fará isso