O Google atualizou suas diretrizes de ética em inteligência artificial (IA), removendo a promessa de não utilizar a tecnologia em aplicações relacionadas a armas e vigilância. A versão anterior dos princípios, que estava disponível até recentemente, incluía uma cláusula que proibia o uso de tecnologias que causassem danos, como armas. Essa mudança foi anunciada em […]
O Google atualizou suas diretrizes de ética em inteligência artificial (IA), removendo a promessa de não utilizar a tecnologia em aplicações relacionadas a armas e vigilância. A versão anterior dos princípios, que estava disponível até recentemente, incluía uma cláusula que proibia o uso de tecnologias que causassem danos, como armas. Essa mudança foi anunciada em um blog da empresa, onde executivos afirmaram que as democracias devem liderar o desenvolvimento da IA, guiadas por valores como liberdade e respeito aos direitos humanos.
A remoção da cláusula sobre danos pode impactar o tipo de projetos que o Google desenvolverá, segundo Margaret Mitchell, ex-pesquisadora de IA da empresa. Ela destacou que essa alteração apaga esforços anteriores em ética da IA e pode permitir que a empresa trabalhe em tecnologias potencialmente letais. O Google não comentou sobre suas intenções específicas após a atualização.
Os novos princípios refletem uma ambição crescente do Google de expandir sua tecnologia de IA para mais usuários, incluindo governos. A mudança ocorre em um contexto de competição global por liderança em IA, especialmente entre os Estados Unidos e a China. O blog da empresa enfatizou a importância de avaliar se os benefícios superam os riscos ao considerar novos projetos.
Desde a publicação de seus princípios de IA em 2018, o Google enfrentou pressão interna significativa, incluindo protestos de funcionários contra contratos governamentais. A nova abordagem pode intensificar as tensões dentro da empresa, especialmente após a rescisão de contratos controversos, como o Project Nimbus, que envolveu serviços de nuvem para o governo de Israel. A empresa não respondeu imediatamente a pedidos de comentário sobre as implicações dessas mudanças.
Entre na conversa da comunidade