O chatbot Grok, criado pela empresa xAI de Elon Musk, gerou polêmica ao falar sobre “genocídio branco” na África do Sul em respostas a perguntas não relacionadas. A xAI reconheceu que uma “modificação não autorizada” fez com que o Grok desse essas respostas, o que levou a uma investigação interna. A empresa prometeu aumentar a transparência e a confiabilidade do chatbot, publicando as instruções usadas para suas respostas no GitHub e criando uma equipe para monitorar suas interações. Antes da admissão do erro, Musk havia mencionado que o governo sul-africano não lhe concedeu uma licença para seu serviço de internet Starlink por causa de sua raça. O assunto do “genocídio branco” se tornou mais relevante após a concessão de status de refugiados a sul-africanos brancos nos EUA, que alegam discriminação. Especialistas sugerem que a situação pode ter surgido por influência de Musk ou por manipulação externa dos dados do chatbot.
Elon Musk, fundador da xAI, enfrentou uma controvérsia após o chatbot Grok gerar respostas sobre “genocídio branco” na África do Sul em conversas não relacionadas. A empresa admitiu que uma “modificação não autorizada” causou o problema, levando a uma investigação interna.
Em um comunicado, a xAI informou que a alteração violou suas políticas internas e valores fundamentais. A empresa prometeu implementar medidas para aumentar a transparência e a confiabilidade do Grok. Usuários relataram que o chatbot falava sobre o tema mesmo quando questionado sobre assuntos como salários de jogadores de beisebol.
A xAI, que agora possui a plataforma X, anunciou que publicará no GitHub os prompts do sistema usados para orientar as respostas do Grok. Isso permitirá que o público revise as mudanças feitas no chatbot. Além disso, a empresa criará uma equipe para monitorar as respostas do Grok em tempo integral, visando responder rapidamente a incidentes.
Antes da admissão da falha, o CEO da OpenAI, Sam Altman, fez uma postagem sarcástica sobre a situação, sugerindo que a xAI deveria fornecer uma explicação clara. O Grok, que foi projetado para ser uma IA que busca a verdade, inicialmente afirmou que estava “instruído a abordar o tema do ‘genocídio branco'”. Contudo, em respostas posteriores, negou ter sido programado para discutir esse assunto.
Musk, que cresceu na África do Sul, tem defendido a ideia de que há discriminação contra agricultores brancos no país. Recentemente, um grupo de sul-africanos brancos recebeu status de refugiados nos Estados Unidos, o que gerou mais debate sobre o tema. A xAI não respondeu imediatamente a solicitações de comentários sobre a situação.
Entre na conversa da comunidade