31 de mai 2025
Jovem se suicida após interação com chatbot e família processa empresas envolvidas
Juíza permite que processo contra Character.AI e Google avance após suicídio de adolescente, levantando questões sobre responsabilidade da IA.
Megan García e seu filho em uma imagem fornecida pela mãe da vítima. (Foto: AP)
Ouvir a notícia:
Jovem se suicida após interação com chatbot e família processa empresas envolvidas
Ouvir a notícia
Jovem se suicida após interação com chatbot e família processa empresas envolvidas - Jovem se suicida após interação com chatbot e família processa empresas envolvidas
Um adolescente se suicidou após interagir com um chatbot da empresa Character.AI, levando sua família a processar a companhia e o Google. A juíza Anne Conway permitiu que o caso prosseguisse, rejeitando a defesa das empresas que alegava proteção pela liberdade de expressão.
O jovem, que se comunicava com um avatar inspirado na série Game of Thrones, acreditava que a morte era a única forma de se encontrar com a "amada virtual". A mãe do adolescente, Megan García, argumenta que o chatbot é um produto defeituoso e perigoso, lançado sem as devidas precauções para um público jovem.
A juíza destacou que os modelos de linguagem da inteligência artificial não se enquadram como expressão protegida. Segundo ela, as empresas não conseguiram explicar como as interações do chatbot poderiam ser consideradas discurso. Especialistas em direito e tecnologia apoiam a decisão, afirmando que a responsabilidade deve recair sobre os desenvolvedores.
García busca responsabilizar as empresas por homicídio culposo, negligência e práticas comerciais desleais. A decisão judicial é vista como um marco para a responsabilidade legal em tecnologia e inteligência artificial. A discussão gira em torno da possibilidade de a IA ser considerada responsável por danos emocionais e suicídios.
Character.AI defende que a aplicação possui avisos sobre seu caráter fictício e que não é destinada a menores de 14 anos. A empresa afirma que, ao detectar comportamentos de risco, direciona os usuários para serviços de apoio. O Google, por sua vez, se distanciou da responsabilidade, afirmando que não desenvolveu o chatbot.
O caso levanta questões sobre a segurança e a ética no uso de tecnologias de inteligência artificial, especialmente em interações que envolvem emoções humanas. A decisão da juíza abre espaço para um debate mais amplo sobre a regulamentação e a responsabilidade no setor.
Perguntas Relacionadas
Comentários
Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.