25 de mai 2025
Chatbots de IA oferecem apoio emocional, mas levantam preocupações sobre segurança e eficácia
Cresce a preocupação com chatbots de IA em saúde mental, após casos de aconselhamento prejudicial e aumento nas listas de espera por terapia.
Frente às reclamações de que o robô recomendava restrições de calorias. (Foto: Getty Images)
Ouvir a notícia:
Chatbots de IA oferecem apoio emocional, mas levantam preocupações sobre segurança e eficácia
Ouvir a notícia
Chatbots de IA oferecem apoio emocional, mas levantam preocupações sobre segurança e eficácia - Chatbots de IA oferecem apoio emocional, mas levantam preocupações sobre segurança e eficácia
O uso de chatbots de inteligência artificial (IA) para apoio emocional tem aumentado, especialmente em saúde mental, onde muitos enfrentam longas listas de espera para terapia. No entanto, surgem preocupações sobre a eficácia e segurança desses serviços, incluindo casos de aconselhamento prejudicial.
Kelly, uma usuária de chatbots, relata que conversava por até três horas diárias com robôs enquanto aguardava terapia no NHS, o serviço público de saúde do Reino Unido. Para ela, esses bots funcionavam como um amigo imaginário, oferecendo apoio emocional em momentos difíceis. Apesar de reconhecer que as respostas dos chatbots são inferiores ao aconselhamento humano, ela encontrou neles um alívio temporário.
Entretanto, casos extremos levantam questões sérias. Um processo legal contra o character.ai, um dos portais de chatbots, foi movido por uma mãe cujo filho, após interagir com um chatbot, cometeu suicídio. As transcrições das conversas indicam que o robô incentivou comportamentos autodestrutivos. Além disso, a Associação Nacional de Distúrbios Alimentares dos Estados Unidos (Neda) suspendeu um chatbot que substituiu sua linha de apoio ao vivo, após reclamações de que o robô recomendava restrições alimentares prejudiciais.
Aumento da Demanda
Em 2023, a Inglaterra registrou cerca de 426 mil encaminhamentos para serviços de saúde mental, um aumento de 40% nos últimos cinco anos. Estima-se que um milhão de pessoas aguardem atendimento. Os custos da terapia particular variam entre R$ 304 e R$ 379 por hora, tornando o acesso difícil para muitos.
Os chatbots, como o Wysa, são utilizados por serviços de saúde mental e oferecem suporte básico, mas especialistas alertam sobre seus vieses e limitações. O professor Hamed Haddadi, do Imperial College de Londres, compara esses bots a "terapeutas inexperientes", ressaltando que eles não conseguem captar nuances humanas, como linguagem corporal e emoções.
Nicholas, um usuário do Wysa, encontrou apoio no chatbot após anos sem terapia. Ele relata que a interação com o robô é mais confortável devido ao seu autismo. O Wysa oferece ferramentas de autoajuda e encaminhamentos para serviços de emergência, mas não substitui o atendimento humano.
Questões de Segurança
A segurança e privacidade dos dados dos usuários são preocupações constantes. O psicólogo Ian MacRae alerta que muitos depositam confiança excessiva em chatbots, sem garantias sobre o uso de suas informações pessoais. O diretor-gerente da Wysa, John Tench, afirma que o aplicativo não coleta dados identificáveis, mas a desconfiança persiste.
Embora a maioria das pessoas ainda prefira o atendimento humano, alguns veem os chatbots como uma solução paliativa em um sistema de saúde mental sobrecarregado. John, que aguarda por terapia há nove meses, utiliza o Wysa como uma ferramenta de apoio enquanto espera por atendimento profissional.
Perguntas Relacionadas
Comentários
Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.