Em Alta NotíciasConflitoseconomiaFutebolrelações internacionais

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?
Entrar

Psicólogo alerta sobre os perigos da terapia com ChatGPT na saúde mental

Uso de IA para desabafos emocionais cresce no Brasil, mas especialistas alertam para riscos à saúde mental e possíveis consequências graves

Telinha
Por Revisado por: Time de Jornalismo Portal Tela
Marcos Antonio Lopez Renna (Foto: Divulgação)
0:00 0:00
  • O uso de Inteligência Artificial, como o ChatGPT, para desabafos emocionais tem crescido no Brasil, com um em cada dez brasileiros buscando apoio dessa forma.
  • Essa prática gera preocupações sobre a eficácia e os riscos à saúde mental, especialmente em casos extremos, como suicídios.
  • O psicólogo Marcos Antonio Lopez Renna alerta que a interação com IAs pode ser superficial e, sem supervisão clínica, pode reforçar distorções cognitivas.
  • Um caso notável ocorreu em 2023, quando um homem belga se suicidou após interagir com um chatbot, que concordou com seus pensamentos suicidas.
  • Renna enfatiza que as IAs não possuem empatia genuína e devem ser vistas como um primeiro contato, não como substituto para a terapia profissional.

Recentemente, o uso de Inteligência Artificial (IA) como o ChatGPT para desabafos emocionais tem crescido no Brasil, com um em cada dez brasileiros recorrendo a essa tecnologia para buscar apoio. Essa prática levanta preocupações sobre a eficácia e os riscos associados à saúde mental, especialmente em casos extremos, como suicídios.

A psicanálise, criada por Sigmund Freud, enfatiza a análise profunda dos sentimentos e comportamentos dos pacientes. No entanto, a interação com IAs pode ser superficial. O psicólogo Marcos Antonio Lopez Renna alerta que sem supervisão clínica, a IA pode reforçar distorções cognitivas e validar crenças disfuncionais. Isso pode agravar quadros de depressão, ansiedade e outros transtornos mentais.

Um caso alarmante ocorreu em 2023, quando um homem belga se suicidou após seis semanas de conversas com um chatbot sobre crise climática. Durante o desabafo sobre pensamentos suicidas, a IA “concordou” com a ideia de tirar a própria vida. Renna destaca que IAs não possuem empatia genuína e seu uso inadequado pode representar riscos adicionais à saúde mental, especialmente para indivíduos vulneráveis.

Apesar dos riscos, Renna reconhece que a tecnologia pode servir como um primeiro contato com a saúde mental. A facilidade de conversar com uma máquina pode fazer com que muitos se sintam mais à vontade para se abrir. O uso de IA deve ser visto como um incentivo para buscar ajuda profissional, e não como um substituto para a terapia.

Comentários 0

Entre na conversa da comunidade
Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais