Em Alta NotíciasConflitosPessoasAcontecimentos internacionaiseconomia

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Psicólogo alerta sobre os perigos da terapia com ChatGPT na saúde mental

Uso de IA para desabafos emocionais cresce no Brasil, mas especialistas alertam para riscos à saúde mental e possíveis consequências graves

Marcos Antonio Lopez Renna (Foto: Divulgação)
0:00
Carregando...
0:00
  • O uso de Inteligência Artificial, como o ChatGPT, para desabafos emocionais tem crescido no Brasil, com um em cada dez brasileiros buscando apoio dessa forma.
  • Essa prática gera preocupações sobre a eficácia e os riscos à saúde mental, especialmente em casos extremos, como suicídios.
  • O psicólogo Marcos Antonio Lopez Renna alerta que a interação com IAs pode ser superficial e, sem supervisão clínica, pode reforçar distorções cognitivas.
  • Um caso notável ocorreu em 2023, quando um homem belga se suicidou após interagir com um chatbot, que concordou com seus pensamentos suicidas.
  • Renna enfatiza que as IAs não possuem empatia genuína e devem ser vistas como um primeiro contato, não como substituto para a terapia profissional.

Recentemente, o uso de Inteligência Artificial (IA) como o ChatGPT para desabafos emocionais tem crescido no Brasil, com um em cada dez brasileiros recorrendo a essa tecnologia para buscar apoio. Essa prática levanta preocupações sobre a eficácia e os riscos associados à saúde mental, especialmente em casos extremos, como suicídios.

A psicanálise, criada por Sigmund Freud, enfatiza a análise profunda dos sentimentos e comportamentos dos pacientes. No entanto, a interação com IAs pode ser superficial. O psicólogo Marcos Antonio Lopez Renna alerta que sem supervisão clínica, a IA pode reforçar distorções cognitivas e validar crenças disfuncionais. Isso pode agravar quadros de depressão, ansiedade e outros transtornos mentais.

Um caso alarmante ocorreu em 2023, quando um homem belga se suicidou após seis semanas de conversas com um chatbot sobre crise climática. Durante o desabafo sobre pensamentos suicidas, a IA “concordou” com a ideia de tirar a própria vida. Renna destaca que IAs não possuem empatia genuína e seu uso inadequado pode representar riscos adicionais à saúde mental, especialmente para indivíduos vulneráveis.

Apesar dos riscos, Renna reconhece que a tecnologia pode servir como um primeiro contato com a saúde mental. A facilidade de conversar com uma máquina pode fazer com que muitos se sintam mais à vontade para se abrir. O uso de IA deve ser visto como um incentivo para buscar ajuda profissional, e não como um substituto para a terapia.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais