Em Alta NotíciasConflitoseconomiaFutebolrelações internacionais

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?
Entrar

Inteligência artificial conquista usuários em busca de apoio emocional e terapia

O uso de chatbots em terapia gera debate sobre eficácia e privacidade, levando o Conselho Federal de Psicologia a regulamentar a prática.

Telinha
Por Revisado por: Time de Jornalismo Portal Tela
0:00 0:00

O uso de chatbots e inteligência artificial para apoio emocional está em alta, mas gera preocupações sobre sua eficácia e segurança. O Conselho Federal de Psicologia formou um grupo para regulamentar essas tecnologias, alertando sobre riscos de privacidade e a falta de responsabilidade legal das máquinas em comparação com profissionais de saúde. Embora os chatbots possam simular conversas e oferecer respostas empáticas, eles não têm a capacidade de raciocínio humano e podem induzir a erros. Especialistas destacam que, apesar de algumas ferramentas digitais serem úteis, elas devem ser desenvolvidas por profissionais qualificados. Há um aumento na busca por essas tecnologias, mas é importante que as pessoas entendam como elas funcionam e os riscos envolvidos, especialmente em relação à privacidade dos dados pessoais. O uso inadequado pode levar a consequências negativas, como a exposição de informações sensíveis.

O Conselho Federal de Psicologia (CFP) criou um grupo de trabalho para regulamentar o uso de inteligência artificial (IA) em terapias, em resposta ao aumento da utilização de chatbots para suporte emocional. A medida busca abordar preocupações sobre privacidade e a falta de responsabilidade legal das tecnologias.

Estudos recentes indicam que o aconselhamento terapêutico é um dos principais objetivos dos usuários de ferramentas de IA. A conselheira Maria Carolina Roseiro destacou que o CFP recebe frequentemente consultas sobre o uso dessas tecnologias, tanto para fins terapêuticos quanto para outros propósitos. O grupo de trabalho visa estabelecer diretrizes que garantam a segurança e a eficácia dessas ferramentas.

Chatbots têm se tornado populares, oferecendo respostas que simulam empatia. O professor Victor Hugo de Albuquerque, da Universidade Federal do Ceará, explica que esses sistemas são treinados para reconhecer padrões de linguagem, mas não possuem raciocínio humano. Isso pode levar os usuários a confundir a interação com uma verdadeira terapia.

O professor Leonardo Martins, da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio), observa que, embora as ferramentas digitais possam ser úteis, elas devem ser desenvolvidas por profissionais qualificados. Ele alerta que chatbots não criados para fins terapêuticos podem induzir os usuários a decisões prejudiciais.

Privacidade é outra preocupação central. Martins ressalta que dados pessoais podem ser expostos, aumentando o risco para os usuários. O grupo de trabalho do CFP também está atento a incidentes de vazamento de informações, que podem ocorrer em plataformas sem regulamentação adequada.

O uso de ferramentas de IA para saúde mental pode ter aspectos positivos, como facilitar o acesso a serviços de saúde. Contudo, é essencial que os usuários compreendam os limites dessas tecnologias e a importância do acompanhamento profissional.

Relacionados:

Comentários 0

Entre na conversa da comunidade
Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais