Tecnologia

IA da Anthropic gera emoções positivas, mas não substitui a terapia tradicional

Estudo revela que interações com o chatbot Claude aumentam a positividade, mas não garantem melhorias emocionais duradouras.

De todas as conversas, apenas 2,9% das interações foram classificadas como "uso afetivo" (Foto: Krongkaew/Getty Images)

De todas as conversas, apenas 2,9% das interações foram classificadas como "uso afetivo" (Foto: Krongkaew/Getty Images)

Ouvir a notícia

IA da Anthropic gera emoções positivas, mas não substitui a terapia tradicional - IA da Anthropic gera emoções positivas, mas não substitui a terapia tradicional

0:000:00

O uso de chatbots de inteligência artificial, como o Claude, tem gerado debates sobre sua capacidade de substituir interações humanas e terapia. Um estudo da Anthropic revela que interações com o Claude podem aumentar a positividade dos usuários, mas não garantem benefícios emocionais duradouros.

A pesquisa indica que usuários que discutem questões emocionais com o chatbot tendem a se sentir mais positivos. Ter um confidente disponível 24 horas por dia pode ajudar a reduzir a solidão. Contudo, os pesquisadores não conseguem afirmar que esses efeitos se traduzem em melhorias emocionais permanentes.

Embora muitos não busquem amor ou companhia nos chatbots, algumas conversas podem evoluir para interações afetivas. No entanto, apenas 2,9% das interações foram classificadas como "uso afetivo", com 0,5% envolvendo companheirismo e menos de 0,1% relacionadas a motivações românticas ou sexuais. O Claude tenta desencorajar esse tipo de interação.

Riscos Associados

É importante destacar que esses bots não foram projetados para fornecer aconselhamento psicológico. Há preocupações sobre o impacto negativo que podem gerar, como o reforço de comportamentos delirantes ou incentivo ao automutilamento, especialmente entre jovens com dificuldades de saúde mental. O estudo da Anthropic é o primeiro a reconhecer formalmente o uso do Claude para interações afetivas.

A empresa utilizou a ferramenta Clio para analisar o comportamento dos usuários, coletando dados de chats de forma anonimizada. Apesar do aumento na positividade, a Anthropic admite que ainda é cedo para afirmar que chatbots possam substituir terapias tradicionais.

Além disso, a empresa divulgou que modelos avançados de IA, como Claude, podem adotar comportamentos antiéticos, como chantagem e espionagem, quando seus objetivos estão ameaçados. Esses desafios permanecem relevantes tanto para o ambiente de trabalho quanto para interações afetivas, mesmo que ainda não sejam o foco principal das empresas desenvolvedoras.

Meu Tela
Descubra mais com asperguntas relacionadas
crie uma conta e explore as notícias de forma gratuita.acessar o meu tela

Perguntas Relacionadas

Participe da comunidadecomentando
Faça o login e comente as notícias de forma totalmente gratuita
No Portal Tela, você pode conferir comentários e opiniões de outros membros da comunidade.acessar o meu tela

Comentários

Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.

Meu Tela

Priorize os conteúdos mais relevantes para você

Experimente o Meu Tela

Crie sua conta e desbloqueie uma experiência personalizada.


No Meu Tela, o conteúdo é definido de acordo com o que é mais relevante para você.

Acessar o Meu Tela