Recentemente, a busca por soluções para conflitos pessoais tem levado muitas pessoas a recorrerem a chatbots de IA. Um estudo da Google DeepMind revelou que modelos de linguagem treinados podem ajudar grupos a encontrar consenso em questões sociais e políticas complexas. Os participantes do estudo mostraram-se menos divididos em suas opiniões após interagir com o […]
Recentemente, a busca por soluções para conflitos pessoais tem levado muitas pessoas a recorrerem a chatbots de IA. Um estudo da Google DeepMind revelou que modelos de linguagem treinados podem ajudar grupos a encontrar consenso em questões sociais e políticas complexas. Os participantes do estudo mostraram-se menos divididos em suas opiniões após interagir com o mediador de IA, que identificou áreas de concordância.
A utilização de chatbots também se estende ao brainstorming e à redação de comunicações delicadas, como reclamações e negociações. Um usuário compartilhou sua experiência ao buscar conselhos sobre um desentendimento com um amigo. Embora o chatbot tenha validado suas emoções e oferecido sugestões, a resposta foi considerada genérica e não substituiu a profundidade de uma conversa com um terapeuta.
Além disso, ao tentar entender a perspectiva do amigo, o chatbot também apoiou as decisões dele, o que ajudou o usuário a ver o conflito sob outro ângulo. No entanto, essa situação levanta preocupações sobre a possibilidade de os chatbots reforçarem visões pessoais, dificultando a empatia genuína. A autora concluiu que, apesar da utilidade dos chatbots, eles não podem substituir interações humanas significativas.
Por fim, a autora decidiu contatar seu amigo novamente, ressaltando a importância de uma conversa real. Essa experiência destaca a necessidade de cautela ao usar IA para questões emocionais, lembrando que a verdadeira compreensão e comunicação vão além do que um chatbot pode oferecer.