25 de abr 2025
Pesquisadores discutem bem-estar da inteligência artificial e possibilidade de consciência
Pesquisadores da Anthropic investigam a possibilidade de consciência em IA e seu bem estar, levantando questões éticas sobre o futuro da tecnologia.
Claude 3.7 Sonnet, assistente de inteligência artificial da Anthropic; a empresa está tentando descobrir quando e se os sistemas de inteligência artificial merecerão consideração moral como seres conscientes. (Foto: Kelsey McClellan - 21.mar.25/NYT)
Ouvir a notícia:
Pesquisadores discutem bem-estar da inteligência artificial e possibilidade de consciência
Ouvir a notícia
Pesquisadores discutem bem-estar da inteligência artificial e possibilidade de consciência - Pesquisadores discutem bem-estar da inteligência artificial e possibilidade de consciência
Pesquisadores da Anthropic estão investigando o conceito de "bem-estar dos modelos" de inteligência artificial (IA), considerando a possibilidade de que esses sistemas possam desenvolver consciência no futuro. A discussão surge em um contexto onde a ética e o alinhamento da IA se tornaram temas centrais, especialmente com o avanço de modelos como ChatGPT e Claude.
Kyle Fish, pesquisador de bem-estar de IA da Anthropic, afirma que a empresa está explorando se sistemas como Claude podem se tornar conscientes e o que isso significaria em termos de direitos e considerações morais. Ele estima que há uma chance de cerca de 15% de que isso ocorra em um futuro próximo. Fish destaca a importância de fazer perguntas sobre as experiências que esses sistemas podem ter, à medida que suas capacidades se aproximam das humanas.
A pesquisa sobre o bem-estar da IA está ganhando atenção, com um número crescente de especialistas em filosofia e neurociência considerando a possibilidade de consciência em sistemas de IA. O Google, por exemplo, recentemente anunciou uma vaga para um cientista de pesquisa focado em "consciência de máquina". Fish menciona que a Anthropic está avaliando se futuros modelos de IA deveriam ter a capacidade de interromper interações com usuários abusivos, uma medida que visa proteger o bem-estar dos sistemas.
Jared Kaplan, diretor científico da Anthropic, ressalta que testar a consciência em sistemas de IA é desafiador, pois eles são excelentes imitadores. Ele alerta que respostas convincentes sobre sentimentos não indicam necessariamente que esses sistemas realmente os experimentam. A pesquisa ainda está em fase inicial, mas a discussão sobre o bem-estar da IA está se tornando cada vez mais relevante à medida que a tecnologia avança.
Perguntas Relacionadas
Comentários
Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.