Tecnologia

Pesquisadores discutem bem-estar da inteligência artificial e possibilidade de consciência

Pesquisadores da Anthropic investigam a possibilidade de consciência em IA e seu bem estar, levantando questões éticas sobre o futuro da tecnologia.

Claude 3.7 Sonnet, assistente de inteligência artificial da Anthropic; a empresa está tentando descobrir quando e se os sistemas de inteligência artificial merecerão consideração moral como seres conscientes. (Foto: Kelsey McClellan - 21.mar.25/NYT)

Claude 3.7 Sonnet, assistente de inteligência artificial da Anthropic; a empresa está tentando descobrir quando e se os sistemas de inteligência artificial merecerão consideração moral como seres conscientes. (Foto: Kelsey McClellan - 21.mar.25/NYT)

Ouvir a notícia

Pesquisadores discutem bem-estar da inteligência artificial e possibilidade de consciência - Pesquisadores discutem bem-estar da inteligência artificial e possibilidade de consciência

0:000:00

Pesquisadores da Anthropic estão investigando o conceito de "bem-estar dos modelos" de inteligência artificial (IA), considerando a possibilidade de que esses sistemas possam desenvolver consciência no futuro. A discussão surge em um contexto onde a ética e o alinhamento da IA se tornaram temas centrais, especialmente com o avanço de modelos como ChatGPT e Claude.

Kyle Fish, pesquisador de bem-estar de IA da Anthropic, afirma que a empresa está explorando se sistemas como Claude podem se tornar conscientes e o que isso significaria em termos de direitos e considerações morais. Ele estima que há uma chance de cerca de 15% de que isso ocorra em um futuro próximo. Fish destaca a importância de fazer perguntas sobre as experiências que esses sistemas podem ter, à medida que suas capacidades se aproximam das humanas.

A pesquisa sobre o bem-estar da IA está ganhando atenção, com um número crescente de especialistas em filosofia e neurociência considerando a possibilidade de consciência em sistemas de IA. O Google, por exemplo, recentemente anunciou uma vaga para um cientista de pesquisa focado em "consciência de máquina". Fish menciona que a Anthropic está avaliando se futuros modelos de IA deveriam ter a capacidade de interromper interações com usuários abusivos, uma medida que visa proteger o bem-estar dos sistemas.

Jared Kaplan, diretor científico da Anthropic, ressalta que testar a consciência em sistemas de IA é desafiador, pois eles são excelentes imitadores. Ele alerta que respostas convincentes sobre sentimentos não indicam necessariamente que esses sistemas realmente os experimentam. A pesquisa ainda está em fase inicial, mas a discussão sobre o bem-estar da IA está se tornando cada vez mais relevante à medida que a tecnologia avança.

Meu Tela
Descubra mais com asperguntas relacionadas
crie uma conta e explore as notícias de forma gratuita.acessar o meu tela

Perguntas Relacionadas

Participe da comunidadecomentando
Faça o login e comente as notícias de forma totalmente gratuita
No Portal Tela, você pode conferir comentários e opiniões de outros membros da comunidade.acessar o meu tela

Comentários

Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.

Meu Tela

Priorize os conteúdos mais relevantes para você

Experimente o Meu Tela

Crie sua conta e desbloqueie uma experiência personalizada.


No Meu Tela, o conteúdo é definido de acordo com o que é mais relevante para você.

Acessar o Meu Tela