Tecnologia

Cientistas alertam sobre riscos da inteligência artificial fora de controle

Especialistas alertam sobre riscos da inteligência geral artificial (AGI) em podcast. Max Tegmark e Yoshua Bengio discutem perda de controle sobre sistemas de IA. A criação de "agentes" de IA pode resultar em comportamentos indesejados. Tegmark defende padrões de segurança antes do avanço na AGI. Debate sobre AGI cresce, mas falta ação efetiva para controle seguro.

Yoshua Bengio (E) e Max Tegmark (D) discutem o desenvolvimento da inteligência geral artificial durante uma gravação ao vivo do podcast "Beyond The Valley" da CNBC em Davos, Suíça, em janeiro de 2025. (Foto: CNBC)

Yoshua Bengio (E) e Max Tegmark (D) discutem o desenvolvimento da inteligência geral artificial durante uma gravação ao vivo do podcast "Beyond The Valley" da CNBC em Davos, Suíça, em janeiro de 2025. (Foto: CNBC)

Ouvir a notícia

Cientistas alertam sobre riscos da inteligência artificial fora de controle - Cientistas alertam sobre riscos da inteligência artificial fora de controle

0:000:00

Duas das principais autoridades em inteligência artificial (IA), Max Tegmark, professor do Massachusetts Institute of Technology (MIT), e Yoshua Bengio, professor da Université de Montréal, expressaram preocupações sobre o desenvolvimento da inteligência geral artificial (AGI). Em entrevista ao podcast "Beyond The Valley", eles alertaram que a criação de "agentes de IA" pode resultar em sistemas que os criadores não conseguem controlar, levantando questões sobre a segurança e a ética na implementação dessa tecnologia.

Bengio destacou que a AGI se refere a sistemas que superam a inteligência humana, e que a busca por construir máquinas com "agência" — a capacidade de agir de forma autônoma — pode ser arriscada. Ele comparou essa abordagem a "criar uma nova espécie", sem garantias de que esses sistemas agirão conforme as necessidades humanas. O professor enfatizou que a emergência de objetivos próprios na IA pode levar a cenários problemáticos, especialmente se considerarmos a possibilidade de autopreservação.

Tegmark, por sua vez, defendeu o conceito de "IA ferramenta", que se concentra em sistemas com propósitos específicos, sem a necessidade de autonomia. Ele argumentou que, ao estabelecer padrões de segurança antes da comercialização de sistemas de IA poderosos, seria possível aproveitar os benefícios da tecnologia sem os riscos associados à AGI. O professor acredita que a indústria pode inovar rapidamente para garantir o controle sobre essas tecnologias.

Em 2023, o Future of Life Institute, liderado por Tegmark, pediu uma pausa no desenvolvimento de sistemas de IA que possam competir com a inteligência humana. Embora essa pausa não tenha sido implementada, ele ressaltou a importância de discutir e estabelecer "guardrails" para controlar a AGI. Tegmark concluiu que é "insano" criar algo mais inteligente que os humanos sem antes entender como controlá-lo, refletindo a urgência do debate sobre a segurança na IA.

Meu Tela
Descubra mais com asperguntas relacionadas
crie uma conta e explore as notícias de forma gratuita.acessar o meu tela

Perguntas Relacionadas

Participe da comunidadecomentando
Faça o login e comente as notícias de forma totalmente gratuita
No Portal Tela, você pode conferir comentários e opiniões de outros membros da comunidade.acessar o meu tela

Comentários

Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.

Meu Tela

Priorize os conteúdos mais relevantes para você

Experimente o Meu Tela

Crie sua conta e desbloqueie uma experiência personalizada.


No Meu Tela, o conteúdo é definido de acordo com o que é mais relevante para você.

Acessar o Meu Tela