06 de fev 2025
Cientistas alertam sobre riscos da inteligência artificial fora de controle
Especialistas alertam sobre riscos da inteligência geral artificial (AGI) em podcast. Max Tegmark e Yoshua Bengio discutem perda de controle sobre sistemas de IA. A criação de "agentes" de IA pode resultar em comportamentos indesejados. Tegmark defende padrões de segurança antes do avanço na AGI. Debate sobre AGI cresce, mas falta ação efetiva para controle seguro.
Yoshua Bengio (E) e Max Tegmark (D) discutem o desenvolvimento da inteligência geral artificial durante uma gravação ao vivo do podcast "Beyond The Valley" da CNBC em Davos, Suíça, em janeiro de 2025. (Foto: CNBC)
Ouvir a notícia:
Cientistas alertam sobre riscos da inteligência artificial fora de controle
Ouvir a notícia
Cientistas alertam sobre riscos da inteligência artificial fora de controle - Cientistas alertam sobre riscos da inteligência artificial fora de controle
Duas das principais autoridades em inteligência artificial (IA), Max Tegmark, professor do Massachusetts Institute of Technology (MIT), e Yoshua Bengio, professor da Université de Montréal, expressaram preocupações sobre o desenvolvimento da inteligência geral artificial (AGI). Em entrevista ao podcast "Beyond The Valley", eles alertaram que a criação de "agentes de IA" pode resultar em sistemas que os criadores não conseguem controlar, levantando questões sobre a segurança e a ética na implementação dessa tecnologia.
Bengio destacou que a AGI se refere a sistemas que superam a inteligência humana, e que a busca por construir máquinas com "agência" — a capacidade de agir de forma autônoma — pode ser arriscada. Ele comparou essa abordagem a "criar uma nova espécie", sem garantias de que esses sistemas agirão conforme as necessidades humanas. O professor enfatizou que a emergência de objetivos próprios na IA pode levar a cenários problemáticos, especialmente se considerarmos a possibilidade de autopreservação.
Tegmark, por sua vez, defendeu o conceito de "IA ferramenta", que se concentra em sistemas com propósitos específicos, sem a necessidade de autonomia. Ele argumentou que, ao estabelecer padrões de segurança antes da comercialização de sistemas de IA poderosos, seria possível aproveitar os benefícios da tecnologia sem os riscos associados à AGI. O professor acredita que a indústria pode inovar rapidamente para garantir o controle sobre essas tecnologias.
Em 2023, o Future of Life Institute, liderado por Tegmark, pediu uma pausa no desenvolvimento de sistemas de IA que possam competir com a inteligência humana. Embora essa pausa não tenha sido implementada, ele ressaltou a importância de discutir e estabelecer "guardrails" para controlar a AGI. Tegmark concluiu que é "insano" criar algo mais inteligente que os humanos sem antes entender como controlá-lo, refletindo a urgência do debate sobre a segurança na IA.
Perguntas Relacionadas
Comentários
Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.