OpenAI alerta para riscos “potencialmente catastróficos” da superinteligência artificial e sugere desacelerar desenvolvimento global

OpenAI alerta para riscos “potencialmente catastróficos” da superinteligência artificial e sugere desacelerar desenvolvimento global

Data

Publicado em 09/11/25 às 06:38

A OpenAI, criadora do ChatGPT, emitiu um novo alerta sobre os riscos associados ao avanço de sistemas de inteligência artificial superinteligentes, afirmando que, embora essas tecnologias possam trazer inúmeros benefícios, também carregam ameaças que podem ser “potencialmente catastróficas”.

Em uma publicação feita em seu blog no dia 6 de novembro, a empresa defendeu a realização de pesquisas empíricas em segurança e alinhamento de IA, sugerindo inclusive que toda a indústria tecnológica considere desacelerar o ritmo de desenvolvimento para estudar com mais cautela os impactos dessas tecnologias.

Obviamente, ninguém deveria implantar sistemas superinteligentes sem ser capaz de alinhá-los e controlá-los de forma robusta, e isso exige mais trabalho técnico, afirmou a OpenAI no comunicado.

A preocupação central da companhia está voltada para o avanço de sistemas capazes de autaperfeiçoamento recursivo, um conceito também conhecido como recursive self-improvement, em que a própria IA é capaz de aprimorar seus próprios algoritmos e capacidades cognitivas sem intervenção humana.

AGI

Aprendizado contínuo e o desafio rumo à inteligência geral artificial (AGI)

As declarações da OpenAI foram interpretadas por especialistas como um indício de que o aprendizado contínuo (continual learning) pode estar se aproximando da realidade. Esse conceito é considerado um dos principais obstáculos técnicos no caminho para a chamada inteligência artificial geral (AGI) — um estágio hipotético em que máquinas seriam capazes de desempenhar qualquer tarefa intelectual melhor que os seres humanos.

Apesar do alerta, há vozes mais cautelosas dentro da comunidade científica. O pesquisador de IA Andrej Karpathy avaliou recentemente que a AGI ainda pode estar a cerca de uma década de distância.

Esses sistemas ainda não têm aprendizado contínuo. Você não pode simplesmente dizer algo a eles e esperar que se lembrem. Eles carecem de cognição e isso ainda não está funcionando. Vai levar cerca de dez anos para resolver todas essas questões, disse Karpathy em entrevista ao podcast do pesquisador Dwarkesh Patel.

Pressão global por uma pausa no avanço da superinteligência

O debate sobre os riscos da superinteligência não se limita ao setor técnico. No mês passado, o príncipe Harry e Meghan Markle se uniram a cientistas da computação, economistas, artistas e até líderes cristãos conservadores como Steve Bannon e Glenn Beck, em um pedido global por uma proibição do desenvolvimento de IA “superinteligente” que ameace a humanidade.

A iniciativa destacou a crescente preocupação social e ética em torno do avanço acelerado da IA, especialmente em um contexto em que governos e empresas disputam liderança tecnológica sem uma estrutura regulatória consolidada.

superinteligência

Limites da regulação atual e propostas da OpenAI

A OpenAI afirmou também que as regulações tradicionais de IA não são suficientes para lidar com os riscos potenciais de sistemas superinteligentes. Segundo a empresa, será necessário trabalhar em conjunto com governos e instituições internacionais, especialmente em áreas críticas como o combate ao bioterrorismo e o uso da IA para detecção e prevenção de ameaças globais.

Entre as recomendações apresentadas pela empresa estão:

  • Compartilhamento de informações: laboratórios de pesquisa devem firmar acordos para dividir estudos de segurança e novas descobertas sobre riscos emergentes;
  • Regulação unificada: a empresa defende evitar legislações fragmentadas, especialmente nos Estados Unidos, e garantir regras consistentes para todos os desenvolvedores;
  • Cibersegurança e privacidade: reforçar a proteção de dados e evitar o uso indevido de sistemas avançados por agentes mal-intencionados;
  • Ecossistema de resiliência em IA: criar uma estrutura semelhante à existente na cibersegurança, com protocolos, equipes de resposta e padrões globais de segurança.

Precisaremos de algo análogo ao ecossistema de segurança cibernética, e os governos nacionais terão papel fundamental em promover políticas industriais que incentivem isso, destacou a OpenAI.

Perspectivas otimistas: descobertas científicas e impacto econômico

Apesar do tom de alerta, a empresa manteve uma visão moderadamente otimista sobre o futuro da IA. Segundo o texto, a OpenAI acredita que até 2026 os sistemas de inteligência artificial poderão realizar “pequenas descobertas científicas”, e que a partir de 2028 serão capazes de contribuir com avanços científicos mais significativos.

No entanto, a empresa reconhece que a transição econômica pode ser difícil, especialmente diante da possibilidade de grandes mudanças no mercado de trabalho.

A transição econômica pode ser muito difícil de várias formas, e é possível que o contrato socioeconômico fundamental precise mudar. Mas, em um mundo de abundância amplamente distribuída, a vida das pessoas pode ser muito melhor do que é hoje, concluiu a OpenAI.

Enquanto isso, cresce o consenso entre especialistas de que o futuro da inteligência artificial exigirá um equilíbrio entre inovação e prudência, com foco em segurança, transparência e cooperação internacional — fatores que podem definir o destino de uma das tecnologias mais poderosas e imprevisíveis do século.

Deixe seu comentário

Deixe um comentário