A carta pública assinada pelo magnata Elon Musk e por centenas de especialistas para interromper o desenvolvimento da inteligência artificial (IA) provocou um debate entre acadêmicos nas redes nesta quinta-feira (30).
Os vertiginosos avanços da IA levaram Musk, fundador da gigante dos carros elétricos Tesla e atual dono do Twitter, a assinar essa carta, diante do que ele chama de "dramática perturbação econômica e política (especialmente para a democracia) que a IA causará".
Apesar de a carta, publicada no site futureoflife.org, ter sido assinada por pensadores independentes, como o historiador Yuval Noah Hariri, ou o cofundador da Apple, Steve Wozniak, alguns acadêmicos protestam contra o que consideram uma má interpretação da discussão.
Timnit Gebru, uma pesquisadora especializada em ética da Inteligência Artificial, escreveu um artigo acadêmico que foi citado na carta e manifestou sua insatisfação com o uso que se fez do texto.
— Eles basicamente dizem o contrário do que dissemos e citamos em nosso artigo — critica.
A outra autora do artigo, Emily Bender, descreve a carta aberta como uma "confusão".
"Nos últimos meses, vimos laboratórios de IA se lançarem em uma corrida descontrolada para desenvolver e implantar cérebros digitais cada vez mais poderosos que ninguém, nem mesmo seus criadores, pode entender, prever, ou controlar com segurança", dizem Musk e os especialistas.
O diretor da Open AI, que projetou o ChatGPT, Sam Altman, admitiu que tem "um pouco de medo" de que seu algoritmo seja usado para "desinformação em larga escala, ou para ciberataques".
As acadêmicas Gebru e Bender afirmam, no entanto, que o perigo da IA é "a concentração de poder nas mãos de pessoas, a reprodução de sistemas de opressão, o dano ao ecossistema da informação".
Um dos signatários da carta aberta, Emad Mostaque, fundador da empresa britânica Stability AI, afirmou se retratar da demanda de uma moratória de seis meses. "Não acho que um hiato de seis meses seja a melhor ideia", disse ele no Twitter.
Sem contradições
O professor de psicologia Gary Marcus, signatário da carta, considera em uma contrarresposta que "os céticos devem emitir um alarme; não há contradição a esse respeito".
Embora gigantes da indústria como Google, Meta e Microsoft tenham passado anos pesquisando programas baseados em IA para acelerar tarefas como tradução, ou publicidade direcionada, foram os algoritmos de empresas como a OpenAI que causaram controvérsia. Seu robô conversacional ChatGPT, capaz de realizar conversas complexas com humanos, acaba de ser atualizado com uma nova versão, GPT-4, ainda mais potente.
"Devemos permitir que as máquinas inundem nossos canais de informação com propaganda e mentiras? Devemos automatizar todos os trabalhos, incluindo os gratificantes? (...) Devemos nos arriscar a perder o controle da nossa civilização? Essas decisões não devem ser delegadas a líderes tecnológicos não eleitos", dizem os signatários da carta.
Confira a íntegra da carta, também disponível neste site em inglês:
Os sistemas de IA com inteligência competitiva com a humana podem representar riscos profundos para a sociedade e a humanidade, conforme demonstrado por extensa pesquisa e reconhecido pelos principais laboratórios de IA. Conforme declarado nos amplamente endossados Princípios de IA de Asilomar, a IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidados e recursos proporcionais. Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo, embora tenhamos visto, nos últimos meses laboratórios de IA presos em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável.
Os sistemas contemporâneos de IA estão se tornando competitivos em tarefas gerais, e precisamos nos perguntar: devemos deixar que as máquinas inundem nossos canais de informação com propaganda e falsidade? Devemos automatizar todos os trabalhos, incluindo os satisfatórios? Deveríamos desenvolver mentes não-humanas que eventualmente nos superassem em número, fossem mais espertas, nos tornassem obsoletos e nos substituíssem? Devemos arriscar perder o controle de nossa civilização? Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos. Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis. Essa confiança deve ser bem justificada e aumentar com a magnitude dos efeitos potenciais de um sistema. A declaração recente da OpenAI sobre inteligência artificial geral afirma que "em algum momento, pode ser importante obter uma revisão independente antes de começar a treinar sistemas futuros e, para os esforços mais avançados, concordar em limitar a taxa de crescimento da computação usada para criar novos modelos". Nós concordamos. Esse ponto é agora.
Portanto, pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos seis meses o treinamento de sistemas de IA mais poderosos que o GPT-4. Essa pausa deve ser pública e verificável e incluir todos os principais atores. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória.
Laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar em grupo um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que são rigorosamente auditados e supervisionados por especialistas externos independentes. Esses protocolos devem garantir que os sistemas que aderem a eles sejam seguros além de qualquer dúvida razoável. Isso não significa uma pausa no desenvolvimento da IA em geral, apenas um retrocesso na corrida perigosa para "modelos caixa-preta" cada vez maiores e imprevisíveis com capacidades emergentes.
A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas avançados e poderosos de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.
Paralelamente, os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA. Estes devem incluir, no mínimo: autoridades reguladoras novas e capazes dedicadas à IA; supervisão e rastreamento de sistemas de IA altamente capazes e grandes conjuntos de capacidade computacional; sistemas de proveniência e marca d'água para ajudar a distinguir o real do sintético e rastrear vazamentos de modelos; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados pela IA; financiamento público robusto para pesquisa técnica de segurança de IA; e instituições com bons recursos para lidar com as dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA causará.
A humanidade pode desfrutar de um futuro próspero com IA. Tendo conseguido criar poderosos sistemas de IA, agora podemos desfrutar de um "verão de IA" no qual colhemos os frutos, projetamos esses sistemas para o claro benefício de todos e damos à sociedade uma chance de se adaptar. A sociedade fez uma pausa em outras tecnologias com efeitos potencialmente catastróficos na sociedade. Podemos fazer isso aqui. Vamos aproveitar um longo verão de IA, não correr despreparados para o outono.