Por Godo R. Goemann Jr.
Profissional de TI, sociólogo, autor de “Inteligência Artificial e suas Ambivalências” (Alta Books)
A inteligência artificial (IA) permanece superando expectativas, brindando-nos com notáveis aplicações em todos os campos da atividade humana. Saúde, educação, monitoramento ambiental, pesquisas cientificas, agricultura, segurança, comunicações etc. Onde houver dados suficientes a IA pode ajudar, surpreender e melhorar. Mesmo assim, como afirmamos há um ano neste mesmo espaço, a IA permanece em sua infância, denominada “IA fraca” (narrow AI).
Sua dinâmica consiste em executar algoritmos matemáticos e estatísticos em velocidade astronômica, associados a um poder computacional infinito e à leitura de bases de dados gigantescas – em breve a própria web, contendo tudo o que a humanidade já escreveu. Na verdade, a IA regurgita as informações pré-existentes nessas bases com uma nova visão proporcionada por seus algoritmos. Ela não cria nada, usando os dados da nuvem para reorganizá-los sob novas perspectivas, que os olhos humanos “não enxergam”. Um exemplo nos EUA é a IA de nome Dabus, responsável pelo desenvolvimento de dois artefatos inéditos. Ainda assim são recorrentes os “erros” da IA, seus vieses, sua “injustiça algorítmica” e riscos gerais inerentes a dados mal catalogados.
Por esse motivo os últimos meses têm impulsionado outra pergunta: afinal, quando surgirá a inteligência artificial geral (AGI em inglês)? Esta seria uma IA verdadeiramente “inteligente”, capaz de realizar processos cognitivos semelhantes ou superiores aos dos humanos.
Empresas como Google, Microsoft, Meta, Amazon, Nvidia e outras praticam uma corrida frenética investindo bilhões para atingir a AGI. A OpenAI (ChatGPT, Sora e o perigoso Voice Engine) está buscando levantar US$ 7 trilhões, quase um terço do PIB dos EUA, para construir centenas de fábricas que produzam unidades de processamento de última geração, que possam agilizar a AGI. Sam Altman disse que a empresa atingirá a AGI até 2029. Em reunião do Fórum Econômico Mundial, em Davos, em março, ele alertou que a próxima geração de sistemas de IA consumirá muito mais energia e o modelo energético atual não conseguirá lidar com a situação. Como alternativa, Altman está investindo na empresa de fusão nuclear Helion Energy. Em paralelo, por exemplo, a empresa chinesa Betavolt está testando uma bateria nuclear do tamanho de uma moeda, que pode fornecer eletricidade contínua para um celular por 50 anos. Já a espanhola iPronics lançou um revolucionário chip fotônico que dispensa energia elétrica. Tudo serão recursos para atingir a AGI.
A Meta está inserindo sua IA generativa, o Llama3, no Facebook, Instagram e WhatsApp para seus 3 bilhões de usuários. A Figure, empresa de IA que desenvolve robôs humanoides, levantou uma avaliação de US$ 2,6 bilhões pela Microsoft, OpenAI e Nvidia. O investimento irá acelerar a implantação comercial dos robôs humanoides, aprimorando suas capacidades de “raciocinar” a partir da linguagem humana. Elon Musk lançou o Grok, uma “IA rebelde” livre das restrições de controle tradicionais, superando concorrentes como o ChatGPT. Musk também prevê 1 bilhão de robôs humanoides até 2040 – faltam 16 anos – substituindo quase tudo que os humanos possam fazer. Na contramão de todo esse afã comercial, a Anthropic, empresa formada por dissidentes da OpenAI, levantou US$ 6,5 bilhões e propõe-se a construir sistemas de IA confiáveis, interpretáveis e orientáveis.
Resumindo, é certo que a AGI será alcançada em breve, demore cinco ou 20 anos. Além disso, visando acelerar o processo, e com o discurso de democratizar o acesso à IA, as empresas anunciam que estão “abrindo o código” da IA e de protótipos de AGI para quem desejar ajudá-las! Ora, disponibilizar acesso a código aberto de IA significa praticamente entregar uma bomba atômica nas mãos de milhares de hackers, ditadores e grupos extremistas sedentos por IA em todos os países. Nesse contexto, a fúria desenfreada das empresas por obter dividendos com a futura AGI assemelha-se a um atentado criminoso em escala mundial. Mas uma AGI autônoma vai acontecer. A pergunta é: quais serão os impactos sociais?
Stuart Russell alerta para os riscos de uma superinteligência que não seja compatível com os quesitos de “controle” e “segurança” desde sua concepção – mas a exasperação comercial dos fabricantes de IA nega estes princípios. Os adeptos do otimismo tecnológico minimizam impactos, embora isso não faça sentido para uma tecnologia que se propõe a substituir a mão de obra e superar a criatividade humana. Por fim, o eufemismo midiático de que a IA veio para “trabalhar junto com os humanos” é marketing de vendas. O futuro será radicalmente diferente. Devemos permanecer atentos às sutis nuances dos discursos que envolvem IA e AGI.