Doutor em Ciência da Computação pela Universidade de Stanford, uma das mais importantes dos Estados Unidos, Stuart Russell, 62 anos, é professor titular na Universidade da Califórnia, em Berkeley. É autor de livros como Inteligência Artificial a Nosso Favor (2021) e Inteligência Artificial – Uma Abordagem Moderna (1995). O pesquisador se dedica ao tema há décadas, sendo que suas obras foram adotadas por diversas instituições de ensino como leituras obrigatórias. Em seus trabalhos, Russell aborda tópicos como aprendizado de máquina, processamento de linguagem natural, robótica, resolução de problemas, a ética no desenvolvimento da inteligência artificial (IA) e a importância de criar mecanismos e padrões de controle sobre o avanço da tecnologia. O pesquisador estará em Porto Alegre no dia 30 de abril, quando fará a conferência de abertura da temporada 2024 do Fronteiras do Pensamento, no Teatro Unisinos.
Em sua obra, o senhor defende o desenvolvimento de uma IA que seja compatível com a humanidade. O que significa esse conceito e como podemos usar a IA a nosso favor?
Se olharmos para a forma como temos pesquisado e desenvolvido a IA desde a década de 1950, o paradigma dominante tem sido o que chamo de “modelo padrão”. Você escreve um objetivo que deseja que a máquina alcance e, então, cria a máquina que atinja esse determinado objetivo. Se você quer um programa de computador para jogar xadrez, por exemplo, você escreve que o objetivo é dar xeque-mate no oponente. Você cria um programa que faz um bom trabalho e todos ficam felizes. Com jogos, isso é muito fácil, porque sabemos bem qual é o objetivo no xadrez, no pôquer ou qualquer outro jogo. O problema é que, no mundo real, é muito difícil descrever o objetivo corretamente. Chamo isso de problema do Rei Midas. O mito diz que ele era um lendário rei grego que pediu aos deuses que tudo o que ele tocasse se transformasse em ouro. E os deuses deram-lhe exatamente o que ele pediu. Depois ele percebe, tarde demais, que isso incluía sua comida, sua bebida e sua família. E, então, ele morre. Portanto, esse é um problema real quando se trata de sistemas de IA. Se tornarmos esses programas mais inteligentes do que os seres humanos, eles vão conseguir atingir os objetivos que estabelecemos para eles. Mesmo que esses objetivos signifiquem a extinção da raça humana. Portanto, o que chamo de IA compatível com a humanidade é uma forma de abordar a criação de ferramentas de IA sem enfrentar esse problema.
E como podemos contornar esse problema? Qual é a solução?
Para isso acontecer, precisamos ter em mente alguns princípios fundamentais ao desenvolver a IA. O primeiro deles é que o único objetivo do sistema de IA seja promover os interesses humanos, exclusivamente. O segundo princípio é que o sistema saiba que ele não tem conhecimento de quais são esses interesses humanos, porque ele precisa aprender. Isso é o mais importante. Ou seja, o modelo não pode saber o que os humanos têm em mente para o futuro, e precisa ter essa incerteza explícita. Da mesma forma, a IA precisa ser capaz de aprender sobre o comportamento humano. Esse é o terceiro princípio. As máquinas precisam aprender sobre preferências dos humanos, o que fazemos e o que não fazemos, e precisam aprender isso por meio de orientações dos humanos. Esses são os três princípios, e podemos formular algoritmos baseados nisso. Se o algoritmo for capaz de respeitar esses princípios, as ferramentas serão cada vez melhores e ficaremos mais felizes. Por outro lado, seguindo o modelo padrão, se você definir o objetivo errado, quanto mais o sistema de IA avançar, menos satisfeitos ficaremos, porque o programa vai se esforçar cada vez mais para alcançar o objetivo errado.
As principais ferramenta de IA que temos hoje respeitam essa lógica? O senhor acredita que as big techs responsáveis pelo desenvolvimento dessas tecnologias estão preocupadas com isso?
Essa é uma questão muito importante, e a resposta é: até certo ponto, mas agora é tarde demais. Quando falamos de ferramentas de IA, como ChatGPT ou Bard, ou qualquer outro desses, estamos falando de grandes modelos de linguagem (ou LLM). A maioria desses chatbots é treinado para imitar o comportamento humano. É o que chamamos de aprendizagem por imitação. Fazemos isso porque há uma grande quantidade de dados disponível. Praticamente tudo o que os humanos já escreveram ou falaram está registrado digitalmente. E nós usamos esses dados para construir esses sistemas. Depois, a segunda fase é chamada “aprendizagem por reforço a partir do feedback humano” (ou RLHF). Nessa etapa, pedimos aos sistemas que produzam várias respostas possíveis a um prompt, e temos pessoas preparadas para avaliar essas respostas. Dessa forma, os sistemas vão aprendendo como os humanos querem que se comportem, vão aprendendo a nossa linguagem. É isso que está acontecendo. Agora, imagine se estivéssemos treinando os sistemas para jogar futebol, mostrando a eles horas e horas de vídeos de pessoas jogando futebol. Gradualmente, o sistema entenderá que o objetivo é marcar gol, e passará a ter isso em mente no seu processo de tomada de decisões, para alcançar essa meta. Essa é uma boa maneira de imitar o comportamento de um jogador de futebol, por exemplo.
Neste momento, as big techs estão investindo pelo menos mil vezes mais na construção de máquinas superinteligentes do que a comunidade científica está investindo para garantir que essas máquinas sejam seguras. Quem você acha que vai vencer essa corrida?
E por que isso é um problema?
O problema é que a mesma coisa está acontecendo com a linguagem. Quando os humanos se comunicam por meio da linguagem, eles têm um objetivo específico. Por exemplo, eu posso estar usando a linguagem para explicar alguma coisa, para persuadir alguém a comprar algo ou votar em alguém, para convencer alguém a se casar comigo, ou qualquer outro objetivo, seja bom ou ruim. Ao treinar esses chatbots para imitar o comportamento da linguagem humana, estamos fazendo com que eles criem metas internas, que parecem afetar seu comportamento. Ou seja, as empresas estão criando sistemas que têm objetivos internos e elas sequer sabem quais são esses objetivos, nem como o sistema vai atrás desses objetivos. Essas plataformas são redes enormes, com 1 bilhão de parâmetros, e não temos como compreender totalmente o seu funcionamento interno. Ou seja, podemos até tentar evitar comportamentos indesejados dos chatbots por meio do feedback humano, mas isso não é suficiente.
No livro Human Compatible AI, o senhor fala sobre o problema do controle. Que problema é esse?
Há dois significados para a palavra controle aqui. Um deles é no sentido técnico, ou seja, como construímos sistemas que possamos controlar, e acredito que os princípios da compatibilidade humana são a resposta para isso. Mas também tem o sentido político, de como manter o controle sobre o que as empresas estão fazendo. Em parte, a responsabilidade sobre isso é da comunidade acadêmica, que precisa desenvolver abordagens relevantes de como produzir modelos seguros e, ao mesmo tempo, que tenham valor comercial e possam ser reproduzidos em larga escala. Nesse sentido, temos muito trabalho pela frente. Porque os modelos atuais são muito simples de fazer, embora não sejam seguros. É muito fácil você simplesmente criar sistemas maiores e treiná-los com cada vez mais dados. Não precisa de nenhuma grande inovação conceitual para fazer isso. É por isso que plataformas como estas criadas pela OpenAI e pelo Google estão se multiplicando. Os investidores não gostam de depender de uma inovação futura para ganhar dinheiro, certo? Eles gostam da ideia de fazer dinheiro apenas comprando mais hardware. É difícil convencer as empresas do contrário, a menos que surja uma alternativa viável. Então, neste momento, se olharmos para os montantes que estão sendo investidos, as big techs estão investindo pelo menos mil vezes mais na construção de máquinas superinteligentes do que a comunidade científica está investindo para garantir que essas máquinas sejam seguras. Quem você acha que vai vencer essa corrida?
Nesse aspecto político, como podemos manter o controle sobre o avanço da IA e seus limites?
Do ponto de vista do controle político sobre as empresas de tecnologia, me parece bem simples: se não tivermos segurança antes de chegarmos ao ponto da superinteligência, deverá ser o fim da História. Para garantir que isso não aconteça, os governos precisam exigir às big techs, como fazemos com os medicamentos, por exemplo, que não coloquem seus produtos em circulação antes de comprovarem sua segurança. Para provar que um avião é seguro, por exemplo, é simples, você precisa provar que ele não vai cair. Para aprovar um medicamento, é necessário mostrar que ele não pode matar as pessoas ou causar danos à saúde. Então, o que isso significa para um sistema de IA? O que proponho é a criação do que chamamos de “linhas vermelhas”, que são uma série de comportamentos completamente inaceitáveis, que as empresas precisam comprovar que suas plataformas não são capazes de replicar. Você precisa provar que seus sistemas não vão invadir e hackear outros sistemas de computador, que não vão dar orientações para terroristas sobre como construir armas biológicas, que não vão compartilhar informações falsas, entre outros exemplos.Não estamos conseguindo impedir isso, esse problema é urgente. A regulamentação da IA é um começo, mas precisamos de padrões mais bem definidos. Está claro que, no momento, as big techs nem entendem como seus próprios sistemas funcionam e estão falhando em prevenir resultados indesejados.
O verdadeiro perigo é a IA ou as pessoas mal-intencionadas, que usam a tecnologia para causar danos a terceiros? Um exemplo comum que tem causado transtornos é a disseminação dos chamados deepfakes.
Temos dois problemas. Um aspecto são essas coisas ruins que já estão acontecendo agora. São cada vez mais comuns os crimes de pornografia utilizando inteligência artificial, os deepfake nudes. Isso é muito grave, eu lancei petições online para que seja criada uma legislação para resolver esse problema. Mas também precisamos pensar nos riscos de longo prazo para a humanidade. É por isso que precisamos desenvolver a tecnologia desde o princípio de maneira mais segura, sem correr o risco de causar prejuízo à humanidade. E precisamos corrigir as falhas que já existem, como a “alucinação de IA”, como chamamos. Isso acontece quando você questiona algo ao chatbot e o sistema lhe dá uma resposta completamente fictícia com convicção. Não é que o programa esteja mentindo, ou que tenha más intenções. Mas ele transmite aquela informação falsa como se fosse verdadeira, quando não é. Essa é a falha mais comum.
Proponho a criação de ‘linhas vermelhas’, uma série de comportamentos inaceitáveis, que as empresas precisam comprovar que suas plataformas não são capazes de replicar. Não estamos conseguindo impedir isso, esse problema é urgente. Está claro que, no momento, as big techs nem entendem como seus próprios sistemas funcionam e estão falhando em prevenir resultados indesejados.
O senhor utiliza ferramentas de IA pessoalmente, no seu dia a dia?
Não. Quero dizer, temos usado ferramentas de IA há décadas, mas sem percebermos, na maioria das vezes, porque são algoritmos mais simples do que estes que temos hoje. Como os modelos dos mecanismos de busca, por exemplo, que usamos há anos. Mas não, eu não uso nenhum chatbot, como ChatGPT, nem nada parecido no meu trabalho. Eu apenas experimento essas ferramentas, e geralmente fico convencido de que elas não são tão inteligentes quanto muitas pessoas afirmam.
Em relação à conexão de IA com robôs: isso será uma realidade no futuro? Vamos conviver com robôs inteligentes na nossa rotina? Já vemos projetos nesse sentido de grandes empresas, como OpenAI e Nvidia.
Esse tem sido um problema de engenharia muito difícil, que está avançando mais lentamente do que as ferramentas de IA. Na ficção científica, quase sempre a IA é representada por um robô, em parte porque é difícil fazer um filme interessante em que o personagem principal é algo que existe somente atrás de uma tela de computador. Os filmes mostram a incorporação disso, seja para criar a sensação de que existe uma entidade inteligente ali ou apenas para simbolizar uma ameaça física real às pessoas. Mas, para isso, a robótica envolve inevitavelmente muita engenharia mecânica. Você precisa ter motores e sensores, projetar esses dispositivos e torná-los confiáveis, úteis e flexíveis. Ao mesmo tempo, não temos sistemas de IA suficientemente capazes de controlar esses robôs. É complicado projetar um robô responsável por essas tarefas específicas que fazemos, como cortar um bolo em fatias ou pôr a mesa para o jantar. Isso envolve milhões de comandos individuais de controle do motor que o programa precisa gerar automaticamente, e ainda não sabemos como fazer isso, estamos tentando descobrir. Então, vai ser realmente difícil ter robôs domésticos em um futuro próximo. Agora, na indústria, na construção e na agricultura, por exemplo, que exigem tarefas mais automáticas, já temos usos mais comuns de robôs, e isso deve crescer muito mais.
Em termos de avanço da inteligência artificial, o que podemos esperar nos próximos anos, a curto prazo?
O que está sendo feito agora, principalmente, é tornar os projetos que já existem cada vez maiores. E isso é um problema quando você não sabe como seu sistema funciona. No momento, as empresas buscam avançar treinando as plataformas com cada vez mais dados, criando modelos maiores. Vários testes mostram que, com mais treinamento, obtemos modelos com melhor desempenho. Essa é a direção que a indústria está tomando, e acredito que neste ano teremos a próxima geração, que algumas pessoas chamam de GPT-5. Essa tecnologia terá muito mais parâmetros. Mas, se continuarmos nesse caminho, provavelmente vai chegar um momento em que vamos ficar sem dados. Não haverá mais textos para treinar os sistemas. E aí vamos descobrir se isso será positivo ou negativo. Talvez tenhamos sistemas muito mais inteligentes, de fato, mas talvez esses modelos apresentem os mesmos problemas que os atuais, em maior escala. Se isso acontecer, também é possível que o nível de investimento na IA diminua, caso tenha uma consequência negativa na sociedade. Mas agora não temos como saber.
Saiba mais
- O Fronteiras do Pensamento 2024, que tem como tema a pergunta “Quem está no controle?”, realizará seis encontros presenciais em Porto Alegre, todos entre 30 de abril e 30 de outubro, no Teatro Unisinos (Av. Nilo Peçanha, 1.600).
- Além de Stuart Russell, que abre os trabalhos no próximo dia 30, os conferencistas são Muriel Barbery, Yascha Mounk, Nouriel Roubini, Anna Lembke e Simon Sebag Montefiore.
- As inscrições estão abertas em fronteiras.com, e a cobertura de GZH pode ser acessada em gzh.rs/Fronteiras.
- O projeto tem patrocínio de Unimed, Sulgás, Banco Topázio e Fractal Educação, parceria acadêmica da Unisinos, parceria institucional do Instituto Unicred e prefeitura de Porto Alegre, promoção do Grupo RBS e realização da Delos Bureau, uma empresa DC Set Group.