Rompi uma barreira pessoal. Usei a inteligência artificial (IA) para criar uma imagem, essa que você vê aí do lado. Foi a primeira vez. Abri um aplicativo de IA gratuito e digitei, em inglês, o seguinte comando: “Crie uma ilustração abstrata da IA, a partir de um cérebro humano.” Em segundos, o sistema gerou o desenho, em quatro versões. Reescrevi a ordem, acrescentando mais e mais detalhes. Ao final, não conseguia parar.
Vicia. Mesmo.
Foi uma experiência banal. Apesar disso, a tendência à compulsão me fez pensar. A dependência dessas redes neurais é um risco?
Já convivemos com os algoritmos há anos, sem saber, mas a velocidade das mudanças se acelerou como nunca desde o boom dos sistemas generativos, baseados na aprendizagem de máquinas - o famoso ChatGPT somou 100 milhões de usuários em míseros 60 dias.
O que nos reserva o futuro?
É esquisito, mas a dúvida me levou ao passado - a Isaac Azimov, o escritor que, em 1950, concebeu "Eu, robô". A obra virou um clássico cult da ficção científica (e até virou filme), ao abordar, de forma desconcertante, a evolução das máquinas no tempo. Foi ali que surgiram as “Três Leis da Robótica”:
- Um robô não pode ferir um humano ou, por inação, permitir que ele seja ferido;
- Um robô deve obedecer às ordens dadas por humanos, exceto nos casos em que tais ordens entrem em conflito com a primeira lei;
- Um robô deve proteger sua própria existência, desde que isso não anule as duas leis anteriores.
Curiosamente, esses princípios saltaram das páginas do livro e acabaram impactando cientistas e a própria ciência, de diferentes formas.
Reza a lenda que, quando surgiu, o Google registrou no topo de seu código de conduta corporativo, o lema “don’t be evil” (não seja mau). Quase 20 anos mais tarde, a frase teria sido discretamente deslocada para o fim do documento.
Na trama ficcional, Azimov mostra os "bots" como modelos benéficos à humanidade, mesmo quando falham. Foi impactante, à época, porque o mundo pós-guerra havia acabado de testemunhar a destruição em massa desencadeada a partir do uso fratricida das novas tecnologias (tanques, armas, bombas nucleares). As máquinas inspiravam desconfiança e medo. Mais de 70 anos depois, cá estamos nós outra vez (ou ainda) debruçados sobre o mesmo dilema. Será a IA de fato uma ameaça à raça humana?
O neurocientista Miguel Nicolelis tem dito que o âmago da questão não é a IA em si, útil e disruptiva em tudo - da arquitetura à medicina. O ponto é outro: o risco de extrapolar o uso da ferramenta de forma a moldar ou redefinir o comportamento do homo sapiens.
Nosso cérebro, sustenta Nicolelis, jamais será substituído por um computador, mas o uso contínuo da lógica digital já está influenciando o modo como nossa massa cinzenta funciona. Qual é o efeito de se entregar um celular a uma criança com menos de um ano, que ainda não aprendeu a falar e ainda não desenvolveu capacidades cognitivas, para que pare de chorar? É disso que se trata. Em um futuro distópico, dependendo do rumo das coisas, poderemos perder habilidades conquistadas em um processo evolutivo lento, longo e duro.
Grandes atributos da mente humana (como intuição, empatia e solidariedade), até agora, não eram reduzíveis a algoritmos. Até agora. Precisamos, sim, pensar sobre isso. O futuro chegou.