Está em andamento, no Rio Grande do Sul, um projeto ainda pouco conhecido, mas de grande importância para uma área que vem crescendo e ocupando espaços antes restritos a nós, humanos. Com duas dezenas de instituições envolvidas, entre centros universitários e empresas (de dentro e de fora do país), começa a ganhar forma no Estado a Rede de Inteligência Artificial Ética e Segura (Raies).
A iniciativa reúne gente das mais diversas áreas - da filosofia à informática - para discutir, pesquisar e buscar soluções com um objetivo nada trivial: garantir que a Inteligência Artificial (IA) seja utilizada de forma benéfica à humanidade.
— A ciência pode ser usada para o bem ou para o mal. Isso vale para a IA também e precisa ser discutido. Queremos ser referência na América Latina nesse debate — diz o responsável pelo projeto, Nythamar de Oliveira, professor titular da Escola de Humanidades da PUCRS e coordenador do grupo de pesquisa em Neurofilosofia no Instituto do Cérebro (InsCer).
Na prática, a Raies terá quatro anos para elaborar, entre outros estudos, um manual de ética voltado a desenvolvedores de sistemas autônomos inteligentes.
— A ideia é definir um modelo seguro e validar a ferramenta dentro de empresas e startups. No futuro, isso poderá, inclusive, originar um selo de certificação — destaca Rodrigo Leal, head do NAVI, hub de IA e ciência de dados instalado no Tecnopuc.
Redes inovadoras
A Raies integra o programa Redes Inovadoras de Tecnologias Estratégicas (RITEs) do governo do Estado, via Fundação de Amparo à Pesquisa (Fapergs) e Secretaria de Ciência e Tecnologia. São 14 projetos no total, com investimento público de R$ 30 milhões.
Por que é importante
Tarefas desempenhadas por humanos são cada vez mais delegadas a sistemas inteligentes - que “aprendem” até mesmo a tomar decisões. O problema é que, muitas vezes, esses modelos podem ter vieses indesejados. Por exemplo: sistemas de reconhecimento facial com tendências racistas ou softwares de interação com discurso de ódio.
Qual é o limite
Em junho, um engenheiro do Google disse acreditar que o chatbot do grupo - chamado LaMDA e capaz de dialogar a partir do processamento de bilhões de palavras na internet - teria se tornado “consciente”. O funcionário foi afastado, e a história reacendeu o debate sobre o tema.