Passou no plenário do Senado, nesta semana, o Marco da Inteligência Artificial, projeto de lei para regulamentar o uso da tecnologia no Brasil.
É uma tentativa de colocar limites ao uso da inteligência artificial tanto pela iniciativa privada quanto pelo poder público, classificando as aplicações de IA em: risco excessivo, risco alto e risco baixo.
A avaliação do grau de risco será feita pelos desenvolvedores ou aplicadores do sistema. Não entraram na lista, entretanto, os algoritmos de redes sociais.
Por outro lado, o projeto tenta proteger direitos autorais. Prevê que usar a obra de alguém no desenvolvimento de IA deve ser consentido, e também que o uso de imagem e voz de pessoas respeite os direitos da personalidade previstos no Código Civil.
O Projeto de Lei 2.338/2023 foi apresentado pelo presidente do Senado, Rodrigo Pacheco (PSD-MG), no ano passado e ainda precisa ser aprovado na Câmara dos Deputados para virar lei.
Mas como esta lei, caso aprovada, vai proteger o cidadão comum? A coluna consultou o desenvolvedor Jaydson Gomes, cofundador da empresa gaúcha de desenvolvimento de soluções Dex01&On2 e da BrazilJS, para entender.
Por que esta lei é importante e como protege o cidadão comum dos riscos da IA generativa?
É importante pelo fato de ser uma linha traçada, algo que não existia. Leis sempre podem ser burladas, mas esse projeto é, em princípio, uma camada mínima de proteção. Como outras legislações, ela precisa evoluir com o tempo, conforme o uso e de acordo com os problemas que forem sendo identificados.
A Lei Geral de Proteção de Dados (LGPD), por exemplo, existe há algum tempo, mas não garante a segurança dos nossos dados. Outra questão é que temos de fazer nosso papel como cidadãos, de pesquisar, entender e cobrar, não só delegar para políticas públicas ou empresas.
O Brasil é pioneiro? Outros lugares têm legislação semelhante, com efeitos práticos?
Há um pioneirismo, porque qualquer país que implementar esse tipo de legislação agora vai estar na vanguarda. Existem muitos países com projetos em andamento, mas não sei de outra nação que tenha implementado. Mas é interessante, mesmo com críticas, que são sempre válidas.
A IA evolui muito rápido, com tipos de exploração novos surgindo com frequência. Deve demorar anos para ver o efeito prático de uma legislação como essa. Por outro lado, os efeitos da não regulação são evidentes: cada empresa fazendo o que quer.
Como regular o que não for produzido por corporações ou governos, se o agente dos sistemas de IA pode ser qualquer pessoa?
É complexo, pois tem viés, tem interesses envolvidos. Então, fazer essa fiscalização é difícil, assim como vemos na LGPD.
É como nas redes sociais. De quem é a responsabilidade de um conteúdo que está nas redes sociais: de quem postou ou da plataforma? Para IA, é parecido. A responsabilidade é de quem produziu ou quem distribuiu em massa um deep fake?
A regulação da IA em si é um passo importante, mas ainda não é um grande avanço. É preciso uma discussão constante e aberta com a sociedade, com quem de fato quer defender as pessoas. As empresas também precisam ter algum tipo de fiscalização, que seja auditável. Isso está diretamente ligado com as grandes empresas e seus algoritmos, que não são regulados. Se tem um deep fake, a empresa precisa informar o caminho disso para que medidas sejam tomadas.
A lei terá efeito prático, protegerá as pessoas do mau uso da IA generativa? Especialmente porque deixou as redes sociais, cujo negócio se baseia em IA, fora da classificação de risco...
Concordo em parte. Também poderíamos ter essa impressão da LGPD, que recebeu muita atenção e, na prática, é meio um placebo. Mas ela é importante, pois abusos massivos, por exemplo, são mais difíceis de acontecer. As empresas foram obrigadas a implementar a LGPD, e isso evita que seja território de ninguém. Reforço que, como cidadãos, não podemos delegar para o Estado ou para empresas que a situação seja resolvida. A solução também está na educação da sociedade naquilo que a afeta e o engodo não se estabeleça.