Depois de sucessivas advertências sobre os riscos das aplicações de inteligência artificial e pedidos para que a tecnologia seja regulamentada, a União Europeia deu o primeiro passo.
Na semana passada, aprovou a decisão de estabelecer regras para a atividade, já com algumas fronteiras definidas: proibição total para efeitos de vigilância biométrica, reconhecimento de emoções e policiamento preditivo e identificação clara para conteúdos gerados por sistemas de IA generativa, como o ChatGPT.
O Parlamento Europeu já definiu que os benefícios da inteligência artificial sejam aplicados respeitando os "direitos e valores" do bloco, o que inclui supervisão humana, segurança, privacidade, transparência, não discriminação e bem-estar social e ambiental.
Com as diretrizes definidas, o próximo passo é uma negociação entre os países-membros no âmbito do Conselho Europeu - nível decisório formado pelos chefes de Governo de cada integrante.
Os eurodeputados já definiram três níveis de risco - inaceitável, elevado e limitado. As atividades classificadas no grau mais elevado são consideradas uma ameaça para os seres humanos e serão proibidas, como
- manipulação cognitivo-comportamental de pessoas ou grupos vulneráveis específicos, como brinquedos ativados por voz que incentivem comportamentos perigosos em crianças
- pontuação social: classificação de pessoas com base no comportamento, estatuto socioeconômico e caraterísticas pessoais
- sistemas de identificação biométrica em tempo real e à distância, como o reconhecimento facial.
Os vetos têm exceções, como os sistemas de pós-identificação biométrica à distância, em que a identificação não ocorre de forma instantânea, que serão permitidos apenas para repressão de crimes graves e após aprovação de tribunais.
Nas aplicações consideradas de risco elevado, será preciso uma avaliação preliminar antes de serem colocadas no mercado, que deverá ser renovada durante todo o seu ciclo de vida. Nas de risco limitado - como as de IA generativa - será preciso obedecer a requisitos mínimos de transparência que permitam aos usuários tomar decisões informadas, ou seja, identificar que a fonte é a inteligência artificial.
As iniciativas legais da União Euopeia costumam provocar o chamado "Efeito Bruxelas" - em referência à cidade que é sede do governo do bloco -, ou seja, servir de referência para outras legislações nacionais e até para regras corporativas. Isso ocorreu, por exemplo, com a adoção da General Data Protection Regulation (GDPR), que entrou em vigor em 2018 e, no Brasil, virou a Lei Geral de Proteção de Dados (LGPD). Mas regulação é para quem quer ficar dentro da lei. E ainda não se sabe o quanto teremos de inteligência artificial fora dela.