Legislação sobre tecnologia deve servir de modelo para o estabelecimento de regras em todo o mundo
Parlamentares da União Europeia aprovaram a lei sobre inteligência artificial do bloco de 27 países nesta quarta-feira, o que põe as primeiras regras do mundo sobre o assunto no rumo previsto para entrarem em vigor ainda este ano.
Por maioria esmagadora de votos, os membros do Parlamento Europeu aprovaram a Lei da Inteligência Artificial cinco anos depois de as regras terem sido propostas. A expectativa é de que a Lei da IA sirva como referência para outros governos de todo o planeta que tratam de regulamentar essa tecnologia de desenvolvimento tão rápido.
As grandes empresas de tecnologia têm concordado, de forma geral, com a necessidade de regulamentar a inteligência artificial, ao mesmo tempo em que fazem lobby para garantir que quaisquer regras aprovadas lhes sejam favoráveis. O executivo-chefe da OpenAI, Sam Altman, causou uma pequena comoção no ano passado, quando sugeriu que a desenvolvedora do ChatGPT poderia sair da Europa se não conseguisse cumprir a Lei da IA – e depois voltou atrás e afirmou que não havia planos de deixar o bloco.
Como a lei funciona?
Da mesma forma que muitas regulamentações da UE, a intenção inicial da Lei da IA era servir como uma legislação para garantir a segurança do consumidor, ao adotar uma “abordagem baseada no isco” com relação a produtos ou serviços que usam a inteligência artificial.
Quanto mais riscos uma aplicação de IA oferecer, mais escrutínio ela sofrerá. Espera-se que a maioria dos sistemas de inteligência artificial seja de baixo risco, como, por exemplo, os sistemas de recomendação de conteúdo ou os filtros de spam. Nesses casos, a obediência às exigências e aos códigos de conduta é voluntária, ou seja, as empresas podem optar por segui-los ou não.
Aplicações de IA que envolvem alto risco, como as empregadas em dispositivos médicos ou em áreas críticas de infraestrutura do tipo das redes de eletricidade ou de abastecimento de água, precisam seguir requisitos mais rigorosos, como utilizar dados de alta qualidade e fornecer informações claras aos usuários.
Alguns tipos de aplicação da inteligência artificial estão proibidos, por serem considerados como um risco inaceitável. Entre eles estão o uso de sistemas de classificação social que controlam como as pessoas se comportam, alguns tipos de policiamento preditivo e sistemas de reconhecimento de emoções nas escolas e nos locais de trabalho.
A polícia também está proibida de escanear imagens faciais em áreas públicas por meio de sistemas remotos de “identificação biométrica” que usam inteligência artificial, exceto no caso de crimes graves, como sequestro ou terrorismo.
E a IA generativa?
Os primeiros rascunhos da lei centravam-se em sistemas de inteligência artificial que executavam tarefas limitadas de forma estrita, como o escaneamento de currículos e formulários de candidaturas a vagas de emprego. O aumento assombroso dos modelos de IA de uso geral, exemplificado pelo ChatGPT da OpenAI, obrigou os parlamentares da UE a correrem para acompanhar seu desenvolvimento.
Eles acrescentaram cláusulas destinadas aos chamados modelos de IA generativa, a tecnologia que é a base dos sistemas de chatbot que podem produzir respostas, imagens e muitas coisas mais únicas e aparentemente realistas.
Os desenvolvedores dos modelos de IA de uso geral – desde startups europeias até a OpenAI e o Google – precisarão fornecer um resumo detalhado dos textos, imagens, vídeos e demais dados recolhidos da internet que usam para treinar seus sistemas, assim como seguir a lei de direitos autorais da UE.
“Deepfakes” (falsificações profundas) gerados por IA de imagens, vídeos ou áudio de pessoas, lugares ou acontecimentos reais devem ter algum rótulo que informe que foram manipulados artificialmente.
Também há um escrutínio adicional sobre os maiores e mais poderosos modelos de inteligência artificial que representam “riscos sistêmicos”, como o GPT4, o sistema mais avançado da OpenAI, e o Gemini do Google.
A preocupação, segundo a UE, é que esses sistemas poderosos possam “causar acidentes graves ou ser usados de forma indevida para promover ataques cibernéticos de grande alcance”. Outro temor é que a IA generativa possa espalhar “preconceitos nocivos” por vários aplicativos e, com isso, afetar muitas pessoas.
Empresas que fornecem esses sistemas de IA precisarão avaliar e mitigar riscos; comunicar quaisquer incidentes graves, como falhas de funcionamento que causem uma morte ou danos graves à saúde ou ao patrimônio; implementar medidas de segurança cibernética; e divulgar a quantidade de energia que seus modelos usam.
As regras da Europa influenciam o restante do mundo?
Bruxelas sugeriu regulamentações para a inteligência artificial pela primeira vez em 2019, e com isso assumiu um papel mundial familiar no aumento gradual do escrutínio sobre setores emergentes, enquanto outros governos batalham para acompanhá-la.
Nos Estados Unidos, o presidente Joe Biden assinou uma ordem executiva abrangente sobre a inteligência artificial em outubro, que deve ser sustentada por leis e acordos mundiais. Enquanto isso, parlamentares de pelo menos sete Estados dos EUA trabalham na elaboração de leis próprias sobre IA.
O presidente da China, Xi Jinping, propôs sua Iniciativa Global de Governança da IA, destinada a garantir o uso justo e seguro da inteligência artificial, e as autoridades adotaram “medidas provisórias” para gerir a IA generativa, que se aplica a textos, imagens, áudios, vídeos e outros conteúdos gerados para pessoas dentro da China.
Outros países, desde o Brasil até o Japão, assim como agrupamentos internacionais como a Organização das Nações Unidas (ONU) e o G-7, dos países industrializados, avançam no sentido de criar barreiras de proteção em tono da IA.
O que vem em seguida?
IA expectativa é de que a Lei da IA entre em vigor em maio ou junho, depois de algumas formalidades finais, como a concordância oficial dos países membros da UE. As disposições começarão a ser aplicadas em etapas, sendo que os países estarão obrigados a banir os sistemas de IA proibidos seis meses depois do início da vigência das normas.
As regras para os sistemas de IA de uso geral, como os chatbots, começarão a ser aplicadas um ano depois da entrada em vigor da lei. Em meados de 2026, o conjunto completo da regulamentações, inclusive os requisitos para sistemas de alto risco, estará em vigor.
No que diz respeito a garantir o cumprimento das regras, cada país da UE criará um órgão de vigilância próprio sobre a IA, no qual os cidadãos poderão apresentar queixa se acharem que foram vítimas de alguma violação das regras. Enquanto isso, Bruxelas criará um Gabinete de IA encarregado de fazer cumprir e supervisionar a lei para sistemas de IA de uso geral.
As violações da Lei da IA podem levar a multas de até 35 milhões de euros (US$ 38 milhões), ou 7% da receita global de uma empresa.
Esta não é a última palavra de Bruxelas sobre as regras para a inteligência artificial, segundo o parlamentar italiano Brando Benifei, um dos líderes do trabalho do Parlamento Europeu sobre a lei. Ele disse que mais adiante, depois das eleições do verão, novas lei relacionadas com a IA podem ser apresentadas, em particular sobre áreas como a IA nos locais de trabalho, que a nova lei só cobre parcialmente.
Fonte: Jornal Valor Econômico, 14 de março de 2024