Na quarta-feira, o Parlamento aprovou a Lei da Inteligência Artificial que garante a segurança e o cumprimento dos direitos fundamentais, ao mesmo tempo que impulsiona a inovação.
O regulamento, acordado nas negociações com os Estados-Membros em Dezembro 2023, foi aprovado pelos eurodeputados com 523 votos a favor, 46 contra e 49 abstenções.
Visa proteger os direitos fundamentais, a democracia, o Estado de direito e a sustentabilidade ambiental da IA de alto risco, ao mesmo tempo que impulsiona a inovação e estabelece a Europa como líder neste domínio. O regulamento estabelece obrigações para a IA com base nos seus riscos potenciais e no nível de impacto.
Aplicativos banidos
As novas regras proíbem determinadas aplicações de IA que ameaçam os direitos dos cidadãos, incluindo sistemas de categorização biométrica baseados em características sensíveis e recolha não direcionada de imagens faciais da Internet ou imagens de CCTV para criar bases de dados de reconhecimento facial. O reconhecimento de emoções no local de trabalho e nas escolas, a pontuação social, o policiamento preditivo (quando se baseia exclusivamente na definição do perfil de uma pessoa ou na avaliação das suas características) e a IA que manipula o comportamento humano ou explora as vulnerabilidades das pessoas também serão proibidos.
Isenções de aplicação da lei
A utilização de sistemas de identificação biométrica (RBI) pelas autoridades policiais é proibida em princípio, exceto em situações exaustivamente enumeradas e estritamente definidas. O RBI “em tempo real” só pode ser implementado se forem cumpridas salvaguardas rigorosas, por exemplo, a sua utilização é limitada no tempo e no âmbito geográfico e sujeita a autorização judicial ou administrativa prévia específica. Tais utilizações podem incluir, por exemplo, a busca direcionada de uma pessoa desaparecida ou a prevenção de um ataque terrorista. O uso de tais sistemas post-facto (“RBI pós-remoto”) é considerado um caso de uso de alto risco, exigindo autorização judicial e estando vinculado a um crime.
Obrigações para sistemas de alto risco
Estão também previstas obrigações claras para outros sistemas de IA de alto risco (devido aos seus potenciais danos significativos para a saúde, a segurança, os direitos fundamentais, o ambiente, a democracia e o Estado de direito). Exemplos de utilizações de IA de alto risco incluem infraestruturas críticas, educação e formação profissional, emprego, serviços públicos e privados essenciais (por exemplo, cuidados de saúde, serviços bancários), determinados sistemas de aplicação da lei, migração e gestão de fronteiras, justiça e processos democráticos (por exemplo, influenciar eleições). . Esses sistemas devem avaliar e reduzir riscos, manter registos de utilização, ser transparentes e precisos e garantir a supervisão humana. Os cidadãos terão o direito de apresentar queixas sobre sistemas de IA e receber explicações sobre decisões baseadas em sistemas de IA de alto risco que afetem os seus direitos.
Requisitos de transparência
Os sistemas de IA de uso geral (GPAI), e os modelos GPAI em que se baseiam, devem cumprir determinados requisitos de transparência, incluindo a conformidade com a legislação de direitos de autor da UE e a publicação de resumos detalhados do conteúdo utilizado para formação. Os modelos GPAI mais poderosos que possam representar riscos sistémicos enfrentarão requisitos adicionais, incluindo a realização de avaliações de modelos, a avaliação e mitigação de riscos sistémicos e a elaboração de relatórios sobre incidentes.
Além disso, imagens artificiais ou manipuladas, conteúdo de áudio ou vídeo (“deepfakes”) precisam ser claramente rotulados como tal.
Medidas de apoio à inovação e às PME
Terão de ser criados ambientes de teste regulamentares e testes em condições reais a nível nacional e tornados acessíveis às PME e às empresas em fase de arranque, para desenvolver e treinar IA inovadora antes da sua colocação no mercado.
Cotações
Durante o debate plenário de terça-feira, o co-relator da Comissão do Mercado Interno Brando Benifei (S&D, Itália) disse: “Finalmente temos a primeira lei vinculativa do mundo sobre inteligência artificial, para reduzir riscos, criar oportunidades, combater a discriminação e trazer transparência. Graças ao Parlamento, as práticas inaceitáveis de IA serão proibidas na Europa e os direitos dos trabalhadores e dos cidadãos serão protegidos. O AI Office será agora criado para apoiar as empresas a começarem a cumprir as regras antes de estas entrarem em vigor. Garantimos que os seres humanos e os valores europeus estivessem no centro do desenvolvimento da IA”.
Co-relator da Comissão das Liberdades Civis Dragos Tudorache (Renew, Romênia) disse: “A UE cumpriu. Ligámos o conceito de inteligência artificial aos valores fundamentais que constituem a base das nossas sociedades. No entanto, ainda há muito trabalho pela frente que vai além da própria Lei da IA. A IA irá levar-nos a repensar o contrato social que está no cerne das nossas democracias, dos nossos modelos educativos, dos mercados de trabalho e da forma como conduzimos a guerra. A Lei da IA é um ponto de partida para um novo modelo de governação construído em torno da tecnologia. Devemos agora nos concentrar em colocar esta lei em prática”.
Próximos passos
O regulamento está ainda sujeito a uma verificação final jurídico-linguística e espera-se que seja definitivamente adoptado antes do final da legislatura (através do chamado retificação procedimento). A lei também precisa ser formalmente aprovada pelo Conselho.
Entrará em vigor vinte dias após a sua publicação no Diário Oficial e será plenamente aplicável 24 meses após a sua entrada em vigor, com exceção de: proibições de práticas proibidas, que serão aplicáveis seis meses após a data de entrada em vigor; códigos de prática (nove meses após a entrada em vigor); regras de IA para fins gerais, incluindo governação (12 meses após a entrada em vigor); e obrigações para sistemas de alto risco (36 meses).
BACKGROUND
A Lei da Inteligência Artificial responde diretamente às propostas dos cidadãos da Conferência sobre o Futuro da Europa (COFE), mais concretamente para proposta 12(10) sobre o reforço da competitividade da UE em sectores estratégicos, proposta 33(5) numa sociedade segura e fiável, incluindo a luta contra a desinformação e a garantia de que, em última análise, os seres humanos estão no controlo, proposta 35 na promoção da inovação digital, (3) garantindo ao mesmo tempo a supervisão humana e (8) uso confiável e responsável da IA, estabelecendo salvaguardas e garantindo a transparência, e proposta 37 (3) sobre a utilização da IA e de ferramentas digitais para melhorar o acesso dos cidadãos à informação, incluindo as pessoas com deficiência.