12.9 C
Bruxelas
Sábado, Maio 4, 2024
EuropaLei da UE sobre IA: primeiro regulamento sobre inteligência artificial

Lei da UE sobre IA: primeiro regulamento sobre inteligência artificial

AVISO LEGAL: As informações e opiniões reproduzidas nos artigos são de responsabilidade de quem as expressa. Publicação em The European Times não significa automaticamente o endosso do ponto de vista, mas o direito de expressá-lo.

TRADUÇÕES DE ISENÇÃO DE RESPONSABILIDADE: Todos os artigos deste site são publicados em inglês. As versões traduzidas são feitas por meio de um processo automatizado conhecido como traduções neurais. Em caso de dúvida, consulte sempre o artigo original. Obrigado pela compreensão.

O uso de inteligência artificial na UE será regulamentado pela AI Act, a primeira lei abrangente de IA do mundo. Descubra como isso irá protegê-lo.

Como parte de sua estratégia digital, a UE quer regulamentar a inteligência artificial (IA) para garantir melhores condições para o desenvolvimento e uso dessa tecnologia inovadora. A IA pode criar muitos benefícios, como melhores cuidados de saúde; transporte mais seguro e limpo; fabricação mais eficiente; e energia mais barata e sustentável.

Em abril de 2021, a Comissão Europeia propôs o primeiro EU marco regulatório para IA. Ele diz que os sistemas de IA que podem ser usados ​​em diferentes aplicativos são analisados ​​e classificados de acordo com o risco que representam para os usuários. Os diferentes níveis de risco significarão mais ou menos regulamentação. Uma vez aprovadas, essas serão as primeiras regras do mundo sobre IA.

O que o Parlamento quer na legislação de IA

prioridade do parlamento é garantir que os sistemas de IA usados ​​na UE sejam seguros, transparentes, rastreáveis, não discriminatórios e ecologicamente corretos. Os sistemas de IA devem ser supervisionados por pessoas, e não por automação, para evitar resultados prejudiciais.

O Parlamento também quer estabelecer uma definição uniforme e neutra em tecnologia para IA que possa ser aplicada a futuros sistemas de IA.

Saiba mais sobre Trabalho do Parlamento sobre IA ea sua visão para o futuro da IA

AI Act: regras diferentes para diferentes níveis de risco

As novas regras estabelecem obrigações para provedores e usuários dependendo do nível de risco da inteligência artificial. Embora muitos sistemas de IA representem um risco mínimo, eles precisam ser avaliados.


Risco inaceitável

Sistemas de IA de risco inaceitável são sistemas considerados uma ameaça para as pessoas e serão banidos. Eles incluem:

  • Manipulação comportamental cognitiva de pessoas ou grupos vulneráveis ​​específicos: por exemplo, brinquedos ativados por voz que incentivam comportamentos perigosos em crianças
  • Pontuação social: classificação de pessoas com base no comportamento, status socioeconômico ou características pessoais
  • Sistemas de identificação biométrica em tempo real e remotos, como reconhecimento facial


Algumas exceções podem ser permitidas: por exemplo, sistemas de identificação biométrica remota “pós” em que a identificação ocorre após um atraso significativo poderão processar crimes graves, mas somente após a aprovação do tribunal.

Alto risco

Os sistemas de IA que afetam negativamente a segurança ou os direitos fundamentais serão considerados de alto risco e serão divididos em duas categorias:

1) Sistemas de IA usados ​​em produtos abrangidos a legislação de segurança de produtos da UE. Isso inclui brinquedos, aviação, carros, dispositivos médicos e elevadores.

2) Sistemas de IA enquadrados em oito áreas específicas que deverão ser registrados em um EU base de dados:

  • Identificação biométrica e categorização de pessoas físicas
  • Gerenciamento e operação de infraestrutura crítica
  • Educação e formação profissional
  • Emprego, gestão de trabalhadores e acesso ao trabalho independente
  • Acesso e usufruto de serviços privados essenciais e serviços e benefícios públicos
  • A aplicação da lei
  • Gestão de Migração, Asilo e Controle de Fronteiras
  • Assessoria na interpretação jurídica e aplicação da lei.



Todos os sistemas de IA de alto risco serão avaliados antes de serem colocados no mercado e também ao longo de seu ciclo de vida.

IA generativa


A IA generativa, como o ChatGPT, teria que cumprir os requisitos de transparência:

  • Divulgar que o conteúdo foi gerado por IA
  • Projetando o modelo para evitar que ele gere conteúdo ilegal
  • Publicação de resumos de dados protegidos por direitos autorais usados ​​para treinamento

Risco limitado

Os sistemas de IA de risco limitado devem cumprir requisitos mínimos de transparência que permitam aos usuários tomar decisões informadas. Depois de interagir com os aplicativos, o usuário pode decidir se deseja continuar a usá-lo. Os usuários devem ser informados quando estiverem interagindo com a IA. Isso inclui sistemas de IA que geram ou manipulam conteúdo de imagem, áudio ou vídeo, por exemplo, deepfakes.

Próximos passos

O Parlamento deve concordar com sua posição de negociação em junho de 2023, após o que as negociações começarão com os países da UE no Conselho sobre a forma final da lei.

O objetivo é chegar a um acordo até o final deste ano.

    - Propaganda -

    Mais do autor

    - CONTEÚDO EXCLUSIVO -local_img
    - Propaganda -
    - Propaganda -
    - Propaganda -local_img
    - Propaganda -

    Deve ler

    Artigos Mais Recentes

    - Propaganda -