15.3 C
Bruxelas
Quarta-feira setembro 18, 2024
Escolha dos editoresLei Europeia de Inteligência Artificial entra em vigor

Lei Europeia de Inteligência Artificial entra em vigor

AVISO LEGAL: As informações e opiniões reproduzidas nos artigos são de responsabilidade de quem as expressa. Publicação em The European Times não significa automaticamente o endosso do ponto de vista, mas o direito de expressá-lo.

TRADUÇÕES DE ISENÇÃO DE RESPONSABILIDADE: Todos os artigos deste site são publicados em inglês. As versões traduzidas são feitas por meio de um processo automatizado conhecido como traduções neurais. Em caso de dúvida, consulte sempre o artigo original. Obrigado pela compreensão.

Central de notícias
Central de notíciashttps://europeantimes.news
The European Times Notícias visa cobrir notícias importantes para aumentar a conscientização dos cidadãos em toda a Europa geográfica.

Hoje, o Lei Europeia de Inteligência Artificial (Lei AI), o primeiro regulamento abrangente do mundo sobre inteligência artificial, entra em vigor. A Lei da IA ​​foi concebida para garantir que a IA desenvolvida e utilizada na UE seja fiável, com salvaguardas para proteger os direitos fundamentais das pessoas. O regulamento visa estabelecer um mercado interno harmonizado para a IA na UE, incentivando a adoção desta tecnologia e criando um ambiente de apoio para inovação e investimento.

A Lei da IA ​​introduz uma definição prospectiva de IA, baseada numa abordagem baseada na segurança dos produtos e no risco na UE:

  • Risco mínimo: a maioria dos sistemas de IA, como sistemas de recomendação habilitados para IA e filtros de spam, se enquadram nesta categoria. Estes sistemas não enfrentam obrigações ao abrigo da Lei da IA ​​devido ao seu risco mínimo para os cidadãos direitos E segurança. As empresas podem adotar voluntariamente códigos de conduta adicionais.
  • Risco específico de transparência: Sistemas de IA como chatbots deve divulgar claramente aos usuários que eles estão interagindo com uma máquina. Certos conteúdos gerados por IA, incluindo deep fakes, devem ser rotulados como tal, e os utilizadores precisam de ser informados quando estiverem a ser utilizados sistemas de categorização biométrica ou de reconhecimento de emoções. Além disso, os fornecedores terão de conceber sistemas de forma a que o conteúdo sintético de áudio, vídeo, texto e imagens seja marcado num formato legível por máquina e detectável como gerado ou manipulado artificialmente.
  • Alto risco: Os sistemas de IA identificados como de alto risco serão obrigados a cumprir requisitos rigorosos, incluindo sistemas de mitigação de riscos, conjuntos de dados de alta qualidade, registo de atividades, documentação detalhada, informações claras dos utilizadores, supervisão humana e um elevado nível de robustez, precisão e segurança cibernética. Os sandboxes regulamentares facilitarão a inovação responsável e o desenvolvimento de sistemas de IA compatíveis. Esses sistemas de IA de alto risco incluem, por exemplo, sistemas de IA utilizados para recrutamento, ou para avaliar se alguém tem direito a obter um empréstimo, ou a gerir robôs autónomos.
  • Risco inaceitável: Os sistemas de IA considerados uma clara ameaça aos direitos fundamentais das pessoas serão banido. Isto inclui sistemas ou aplicações de IA que manipulam o comportamento humano para contornar o livre arbítrio dos utilizadores, tais como brinquedos que utilizam assistência de voz que incentivam comportamentos perigosos de menores, sistemas que permitem a «pontuação social» por parte de governos ou empresas, e certas aplicações de policiamento preditivo. Além disso, serão proibidas algumas utilizações de sistemas biométricos, por exemplo, sistemas de reconhecimento de emoções utilizados no local de trabalho e alguns sistemas de categorização de pessoas ou identificação biométrica remota em tempo real para fins de aplicação da lei em espaços acessíveis ao público (com pequenas exceções).

Para complementar este sistema, a Lei da IA ​​também introduz regras para os chamados modelos de IA de uso geral, que são modelos de IA altamente capazes projetados para executar uma ampla variedade de tarefas, como gerar texto semelhante ao humano. Os modelos de IA de uso geral são cada vez mais usados ​​como componentes de aplicações de IA. A Lei da IA ​​garantirá a transparência ao longo da cadeia de valor e abordará possíveis riscos sistémicos dos modelos mais capazes.

Aplicação e aplicação das regras de IA

Os Estados-Membros têm até 2 de agosto de 2025 para designar autoridades nacionais competentes, que supervisionarão a aplicação das regras para os sistemas de IA e realizarão atividades de fiscalização do mercado. Da Comissão Escritório de IA será o principal órgão de implementação da Lei da IA ​​a nível da UE, bem como o responsável pela aplicação das regras para uso geral Modelos de IA.

Três órgãos consultivos apoiarão a implementação das regras. O Conselho Europeu de Inteligência Artificial garantirá uma aplicação uniforme da Lei de IA em EU Estados-Membros e actuará como principal órgão de cooperação entre a Comissão e os Estados-Membros. Um painel científico de especialistas independentes oferecerá aconselhamento técnico e sugestões sobre a aplicação. Em particular, este painel pode emitir alertas ao AI Office sobre riscos associados a modelos de IA de uso geral. O AI Office também pode receber orientação de um fórum consultivo, composto por um conjunto diversificado de partes interessadas.

As empresas que não cumprirem as regras serão multadas. As multas podem ir até 7% do volume de negócios anual global por violações de aplicações de IA proibidas, até 3% por violações de outras obrigações e até 1.5% por fornecimento de informações incorretas.

Próximos Passos

A maioria das regras da Lei da IA ​​começará a ser aplicada em 2 de agosto de 2026. No entanto, as proibições de sistemas de IA considerados como apresentando um risco inaceitável já serão aplicadas após seis meses, enquanto as regras para os chamados modelos de IA de uso geral serão aplicadas após 12 meses.

Para colmatar o período de transição antes da plena implementação, a Comissão lançou o Pacto de IA. Esta iniciativa convida os desenvolvedores de IA a adotarem voluntariamente as principais obrigações da Lei de IA antes dos prazos legais. 

A Comissão está também a desenvolver orientações para definir e detalhar a forma como a Lei da IA ​​deve ser implementada e facilitar instrumentos de co-regulação, como normas e códigos de prática. A Comissão abriu um convite à manifestação de interesse participar na elaboração do primeiro Código de Práticas de IA de uso geral, bem como de um consulta multilateral dando a oportunidade a todas as partes interessadas de se pronunciarem sobre o primeiro Código de Prática ao abrigo da Lei da IA.

BACKGROUND

No 9 dezembro 2023, o Comissão congratulou-se com o acordo político na Lei de IA. Em 24 de janeiro de 2024 a Comissão lançou um pacote de medidas apoiar startups e PME europeias no desenvolvimento de uma IA fiável. Em 29 de maio de 2024, a Comissão revelou o AI OfficeNo 9 July 2024 o Regulamento alterado da EuroHPC JU entrou em vigor, permitindo assim a instalação de fábricas de IA. Isso permite que supercomputadores de IA dedicados sejam usados ​​para o treinamento de modelos de IA de uso geral (GPAI).

Pesquisa contínua, independente e baseada em evidências, produzida por o Centro Comum de Investigação (JRC) tem sido fundamental para definir as políticas de IA da UE e garantir a sua implementação eficaz.

- Propaganda -

Mais do autor

- CONTEÚDO EXCLUSIVO -local_img
- Propaganda -
- Propaganda -
- Propaganda -local_img
- Propaganda -

Deve ler

Artigos Mais Recentes

- Propaganda -