16.9 C
Brusel
Čtvrtek května 2, 2024
EvropaZákon EU o umělé inteligenci: první nařízení o umělé inteligenci

Zákon EU o umělé inteligenci: první nařízení o umělé inteligenci

ODMÍTNUTÍ ODPOVĚDNOSTI: Informace a názory reprodukované v článcích jsou těmi, kdo je uvedli a je jejich vlastní odpovědnost. Publikace v The European Times neznamená automaticky souhlas s názorem, ale právo jej vyjádřit.

PŘEKLADY ODMÍTNUTÍ ODPOVĚDNOSTI: Všechny články na tomto webu jsou publikovány v angličtině. Přeložené verze se provádějí prostřednictvím automatizovaného procesu známého jako neuronové překlady. V případě pochybností se vždy podívejte na původní článek. Děkuji za pochopení.

Využití umělé inteligence v EU bude regulováno zákonem o umělé inteligenci, prvním komplexním zákonem o umělé inteligenci na světě. Zjistěte, jak vás ochrání.

Jako součást své digitální strategie, chce EU regulovat umělou inteligenci (AI), aby zajistila lepší podmínky pro vývoj a používání této inovativní technologie. AI může přinést mnoho výhod, jako je lepší zdravotní péče; bezpečnější a čistší doprava; efektivnější výroba; a levnější a udržitelnější energie.

V dubnu 2021 navrhla Evropská komise první EU regulační rámec pro AI. Říká, že systémy umělé inteligence, které lze použít v různých aplikacích, jsou analyzovány a klasifikovány podle rizika, které představují pro uživatele. Různé úrovně rizika budou znamenat větší či menší regulaci. Po schválení to budou první pravidla pro umělou inteligenci na světě.

Co chce Parlament v legislativě AI

prioritou parlamentu je zajistit, aby systémy umělé inteligence používané v EU byly bezpečné, transparentní, sledovatelné, nediskriminační a šetrné k životnímu prostředí. Na systémy umělé inteligence by měli dohlížet spíše lidé než automatizace, aby se předešlo škodlivým výsledkům.

Parlament chce také vytvořit technologicky neutrální a jednotnou definici umělé inteligence, kterou by bylo možné aplikovat na budoucí systémy umělé inteligence.

Další informace o Práce parlamentu na AI a jeho vize budoucnosti AI

AI Act: různá pravidla pro různé úrovně rizika

Nová pravidla stanoví povinnosti pro poskytovatele a uživatele v závislosti na míře rizika umělé inteligence. Zatímco mnoho systémů umělé inteligence představuje minimální riziko, je třeba je posoudit.


Nepřijatelné riziko

Systémy umělé inteligence s nepřijatelným rizikem jsou systémy považované za hrozbu pro lidi a budou zakázány. Obsahují:

  • Kognitivně behaviorální manipulace s lidmi nebo specifickými zranitelnými skupinami: například hlasem aktivované hračky, které podporují nebezpečné chování u dětí
  • Sociální skórování: klasifikace lidí na základě chování, socioekonomického postavení nebo osobních charakteristik
  • Systémy biometrické identifikace v reálném čase a na dálku, jako je rozpoznávání obličeje


Mohou být povoleny některé výjimky: Například „poštovní“ vzdálené biometrické identifikační systémy, kde k identifikaci dojde po významném zpoždění, budou moci stíhat závažné trestné činy, ale pouze po schválení soudem.

Vysoké riziko

Systémy umělé inteligence, které negativně ovlivňují bezpečnost nebo základní práva, budou považovány za vysoce rizikové a budou rozděleny do dvou kategorií:

1) Systémy AI, které se používají v produktech spadajících pod legislativa EU týkající se bezpečnosti výrobků. Patří sem hračky, letectví, auta, lékařské přístroje a výtahy.

2) Systémy umělé inteligence spadající do osmi specifických oblastí, které budou muset být registrovány v an EU databáze:

  • Biometrická identifikace a kategorizace fyzických osob
  • Správa a provoz kritické infrastruktury
  • Vzdělávání a odborná příprava
  • Zaměstnání, řízení pracovníků a přístup k samostatné výdělečné činnosti
  • Přístup a využívání základních soukromých služeb a veřejných služeb a výhod
  • Vymáhání práva
  • Řízení migrace, azylu a kontroly hranic
  • Pomoc při právním výkladu a aplikaci práva.



Všechny vysoce rizikové systémy umělé inteligence budou posouzeny před uvedením na trh a také po celou dobu jejich životního cyklu.

Generativní AI


Generativní umělá inteligence, jako je ChatGPT, by musela splňovat požadavky na transparentnost:

  • Prozrazení, že obsah byl vytvořen AI
  • Navrhování modelu, aby se zabránilo generování nelegálního obsahu
  • Publikování souhrnů dat chráněných autorským právem používaných pro školení

Omezené riziko

Systémy umělé inteligence s omezeným rizikem by měly splňovat minimální požadavky na transparentnost, které uživatelům umožní činit informovaná rozhodnutí. Po interakci s aplikacemi se uživatel může rozhodnout, zda ji chce nadále používat. Uživatelé by měli být informováni, když interagují s AI. Patří sem systémy umělé inteligence, které generují nebo manipulují s obsahem obrázků, zvuku nebo videa, například deepfakes.

Další kroky

Parlament se má na své vyjednávací pozici dohodnout v červnu 2023, poté začnou jednání se zeměmi EU v Radě o konečné podobě zákona.

Cílem je dosáhnout dohody do konce letošního roku.

    - Reklama -

    Více od autora

    - EXKLUZIVNÍ OBSAH -spot_img
    - Reklama -
    - Reklama -
    - Reklama -spot_img
    - Reklama -

    Musíš číst

    Poslední články

    - Reklama -