22.3 C
Bruksela
Niedziela, Maj 12, 2024
EuropieUstawa UE o sztucznej inteligencji: pierwsze rozporządzenie w sprawie sztucznej inteligencji

Ustawa UE o sztucznej inteligencji: pierwsze rozporządzenie w sprawie sztucznej inteligencji

ZRZECZENIE SIĘ ODPOWIEDZIALNOŚCI: Informacje i opinie reprodukowane w artykułach są opiniami tych, którzy je podają i jest to ich własna odpowiedzialność. Publikacja w The European Times nie oznacza automatycznie poparcia dla poglądu, ale prawo do jego wyrażania.

TŁUMACZENIA ZASTRZEŻEŃ: Wszystkie artykuły na tej stronie są publikowane w języku angielskim. Przetłumaczone wersje są wykonywane za pomocą zautomatyzowanego procesu zwanego tłumaczeniami neuronowymi. W razie wątpliwości zawsze odsyłaj do oryginalnego artykułu. Dziękuję za zrozumienie.

Wykorzystanie sztucznej inteligencji w UE będzie regulowane ustawą o sztucznej inteligencji, pierwszą na świecie kompleksową ustawą o sztucznej inteligencji. Dowiedz się, jak Cię ochroni.

W ramach swojej strategia cyfrowaUE chce uregulować sztuczną inteligencję (AI), aby zapewnić lepsze warunki do rozwoju i wykorzystania tej innowacyjnej technologii. Sztuczna inteligencja może przynieść wiele korzyści, takie jak lepsza opieka zdrowotna; bezpieczniejszy i czystszy transport; bardziej wydajna produkcja; oraz tańszą i bardziej zrównoważoną energię.

W kwietniu 2021 r. Komisja Europejska zaproponowała pierwszy EU ramy regulacyjne dotyczące sztucznej inteligencji. Mówi, że systemy AI, które mogą być używane w różnych aplikacjach, są analizowane i klasyfikowane zgodnie z ryzykiem, jakie stwarzają dla użytkowników. Różne poziomy ryzyka będą oznaczać mniej lub więcej regulacji. Po zatwierdzeniu będą to pierwsze na świecie zasady dotyczące sztucznej inteligencji.

Czego Parlament chce w prawodawstwie dotyczącym sztucznej inteligencji

priorytet Parlamentu jest zapewnienie, aby systemy sztucznej inteligencji stosowane w UE były bezpieczne, przejrzyste, identyfikowalne, niedyskryminacyjne i przyjazne dla środowiska. Systemy sztucznej inteligencji powinny być nadzorowane przez ludzi, a nie przez automatyzację, aby zapobiegać szkodliwym skutkom.

Parlament chce również ustanowić neutralną technologicznie, jednolitą definicję sztucznej inteligencji, którą można by zastosować w przyszłych systemach sztucznej inteligencji.

Dowiedz się więcej o: Prace Parlamentu nad sztuczną inteligencją i jego wizja przyszłości AI

Ustawa o sztucznej inteligencji: różne zasady dla różnych poziomów ryzyka

Nowe przepisy określają obowiązki dostawców i użytkowników w zależności od poziomu ryzyka ze strony sztucznej inteligencji. Chociaż wiele systemów sztucznej inteligencji stwarza minimalne ryzyko, należy je ocenić.


Niedopuszczalne ryzyko

Niedopuszczalne ryzyko Systemy sztucznej inteligencji to systemy uważane za zagrożenie dla ludzi i zostaną zakazane. Zawierają:

  • Poznawczo-behawioralna manipulacja ludźmi lub określonymi wrażliwymi grupami: na przykład zabawki aktywowane głosem, które zachęcają dzieci do niebezpiecznych zachowań
  • Punktacja społeczna: klasyfikacja ludzi na podstawie zachowania, statusu społeczno-ekonomicznego lub cech osobistych
  • Systemy identyfikacji biometrycznej działające w czasie rzeczywistym i zdalne, takie jak rozpoznawanie twarzy


Dozwolone mogą być pewne wyjątki: na przykład zdalne systemy identyfikacji biometrycznej „post”, w przypadku których identyfikacja następuje ze znacznym opóźnieniem, będą mogły być dopuszczone do ścigania poważnych przestępstw, ale tylko po zatwierdzeniu przez sąd.

Wysokie ryzyko

Systemy sztucznej inteligencji, które negatywnie wpływają na bezpieczeństwo lub prawa podstawowe, zostaną uznane za systemy wysokiego ryzyka i zostaną podzielone na dwie kategorie:

1) Systemy sztucznej inteligencji stosowane w produktach objętych prawodawstwa UE w zakresie bezpieczeństwa produktów. Obejmuje to zabawki, lotnictwo, samochody, urządzenia medyczne i windy.

2) Systemy AI należące do ośmiu określonych obszarów, które będą musiały zostać zarejestrowane w EU Baza danych:

  • Biometryczna identyfikacja i kategoryzacja osób fizycznych
  • Zarządzanie i eksploatacja infrastruktury krytycznej
  • Edukacja i szkolenie zawodowe
  • Zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia
  • Dostęp i korzystanie z podstawowych usług prywatnych oraz usług i korzyści publicznych
  • Egzekwowanie prawa
  • Zarządzanie migracją, azylem i kontrolą granic
  • Pomoc w interpretacji prawnej i stosowaniu prawa.



Wszystkie systemy AI wysokiego ryzyka będą oceniane przed wprowadzeniem na rynek, a także przez cały cykl ich życia.

generatywna sztuczna inteligencja


Generatywna sztuczna inteligencja, taka jak ChatGPT, musiałaby spełniać wymogi przejrzystości:

  • Ujawnienie, że treść została wygenerowana przez sztuczną inteligencję
  • Zaprojektowanie modelu tak, aby nie generował on nielegalnych treści
  • Publikowanie podsumowań chronionych prawem autorskim danych wykorzystywanych do szkolenia

Ograniczone ryzyko

Systemy sztucznej inteligencji o ograniczonym ryzyku powinny spełniać minimalne wymogi w zakresie przejrzystości, które umożliwiłyby użytkownikom podejmowanie świadomych decyzji. Po interakcji z aplikacjami użytkownik może następnie zdecydować, czy chce z niej dalej korzystać. Użytkownicy powinni być świadomi interakcji z AI. Obejmuje to systemy sztucznej inteligencji, które generują obrazy, treści audio lub wideo lub nimi manipulują, na przykład głębokie podróbki.

Następne kroki

Parlament ma uzgodnić swoje stanowisko negocjacyjne w czerwcu 2023 r., po czym rozpoczną się rozmowy z państwami UE w Radzie na temat ostatecznego kształtu ustawy.

Celem jest osiągnięcie porozumienia do końca tego roku.

    - Reklama -

    Więcej od autora

    - EKSKLUZYWNA TREŚĆ -spot_img
    - Reklama -
    - Reklama -
    - Reklama -spot_img
    - Reklama -

    Musisz przeczytać

    Ostatnie artykuły

    - Reklama -