Obecnie Europejski akt o sztucznej inteligencji (ustawa o sztucznej inteligencji)wchodzi w życie pierwsze na świecie kompleksowe rozporządzenie dotyczące sztucznej inteligencji. Ustawa o sztucznej inteligencji ma na celu zapewnienie wiarygodności sztucznej inteligencji opracowanej i stosowanej w UE oraz zapewnienie gwarancji chroniących podstawowe prawa człowieka. Rozporządzenie ma na celu ustanowienie zharmonizowanego rynku wewnętrznego sztucznej inteligencji w UE, zachęcając do stosowania tej technologii tworzenie wspierającego środowiska na innowacje i inwestycje.
Ustawa o sztucznej inteligencji wprowadza przyszłościową definicję sztucznej inteligencji opartą na podejściu opartym na bezpieczeństwie produktów i ryzyku w UE:
- Minimalne ryzyko: większość systemów AI, takich jak systemy rekomendacyjne obsługujące sztuczną inteligencję i filtry spamu, należy do tej kategorii. Systemy te nie podlegają obowiązkom wynikającym z ustawy o sztucznej inteligencji ze względu na minimalne ryzyko dla obywateli prawa i bezpieczeństwo. Firmy mogą dobrowolnie przyjąć dodatkowe kodeksy postępowania.
- Szczególne ryzyko związane z przejrzystością: Systemy AI, takie jak chatboty muszą wyraźnie informować użytkowników o interakcji z maszyną. Niektóre treści generowane przez sztuczną inteligencję, w tym głębokie podróbki, muszą być odpowiednio oznaczone, a użytkownicy muszą być informowani o stosowaniu systemów kategoryzacji biometrycznej lub rozpoznawania emocji. Ponadto dostawcy będą musieli zaprojektować systemy w taki sposób, aby syntetyczne treści audio, wideo, tekstowe i obrazy były oznaczone w formacie nadającym się do odczytu maszynowego i wykrywalne jako sztucznie wygenerowane lub zmanipulowane.
- Wysokie ryzyko: Systemy sztucznej inteligencji uznane za obarczone wysokim ryzykiem będą musiały spełnić te wymagania surowe wymagania, w tym systemy ograniczania ryzyka, wysoka jakość zbiorów danych, rejestrowanie działań, szczegółowa dokumentacja, jasne informacje dla użytkownika, nadzór ludzki oraz wysoki poziom solidności, dokładności i cyberbezpieczeństwa. Piaskownice regulacyjne ułatwią odpowiedzialne innowacje i rozwój zgodnych systemów sztucznej inteligencji. Do systemów AI wysokiego ryzyka zaliczają się np. systemy AI wykorzystywane do rekrutacji, oceny czy dana osoba jest uprawniona do otrzymania pożyczki czy też do uruchamiania autonomicznych robotów.
- Niedopuszczalne ryzyko: Systemy sztucznej inteligencji uznane za wyraźne zagrożenie dla podstawowych praw człowieka będą zakazany. Obejmuje to systemy lub aplikacje sztucznej inteligencji, które manipulują ludzkim zachowaniem w celu obejścia wolnej woli użytkowników, takie jak zabawki korzystające ze wspomagania głosowego zachęcające nieletnich do niebezpiecznych zachowań, systemy umożliwiające rządom lub firmom „punktację społeczną” oraz niektóre zastosowania policji predykcyjnej. Ponadto zabronione będą niektóre zastosowania systemów biometrycznych, na przykład systemy rozpoznawania emocji stosowane w miejscu pracy oraz niektóre systemy kategoryzacji osób lub zdalna identyfikacja biometryczna w czasie rzeczywistym do celów egzekwowania prawa w przestrzeniach publicznie dostępnych (z nielicznymi wyjątkami).
Aby uzupełnić ten system, ustawa o AI wprowadza także zasady dotyczące tzw modele sztucznej inteligencji ogólnego przeznaczenia, które są wysoce wydajnymi modelami sztucznej inteligencji zaprojektowanymi do wykonywania szerokiej gamy zadań, takich jak generowanie tekstu podobnego do ludzkiego. Modele AI ogólnego przeznaczenia są coraz częściej wykorzystywane jako komponenty aplikacji AI. Ustawa o sztucznej inteligencji zapewni przejrzystość w całym łańcuchu wartości i uwzględni ewentualne ryzyko systemowe związane z najbardziej wydajnymi modelami.
Stosowanie i egzekwowanie przepisów dotyczących sztucznej inteligencji
Państwa członkowskie mają czas do dnia 2 sierpnia 2025 r. na wyznaczenie właściwych organów krajowych, które będą nadzorować stosowanie przepisów dotyczących systemów sztucznej inteligencji i prowadzić działania w zakresie nadzoru rynku. Przez Komisję Biuro AI będzie kluczowym organem wdrażającym ustawę o sztucznej inteligencji na poziomie UE, a także organem egzekwującym przepisy dotyczące celów ogólnych Modele AI.
Wdrażanie przepisów będą wspierać trzy organy doradcze. The Europejska Rada ds. Sztucznej Inteligencji zapewni jednolite stosowanie ustawy o sztucznej inteligencji w całym kraju EU członkowskich i będzie pełnić rolę głównego organu współpracy między Komisją a państwami członkowskimi. Panel naukowy niezależnych ekspertów zaoferuje porady techniczne i uwagi dotyczące egzekwowania prawa. W szczególności panel ten może wysyłać alerty do Biura ds. AI dotyczące zagrożeń związanych z modelami AI ogólnego przeznaczenia. Biuro AI może również otrzymywać wskazówki od forum doradcze, składającej się z różnorodnego zestawu zainteresowanych stron.
Firmy, które nie zastosują się do przepisów, zostaną ukarane karami. Kary mogą wynieść do 7% światowego rocznego obrotu za naruszenia zakazanych aplikacji AI, do 3% za naruszenie innych obowiązków i do 1.5% za podanie nieprawidłowych informacji.
Następne kroki
Większość przepisów ustawy o sztucznej inteligencji zacznie obowiązywać 2 sierpnia 2026 r. Zakazy dotyczące systemów sztucznej inteligencji uznanych za stwarzające niedopuszczalne ryzyko zaczną obowiązywać już po sześciu miesiącach, natomiast przepisy dotyczące tzw. modeli sztucznej inteligencji ogólnego przeznaczenia zaczną obowiązywać po 12 miesięcy.
Aby wypełnić okres przejściowy przed pełnym wdrożeniem, Komisja uruchomiła Pakt AI. Inicjatywa ta zachęca twórców sztucznej inteligencji do dobrowolnego przyjęcia kluczowych obowiązków wynikających z ustawy o sztucznej inteligencji przed terminami prawnymi.
Komisja opracowuje również wytyczne w celu zdefiniowania i uszczegółowienia sposobu wdrażania ustawy o sztucznej inteligencji oraz ułatwienia stosowania instrumentów współregulacji, takich jak standardy i kodeksy postępowania. Komisja została otwarta zaproszenie do wyrażenia zainteresowania do wzięcia udziału w opracowaniu pierwszego ogólnego kodeksu postępowania dotyczącego sztucznej inteligencji, a także a konsultacje z wieloma zainteresowanymi stronami umożliwienie wszystkim zainteresowanym stronom wyrażenia swojej opinii na temat pierwszego kodeksu postępowania na mocy ustawy o sztucznej inteligencji.
Tło
W 9 grudzień 2023, the Komisja z zadowoleniem przyjęła porozumienie polityczne w sprawie ustawy o AI. W dniu 24 stycznia 2024 r Komisja uruchomiła pakiet środków wspieranie europejskich start-upów i MŚP w rozwoju godnej zaufania sztucznej inteligencji. W dniu 29 maja 2024 r. Komisja odsłoniła Biuro AI. W dniu 9 lipca 2024 r weszło w życie zmienione rozporządzenie Wspólnego Przedsiębiorstwa EuroHPC, umożliwiając w ten sposób zakładanie fabryk sztucznej inteligencji. Umożliwia to wykorzystanie dedykowanych superkomputerów AI do szkolenia modeli sztucznej inteligencji ogólnego przeznaczenia (GPAI).
Kontynuacja niezależnych, opartych na dowodach badań przeprowadzonych przez Wspólne Centrum Badawcze (JRC) odegrała kluczową rolę w kształtowaniu unijnych polityk w zakresie sztucznej inteligencji i zapewnianiu ich skutecznego wdrażania.