Bruken av kunstig intelligens i EU vil bli regulert av AI Act, verdens første omfattende AI-lov. Finn ut hvordan det vil beskytte deg.
Som en del av sin digital strategi, ønsker EU å regulere kunstig intelligens (AI) for å sikre bedre forhold for utvikling og bruk av denne innovative teknologien. AI kan skape mange fordeler, for eksempel bedre helsetjenester; sikrere og renere transport; mer effektiv produksjon; og billigere og mer bærekraftig energi.
I april 2021 foreslo EU-kommisjonen den første EU regelverk for AI. Den sier at AI-systemer som kan brukes i ulike applikasjoner blir analysert og klassifisert i henhold til risikoen de utgjør for brukerne. De ulike risikonivåene vil bety mer eller mindre regulering. Når de er godkjent, vil dette være verdens første regler for AI.
Hva parlamentet ønsker i AI-lovgivning
Stortingets prioritet er å sørge for at AI-systemer som brukes i EU er trygge, transparente, sporbare, ikke-diskriminerende og miljøvennlige. AI-systemer bør overvåkes av mennesker, i stedet for av automatisering, for å forhindre skadelige utfall.
Parlamentet ønsker også å etablere en teknologinøytral, enhetlig definisjon for AI som kan brukes på fremtidige AI-systemer.
Lær mer om Stortingets arbeid med AI og dens visjon for AIs fremtid
AI Act: ulike regler for ulike risikonivåer
De nye reglene etablerer forpliktelser for tilbydere og brukere avhengig av risikonivået fra kunstig intelligens. Mens mange AI-systemer utgjør minimal risiko, må de vurderes.
Uakseptabel risiko
Uakseptabel risiko AI-systemer er systemer som anses som en trussel mot mennesker og vil bli forbudt. De inkluderer:
- Kognitiv atferdsmanipulasjon av mennesker eller spesifikke sårbare grupper: for eksempel stemmeaktiverte leker som oppmuntrer til farlig atferd hos barn
- Sosial skåring: klassifisering av personer basert på atferd, sosioøkonomisk status eller personlige egenskaper
- Sanntids og eksterne biometriske identifikasjonssystemer, for eksempel ansiktsgjenkjenning
Noen unntak kan tillates: For eksempel vil "post" eksterne biometriske identifikasjonssystemer der identifikasjon skjer etter en betydelig forsinkelse få lov til å straffeforfølge alvorlige forbrytelser, men bare etter godkjenning fra retten.
Høy risiko
AI-systemer som negativt påvirker sikkerhet eller grunnleggende rettigheter vil bli ansett som høyrisiko og deles inn i to kategorier:
1) AI-systemer som brukes i produkter som faller inn under EUs produktsikkerhetslovgivning. Dette inkluderer leker, luftfart, biler, medisinsk utstyr og heiser.
2) AI-systemer som faller inn i åtte spesifikke områder som må registreres i en EU database:
- Biometrisk identifikasjon og kategorisering av fysiske personer
- Forvaltning og drift av kritisk infrastruktur
- Utdanning og yrkesopplæring
- Sysselsetting, arbeiderledelse og tilgang til selvstendig næringsvirksomhet
- Tilgang til og glede av viktige private tjenester og offentlige tjenester og goder
- Rettshåndhevelse
- Migrasjons-, asyl- og grensekontrollhåndtering
- Bistand til juridisk tolkning og rettsanvendelse.
Alle høyrisiko AI-systemer vil bli vurdert før de settes på markedet og også gjennom hele livssyklusen.
Generativ AI
Generativ AI, som ChatGPT, må overholde kravene til åpenhet:
- Avsløre at innholdet ble generert av AI
- Designe modellen for å forhindre at den genererer ulovlig innhold
- Publisering av sammendrag av opphavsrettsbeskyttede data brukt til opplæring
Begrenset risiko
AI-systemer med begrenset risiko bør overholde minimale krav til åpenhet som vil tillate brukere å ta informerte beslutninger. Etter å ha samhandlet med applikasjonene, kan brukeren bestemme om de vil fortsette å bruke den. Brukere bør gjøres oppmerksomme når de samhandler med AI. Dette inkluderer AI-systemer som genererer eller manipulerer bilde-, lyd- eller videoinnhold, for eksempel deepfakes.
Neste trinn
Parlamentet skal bli enige om sin forhandlingsposisjon i juni 2023, hvoretter samtalene vil starte med EU-landene i rådet om den endelige utformingen av loven.
Målet er å komme til enighet innen utgangen av dette året.