Haut ass de European Artificial Intelligence Act (AI Act), déi éischt ëmfaassend Regulatioun vun der Welt iwwer kënschtlech Intelligenz, trëtt a Kraaft. D'AI Act ass entwéckelt fir sécherzestellen datt AI entwéckelt a benotzt an der EU vertrauenswierdeg ass, mat Schutzmoossnamen fir d'fundamental Rechter vun de Leit ze schützen. D'Reglement zielt en harmoniséierten Bannemaart fir AI an der EU z'etabléieren, d'Aufnahme vun dëser Technologie ze encouragéieren an engem ënnerstëtzen Ëmwelt schafen fir Innovatioun an Investitioun.
D'AI Act féiert eng viraussiichtlech Definitioun vun AI vir, baséiert op enger Produktsécherheet a Risiko-baséiert Approche an der EU:
- Minimale Risiko: Déi meescht AI Systemer, wéi AI-aktivéiert Empfehlersystemer a Spamfilter, falen an dës Kategorie. Dës Systemer hu keng Verpflichtungen ënner dem AI Gesetz wéinst hirem minimale Risiko fir d'Bierger. Rechter a Sécherheet. Firmen kënnen fräiwëlleg zousätzlech Behuelencodes adoptéieren.
- Spezifesch Transparenzrisiko: AI Systemer wéi Chatbots muss de Benotzer kloer verroden datt se mat enger Maschinn interagéieren. Bestëmmte AI-generéiert Inhalter, dorënner déif Fälschungen, musse sou markéiert ginn, an d'Benotzer mussen informéiert ginn wann biometresch Kategoriséierung oder Emotiounserkennungssystemer benotzt ginn. Zousätzlech mussen d'Provider Systemer op eng Manéier designen datt syntheteschen Audio-, Video-, Text- a Billerinhalt an engem maschinn liesbare Format markéiert ass, an z'erkennen als kënschtlech generéiert oder manipuléiert.
- Héich Risiko: AI Systemer, déi als héich-Risiko identifizéiert ginn, mussen erfëllen streng Ufuerderungen, dorënner Risiko-Reduktioun Systemer, héich Qualitéit vun Datesets, Logbuch vun Aktivitéit, detailléiert Dokumentatioun, kloer Benotzer Informatiounen, mënschlech Iwwerwaachung, an engem héijen Niveau vun Robustheet, Genauegkeet, an Cybersecurity. Reguléierungs Sandboxen erliichteren verantwortlech Innovatioun an d'Entwécklung vu konforme AI Systemer. Esou héich-Risiko AI Systemer enthalen zum Beispill AI Systemer déi fir Rekrutéierung benotzt ginn, oder fir ze bewäerten ob iergendeen d'Recht huet e Prêt ze kréien oder autonom Roboteren ze bedreiwen.
- Inakzeptabel Risiko: AI Systemer als eng kloer Bedrohung fir d'fundamental Rechter vu Leit ugesi ginn erënnert. Dëst beinhalt AI Systemer oder Uwendungen déi mënschlecht Verhalen manipuléieren fir de fräie Wëllen vun de Benotzer ze ëmgoen, sou wéi Spillsaachen déi Stëmmhëllef benotze fir geféierlech Verhalen vu Mannerjäregen ze encouragéieren, Systemer déi 'sozial Scoring' vu Regierungen oder Firmen erlaben, a bestëmmte Applikatioune vu prévisiven Polizei. Zousätzlech ginn e puer Notzunge vu biometresche Systemer verbueden, zum Beispill Emotiounserkennungssystemer déi op der Aarbechtsplaz benotzt ginn an e puer Systemer fir Leit ze kategoriséieren oder Echtzäit Fernbiometresch Identifikatioun fir Gesetzeszwecker an ëffentlech zougängleche Raum (mat schmuel Ausnahmen).
Fir dëse System ergänzen, féiert d'AI Act och Regele fir sougenannte allgemeng Zweck AI Modeller, déi héich fäeg AI Modeller sinn, déi entwéckelt sinn fir eng breet Varietéit vun Aufgaben auszeféieren, wéi zum Generéiere vun mënschlechähnlechen Text. Allgemeng Zweck AI Modeller ginn ëmmer méi als Komponente vun AI Uwendungen benotzt. D'AI Act suergt fir Transparenz laanscht d'Wäerterkette a adresséiert méiglech systemesch Risike vun de kapabelste Modeller.
Uwendung an Duerchféierung vun den AI Regelen
D'Memberstaaten hunn bis den 2. August 2025 fir national zoustänneg Autoritéiten ze designéieren, déi d'Uwendung vun de Reegele fir AI Systemer iwwerwaachen a Maartiwwerwaachungsaktivitéiten ausféieren. Der Kommissioun AI Büro wäert de Schlëssel Implementéierungsorgan fir d'AI Act op EU-Niveau sinn, souwéi den Enforcer fir d'Regele fir allgemeng Zwecker AI Modeller.
Dräi Berodungsorganer ënnerstëtzen d'Ëmsetzung vun de Regelen. Déi European Artificial Intelligence Board wäert eng eenheetlech Uwendung vum AI Gesetz iwwerall garantéieren EU Memberstaaten a wäerten als Haaptorgan fir d'Zesummenaarbecht tëscht der Kommissioun an de Memberstaaten handelen. E wëssenschaftleche Panel vun onofhängegen Experten wäert technesch Berodung an Input op Duerchféierung bidden. Besonnesch dës Panel kann Alarmer un den AI Office iwwer Risiken verbonne mat allgemeng Zweck AI Modeller ausginn. Den AI Office kann och Leedung kréien vun engem Berodungsforum, besteet aus enger Diversitéit vun Akteuren.
Firmen, déi net un d'Reegele respektéieren, gi bestrooft. D'Strofe kéinte bis zu 7% vum weltwäiten jäerlechen Ëmsaz fir Verstéiss vu verbuedenen AI Uwendungen eropgoen, bis zu 3% fir Verstouss géint aner Verpflichtungen a bis zu 1.5% fir falsch Informatioun ze liwweren.
Nächst Schrëtt
D'Majoritéit vun de Reegelen vum AI-Gesetz fänken un den 2. August 2026 un ze gëllen. Wéi och ëmmer, Verbueter vun AI-Systemer, déi als inakzeptabel Risiko ugesi ginn, gëllen awer schonn no sechs Méint, während d'Regele fir sougenannte General-Purpose AI Modeller gëllen no 12 Méint.
Fir d'Iwwergangszäit virun der voller Ëmsetzung ze iwwerbrécken, huet d'Kommissioun den AI Pakt. Dës Initiativ invitéiert AI Entwéckler fräiwëlleg Schlësselverpflichtungen vum AI Act virun de gesetzleche Frist ze adoptéieren.
D'Kommissioun entwéckelt och Richtlinnen fir ze definéieren an ze detailléiert wéi d'AI Act soll ëmgesat ginn an erliichtert co-regulatoresch Instrumenter wéi Standarden a Praxiscodes. D'Kommissioun opgemaach en Opruff fir Interesseausdréck fir un der Ausschaffe vum éischten allgemengen Zweck AI Code of Practice deelzehuelen, wéi och eng Multi-Stakeholder Consultatioun d'Méiglechkeet fir all Akteuren ze soen iwwer den éischte Code of Practice ënner dem AI Act.
Hannergrond
Am 9 Dezember 2023, dem Kommissioun huet de politeschen Accord begréisst iwwer d'AI Act. De 24. Januar 2024 d'Kommissioun huet e Pak vu Mesuren lancéiert fir europäesch Startups a PMEen an der Entwécklung vu vertrauenswürdege AI z'ënnerstëtzen. Den 29. Mee 2024 huet d'Kommissioun den AI Office enthüllt. Den 9. Juli 2024 huet den amendéiert EuroHPC JU Reglement a Kraaft getrueden, sou datt d'Opstellung vun AI Fabriken erlaabt. Dëst erlaabt engagéierten AI-Supercomputer fir d'Ausbildung vun General Purpose AI (GPAI) Modeller ze benotzen.
Weider onofhängeg, Beweis-baséiert Fuerschung produzéiert vun Joint Research Center (JRC) war fundamental an der Form vun der EU d'AI Politiken an assuréieren hir effektiv Ëmsetzung.