Ngayon, ang mga European Artificial Intelligence Act (AI Act), ang unang komprehensibong regulasyon sa mundo sa artificial intelligence, ay pumapasok sa bisa. Ang AI Act ay idinisenyo upang matiyak na ang AI na binuo at ginamit sa EU ay mapagkakatiwalaan, na may mga pananggalang upang protektahan ang mga pangunahing karapatan ng mga tao. Ang regulasyon ay naglalayong magtatag ng isang harmonized na panloob na merkado para sa AI sa EU, na naghihikayat sa paggamit ng teknolohiyang ito at paglikha ng isang suportadong kapaligiran para sa pagbabago at pamumuhunan.
Ipinakilala ng AI Act ang isang forward-looking na kahulugan ng AI, batay sa kaligtasan ng produkto at diskarte na nakabatay sa panganib sa EU:
- Minimal na panganib: Karamihan sa mga AI system, gaya ng AI-enabled recommender system at spam filter, ay nasa kategoryang ito. Ang mga sistemang ito ay hindi nahaharap sa mga obligasyon sa ilalim ng AI Act dahil sa kanilang kaunting panganib sa mga mamamayan. karapatan at kaligtasan. Ang mga kumpanya ay maaaring kusang-loob na magpatibay ng mga karagdagang code ng pag-uugali.
- Tiyak na panganib sa transparency: Mga AI system tulad ng mga chatbot dapat malinaw na ibunyag sa mga user na nakikipag-ugnayan sila sa isang makina. Ang ilang partikular na content na binuo ng AI, kabilang ang malalim na mga pekeng, ay dapat na may label na ganoon, at kailangang ipaalam sa mga user kapag ginagamit ang biometric categorization o mga sistema ng pagkilala sa emosyon. Bilang karagdagan, kakailanganin ng mga provider na magdisenyo ng mga system sa paraang minarkahan ang nilalaman ng synthetic na audio, video, teksto at mga larawan sa format na nababasa ng makina, at nade-detect bilang artipisyal na nabuo o manipulahin.
- Napakadelekado: Ang mga AI system na tinukoy bilang mataas ang panganib ay kakailanganing sumunod mahigpit na pangangailangan, kabilang ang mga risk-mitigation system, mataas na kalidad ng mga data set, pag-log ng aktibidad, detalyadong dokumentasyon, malinaw na impormasyon ng user, pangangasiwa ng tao, at mataas na antas ng katatagan, katumpakan, at cybersecurity. Ang mga regulatory sandbox ay magpapadali sa responsableng pagbabago at pagbuo ng mga sumusunod na AI system. Kabilang sa mga ganitong high-risk na AI system ang halimbawa ng mga AI system na ginagamit para sa recruitment, o para masuri kung may karapatan na kumuha ng loan, o magpatakbo ng mga autonomous na robot.
- Hindi katanggap-tanggap na panganib: Ang mga sistema ng AI ay itinuturing na isang malinaw na banta sa mga pangunahing karapatan ng mga tao pinagbawalan. Kabilang dito ang mga AI system o application na nagmamanipula ng gawi ng tao upang iwasan ang malayang pagpapasya ng mga user, tulad ng mga laruan na gumagamit ng tulong sa boses na humihikayat sa mapanganib na pag-uugali ng mga menor de edad, mga system na nagpapahintulot sa 'social scoring' ng mga gobyerno o kumpanya, at ilang partikular na aplikasyon ng predictive policing. Bilang karagdagan, ang ilang paggamit ng mga biometric system ay ipagbabawal, halimbawa ang mga sistema ng pagkilala sa emosyon na ginagamit sa lugar ng trabaho at ilang mga sistema para sa pagkakategorya ng mga tao o real time na malayuang biometric na pagkakakilanlan para sa mga layunin ng pagpapatupad ng batas sa mga puwang na naa-access ng publiko (na may makitid na mga pagbubukod).
Upang umakma sa sistemang ito, ipinakilala din ng AI Act ang mga panuntunan para sa tinatawag na pangkalahatang layunin ng mga modelo ng AI, na mga modelong AI na may mataas na kakayahan na idinisenyo upang magsagawa ng malawak na iba't ibang mga gawain tulad ng pagbuo ng text na tulad ng tao. Ang mga pangkalahatang layunin na modelo ng AI ay lalong ginagamit bilang mga bahagi ng mga aplikasyon ng AI. Sisiguraduhin ng AI Act ang transparency sa kahabaan ng value chain at tutugunan ang mga posibleng sistematikong panganib ng mga pinaka-may kakayahang modelo.
Paglalapat at pagpapatupad ng mga alituntunin ng AI
Ang mga Member States ay may hanggang 2 Agosto 2025 para magtalaga ng mga pambansang karampatang awtoridad, na mangangasiwa sa paglalapat ng mga patakaran para sa mga AI system at magsasagawa ng mga aktibidad sa pagsubaybay sa merkado. Ang Commission Opisina ng AI ay magiging pangunahing katawan ng pagpapatupad para sa AI Act sa antas ng EU, gayundin ang tagapagpatupad para sa mga panuntunan para sa pangkalahatang layunin Mga modelo ng AI.
Tatlong advisory body ang susuporta sa pagpapatupad ng mga patakaran. Ang European Artificial Intelligence Board titiyakin ang isang pare-parehong aplikasyon ng AI Act sa kabuuan EU Member States at gaganap bilang pangunahing katawan para sa kooperasyon sa pagitan ng Komisyon at ng Member States. Isang siyentipikong panel ng mga independiyenteng eksperto ay mag-aalok ng teknikal na payo at input sa pagpapatupad. Sa partikular, ang panel na ito ay maaaring mag-isyu ng mga alerto sa AI Office tungkol sa mga panganib na nauugnay sa pangkalahatang layunin ng mga modelo ng AI. Ang AI Office ay maaari ding makatanggap ng gabay mula sa isang advisory forum, na binubuo ng magkakaibang hanay ng mga stakeholder.
Ang mga kumpanyang hindi sumusunod sa mga patakaran ay pagmumultahin. Ang mga multa ay maaaring umabot sa 7% ng pandaigdigang taunang turnover para sa mga paglabag sa mga ipinagbabawal na AI application, hanggang 3% para sa mga paglabag sa iba pang mga obligasyon at hanggang 1.5% para sa pagbibigay ng maling impormasyon.
Mga Susunod na Hakbang
Ang karamihan sa mga panuntunan ng AI Act ay magsisimulang mag-apply sa Agosto 2, 2026. Gayunpaman, ang mga pagbabawal sa mga AI system na itinuring na nagpapakita ng hindi katanggap-tanggap na panganib ay malalapat na pagkatapos ng anim na buwan, habang ang mga panuntunan para sa tinatawag na mga General-Purpose AI na modelo ay ilalapat pagkatapos 12 buwan.
Upang tulay ang transisyonal na panahon bago ang ganap na pagpapatupad, inilunsad ng Komisyon ang AI Pact. Iniimbitahan ng inisyatibong ito ang mga developer ng AI na kusang-loob na magpatibay ng mga pangunahing obligasyon ng AI Act bago ang mga legal na deadline.
Bumubuo din ang Komisyon ng mga alituntunin upang tukuyin at idetalye kung paano dapat ipatupad ang AI Act at pinapadali ang mga instrumento sa co-regulatory tulad ng mga pamantayan at mga code ng kasanayan. Binuksan ang Komisyon isang panawagan para sa pagpapahayag ng interes upang lumahok sa pagguhit ng unang pangkalahatang layunin ng AI Code of Practice, gayundin ang a konsultasyon ng maraming stakeholder pagbibigay ng pagkakataon sa lahat ng stakeholder na magbigay ng kanilang sasabihin sa unang Code of Practice sa ilalim ng AI Act.
likuran
Sa 9 Disyembre 2023, ang Malugod na tinanggap ng Komisyon ang pampulitikang kasunduan sa AI Act. Noong 24 Enero 2024 ang Komisyon ay naglunsad ng isang pakete ng mga hakbang upang suportahan ang mga European startup at SME sa pagbuo ng mapagkakatiwalaang AI. Noong 29 Mayo 2024 ang Komisyon inihayag ang AI Office. Noong 9 Hulyo 2024 ang na-amyendahan ang EuroHPC JU Regulation na ipinatupad, kaya pinapayagan ang set-up ng mga pabrika ng AI. Nagbibigay-daan ito sa mga dedikadong AI-supercomputer na magamit para sa pagsasanay ng mga modelo ng General Purpose AI (GPAI).
Ang patuloy na independyente, batay sa ebidensya na pananaliksik na ginawa ng ang Joint Research Center (JRC) naging pangunahing sa paghubog ng mga patakaran ng AI ng EU at pagtiyak ng kanilang epektibong pagpapatupad.