A mesterséges intelligencia használatát az EU-ban a mesterséges intelligencia törvény, a világ első átfogó AI-törvénye fogja szabályozni. Tudja meg, hogyan védi meg.
Részeként digitális stratégia, az EU szabályozni kívánja a mesterséges intelligenciát (AI), hogy jobb feltételeket biztosítson ezen innovatív technológia fejlesztéséhez és használatához. Az AI számos előnnyel járhat, mint például a jobb egészségügyi ellátás; biztonságosabb és tisztább közlekedés; hatékonyabb gyártás; valamint olcsóbb és fenntarthatóbb energia.
2021 áprilisában az Európai Bizottság javasolta az elsőt EU a mesterséges intelligencia szabályozási kerete. Azt mondja, hogy a különböző alkalmazásokban használható mesterséges intelligencia rendszereket elemzik és osztályozzák aszerint, hogy milyen kockázatot jelentenek a felhasználók számára. Az eltérő kockázati szintek többé-kevésbé szabályozást jelentenek. A jóváhagyás után ezek lesznek a világ első mesterséges intelligencia-szabályai.
Mit akar a Parlament az AI-jogszabályban
a Parlament prioritása annak biztosítása, hogy az EU-ban használt mesterséges intelligencia-rendszerek biztonságosak, átláthatóak, nyomon követhetőek, megkülönböztetéstől mentesek és környezetbarátak legyenek. Az AI-rendszereket az automatizálás helyett az embereknek kell felügyelniük a káros következmények megelőzése érdekében.
A Parlament emellett technológiasemleges, egységes definíciót kíván létrehozni a mesterséges intelligencia számára, amelyet a jövőbeli mesterséges intelligencia-rendszerekre is alkalmazni lehetne.
Tudjon meg többet A Parlament MI-vel kapcsolatos munkája és vízió az AI jövőjéről
AI törvény: különböző szabályok a különböző kockázati szintekre
Az új szabályok kötelezettségeket írnak elő a szolgáltatók és a felhasználók számára a mesterséges intelligencia kockázatának mértékétől függően. Bár sok mesterséges intelligencia rendszer minimális kockázatot jelent, ezeket fel kell mérni.
Elfogadhatatlan kockázat
Az elfogadhatatlan kockázatú mesterséges intelligencia-rendszerek olyan rendszerek, amelyek veszélyt jelentenek az emberekre, és betiltásra kerülnek. Tartalmazzák:
- Emberek vagy meghatározott sebezhető csoportok kognitív viselkedési manipulációja: például hangvezérelt játékok, amelyek veszélyes viselkedésre ösztönzik a gyermekeket
- Társadalmi pontozás: az emberek osztályozása viselkedés, társadalmi-gazdasági státusz vagy személyes jellemzők alapján
- Valós idejű és távoli biometrikus azonosítási rendszerek, például arcfelismerés
Néhány kivétel megengedhető: Például a „postai” távoli biometrikus azonosítási rendszerek, ahol az azonosítás jelentős késedelem után történik, súlyos bűncselekmények esetén lehetséges, de csak a bíróság jóváhagyása után.
Nagy kockázat
A biztonságot vagy az alapvető jogokat negatívan befolyásoló mesterséges intelligencia rendszerek magas kockázatúnak minősülnek, és két kategóriába sorolhatók:
1) alá tartozó termékekben használt mesterséges intelligencia rendszerek az EU termékbiztonsági jogszabályai. Ide tartoznak a játékok, a repülés, az autók, az orvosi eszközök és a felvonók.
2) Nyolc meghatározott területre eső mesterséges intelligencia rendszerek, amelyeket regisztrálni kell egy EU adatbázis:
- Természetes személyek biometrikus azonosítása és kategorizálása
- Kritikus infrastruktúra kezelése és üzemeltetése
- Oktatás és szakképzés
- Foglalkoztatás, munkavállalók irányítása és az önfoglalkoztatáshoz való hozzáférés
- Hozzáférés az alapvető magánszolgáltatásokhoz, valamint a közszolgáltatásokhoz és előnyökhöz, illetve azok élvezete
- Bűnüldözési
- Migráció, menekültügy és határellenőrzés kezelése
- Segítségnyújtás a jogértelmezésben és a jogalkalmazásban.
Valamennyi nagy kockázatú mesterséges intelligencia-rendszert a forgalomba hozatal előtt, valamint az egész életciklusa során értékelnek.
Generatív AI
A ChatGPT-hez hasonlóan a generatív AI-nak meg kell felelnie az átláthatósági követelményeknek:
- Felfedve, hogy a tartalmat mesterséges intelligencia hozta létre
- A modell megtervezése annak megakadályozására, hogy illegális tartalmat generáljon
- A képzéshez felhasznált szerzői joggal védett adatok összefoglalóinak közzététele
Korlátozott kockázat
A korlátozott kockázatú AI-rendszereknek meg kell felelniük a minimális átláthatósági követelményeknek, amelyek lehetővé teszik a felhasználók számára, hogy megalapozott döntéseket hozzanak. Az alkalmazásokkal való interakció után a felhasználó eldöntheti, hogy szeretné-e tovább használni. A felhasználókat fel kell hívni a figyelmükbe, amikor MI-vel kommunikálnak. Ide tartoznak az olyan mesterséges intelligencia rendszerek, amelyek kép-, hang- vagy videotartalmat generálnak vagy manipulálnak, például mélyhamisításokat.
A következő lépések
A Parlament 2023 júniusában állapodik meg tárgyalási álláspontjáról, majd a Tanácsban megkezdődnek a tárgyalások az uniós országokkal a törvény végleges formájáról.
A cél az, hogy ez év végéig megállapodás szülessen.