16.9 C
Brüsszel
Monday, May 6, 2024
A szerkesztő választásaA mesterséges intelligencia adatvédelmi kockázatai sürgős intézkedést igényelnek – Bachelet

A mesterséges intelligencia adatvédelmi kockázatai sürgős intézkedést igényelnek – Bachelet

NYILATKOZAT: A cikkekben közölt információk és vélemények az azokat közölők sajátjai, és ez a saját felelősségük. Publikáció in The European Times nem jelenti automatikusan a nézet jóváhagyását, hanem a kifejezés jogát.

NYILATKOZAT FORDÍTÁSA: Ezen az oldalon minden cikk angol nyelven jelent meg. A lefordított verziók egy neurális fordításként ismert automatizált folyamaton keresztül készülnek. Ha kétségei vannak, mindig olvassa el az eredeti cikket. Köszönöm a megértésed.

Newsdesk
Newsdeskhttps://europeantimes.news
The European Times A News célja, hogy olyan híreket közöljön, amelyek fontosak a polgárok tudatosságának növelése érdekében egész földrajzi Európában.

Genf (15. szeptember 2021.) – Michelle Bachelet, az ENSZ emberi jogi főbiztosa szerdán hangsúlyozta, hogy sürgősen moratóriumra van szükség az emberi jogokra komoly kockázatot jelentő mesterséges intelligencia-rendszerek értékesítésére és használatára vonatkozóan mindaddig, amíg megfelelő biztosítékokat nem tesznek. hely. Azt is kérte, hogy tiltsák be a mesterséges intelligencia alkalmazásokat, amelyek nem használhatók a nemzetközi emberi jogi törvények betartásával.

„A mesterséges intelligencia jó erőt jelenthet, és segíthet a társadalmaknak leküzdeni napjaink nagy kihívásait. De az AI-technológiáknak negatív, sőt katasztrofális hatásai lehetnek, ha anélkül használják őket, hogy kellőképpen figyelembe veszik, hogyan hatnak az emberekre. emberi jogok– mondta Bachelet.

A technológiával és az emberi jogokkal kapcsolatos munkája* részeként az ENSZ Emberi Jogi Hivatala ma közzétette a jelentést elemzi, hogy a mesterséges intelligencia – beleértve a profilalkotást, az automatizált döntéshozatalt és más gépi tanulási technológiákat – hogyan befolyásolja az emberek magánélethez való jogát és egyéb jogait, beleértve az egészséghez, az oktatáshoz, a szabad mozgáshoz, a békés gyülekezési és egyesülési szabadsághoz, valamint az emberek magánéletéhez való jogát. kifejezés.

„A mesterséges intelligencia ma már fizikai és lelki életünk szinte minden szegletébe, sőt érzelmi állapotunkba is eljut. Az AI-rendszerek segítségével meghatározzák, hogy ki kapjon közszolgáltatásokat, kinek van esélye egy állásra, és természetesen befolyásolják, hogy az emberek milyen információkat látnak és oszthatnak meg az interneten” – mondta a főbiztos.

A jelentés azt vizsgálja, hogy az államok és a vállalkozások gyakran siettek mesterséges intelligencia-alkalmazások beépítésével, elmulasztották a kellő gondosságot. Már számos olyan eset volt, amikor emberekkel igazságtalanul bántak mesterséges intelligencia miatt, például megtagadták tőlük a társadalombiztosítási ellátást hibás mesterséges intelligencia-eszközök miatt, vagy letartóztatták őket hibás arcfelismerés miatt.

A jelentés részletezi, hogy az AI-rendszerek hogyan támaszkodnak nagy adathalmazokra, az egyénekre vonatkozó információkat gyűjtöttek, osztottak meg, egyesítettek és elemeztek többféle és gyakran átláthatatlan módon. Az AI-rendszerek tájékoztatására és irányítására használt adatok lehetnek hibásak, diszkriminatívak, elavultak vagy irrelevánsak. Az adatok hosszú távú tárolása is sajátos kockázatokat rejt magában, mivel az adatok a jövőben még ismeretlen módon hasznosulhatnak. 

„Tekintettel a mesterséges intelligencia gyors és folyamatos növekedésére, az adatok gyűjtése, tárolása, megosztása és felhasználása terén fennálló óriási elszámoltathatósági rés betöltése az egyik legsürgetőbb emberi jogi kérdés, amellyel szembe kell néznünk.

Michelle Bachelet, az emberi jogi főbiztos

Komoly kérdéseket vetnek fel az AI-eszközök által végzett következtetések, előrejelzések és megfigyelések, beleértve az emberi viselkedési mintákba való betekintést is. Az AI-rendszerek által támasztott elfogult adatkészletek diszkriminatív döntésekhez vezethetnek, és ezek a kockázatok a legégetőbbek az amúgy is marginalizált csoportok esetében. 

„Az AI-vezérelt döntésekhez – olyan döntésekhez, amelyek megváltoztathatják, meghatározhatják vagy károsíthatják az emberi életeket – túlságosan is valós a diszkrimináció kockázata. Ezért van szükség az AI-rendszerek hatásainak szisztematikus értékelésére és nyomon követésére az emberi jogi kockázatok azonosítása és mérséklése érdekében” – mondta Bachelet.

Sokkal nagyobb átláthatóságra van szükség a vállalatok és az államok részéről a mesterséges intelligencia fejlesztése és használata terén is.

„Az AI-rendszerek fejlesztését és működését megalapozó adatkörnyezet, algoritmusok és modellek összetettsége, valamint a kormányzati és magánszereplők szándékos titkolása olyan tényezők, amelyek aláássák a közvélemény számára az MI-rendszerek emberi jogokra és társadalomra gyakorolt ​​hatásainak megértését. ” – áll a jelentésben.

„Nem engedhetjük meg magunknak, hogy továbbra is felzárkóztassunk a mesterséges intelligencia terén – korlátozott vagy határok nélküli, illetve felügyelet nélküli használatát engedélyezzük, és utólag kezeljük a szinte elkerülhetetlen emberi jogi következményeket. A mesterséges intelligencia embereket szolgáló ereje vitathatatlan, de az a képessége is, hogy az emberi jogok megsértését óriási mértékben, gyakorlatilag láthatóság nélkül táplálja. Most cselekvésre van szükség annak érdekében, hogy az emberi jogok korlátait védjük a mesterséges intelligencia használatától, mindannyiunk javára” – hangsúlyozta Bachelet.

Forrás: UN

Fotó: UN News/Daniel Johnson, Michelle Bachelet, az ENSZ emberi jogi főbiztosa. (fájl)

- Reklám -

Még több a szerzőtől

- EXKLUZÍV TARTALOM -spot_img
- Reklám -
- Reklám -
- Reklám -spot_img
- Reklám -

Muszáj elolvasni

Legfrissebb cikkek

- Reklám -