22.3 C
Brüsszel
Monday, May 13, 2024
Nemzetközi Tolerancia, emberi kontroll és a haladás lassítása: mi lesz a...

Tolerancia, emberi kontroll és lassuló haladás: mire vezet az AI-kód oroszországi elfogadása?

NYILATKOZAT: A cikkekben közölt információk és vélemények az azokat közölők sajátjai, és ez a saját felelősségük. Publikáció in The European Times nem jelenti automatikusan a nézet jóváhagyását, hanem a kifejezés jogát.

NYILATKOZAT FORDÍTÁSA: Ezen az oldalon minden cikk angol nyelven jelent meg. A lefordított verziók egy neurális fordításként ismert automatizált folyamaton keresztül készülnek. Ha kétségei vannak, mindig olvassa el az eredeti cikket. Köszönöm a megértésed.

Newsdesk
Newsdeskhttps://europeantimes.news
The European Times A News célja, hogy olyan híreket közöljön, amelyek fontosak a polgárok tudatosságának növelése érdekében egész földrajzi Európában.

Egyre több hír jelenik meg a médiában arról, hogy a mesterséges intelligencia hogyan kezd önállóan döntéseket hozni, de kikerül az irányítás alól. Ellenőrzött adatokra oktatja magát, de még ez sem akadályozza meg abban, hogy egyértelműen káros tanácsokat adjon a betegnek, durva legyen az interneten, vagy politikailag inkorrekt nézeteket fogalmazzon meg. Szakértők szerint kritikus ponthoz érkeztünk – úgy gondolják, hogy az algoritmusokat szabályozni kell. Ezért Oroszországban megjelent a mesterséges intelligencia etikai kódexe. A Hi-tech mesterséges intelligenciával foglalkozó szakemberekhez fordult, hogy megtudják, vajon a dokumentum képes-e megszabadulni az algoritmusok minden problémájától, és lelassítja-e a technológiai fejlődés folyamatát.

Iskander Bariev, rektorhelyettes – az Innopolisi Egyetem Tervezési és Kutatási Tanszékének vezetője

Együttműködtünk az AI-terület vezető szereplőivel, hogy etikai irányelveket és magatartási normákat dolgozzunk ki az ezen a területen dolgozók számára. Etikai irányelveket ad az MI létrehozásával, megvalósításával és használatával kapcsolatos kapcsolatok szabályozásához. Erre azért van szükség, hogy a mesterséges intelligencia ne hozzon olyan döntéseket, amelyek ellentétesek az általánosan elfogadott normákkal és szabványokkal.

Számos szemléltető példa van a mesterséges intelligencia torzítására. Például a Stanford és a Chicagói Egyetem tudósai kimutatták, hogy a hitelpontozás mesterséges intelligencia csökkenti a nők értékelését, és az Amazonnál állásra jelölteket elemző algoritmus szinte mindig elutasítja a műszaki állásokra jelentkező nőket. Az IBM Watson veszélyes gyógyszereket kezdett ajánlani, Franciaországban pedig egy chatbot, csökkentve az orvos terheit, öngyilkosságot ajánlott a páciensnek. A Microsoft chatbotja egy nap alatt átlépett minden erkölcsi határt, és a náci Németország oldalára állt.

A kód azt jelenti, hogy a végső döntést a személy hozza meg, és az AI autonómiája korlátozott. A vállalatok nem hagyhatják magyarázat nélkül az AI tevékenységét: a fejlesztőknek gondosan meg kell közelíteniük a biztonsági rendszerek létrehozását és megvalósítását, és meg kell győződniük arról, hogy az AI algoritmusok nem elfogultak.

A kódexben foglaltak betartása önkéntes. Megvalósítása mindenütt elterjedtté válhat, ha az aláírók bebizonyítják, hogy az elfogadott játékszabályok az egyetlen módja annak, hogy átláthatóvá és biztonságossá tegyék az AI-ipart.

Ramil Kuleev, az Innopolisi Egyetem Mesterséges Intelligencia Intézetének vezetője

A mesterséges intelligencia etikai kódexe nem jogérvényesítés, mivel a dokumentum semmit sem tilt. A fejlesztők tetteikért vállalt tudatos felelősségén alapul. Ez egy általános megállapodás, nem egy tiltólista. Ezért nem mondhatjuk, hogy az aláírt szabályok betartása negatívan befolyásolja a cégek munkáját.

Lehetetlen az AI bejelölése nélkül hagyni, ha az algoritmus olyan megoldásokat javasol, amelyek ellentétesek az etikai normákkal. Ezért az AI etikai kódexe kimondja, hogy a végső döntést az emberek hozzák meg.

A szereplők igyekeztek minden szempontot figyelembe venni, de nyilvánvaló, hogy a kód finomodik – fejlődnek a technológiák, amelyekhez alkalmazkodni kell. Szingapúr például 2019-ben és 2020-ban is kiadta ugyanazt a kódot. A legújabb verzió már aktuális, de változtatásokat fog végezni rajta.

Anna Meshcheryakova, a Third Opinion vezérigazgatója

A mesterséges intelligencia azonosítása az emberi interakcióban és a fejlesztők felelőssége pozitívan befolyásolja a technológia alkalmazását. Az is ésszerűnek tűnik a kockázatalapú megközelítés megszilárdítása az AI-rendszerek iparági szabályozásában: minél magasabb egy hiba költsége, annál erősebb a felügyelet.

A kormányzati szolgáltatások nyújtásakor például az egészségügyi szektorban a szolgáltatások minőségéért felelős félnek kell ellenőriznie az algoritmusokat. Az erős mesterséges intelligencia kritériumait egyértelműen le kell írni. Gyakorlatunkban például azzal szembesülünk, hogy nem ismerjük a mesterséges intelligencia technológiák képességeinek határait az orvosi képek elemzése során. Még az iparági szakértők is gyakran szuperképességeket és teljes autonómiát várnak el az algoritmusoktól, bár az orvosi döntéstámogató rendszerek digitális asszisztensek, világosan meghatározott funkciókkal és a program korlátaival.

Mivel az AI-rendszerrel való munkavégzés során a végső döntés meghozatalának joga a személyt illeti meg, logikus, hogy felelősséget ruházunk az AI-algoritmus használatának következményeiért. Ez azonban nem vezethet a mesterséges intelligencia rendszerek munkájának teljes kétszeres ellenőrzéséhez, amelyeket azért hoztak létre, hogy csökkentsék a rutinterhelést és az emberi hibák valószínűségét. Ezért érdemes külön hangsúlyozni és részletezni az emberi felelősség kérdését az AI-szolgáltatás igénybevételének határainak és feltételeinek meghatározásában, a szolgáltatásról való pontos és teljes körű tájékoztatásért a rendszerirányító számára.

Gyakran kérdeznek tőlünk a mesterséges intelligencia lehetséges veszélyeiről az orvosi készségek szintjének esetleges hanyatlása tekintetében, ami a „digitális asszisztensek véleményére való támaszkodásból adódik”. A kód legmagasabb értéke az emberi kognitív képességek és kreatív potenciáljának fejlesztése, ez összhangban van az egészségügyben alkalmazott mesterséges intelligencia technológiák fejlesztésének elveivel és céljaival kapcsolatos álláspontunkkal.

A kódexben erősen ellentmondásosnak tartják azt az ajánlást, hogy biztosítsák a technológia fejlesztéséhez szükséges adatok elérhetőségét. A Tanács hasonló jelentésében Európa, amely a maximális nyitottság felé kíván elmozdulni, arról beszélnek, hogy nyilvános hozzáférést kell biztosítani az auditáláshoz szükséges programkódhoz és az AI-megoldások oktatásához szükséges adatokhoz. A kód és a címkézett adatkészletek az üzleti titok rendszere által védett know-how, egyedi kereskedelmi megközelítések és megoldások részét képezik. A fejlesztések a piaci verseny és a befektetések eredményei. És ebben a kérdésben a társadalom, az állam és az üzleti érdekek egyensúlyát kell betartani.

Arthur Kamsky, digitális terméktervező, az Anybots társalapítója

A kód a nyilvánvaló dolgokat írja le, ahogyan a szakértők korábban is dolgoztak. Sok átfedés van Asimov robotika szabályaival: ne árts, a mechanizmusoknak engedelmeskedniük kell az embereknek és a javakat kell szolgálniuk, a folyamatnak pedig etikusnak kell lennie. Biztos vagyok benne, hogy a legtöbb cég már betartja ezeket a szabályokat.

Nincs olyan pont, amivel ne értenék egyet, de vannak kérdéseim a végrehajtásukkal kapcsolatban. Például a vállalatoknál végzett tevékenység ellenőrzésének kérdése. Az államoknak békés úton kellene ezt szabályozniuk, de egyetlen államnak sincs kompetenciája ahhoz, hogy valóban megértse az AI-specialisták fejlődését. Ezt a gyakorlati szakembereknek kell megtenniük, nem pedig kívülről érkezőknek, akik „nem szeretik – tiltsam” vagy „a mesterséges intelligenciának így kell beszélniük” formátumban értékelhetik a projekteket.

A kódex diszkriminációra vonatkozó kitételeket tartalmaz. Ez egy nyilvánvaló pillanat, és nagy terepe a spekulációnak. Például az Egyesült Államokban volt egy történet, hogy az AI-rendőrség gyakrabban tekintette a fekete állampolgárokat bűnözőknek. De azok, akik algoritmusokkal foglalkoznak, megértik, hogy minden a programhoz érkezett adatokról szól. Például, ha egy városban a feketék gyakrabban raboltak ki boltokat, a rendszer automatikusan következtetéseket von le ezen információk alapján. A kérdés csak az, hogy ezek az adatok a valóságot tükrözik-e. Ha nem tükrözik, ki kell egészíteni egy nagyobb mintával. Természetesen az AI-nak mindenkivel egyformán kellene bánnia, de csak emberekről rendelkezik adatokkal, azokra épít és feltételezéseket tesz, nem állításokat.

A lényeg az, hogy a kódex ne akadályozza az iparág fejlődését. Senki sem vesz részt az AI-ban, hogy bárkit is diszkrimináljon. Nem akarok olyan helyzeteket, amikor a vállalatokat azért ítélik el, mert mesterséges intelligencia ártott az embereknek. Például a Netflix végzett egy kísérletet, amelyben fehér embereknek fehér színészekkel, feketéknek pedig fekete színészekkel mutatták be a filmek borítóját, és ezek a színészek valóban játszottak ezekben a filmekben. Ezt követően a nézettségre vonatkozó mutatóik növekedtek. Sértő a felhasználók számára? Véleményem szerint nem. Az volt a feladatuk, hogy rávegyék az embereket a tartalommal való több interakcióra. Elérték ezt, és nem csaltak meg senkit.

A lelkes vállalatok most a technológiai fejlesztés élvonalában állnak, és kihívásokkal kell szembenézniük. Inkább az a kérdés, hogyan kezelik ezeket az eseményeket. Ideális esetben azt szeretnénk, ha a mesterséges intelligencia használatában és fejlesztésében gyakorlati tapasztalattal rendelkező vezető cégekből álló bizottság venne részt ebben, nem pedig a feltételes Állami Duma képviselői. És idővel az incidensek százalékos aránya fokozatosan csökkenni fog.

Ahhoz, hogy a kód működjön, a kormánynak jobban meg kell értenie ezeket a technológiákat, mint azoknak a cégeknek, amelyek fejlesztik és dollármilliókat költenek rá. Ha beleavatkozik a technológiába anélkül, hogy megértené, akkor az állam a törvények betartásával nem tud normális könyvvizsgálatot végezni a cégeknél. Ennek megfelelően minden a cégvezetők és a hétköznapi alkalmazottak lelkiismeretén fog múlni.

És itt felmerül a kérdés – mi a fontosabb, a profit vagy az etika?

Az első AI-kód nyilvánvalóan nem az utolsó. Különféle formákban létezik ilyen dokumentum az USA-ban, Európában és más országokban, de lehetetlen egyszer s mindenkorra leírni. Ezért a szakorvosok, ahol alkalmazzák az AI-t, képzésük egy bizonyos pontján rögzítik az algoritmusokat, majd benyújtják a dokumentumokat a szabályozó hatóságokhoz. Maga a technológia azonban arra épül, hogy másodpercről másodpercre egyre jobb és okosabb lesz – ami azt jelenti, hogy a rá vonatkozó előírásoknak is változniuk kell.

De ez az első eset Oroszországban, amikor megjelennek az AI egységes szabályai, és a mérnököknek már nem kell válaszolniuk arra a kérdésre, hogy ők felelősek-e a fejlesztéseikért, vagy az algoritmusok a maguk, néha nagyon furcsa módokon fejlődhetnek.

- Reklám -

Még több a szerzőtől

- EXKLUZÍV TARTALOM -spot_img
- Reklám -
- Reklám -
- Reklám -spot_img
- Reklám -

Muszáj elolvasni

Legfrissebb cikkek

- Reklám -