A New York-i Egyetem szakértői nagy nyelvi modelleken alapuló mesterséges intelligenciát képeztek ki, hogy felismerje az iróniát és a szarkazmust – írja a „Computer Science” magazin.
A mesterséges intelligenciában manapság számos nyelvi modell létezik, amely képes szövegeket elemezni és kitalálni érzelmi tónusukat – akár pozitív, akár negatív vagy semleges érzelmeket fejeznek ki ezek a szövegek. Eddig a szarkazmust és az iróniát általában rosszul minősítették „pozitív” érzelmeknek.
A tudósok olyan funkciókat és algoritmikus komponenseket azonosítottak, amelyek segítenek a mesterséges intelligenciának jobban megérteni a mondanivaló valódi jelentését. Ezután a RoBERTa és a CASCADE LLM modelleken tesztelték munkájukat a Reddit fórumon található megjegyzések segítségével. Kiderült, hogy a neurális hálózatok majdnem olyan jól megtanulták felismerni a szarkazmust, mint az átlagember.
Másrészt a Figaro oldal arról számolt be, hogy a művészek maguk „fertőzik meg” műveiket, hogy becsapják a mesterséges intelligenciát (AI). A Chicagói Egyetem által kifejlesztett Glaze program olyan jelölést ad a munkákhoz, amely összezavarja az AI-t. A mesterséges intelligencia adatkihasználásával szembesülve a művészek „csapdát” állítanak alkotásaikba, használhatatlanná téve azokat.
Paloma McClain amerikai illusztrátor. A mesterséges intelligencia most már az ő stílusában készíthet képeket, bár McClane soha nem adta beleegyezését, és nem kap fizetést. „Ez összezavar” – mondja a művész, aki a texasi Houstonban él. – Nem vagyok híres, de rosszul érzem magam emiatt.
Művei felhasználásának megakadályozására Glaze szoftvert használt. Glaze láthatatlan képpontokat ad hozzá illusztrációihoz. Ez megzavarja az AI-t, mert a szoftver működése homályossá teszi a képeket.
„Megpróbáljuk használni technikai az emberi alkotások mesterséges intelligencia elleni védelmét” – magyarázta Ben Zhao, a Chicagói Egyetem munkatársa, akinek csapata mindössze négy hónap alatt fejlesztette ki a Glaze szoftvert.
Az AI-modellek fejlesztéséhez felhasznált adatok, képek, szövegek és hangok nagy részét nem adják át kifejezett beleegyezéssel.
Egy másik kezdeményezés a Spawning startup, amely olyan szoftvert fejlesztett ki, amely észleli a képplatformokon végzett kereséseket, és lehetővé teszi a művész számára, hogy blokkolja a hozzáférést a munkáihoz, vagy más képet küldjön be a keresett kép helyett. Ez „megmérgezi” az AI teljesítményét – magyarázza a Spawning társalapítója, Jordan Mayer. Az interneten több mint ezer oldal már beépült a startup – Kudurru – hálózatába.
A cél az, hogy az emberek meg tudják védeni az általuk létrehozott tartalmakat – mondta Ben Zhao. A Spawning startup esetében nem csak az az elképzelés, hogy tiltsák a művek felhasználását, hanem az értékesítésüket is lehetővé tegyék – magyarázta Jordan Meyer. Véleménye szerint a legjobb megoldás az lenne, ha az AI által felhasznált összes adatot hozzájárulással és térítés ellenében adnának át.