Eksperter fra New York University har trænet en kunstig intelligens baseret på store sprogmodeller til at genkende ironi og sarkasme, rapporterer magasinet "Computer Science".
Inden for kunstig intelligens er der i dag flere sprogmodeller, der kan analysere tekster og gætte deres følelsesmæssige tone – uanset om disse tekster udtrykker positive, negative eller neutrale følelser. Indtil nu blev sarkasme og ironi normalt fejlklassificeret af dem som "positive" følelser.
Forskere har identificeret funktioner og algoritmiske komponenter, der hjælper kunstig intelligens med bedre at forstå den sande betydning af det, der bliver sagt. De testede derefter deres arbejde på RobERTa- og CASCADE LLM-modellerne ved at teste dem ved hjælp af kommentarer på Reddit-forummet. Det viser sig, at neurale netværk har lært at genkende sarkasme næsten lige så godt som den gennemsnitlige person.
På den anden side rapporterede Figaro-webstedet, at kunstnere "inficerer" deres værker selv for at narre kunstig intelligens (AI). Glaze-programmet, udviklet af University of Chicago, tilføjer en markering til værkerne, der forvirrer AI. Stillet over for dataudnyttelse fra AI sætter kunstnere en "fælde" i deres kreationer, hvilket gør dem ubrugelige.
Paloma McClain er en amerikansk illustrator. AI kan nu skabe billeder i hendes stil, selvom McClane aldrig gav sit samtykke og ikke vil modtage nogen betaling. "Det forvirrer mig," siger kunstneren, der bor i Houston, Texas. "Jeg er ikke berømt, men jeg har det dårligt med det faktum."
For at forhindre brugen af hendes værker brugte hun Glaze-software. Glaze tilføjer usynlige pixels til hendes illustrationer. Dette forvirrer AI, fordi softwarens drift gør billederne slørede.
"Vi forsøger at bruge teknologisk evner til at beskytte menneskelige kreationer mod kunstig intelligens,” forklarede Ben Zhao fra University of Chicago, hvis team udviklede Glaze-softwaren på kun fire måneder.
Meget af de data, billeder, tekst og lyde, der bruges til at udvikle AI-modeller, leveres ikke efter udtrykkeligt samtykke.
Et andet initiativ er opstarten Spawning, der har udviklet software, der registrerer søgninger på billedplatforme og giver kunstneren mulighed for at blokere adgangen til deres værker eller indsende et andet billede i stedet for det, der søges efter. Dette "forgifter" AI's ydeevne, forklarer Spawning-medstifter Jordan Mayer. Mere end tusind websteder på internettet er allerede integreret i netværket af opstarten - Kudurru.
Målet er, at folk skal være i stand til at beskytte det indhold, de skaber, sagde Ben Zhao. I tilfældet med opstarten Spawning er tanken ikke kun at have forbud mod brugen af værkerne, men også at muliggøre deres salg, forklarede Jordan Meyer. Efter hans mening ville den bedste løsning være, at alle data, der bruges af AI, forsynes med samtykke og mod et gebyr.