4 C
Bruxelles
Tirsdag, februar 11, 2025
internationaleEn kunstig intelligens blev trænet til at genkende ironi og sarkasme

En kunstig intelligens blev trænet til at genkende ironi og sarkasme

ANSVARSFRASKRIVELSE: Oplysninger og meninger gengivet i artiklerne er dem, der angiver dem, og det er deres eget ansvar. Udgivelse i The European Times betyder ikke automatisk godkendelse af synspunktet, men retten til at udtrykke det.

OVERSÆTTELSE AF ANSVARSFRASKRIVELSE: Alle artikler på dette websted er udgivet på engelsk. De oversatte versioner udføres gennem en automatiseret proces kendt som neurale oversættelser. Hvis du er i tvivl, skal du altid henvise til den originale artikel. Tak for din forståelse.

Eksperter fra New York University har trænet en kunstig intelligens baseret på store sprogmodeller til at genkende ironi og sarkasme, rapporterer magasinet "Computer Science".

Inden for kunstig intelligens er der i dag flere sprogmodeller, der kan analysere tekster og gætte deres følelsesmæssige tone – uanset om disse tekster udtrykker positive, negative eller neutrale følelser. Indtil nu blev sarkasme og ironi normalt fejlklassificeret af dem som "positive" følelser.

Forskere har identificeret funktioner og algoritmiske komponenter, der hjælper kunstig intelligens med bedre at forstå den sande betydning af det, der bliver sagt. De testede derefter deres arbejde på RobERTa- og CASCADE LLM-modellerne ved at teste dem ved hjælp af kommentarer på Reddit-forummet. Det viser sig, at neurale netværk har lært at genkende sarkasme næsten lige så godt som den gennemsnitlige person.

På den anden side rapporterede Figaro-webstedet, at kunstnere "inficerer" deres værker selv for at narre kunstig intelligens (AI). Glaze-programmet, udviklet af University of Chicago, tilføjer en markering til værkerne, der forvirrer AI. Stillet over for dataudnyttelse fra AI sætter kunstnere en "fælde" i deres kreationer, hvilket gør dem ubrugelige.

Paloma McClain er en amerikansk illustrator. AI kan nu skabe billeder i hendes stil, selvom McClane aldrig gav sit samtykke og ikke vil modtage nogen betaling. "Det forvirrer mig," siger kunstneren, der bor i Houston, Texas. "Jeg er ikke berømt, men jeg har det dårligt med det faktum."

For at forhindre brugen af ​​hendes værker brugte hun Glaze-software. Glaze tilføjer usynlige pixels til hendes illustrationer. Dette forvirrer AI, fordi softwarens drift gør billederne slørede.

"Vi forsøger at bruge teknologisk evner til at beskytte menneskelige kreationer mod kunstig intelligens,” forklarede Ben Zhao fra University of Chicago, hvis team udviklede Glaze-softwaren på kun fire måneder.

Meget af de data, billeder, tekst og lyde, der bruges til at udvikle AI-modeller, leveres ikke efter udtrykkeligt samtykke.

Et andet initiativ er opstarten Spawning, der har udviklet software, der registrerer søgninger på billedplatforme og giver kunstneren mulighed for at blokere adgangen til deres værker eller indsende et andet billede i stedet for det, der søges efter. Dette "forgifter" AI's ydeevne, forklarer Spawning-medstifter Jordan Mayer. Mere end tusind websteder på internettet er allerede integreret i netværket af opstarten - Kudurru.

Målet er, at folk skal være i stand til at beskytte det indhold, de skaber, sagde Ben Zhao. I tilfældet med opstarten Spawning er tanken ikke kun at have forbud mod brugen af ​​værkerne, men også at muliggøre deres salg, forklarede Jordan Meyer. Efter hans mening ville den bedste løsning være, at alle data, der bruges af AI, forsynes med samtykke og mod et gebyr.

The European Times

Åh hej der ?? Tilmeld dig vores nyhedsbrev og få de seneste 15 nyheder leveret til din indbakke hver uge.

Vær den første til at vide, og fortæl os de emner, du interesserer dig for!.

Vi spam ikke! Læs vores Privatlivspolitik(*) for mere info.

- Annonce -

Mere fra forfatteren

- EKSKLUSIVT INDHOLD -spot_img
- Annonce -
- Annonce -
- Annonce -spot_img
- Annonce -

Skal læses

Seneste artikler

- Annonce -