12.1 C
Brussel
Saterdag, April 27, 2024
internasionaal’n Kunsmatige intelligensie is opgelei om ironie en sarkasme te herken

’n Kunsmatige intelligensie is opgelei om ironie en sarkasme te herken

VRYWARING: Inligting en menings wat in die artikels weergegee word, is dié van diegene wat dit vermeld en dit is hul eie verantwoordelikheid. Publikasie in The European Times beteken nie outomaties onderskrywing van die siening nie, maar die reg om dit uit te druk.

VRYWARINGVERTALINGS: Alle artikels op hierdie webwerf word in Engels gepubliseer. Die vertaalde weergawes word gedoen deur 'n outomatiese proses bekend as neurale vertalings. As jy twyfel, verwys altyd na die oorspronklike artikel. Dankie vir die begrip.

Kenners van die Universiteit van New York het 'n kunsmatige intelligensie wat op groot taalmodelle gebaseer is, opgelei om ironie en sarkasme te herken, berig die tydskrif "Computer Science".

In kunsmatige intelligensie vandag is daar verskeie taalmodelle wat tekste kan analiseer en hul emosionele toon kan raai – of hierdie tekste positiewe, negatiewe of neutrale emosies uitdruk. Tot nou toe was sarkasme en ironie gewoonlik deur hulle verkeerd geklassifiseer as "positiewe" emosies.

Wetenskaplikes het kenmerke en algoritmiese komponente geïdentifiseer wat kunsmatige intelligensie help om die ware betekenis van wat gesê word beter te verstaan. Hulle het toe hul werk op die RoBERTa- en CASCADE LLM-modelle getoets deur hulle te toets deur kommentaar op die Reddit-forum te gebruik. Dit blyk dat neurale netwerke geleer het om sarkasme amper net so goed te herken as die gemiddelde persoon.

Aan die ander kant het die Figaro-webwerf berig dat kunstenaars hul werke self “besmet” om kunsmatige intelligensie (KI) te flous. Die Glaze-program, ontwikkel deur die Universiteit van Chicago, voeg 'n opmerk by die werke wat die KI verwar. Gekonfronteer met data-uitbuiting deur KI, stel kunstenaars 'n "strik" in hul skeppings, wat dit onbruikbaar maak.

Paloma McClain is 'n Amerikaanse illustreerder. KI kan nou beelde in haar styl skep, al het McClane nooit haar toestemming gegee nie en sal geen betaling ontvang nie. "Dit verwar my," sê die kunstenaar, wat in Houston, Texas woon. "Ek is nie beroemd nie, maar ek voel sleg oor daardie feit."

Om die gebruik van haar werke te voorkom, het sy Glaze-sagteware gebruik. Glaze voeg onsigbare pixels by haar illustrasies. Dit verwar die KI omdat die sagteware se werking die beelde vaag maak.

“Ons probeer gebruik tegnologiese vermoëns om menslike skeppings teen KI te beskerm,” verduidelik Ben Zhao van die Universiteit van Chicago, wie se span die Glaze-sagteware in net vier maande ontwikkel het.

Baie van die data, beelde, teks en klanke wat gebruik word om KI-modelle te ontwikkel, word nie na uitdruklike toestemming verskaf nie.

Nog 'n inisiatief is dié van die begin-up Spawning, wat sagteware ontwikkel het wat soektogte op beeldplatforms opspoor en die kunstenaar toelaat om toegang tot hul werke te blokkeer of 'n ander prent in te dien in plaas van die een waarna gesoek word. Dit "vergiftig" die KI se prestasie, verduidelik die medestigter van Spawning, Jordan Mayer. Meer as 'n duisend webwerwe op die internet is reeds geïntegreer in die netwerk van die opstart - Kudurru.

Die doel is dat mense die inhoud wat hulle skep, kan beskerm, het Ben Zhao gesê. In die geval van die Spawning-opstart, is die idee nie net om verbodsbepalings teen die gebruik van die werke te hê nie, maar ook om die verkoop daarvan moontlik te maak, het Jordan Meyer verduidelik. Na sy mening sou die beste oplossing wees dat alle data wat deur KI gebruik word, met toestemming en teen 'n fooi voorsien word.

- Advertensie -

Meer van die skrywer

- EKSKLUSIEWE INHOUD -kol_img
- Advertensie -
- Advertensie -
- Advertensie -kol_img
- Advertensie -

Moet lees

Jongste artikels

- Advertensie -