16.9 C
Brüssel
Donnerstag, Mai 2, 2024
InternationalEine künstliche Intelligenz wurde darauf trainiert, Ironie und Sarkasmus zu erkennen

Eine künstliche Intelligenz wurde darauf trainiert, Ironie und Sarkasmus zu erkennen

HAFTUNGSAUSSCHLUSS: Die in den Artikeln wiedergegebenen Informationen und Meinungen sind die derjenigen, die sie angeben, und es liegt in ihrer eigenen Verantwortung. Veröffentlichung in The European Times bedeutet nicht automatisch Zustimmung zu einer Meinung, sondern das Recht, sie zu äußern.

HAFTUNGSAUSSCHLUSS ÜBERSETZUNGEN: Alle Artikel auf dieser Website werden in englischer Sprache veröffentlicht. Die übersetzten Versionen werden durch einen automatisierten Prozess erstellt, der als neuronale Übersetzungen bekannt ist. Im Zweifel immer auf den Originalartikel verweisen. Danke für dein Verständnis.

Experten der New York University haben einer künstlichen Intelligenz auf Basis großer Sprachmodelle beigebracht, Ironie und Sarkasmus zu erkennen, berichtet das Magazin „Computer Science“.

In der künstlichen Intelligenz gibt es heute mehrere Sprachmodelle, die Texte analysieren und ihren emotionalen Ton erraten können – ob diese Texte positive, negative oder neutrale Emotionen ausdrücken. Bisher wurden Sarkasmus und Ironie von ihnen meist fälschlicherweise als „positive“ Emotionen eingestuft.

Wissenschaftler haben Merkmale und algorithmische Komponenten identifiziert, die der künstlichen Intelligenz helfen, die wahre Bedeutung des Gesagten besser zu verstehen. Anschließend testeten sie ihre Arbeit an den Modellen RoBERTa und CASCADE LLM, indem sie sie anhand von Kommentaren im Reddit-Forum testeten. Es stellt sich heraus, dass neuronale Netze gelernt haben, Sarkasmus fast genauso gut zu erkennen wie der Durchschnittsmensch.

Andererseits berichtete die Seite Figaro, dass Künstler ihre Werke selbst „infizieren“, um künstliche Intelligenz (KI) auszutricksen. Das von der University of Chicago entwickelte Glaze-Programm fügt den Werken einen Markup hinzu, der die KI verwirrt. Angesichts der Datenausbeutung durch KI stellen Künstler ihren Kreationen eine „Falle“ und machen sie unbrauchbar.

Paloma McClain ist eine amerikanische Illustratorin. AI kann nun Bilder in ihrem Stil erstellen, auch wenn McClane nie ihre Zustimmung gegeben hat und keine Bezahlung erhält. „Es verwirrt mich“, sagt der Künstler, der in Houston, Texas, lebt. „Ich bin nicht berühmt, aber ich fühle mich deswegen schlecht.“

Um die Nutzung ihrer Werke zu verhindern, nutzte sie die Software Glaze. Glaze fügt ihren Illustrationen unsichtbare Pixel hinzu. Das verwirrt die KI, weil die Bedienung der Software die Bilder unscharf macht.

„Wir versuchen es zu nutzen technologische „Fähigkeiten, menschliche Schöpfungen vor KI zu schützen“, erklärte Ben Zhao von der University of Chicago, dessen Team die Glaze-Software in nur vier Monaten entwickelte.

Viele der zur Entwicklung von KI-Modellen verwendeten Daten, Bilder, Texte und Töne werden nicht nach ausdrücklicher Zustimmung bereitgestellt.

Eine weitere Initiative ist die des Startups Spawning, das eine Software entwickelt hat, die Suchanfragen auf Bildplattformen erkennt und es dem Künstler ermöglicht, den Zugriff auf seine Werke zu sperren oder anstelle des gesuchten ein anderes Bild einzureichen. Dies „vergiftet“ die Leistung der KI, erklärt Spawning-Mitbegründer Jordan Mayer. Mehr als tausend Seiten im Internet sind bereits in das Netzwerk des Startups Kudurru integriert.

Das Ziel besteht darin, dass die Menschen die von ihnen erstellten Inhalte schützen können, sagte Ben Zhao. Im Fall des Spawning-Startups gehe es nicht nur darum, die Nutzung der Werke zu verbieten, sondern auch deren Verkauf zu ermöglichen, erklärte Jordan Meyer. Seiner Ansicht nach wäre es die beste Lösung, alle von der KI genutzten Daten mit Einwilligung und gegen Entgelt zur Verfügung zu stellen.

- Werbung -

Mehr vom Autor

- EXKLUSIVER INHALT -spot_img
- Werbung -
- Werbung -
- Werbung -spot_img
- Werbung -

Muss lesen

Neueste Artikel

- Werbung -