Эксперты из Нью-Йоркского университета обучили искусственный интеллект на основе больших языковых моделей распознавать иронию и сарказм, сообщает журнал «Computer Science».
Сегодня в искусственном интеллекте существует несколько языковых моделей, которые могут анализировать тексты и угадывать их эмоциональный тон – выражают ли эти тексты положительные, отрицательные или нейтральные эмоции. До сих пор сарказм и ирония обычно ошибочно воспринимались ими как «положительные» эмоции.
Ученые выявили особенности и алгоритмические компоненты, которые помогают искусственному интеллекту лучше понять истинный смысл сказанного. Затем они протестировали свою работу на моделях RoBERTa и CASCADE LLM, протестировав их, используя комментарии на форуме Reddit. Оказывается, нейронные сети научились распознавать сарказм почти так же хорошо, как обычный человек.
С другой стороны, сайт Фигаро сообщил, что художники сами «заражают» свои произведения, чтобы обмануть искусственный интеллект (ИИ). Программа Glaze, разработанная Чикагским университетом, добавляет к работам разметку, которая сбивает с толку ИИ. Столкнувшись с эксплуатацией данных искусственным интеллектом, художники ставят «ловушки» в своих творениях, делая их непригодными для использования.
Палома Макклейн — американский иллюстратор. Теперь ИИ может создавать изображения в ее стиле, хотя Макклейн никогда не давала ей согласия и не получала никакой оплаты. «Это меня смущает», — говорит художник, живущий в Хьюстоне, штат Техас. «Я не знаменит, но мне жаль этот факт».
Чтобы предотвратить использование ее работ, она использовала программное обеспечение Glaze. Глейз добавляет в свои иллюстрации невидимые пиксели. Это сбивает с толку ИИ, поскольку работа программного обеспечения делает изображения размытыми.
«Мы пытаемся использовать технологический возможности защитить творения человека от искусственного интеллекта», — объяснил Бен Чжао из Чикагского университета, чья команда разработала программное обеспечение Glaze всего за четыре месяца.
Большая часть данных, изображений, текста и звуков, используемых для разработки моделей ИИ, не предоставляется после явного согласия.
Еще одна инициатива — стартап Spawning, который разработал программное обеспечение, которое обнаруживает запросы на платформах изображений и позволяет художникам блокировать доступ к своим работам или отправлять другое изображение вместо искомого. Это «отравляет» работу ИИ, объясняет соучредитель Spawning Джордан Майер. В сеть стартапа Kudurru уже интегрировано более тысячи сайтов в Интернете.
Цель состоит в том, чтобы люди могли защитить создаваемый ими контент, сказал Бен Чжао. В случае со стартапом Spawning идея заключается не только в запрете на использование произведений, но и в том, чтобы обеспечить возможность их продажи, пояснил Джордан Мейер. По его мнению, лучшим решением было бы, чтобы все данные, используемые ИИ, предоставлялись с согласия и за определенную плату.