5.7 C
布鲁塞尔
周四,12月5,2024
国际的人工智能经过训练可以识别讽刺和讽刺

人工智能经过训练可以识别讽刺和讽刺

免责声明:文章中转载的信息和观点是陈述他们的信息和观点,由他们自己负责。 发表于 The European Times 并不自动意味着赞同观点,而是表达观点的权利。

免责声明翻译:本网站的所有文章均以英文发表。 翻译版本是通过称为神经翻译的自动化过程完成的。 如有疑问,请始终参考原始文章。 谢谢你的理解。

据《计算机科学》杂志报道,纽约大学的专家已经训练了一种基于大型语言模型的人工智能来识别反讽和讽刺。

在当今的人工智能中,有几种语言模型可以分析文本并猜测其情绪基调——这些文本是否表达积极、消极或中性的情绪。到目前为止,讽刺和反讽通常被他们错误地归类为“积极”情绪。

科学家们已经确定了一些功能和算法组件,可以帮助人工智能更好地理解所说内容的真正含义。然后,他们通过使用 Reddit 论坛上的评论来测试 RoBERTa 和 CASCADE LLM 模型的工作。事实证明,神经网络已经学会了识别讽刺,几乎和普通人一样好。

另一方面,费加罗网站报道称,艺术家自己“感染”自己的作品,以愚弄人工智能(AI)。芝加哥大学开发的 Glaze 程序在作品中添加了混淆人工智能的标记。面对人工智能的数据利用,艺术家在自己的创作中设置了“陷阱”,使其无法使用。

帕洛玛·麦克莱恩是一位美国插画家。人工智能现在可以按照她的风格创建图像,尽管麦克莱恩从未给予她同意,也不会收到任何付款。 “这让我很困惑,”这位住在德克萨斯州休斯顿的艺术家说。 “我并不出名,但我对此感到难过。”

为了防止她的作品被使用,她使用了 Glaze 软件。 Glaze 在她的插图中添加了隐形像素。这让人工智能感到困惑,因为软件的操作使图像变得模糊。

“我们正在尝试使用 技术性 芝加哥大学的 Ben Zhao 解释道,他的团队在短短四个月内开发出了 Glaze 软件。

用于开发人工智能模型的许多数据、图像、文本和声音并不是在明确同意后提供的。

另一项举措是初创公司 Spawning 的举措,该公司开发了一种软件,可以检测图像平台上的搜索,并允许艺术家阻止对其作品的访问或提交另一张图像而不是搜索到的图像。 Spawning 联合创始人 Jordan Mayer 解释说,这会“毒害”人工智能的性能。互联网上的一千多个网站已经集成到初创公司 Kudurru 的网络中。

本·赵说,我们的目标是让人们能够保护他们创建的内容。乔丹·迈耶 (Jordan Meyer) 解释说,就 Spawning 初创公司而言,其想法不仅是禁止使用作品,而且还允许其出售。在他看来,最好的解决方案是人工智能使用的所有数据都经过同意并收费提供。

- 广告 -

更多来自作者

- 独家内容 -现货图片
- 广告 -
- 广告 -
- 广告 - 现货图片
- 广告 -

必读

最新文章

- 广告 -