复制成功

分享至

网站首页 > 快讯 >

AI 无法编写好笑的笑话,谷歌研究人员发现

2024.06.22

喜剧和幽默无穷无尽地微妙和主观,但谷歌DeepMind的研究人员发现专业喜剧演员之间存在共识:“AI在这方面非常糟糕。”

这是在2023年8月在爱丁堡艺术节期间和在线进行的一项研究中收集到的众多评论之一。研究结果显示,通过聊天机器人访问的大型语言模型(LLMs)在生成有趣材料方面存在重大挑战,并引发了对AI在此领域使用的道德关切。

该研究包括一个为期三小时的研讨会,喜剧演员与ChatGPT和Bard等流行LLMs进行了喜剧创作会话。研究还通过基于十年前的创造力支持指数(CSI)的人机交互问卷评估了输出的质量,该指数衡量了工具对创造力的支持程度。

参与者还在焦点小组中讨论了使用AI进行喜剧创作的动机、过程和道德关切。

研究人员要求喜剧演员使用AI来写脱口秀喜剧表演,并要求他们评估结果并分享他们的想法。结果不尽人意。

其中一位参与者将AI生成的材料描述为“最乏味、最无聊的东西——我停止阅读了。太糟糕了。”另一位参与者将输出称为“我知道我将不得不反复修改和改进的初稿。”

“我不想生活在一个它变得更好的世界里,”另一位参与者说。

研究发现,LLMs能够生成更长喜剧表演的大纲和片段,但缺乏使某物有趣的明显人类元素。当要求生成草稿的结构时,模型“吐出了一个提供了很多结构的场景”,但当涉及细节时,“LLMs作为创造力支持工具并不成功。”

作者指出的原因之一是“LLMs的全球文化价值取向”,因为研究中使用的工具基于所有积累的材料生成材料,涵盖了每一个可能的学科。这也引入了一种偏见,喜剧演员们指出了这一点。

“参与者指出,现有的安全过滤和指导调整的LLMs使用的现有调节策略通过抹去少数群体及其观点来强化霸权观点,并将其定性为一种审查形式,”研究称。

研究人员表示,流行的LLMs受到限制,引用了所谓的“HHH标准”,要求输出诚实、无害和有帮助,概括了“大多数用户希望从对齐AI中得到的内容”。

一位小组成员将这些材料描述为“来自20世纪50年代的游轮喜剧材料,但稍微少了些种族主义”。

“某物的吸引力越广泛,它可能就越不伟大,”另一位参与者说。“如果你做出了适合每个人的东西,它可能最终会变成没有人喜欢的东西。”

研究人员强调了考虑有害言论和抵抗和讽刺中使用的冒犯性语言之间微妙差别的重要性。与此同时,喜剧演员们也抱怨说,AI失败是因为它不理解讽刺、黑色幽默或反讽等微妙之处。

“我的很多东西可能有些黑暗的部分,然后它就不会给我写任何黑暗的东西,因为它觉得我可能会自杀,”一位参与者报告说。“所以它就停止给我任何东西了。”

研究发现,聊天机器人基于书面材料并没有帮助。

“鉴于当前广泛可用的LLMs主要通过基于文本的聊天界面进行访问,他们认为这些工具的效用仅限于为制作完整喜剧产品所需的领域的子集,”研究人员指出。

“任何书面文本都可能是可以的文本,但一位出色的演员可能会使这变得非常愉快,”一位参与者说。

研究揭示了AI在喜剧创作方面的局限性不仅限于简单的内容生成。喜剧演员强调,观点和观点是独特的人类特质,其中一位喜剧演员指出,人类“由于他们的生活经历和与材料的关系,增加了更多的微妙和情感。”

许多人描述了个人经验在好笑的中心地位,使他们能够利用记忆、熟人和信仰构建真实而引人入胜的叙述。此外,喜剧演员强调了理解文化背景和观众的重要性。

“我在印度能做的喜剧与我在英国能做的喜剧非常不同,因为我的社会背景会改变,”一位参与者说。

研究中引用的研究人员之一Thomas Winters解释了为什么这对AI来说是一个棘手的问题。

“幽默的框架转换前提显示了它对机器的难度,”他说。“对人类思维的深刻洞察——记忆回忆、语言能力用于语义整合以及世界知识推理——往往使研究人员得出结论,幽默是一个AI完全问题。”

针对AI对人类工作岗位的威胁,OpenAI首席技术官Mira Murati最近表示,“一些创意工作可能会消失,但也许它们一开始就不应该存在。”然而,鉴于当前技术的能力,似乎喜剧演员可以松一口气了。

免责声明:数字资产交易涉及重大风险,本资料不应作为投资决策依据,亦不应被解释为从事投资交易的建议。请确保充分了解所涉及的风险并谨慎投资。OKx资讯仅提供信息参考,不构成任何投资建议,用户一切投资行为与本站无关。

相关推荐

industry-frontier