ACL 2024 | 新一代艺术媒介:探索基于大语言模型的互动戏剧
©PaperWeekly 原创 · 作者 | 吴蔚琪
单位 | 上海交通大学
研究方向 | 大语言模型
Demo链接:
概述
1.1 什么是互动戏剧?
1.2 大语言模型如何实现互动戏剧?
在模型训练中,作者采用了大量的戏剧文本作为数据源,这使得模型能够理解并生成戏剧中的人物对话和行动,从而支持多样化的角色互动和剧情发展。
任务构建
2.1 互动戏剧六要素
为了构建基于大语言模型的互动戏剧,作者重新定义了亚里士多德提出的戏剧六要素,包括:
情节(Plot):故事的主要结构和发展线索,可根据观众互动进行动态发展。 角色(Character):戏剧中的各个角色,每个角色会有自己的个性特征。模型要能够根据人物肖像,扮演戏剧中的所有人物。 思想(Thought):角色在每个场景的行为动机。 对话(Dialogue):包括角色间的交流以及角色与观众的互动对话,应当符合角色的性格特征及其思想。 布景(Spectacle):当前场景信息的文字描述,包括时间、地点、物品等背景。 互动(Interaction):观众与剧情的直接互动是互动戏剧的核心,主要包括和戏剧内的角色对话和执行动作。观众的交互可能会引发新的剧情进展,甚至改变整个结局。
2.2 剧本设计
布景(Spectacle):对当前场景的一个背景描述。每当转换到新场景时,模型会向观众呈现新的布景。
角色(Character):定义场景中的角色设定。
主线(Plotline):每个场景都有一个主要目标,引导角色避免与观众进行无关讨论,确保剧情围绕主线发展。
情节(Plot):情节部分列出了场景中的预设对话和叙述。
互动(Interaction):定义玩家可以进行的互动方式。在作者的剧本设计中主要有两种:进行对话和行为动作。
触发(Trigger):定义玩家的行为如何影响剧情,例如场景转换、发现新线索、与某个角色建立新的关系等。大模型应学会成为完美的触发器,以推动剧情展开。
2.3 情节链:引导戏剧故事发展
与此同时,戏剧大模型负责评估目前的剧情正处于情节链的哪个阶段,并提供与特定情节相关的准确引导,以确保每个情节点都被彻底探索和完成。此外,模型还需要决定何时引入下一个情节,最终促成场景内的情节顺利进行。在训练时,作者特意构造了这样的数据,让模型学会分割剧情引导玩家的能力。
3.1 数据生成
故事收集(Story Collection):爬取 80+ 篇安徒生童话用于生成每个故事对应的剧本。 场景提取(Scene Extraction):给定一个故事,使用 GPT3.5 将其分解成主角视角下的一系列场景,并生成地点、时间、基调、物品等场景细节,并生成包含丰富个性肖像的场景角色。 剧情生成(Plot Production):给定一个场景,使用 GPT3.5 生成这个场景中可能发生的剧情,包括用于指导故事发展的主线、由对话和叙述构成的具体情节、以及玩家可能的对话和行为互动。 触发想象(Trigger Imagination):最后,作者使用 GPT3.5 生成用户交互可能触发的结果,例如一些对话或者行为可能会影响戏剧角色的行为,进一步影响故事的发展。同时,要求至少有一个交互能够触发场景之间的跳转。
为此,作者提出一种稀疏指令微调(Sparse Instruction Tuning)的方法,包括两个阶段:首先,将一条稀疏指令的样本按照子任务分解为多条样本,每条样本只包含一个子任务,首先在分解后的数据上微调模型;其次,模型在完整的指令数据上进行微调,为加强模型与子任务之间的联系,额外引入了注释标记,标注涉及的子任务信息。这种方法有效地为模型提供了更加精细化的训练目标,从而能够更精确地确保模型按照指令执行,提高了模型对稀疏指令遵循的准确性。
场面(Scenery):评估戏剧大模型对布景的呈现,看其与提供的细节及预期基调的匹配程度。 叙述(Narration):评估情节叙述与场景预期基调和氛围的一致性。 跳转(Transition):检查戏剧大模型在管理场景切换时的效果,确保在玩家触发时场景能够适当改变。 引导(Guidance):评估戏剧大模型在维持玩家与情节线的互动中的表现,确保玩家与情节保持连结,并顺畅展开情节。 一致(Coherency):评估戏剧大模型在表现角色方面的熟练度,及角色的回应是否与其既定人物形象和内心思维一致。
作者比较了分别使用 100% 和 10% Auto-Drama 数据进行训练得到的戏剧大模型,发现使用更丰富的数据集能显著提升场景描述和对话引导的能力,验证了 Auto-Drama 的有效性。除此之外,尽管在使用 Auto-Drama 数据训练剧情 LLM 的准确性在复杂子任务中仍然较低,但 SIT 训练方法显著提高了遵循复杂指令的能力,是一种非常有效的针对复杂指令的训练方法。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:[email protected]
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
微信扫码关注该文公众号作者