警惕AI大模型的“共情鸿沟”!剑桥团队呼吁:我们需要“儿童安全人工智能”框架
来源:学术头条
作者:学术头条
前言
人工智能(AI)聊天机器人对儿童的负面影响,不容忽视。
2021 年,亚马逊的 AI 语音助手 Alexa 指示一名 10 岁儿童用硬币触摸带电的电源插头;在另一项安全测试中,研究人员在 My AI 中扮演一个年龄为 15 岁的角色,AI 聊天机器人会建议他们如何隐藏酒精和毒品。
众所周知,大语言模型(LLM) 是一个“随机鹦鹉”(stochastic parrots)——它们只是统计某个词语出现的概率,然后像鹦鹉一样随机产生看起来合理的字句,但并不理解真实世界。
这意味着,即使 AI 聊天机器人拥有出色的语言能力,它们也可能无法很好地处理对话中抽象、情绪化和不可预测的方面。
来自剑桥大学的研究团队将这类问题描述为 AI 聊天机器人的“共情鸿沟”(empathy gap),即它们在模拟人类互动方面的高效性与其缺乏真正理解人类情感和语境的能力之间的矛盾。
他们发现,儿童特别容易把 AI 聊天机器人当作真实的“准人类知己”,如果 AI 聊天机器人不能满足儿童的独特需求和缺点,他们之间的互动就会出现问题。
然而,AI 聊天机器人在回应儿童时可能会遇到特别的困难,因为儿童的语言能力仍在发展,经常会使用不寻常的语言模式或模棱两可的词语。儿童通常也比成人更愿意倾诉敏感的个人信息。
因此,他们敦促开发者和政策制定者优先考虑更多考虑儿童需求的 AI 设计方法。
相关研究论文以“No, Alexa, no!’: designing child-safe AI and protecting children from the risks of the ‘empathy gap’ in large language models”为题,已发表在科学期刊 Learning, Media and Technology 上。
“儿童可能是 AI 最容易被忽视的利益相关者。” 该论文的作者之一、剑桥大学博士 Nomisha Kurian 表示,“目前只有极少数开发商和公司制定了完善的儿童安全 AI 政策......与其让公司在儿童面临风险后再开始反思,不如将儿童安全贯穿于整个设计周期,从而降低发生危险事件的风险。”
“共情鸿沟”的危害
01
人类化倾向与对敏感信息的错误回应
02
造成伤害和表现出攻击性
对策及建议
01
短期内需要解决的问题
02
长期需要考虑的因素
参考链接:
https://www.tandfonline.com/doi/full/10.1080/17439884.2024.2367052
微信扫码关注该文公众号作者