故事发生在未来的某天。你敬爱的父亲已经去世了,他生前多年饱受阿尔茨海默病的折磨。长期以来,由于他的健康状况,家里的每个人都感到身心俱疲。你的哥哥提出了一个想法,想通过一个名为4evru的初创企业的“数字永生”项目来记住父亲最好的一面。他承诺会处理好细节并准备好有关父亲的数据。 之后,你就将此事抛诸脑后了,直到今天,4evru发来邮件说你父亲的机器人程序可以使用了。虽然有些惊恐不安,你还是点开了链接并创建了一个账户。你轻松地戴上了有点笨重的虚拟现实(VR)耳机,选择了增强现实模式。随后,熟悉的卧室墙壁在你面前一闪而过。你的父亲出现了。这是他确诊之前的样子。他看起来很健康,有点强壮,留着花白的胡子,穿着格子衬衫,咧嘴笑着,完全就是你小时候看到的他的样子。图像和动画的质量令你大为感动。多亏了哥哥给4evru的家庭视频,这个机器人的声音听起来像你的父亲,动起来也像他。这个“父亲”把更多身体重量放在了左脚,这是高中时踢足球受伤的结果,跟你的父亲一样。熟悉的问候让你热泪盈眶。经过几次试探性的交流来感受这种互动(略显奇怪)之后,你便开始了。“我觉得很糟糕,真的很难过。特蕾莎几周前和我分手了。”你说。“噢,听到这个消息我很难过,孩子。分手太糟糕了。我知道她是你的一切。”父亲的声音令人感到安慰。这个机器人在用声音共情方面做得很好,面部表情也像父亲生前一样。他饱满而低沉的声音让人感到心安,就像他生病前的声音一样。只要他说话就好,至于他说什么其实无关紧要。你看了看时间,意识到已经过去1个小时了。当你说再见时,父亲说:“记住艾德琳在我沮丧时总是对我说的话:‘有时候失去一些好的东西,是为了迎接更美好的事物。’”听到不熟悉的名字,你的耳朵就竖了起来——你母亲的名字是弗朗西丝,而且家里没有人叫艾德琳。你颤抖地问:“谁是艾德琳?”在接下来的几周里,你和家人通过你的“数字父亲”发现了更多他在生活中没有向你们透露的事。你发现了谁是艾德琳,还有凡妮莎和达芙妮。你发现了一些同父异母的兄弟姐妹。你发现你的父亲并不是你想象中的那样,他喜欢揣着秘密生活、欺骗你的家人和其他家庭。在与4evru版本的“父亲”互动几个月后,你发现,虽然有些高兴了解到父亲的真实样子,但你也在哀悼那个你以为自己了解的人的离去。好像他又死了一次。
虽然4evru是一家虚构的公司,但其中描述的技术离现实并不远。今天,“数字来世产业”已经能根据逝者留下的数据重建他们。微软拥有一项专利,可以利用某个人的“社交数据”创建一个聊天机器人。据报道,微软决定不把该理念转变成产品,但并不是出于法律或权利方面的原因。在这份21页的专利中,大部分是极其技术性和程序性的内容,记录了如何设计软件和硬件系统。该理念是利用社交数据训练聊天机器人,即“一个使用文本和/或听觉输入通道模拟人类对话的对话计算机程序”,其中的社交数据指“图像、语音数据、社交媒体帖子、电子消息”和其他类型的信息。然后,这款聊天机器人会“扮作”此人说话。它可能有相应的声音, 2D或3D图像,或兼而有之。值得注意的是,虽然各家科技巨头已经涉足这一领域,但大多数活动并不是大型企业开展的。5年多以前,研究人员发现了一个包括57家公司的数字来世行业。其中包括一家以所爱之人的声音提供互动回忆的公司(HereAfter);在用户去世后向其挚爱之人发送预定消息的企业(MyWishes);还有一家根据一位已故女性的“记忆、感受和信仰”制作出其半身机器人的机器人公司(Hanson Robotics),这个机器人能够继续与人类交谈,甚至参加了一门大学课程。我们中的一些人可能认为这些选择激动人心,而其他人可能会有些害怕,还有一些人可能不感兴趣。不管你的反应如何,你几乎肯定会留下数字痕迹。如今,几乎每个使用技术的人都会受到“数据化”的影响,数据化是指以数字数据的形式对我们日常活动进行记录、分析和存档。我们活着时使用数据的方式会产生有意或无意的后果,在我们死后,这些后果对我们每一个人都有影响。人类必须面对自己的死亡。生活的数据化意味着我们现在必须面对一个事实,那就是,有关我们的数据很可能会比我们躯体的寿命更长。因此,关于数字来世的讨论提出了几个相互关联的重要问题。首先,我们是否有权定义我们死后的数字生活?我们应该可以选择决定不在数字来世继续存在。然而,考虑到数据的“粘性”和分布性,选择退出数字来世的决定真的能够执行吗?一些人主张的删除可能实现吗?数据在本质上是永存的;但我们肯定不是。
我们中的许多人并没有采取必要的措施来管理我们的数字遗物。怎么处理我们的电子邮件、短信和社交媒体上的照片?在我们死后,谁能认领它们?我们想要为所爱之人保留一些关于自己的东西吗?有的人可能更喜欢让他们的数字存在随着自己的身体一起消失。那些有条理、有准备的人可能会把密码和用户名告诉家人,让家人在他们去世后尽可能地追踪和删除他们的数字足迹。当然,在某种程度上,这种精心准备并不重要,因为死者不会体验到自己死后被创造出来的数字版自己。但一些人认为让自己“重生”的想法是错误的。对于那些更看好这项技术的人来说,这类应用程序越来越多,我们可以在活着的时候向其提供数据,这样 “数据化”的自己就可以在我们死后继续存在。这些产品和可能性,有些更离奇,有些更无害,模糊了生与死的界限。我们的数字档案(数据化自己)提供了通向来世的途径,以及可能比我们活着时更多的社交互动。因此,人类社会的界限正在发生变化,因为现在死者可以比以往任何时候都更频繁地出现在生者的生活中。在人权方面则尚未充分考虑对我们的自主权和尊严的影响,因为人权主要涉及生者,一旦死亡,便结束了。感谢数据化和人工智能,我们不会数据化死亡。我们还必须考虑机器人(与用户或系统在线互动的软件应用程序)可能会在我们死后代替我们发布信息的问题。如果机器人在我们不在的时候利用我们生成的数据来产生我们预期的反应,那谁是这些内容的创造者?这确实是一个令人好奇的问题。2015年,罗曼•马祖伦科(Roman Mazu-renko)在莫斯科发生交通事故,英年早逝。他和尤金妮亚•库达(Eugenia Kuyda)在成年时相识,他们一起在莫斯科参加了一些精彩的派对,成为了亲密的朋友。他们也有着共同的创业精神,支持着彼此的科技创业公司。马祖伦科的生活充满了活力;他的死给熟悉他的人带来了巨大的缺憾。悲痛的库达领导了一个基于开源机器学习算法的文本机器人项目,她收集了马祖伦科生前与家人、朋友以及她自己的交流信息,利用这些文本信息对机器人进行了训练。机器人学会了马祖伦科的表达方式,“成为”了马祖伦科。现在,虽然马祖伦科去世了,但他在生前创造的数据可以像他一样继续存在。马祖伦科并不能就关于他的数据在他死后被如何使用表达意见,这些数据是被他的亲朋好友复活的。我们能说这对逝者或他的记忆造成了伤害吗?这一行为至少是对自主性的否定。活着的时候,我们有自主性,会按照我们自己的意愿在这个世界上行走。死后,我们的身体再也不能游走于世间。传统上认为,失去自主性也意味着失去人权。但是活着的时候,我们不能决定死后如何处理我们的遗物吗?毕竟,我们设计了制度来确保遗赠金钱或物品的交易均依据明确的法律程序进行;看银行账户余额是否增加,或者谁的名字出现在了房产证上非常简单。这些是我们转移给生者的东西。当涉及我们死后的数据时情况则复杂得多。与我们的财产不同,这些数据是“我们”。如果我们不想死后在文本、图像或声音中出现呢?库达通过朋友与她以及与其他人的交流文本重建了他。一旦我们死了,就没有办法阻止别人利用这类数据。但是马祖伦科想要的是什么?
根据特定的人来创造机器人的可能性对自主性、许可和隐私有着巨大的影响。如果我们不制定标准,赋予创建原始数据的人表达意愿的权利,我们就剥夺了他们的选择权。如果微软聊天机器人专利这类技术得到实施,也会对人类尊严产生影响。如果仅仅将数据看作人类的“副产品”,那么有人“让我们重生”的想法似乎是可以接受的。但是,如果数据不仅仅是我们留下的东西,还是我们的身份,那么我们应该停下来思考,是否允许以数字方式对人进行“复制”。除微软的专利以外,我们同样应该停下来思考谷歌克隆他人“精神属性”(也获得了专利)的尝试、灵魂机器公司(Soul Machines)的“数字双胞胎”,或者初创公司Uneeq营销的“数字人类”(目的是“无限地重新创造人类互动”)。人们之所以会考虑数字永生,部分原因是为了让后代能够与他们互动。然而,要让我们永存,我们需要信任帮助我们实现这一目标的数据收集者和服务提供商。我们需要相信他们会保护这些数据,并在未来忠实地代表我们。不过,我们也可以想象这样一种情况,有恶意行为者通过插入关于某人的不真实数据来破坏数据,从而导致结果与我们的意图不同。因此,会存在数字永生自我明显偏离真实自我的风险,但是届时我们(或其他任何人)如何得知呢?数字永生者是否会受到有辱人格的对待或互动方式,不能真实地反映此人在现实生活中的行为?我们还没有描述这种侵犯可能是什么错误的人权用语。我们不知道数字版本的我们是否还是“人类”。如果我们将这些永生版本的自己视为活人的一部分,那么我们可能会考虑像活人一样保护自己免受虐待、折磨和侮辱。但是,如果我们把数据当成遗物,那么数字人也是副产品吗?数字来世也可能面临技术问题。算法和计算协议不是静态的,它们的变化可能会使某些数据难以辨认。社会科学家卡尔•欧曼(Carl Öhman)认为,数字来世的持续完整性在很大程度上是一个软件问题。因为软件更新可以改变数据的分析方式,所以支撑数字永生的人工智能程序所生成的预测也可以变化。同意利用我们的数据“重生”时,我们可能无法预料所有变化。在4evru那个故事中,父亲隐藏的事情被揭露出来,反而让他被家人憎恶。数字自我和数字人是否应该被策划?如果是,该由谁来策划?活着的时候,我们自己控制自己。死后,关于我们的活动和思想的数据将被存档和排序,但依据的并不是我们的个人判断,而是数字开发者设定的优先级。关于我们的数据,甚至是令人尴尬的数据,都将脱离我们的直接掌控。虽然创建原始数据的可能是我们,但是汇集和分析这些数据的算法掌握在数据收集者手中。算法对杂乱的现实数据进行分类整理时,它们承载的是其创造者的价值观和目标,而这些价值观和目标可能与我们截然不同。技术本身可能会阻碍数字永生。未来,能提高数据保存效率的数据格式变化可能会导致我们在从一种格式转为另一种格式时丢失数字人物。存档的数据可能会丢失,产生不完整的数字永生者。或者数据可能被复制,带来数字克隆的可能性。虽然从多个来源获取数据的数字永生创造出的人可能更加真实,但也更容易出现错误、遭到黑客攻击和发生其他问题。数字永生者可以被编程以便不易接受新信息。然而,真实的人是有机会学习和适应新信息的。微软的专利确实规定可以参考其他数据,从而为当前活动的渗透开辟了道路。这可能是一种进步,因为机器人不会越来越像一个无关紧要的遗物或聚会游戏。然而,机器人获取的数据越多,就越有可能偏离真人,朝着不符合真人情况的虚假版本发展。亚伯拉罕•林肯会对当代的种族政治说些什么?这重要吗?我们应该如何看待这位数字永生者呢?“数字林肯”是一个应受人权保护的“人”吗?我们应该保护这个人的言论自由吗?如果现在认为他们(基于生活在另一个时代的真人)发表的言论属于仇恨言论,我们应该让它闭嘴吗?保护数字永生者的生命权意味着什么?数字永生者可以被删除吗?自文明之初,来世就一直是个神秘的问题。人类通过宗教信仰、葬礼、精神运动、艺术想象和技术努力来克服对死亡的恐惧。今天,我们的数据独立于我们而存在。数据化使我们能够超越自己的意识和死亡继续存在。如果不落实人权来防止不经授权地使用我们死后的自己,我们就有可能成为他人创造的数字永生者。