OpenAI将推出新的AI工具,旨在防止美国大选期间虚假信息传播
作者 | 松果、王二狗
2024 年是美国总统的大选年,然而每到大选之时,虚假信息泛滥等问题一直都很严重。美国一项民意调查发现,近60%的成年人认为人工智能工具将在大选中增加虚假和误导性信息的传播。
鉴于以上背景,OpenAI 今日发布了一篇博客,表示为应对2024年美国大选,保证平台安全工作做出了一些举措,包括:
防止deepfakes等AI滥用; 提供AI生成内容的透明度; 改善对权威投票信息的获取;
防止deepfakes等AI滥用行为
OpenAI表示致力于预测和防止AI滥用行为(例如使用deepfakes虚假传播或冒充候选人的聊天机器人。)
具体有以下一些措施:
对DALL·E 设有防护措施,可以拒绝要求生成真人(包括候选人)图像的请求;
不允许人们构建用于政治竞选和游说的应用程序;
不允许创建 阻止人们正当参与民主进程的应用程序;
不允许开发者创建冒充真人(例如候选人)或机构(例如地方政府)的聊天机器人;
用户可以借助GPTs向OpenAI报告潜在的违规行为;
提供AI生成内容的透明度
OpenAI将为提供AI生成内容的透明度做出以下举措:
将在今年年初为 DALL·E 3 生成的图像实施内容来源和真实性联盟的数字凭证(一种使用密码学对内容来源详细信息进行编码的方法)。
正在尝试构建一种用于“检测 DALL·E 生成的图像来源的分类器”新工具。即使图像经过了常见类型的修改,我们的内部测试也能做出很好的分类。我们计划很快将其提供给我们的第一组测试人员(包括记者、平台和研究人员)以获取反馈。
ChatGPT将越来越多地与现有信息源集成,例如,用户将开始访问包括归属和链的全球实时新闻报道。信息来源的透明度和新闻来源的平衡可以帮助选民更好地评估信息并自行决定他们可以信任什么。
改善对权威投票信息的获取
为改善对权威投票信息的获取,OpenAI表示当用户被问及某些与选举程序相关的问题(例如在哪里投票)时,ChatGPT 会将用户引导至美国投票信息权威网站 CanIVote.org 。
人工智能将使美国大选变得“一团糟”吗?
艾伦人工智能研究所的研究员Nathan Lambert表示,生成式AI将使2024年的美国选举变得“一团糟”——无论是来自聊天机器人还是deep fakes。而与此同时,政府也将减缓AI的监管工作。
Nathan Lambert透露,鉴于今年是选举年,他不认为美国会在今年出台人工智能监管。他认为美国大选将是人工智能发展平台中最大的决定因素,可以看出不同的候选人采取什么立场,人们如何滥用人工智能产品,以及这种归因是如何给出的,媒体是如何处理的。
随着人们使用ChatGPT和DALL-E等工具为选举机器创建内容,无论人们是否将这种使用归因于竞选活动、糟糕的演员或OpenAI等公司,都随之而来的可能会造成一片混乱。
比如尽管距离2024年美国总统大选还有半年多,但AI在美国政治竞选中的使用已经发出了“危险的信号”。例如,美国广播公司(ABC News)最近的一篇新闻报道中强调了佛罗里达州州长Ron DeSantis在23年夏季的竞选活动,利用AI合成图像在社交平台发布了前总统特朗普和前卫生官员Anthony Stephen Fauci博士亲密拥抱的虚假图像和音频。
在多伦多市长选举中,候选人Anthony Furey用AI生成的图像作为竞选材料,其中一幅图像展示了一条城市街道,街道两旁的人似乎是在建筑物旁露营的流浪者。
最后,很明显看得出来,OpenAI 正在减少虚假信息传播方面做出努力,至于会不会真的带来实际改善,让我们拭目以待吧!
参考链接:https://www.theverge.com/2024/1/15/24039333/openai-chatgpt-dalle-ai-2024-election-misinformation-plan
微信扫码关注该文公众号作者