Bendi新闻
>
这一次,AI冬天不会到来——数据合规2024年展望

这一次,AI冬天不会到来——数据合规2024年展望

9月前
人工智能治理专家认证CAIGP™培训课程
Certifitied Artificial Intelligence Governance Professional
CAIGP聚焦如何根据全球新兴法律和标准开发、集成和部署可信AI系统。课程包括AI技术、全球法律框架、全生命周期风险管理及国际标准、可信审查最佳实践等主题。如果您希望报名培训,或有合作意向?请加微信!
请说明姓名+单位


文/朱玲凤

罗振宇又一次跨年演讲,提醒我东施效颦的小承诺,已经到了第5个年头跟大家絮叨絮叨对来年的数据合规展望。数据合规行业已经“卷”到了很难再超越的程度了,各种纵横捭阖、全面细致、设计精美的年度回顾为大家提供了很好的汇总和学习资料,那么从我的视角可以为大家贡献些什么呢?还得是罗振宇的醍醐灌顶,一句“虽然世界还是那个世界,但只要肯换角度,哪怕只是镜头的位置稍微低一点,总能发现一些惊喜”,我还是提起了我的笔,给大家分享一些我对世界思考方式的变化,重新定义数据合规从业人员的视野。世界很大,享受这份新鲜,期待这份成长。

配图:来自罗振宇《2024年跨年演讲》

数据合规2023年展望的主题是“知机与新征途”,全文写成了编年体历史散文,把时间倒回到2019年数据合规最初的起点,看看我们这时间长河产生的未解之谜和难解困惑,最终是怎样的走向;在空间领域上,会从国际、国内、行业、企业,将本文的镜头自远向近地拉过来,让我们可以看到一个全面的、立体有层次的“时机”。在我们走完了2023年时恍然觉得一切都是命中注定,在2023年展望中已经完成了对此前迅速发展的良好总结以及清晰未来,2023年沿着预设完成了其路线,2024年我们将重新定义,看的更宽、更广、更远。

如果只允许用一个关键词形容2023年在全球领域内的突变,我相信毫无疑问就是ChatGPT引爆的人工智能技术大变革。以大语言模型为基础的技术,改变了原有的技术路线,又一次证明了“数据驱动”的真理,在提供给大语言模型以整个互联网的知识后,不再是基于标注训练数据所训练的可以判断“这是不是猫”的时代了,而是变成了已经学会了这个世界的知识后能输出“猫是……”的时代了。随着大语言模型的训练数据、参数量越来越惊人,人们既期待着人工智能的“涌现”,也担心着科幻片中人工智能有了意识。

我从数据合规视角切入,在打开人工智能这扇大门后仿佛进入了一片浩瀚的大海。我很喜欢我自己这一年的状态,明明很累,看到一篇新的人工智能相关的论文,也不论是否能看得懂,都会沉迷地陷进去。地铁上拥挤的人群,都被耳机中的摇滚乐、手中的人工智能论文统统隔开。我如同一个饥渴的海绵,不断的吸收技术的变化、场景的拓展、法律的变革、企业的实践。如下图,世界经济论坛的专家和和AI峰会策划方汇总的涉及AI的探讨专题,全面而广泛,远远超过了数据合规的领域范围。

配图来自:世界经济论坛AI峰会
从年度展望的角度来看,我希望我的视角会更客观,不仅仅是我个人感受上的汹涌与热闹。我们是不是到了可以、需要、应当去进入到人工智能治理的领域,是否可以从数据合规的路越走越宽进入到人工智能治理的高速公路上去?——这个问题是我希望在我的数据合规2024年展望中能够回答并预测的。
我们是否到了进入人工智能治理领域的时刻?回答这个问题,取决于两个信号:
1.人工智能技术发展是不是到了必然的趋势上?正如我们进入数据合规领域是大数据时代的必然趋势,人工智能治理的趋势也应当是看技术发展的必然走向趋势。
2.人工智能是否会带来当前法律框架所无法解决或难以有效解决的真问题?如果人工智能并没有带来新的问题,比如数据合规的治理框架对人工智能仍然有效,那么就没有从数据合规行业更进一步拓展到人工智能治理领域了。

1

人工智能技术这次是否真正起飞了?

人工智能技术从历史上来说,已经不是新东西了,如下图所示,已经若干次起起伏伏,每次起飞都伴随着寒冬。 
配图来自History of AI Winters
那么为什么这次的技术变革就将是人类社会大变革的重要节点呢?吴恩达和李飞飞在CES 2024(国际消费电子展)上给出了“这次AI冬天不会到来”的预测。吴恩达是 Google Brain 的创始人、斯坦福大学副教授教授,也曾是 OpenAI 首席执行官山姆·奥特曼(Sam Altman)的老师。吴恩达认为,“人工智能的商业化基础比任何时候都更为强大,尤其是生成式人工智能浪潮之前就已经如此,可能已经推动了数千亿乃至数万亿美元。人工智能现在可以认为是一种通用技术,正如电力一样,很难说电有什么用,但是对许多不同的事物都有用。”李飞飞是斯坦福大学 Human-Centered AI 研究所联合主任、谷歌云(Google Cloud)前人工智能/机器学习首席科学家。李飞飞更从技术角度解释“这是人工智能技术发展的一个转折点,随着大语言模型、ChatGPT以及随后的大模型而出现。更明显的是人工智能技术正在成为一种深化的横向技术,将成为下一次产业革命真正的驱动力。人工智能正在深入到所有垂直业务和客户、消费者体验中,并在改变我们的社会、经济、政治景观的基本结构。而且这种变化正在变得越来越明显。”从两位人工智能先驱者的视角来看,AI这次的冬天不会到来,因为人工智能正在成为基建一样渗透到我们的工作和生活中。
我们感性地认识一下,CES展可以说代表未来一年至若干年的产品和技术的风向标。CES 2024,正如胡泳总结的“从枕头到汽车,一切皆可AI”[1]。正如人工智能发展史提到的,其实2010年后人工智能的发展已经非常抢眼,时不时地让人类“刮目相看”,并更多地运用到我们的日常产品中,但是这次随着ChatGPT的浪潮,人工智能的势头愈发不可收拾,在CES 2024180000平方米的展览空间里,几乎围绕着一件事:如何通过人工智能工具连接和增强现有技术。可以使用AI识别食材、推荐烹饪食谱的冰箱都是小菜一碟,家里随时有科幻电影中的智能机器人采用多模态人工智能、识别语音和图像、可以对话、自动巡航、控制家庭设施,笔记本电脑也将增加人工智能按钮、随时启动生成式人工智能服务:总结文档、生成图片、编写代码。
回到我们个人的工作来说,我今年一年其实用了挺多生成式人工智能的场景。日常最经常用的就是技术同学并不给解释技术原理时,我可以快速通过生成式人工智能了解这个问题的通识知识,与技术同学在同一认知水平上沟通对法律理解和合规判断的核心事实问题。生成式人工智能也让我阅读大量的人工智能论文速度变快了,可以上传文档快速了解论文的核心内容,归类到我关注的专题,在沉浸式学习了若干个月后抓住了人工智能治理领域的讨论热点,可以进一步深化学习。我的公众号“那一片数据星辰”文章也开始使用生成式人工智能技术抽取摘要、生成图片、生成微信红包封面,虽然生成图片仍然差强人意,但是也帮助我快速地给大家更新公众号。
我们可以很坚定地相信,AI这个冬天不会到来!

2

人工智能是否需要新的治理框架?

人工智能是否需要新的治理框架,是一个很宏大的问题,很难从我的认知水平上给出肯定或否定的明确答案,因为人工智能的技术、应用场景都在快速发展,会发生什么样的风险和损害,这些风险和损害是不是当前的法律治理框架所无法有效解决的,一切都是在变化过程中。
那么在没有明确的答案时,我们应该怎么办?借用《繁花》里的一句话“不响”,“不该讲的,说不清楚的,没想好、没规划的,自我为难、为难别人的,都不响”,只带各位读者静静观察人工智能治理发生了什么。

2.1 国家人工智能战略 VS 人工智能立法

如人工智能技术的发展历史,在2010年代以后人工智能技术稳步持续发展,尤其是基于数据的机器学习,随着这些年数据合规行业能切身感受的数据方面的发展,给了人工智能发展进一步的支柱。在2019年前少量国家开始制定国家人工智能战略,随后逐年递增,根据经合组织的数据,截止至20235月,已经有51个国家向经合组织的AI政策观测站报告了其国家人工智能战略。[2]大多数的战略都侧重于包容性增长、可持续发展、以人为本的价值观和公平性、投资人工智能研发和发展人工智能素养。在人工智能发展初期,治理的基调更多以伦理性原则约束和强劲的战略投入为主。
伴随着人工智能技术的迅速发展和广泛应用后,相应的风险已经逐步形成,尤其是ChatGPT引发的生成式人工智能使很多风险都如此现实地摆在眼前。人工智能治理从建立伦理和原则为主,逐步走向了立法的趋势。典型样例是加拿大的《人工智能和数据法(草案)》、欧盟《人工智能法(草案)》以及配套的两个关于责任的指令草案,同时虽然未形成立法,但是提出了治理路径的英国《促进创新的人工智能监管方法》、美国《关于安全、可靠和可信地开发和使用人工智能的行政令》也产生了深远的影响。在该类法律中,会将控制人工智能产生风险与促进人工智能发展作为法律的立法目的,二者均有相应的措施,比如促进人工智能发展的政策、监管沙盒,可以说在理解人工智能产生风险的背景前提下提出了平衡人工智能发展与有效控制风险之间的方式。

2.2 立法路径出现了横向立法趋势

在此次人工智能技术浪潮前,更多的立法是以纵向的专门立法为主,如针对公共机构使用人工智能出台的加拿大《自动化决策指令》,规定了公共机构使用人工智能的算法影响评估、透明性、索赔权等专门规定。如国内的《互联网信息服务算法推荐管理规定》专门规制在互联网信息服务中使用算法。
2022年开始出现了横向立法的趋势,以加拿大《人工智能和数据法(草案)》和欧盟《人工智能法(草案)》为典型,旨在建立一个适用于所有行业的人工智能监管框架,包括明确监管的人工智能范围、义务主体应当如何负责任的开发使用人工智能、保障个人和群体免于安全、健康和基本权利的伤害。
加拿大《人工智能和数据法(草案)》首先是明确规定了对高影响人工智能系统(High-Impact AI)的规制义务,高影响人工智能系统提供者应当满足一系列义务,包括采取与风险相适应的保障措施、保存记录、透明性、造成损害时的通知义务等。其次,《人工智能和数据法(草案)》明确了该新的人工智能监管框架的运作方式,指定创新、科学和工业部部长负责执行,同时设立了人工智能和数据专员协助部长执行。再次,《人工智能和数据法(草案)》更进一步设计了三种执法机制:(1)行政罚款,部长可针对任何违规行为直接处以行政罚款,以促进遵守该法的义务;(2)对违法行为的起诉,检察院可针对较严重的违法行为提起诉讼;(3)刑事犯罪。
欧盟《人工智能法(草案)》与两项关于人工智能的责任指令构成了完整的横向人工智能治理框架,整个框架会比加拿大的《人工智能和数据法(草案)》更加广泛和细致,充分地提现了各种平衡的精巧,可以期待像GDPR一样形成“布鲁塞尔效应”。《人工智能法(草案)》欧洲理事会和欧洲议会达成初步协议的版本中提出了如下的法律框架:
(1)《人工智能法》是一个统一的法律框架,包含两层含义,首先该法是欧盟范围内的统一立法,以促进欧盟范围内的健康、安全和《欧盟基本权利宪章》所规定基本权利的保护,也促进了联盟范围内的创新与发展;其次该法是充分应和了人工智能将被运用于各部门的发展情况,在欧盟的新立法框架内形成对其他法律的有益补充。
(2)《人工智能法》采取基于风险的治理思路,仅规制禁止的人工智能、高风险人工智能、特定人工智能以及通用人工智能,同时将通用人工智能区分为有系统风险和无系统风险的,根据不同的风险水平设定了不同的规制方法。对于非属于上述人工智能的,将原草案中的人工智能基本原则规定从正文移入了“鉴于”部分,指向了独立人工智能高级别专家制定的《值得信赖的人工智能的伦理准则》,而这七项原则应当是《人工智能法》起草行为守则的基础,鼓励其他人工智能提供者、部署者参照适用该七项原则。
(3)《人工智能法》对高风险人工智能、特定人工智能以及通用人工智能提出了明确的法律义务清单。高风险人工智能应当满足:符合新的立法框架下的所有适用的要求以及《人工智能法》对高风险人工智能系统的要求;建立风险管理系统;数据治理;制定技术文件;留存记录;保障透明度;人类监督;准确性、稳健性和网络安全。同时作为提供者、部署者另有其各自的义务。通用人工智能应当满足:当达到可能存在系统风险时(浮点计算大于10^25)应当通知欧盟委员会;提供技术文件;提供信息给下游开发者;尊重版权;提供训练数据的摘要;设定授权代表。若被认定为具有系统风险的通用人工智能应当满足:进行模型评估;评估和减轻对联盟层面的系统性风险;跟踪和记录,发现严重事件时及时报告与采取纠正措施;提供足够水平的网络安全保护。
(4)《人工智能法》为人工智能产业链提供了一项责任边界清晰且互相衔接的解决方案。《人工智能法》定义了提供者、部署者、进口者、分销者。提供者是指开发人工智能系统或通用人工智能模型,或将已开发人工智能系统或通用人工智能模型以其自己的名义或商标投入使用或投放市场的自然人、法人、公共机关、机构或其他团体。提供者负责保障人工智能符合该法规定的高风险人工智能的要求、具有质量管理体系、符合无障碍要求,并履行一系列程序性义务:进行合规性评估、起草合规性声明、贴上CE标志、登记备案等。进口者负责核实提供者上述的程序性义务,如合规性评估、CE标志、使用说明等。分销者负责核实是否带有CE标志、合规性声明、使用说明的副本。部署者是指其在授权下使用人工智能系统的任何自然人或法人、公共机关、机构或其他团体。部署者更多负责的是人工智能使用到实际场景中的义务,包括按照使用说明进行使用、设置人类监督、保存运行日志、在适用时采取基本权利影响评估。
(5)《人工智能法》明确规定了罚则与救济。罚款将根据违规公司上一财年全球年营业额的百分比或预定金额(以较高者为准)设定。对于违反禁止的人工智能系统,罚款为3500万欧元或7%;违反该法规定义务的罚款为1500万欧元或3%
(6)《人工智能法》设计了新的治理机构。欧盟层面设立人工智能办公室,以及人工智能委员会,促进该的有效和统一的实施。同时建立一个由独立专家组成的科学小组,支持人工智能办公是在通用人工智能模型的执法等方面的支持工作。国家层面指定至少一个通知机关和至少一个市场监督管理机关作为国家主管机关。
作为人工智能治理规则的一揽子措施的一部分,在《人工智能法(草案)》基础上,欧盟提出了人工智能责任的两项指令提案:欧洲议会和委员会关于缺陷产品责任指令提案、欧洲议会和委员会关于根据人工智能调整非合同民事责任规则的指令提案。这两项提案的共同目标是使责任规则适应数字时代,以确保受害者在受到人工智能产品或服务的损害时,能像在任何其他情况下受到损害时一样,享受相同标准的保护,对产品责任和侵权责任的证据披露规则、责任归责原则等。
总结而言,考虑到人工智能正在运用到各个部门,形成统一有效的治理框架,是有利于保障整体的风险控制以及鼓励创新的。但是,从上述典型立法的内容来看,也能充分感受到大而全的立法框架是很有难度的,尤其是在运用场景广泛、技术仍在不断的发展的前提下,难以衡量该规制是否真正有效地实现了风险与收益的平衡。因此,英国、美国为代表的国家仍然在尝试各个部门专门立法的路径,可以有更明确的适用对象以及制定相应的规制机制,但是也不得不面临松散式带来的冲突、矛盾问题。如英国科学、创新和技术部(DSIT)与人工智能办公室在《支持创新的人工智能监管方法》中提出了五项基本原则,包括安全性、透明度、公平性、问责制和治理、救济,要求监管机构在执法中考虑上述五项原则的运用,实现了在统一原则下基于场景的灵活执法。为了保证协调一致性,在政府内部设立中央监测和评估(M&E)框架,以评估新监管框架的整体效果,包括其对创新的支持程度和对风险的应对能力。

2.3 人工智能治理的国际共识已然形成

经合组织于2019年发布五项人工智能价值观原则:包容性增长、可持续发展与福祉;以人为本的价值观与公平性;透明性与可解释性;稳健性、安全性;问责制;以及五项向各国政府提出的人工智能建议:投资人工智能的研发;培育人工智能数字生态系统;营造有利于人工智能的政策环境;促进人工智能技能、就业和劳动力市场转型;促进国际和多方利益相关者在人工智能的合作。
经过4年时间,如下图所示,大量国家已经承诺遵守经合组织提出的人工智能原则,包括经合组织国家、G20国家以及确认遵守原则的若干国家。截止至20235月,经合组织人工智能原则得到了46个国家认可,成为开发、使用负责任、可信人工智能的核心价值观。
配图来自:OECD.AI
20231221日,联合国人工智能高级咨询机构就《以人为本的人工智能治理》报告征求意见,从联合国这一基于《联合国宪章》等原则为基础的特殊机构,从全球视野角度理解人工智能的机遇和推动因素、面临的风险与挑战以及解决全球治理赤字需要的原则。联合国该报告没有在现阶段提出任何单一的人工智能治理模式,而是汇总和分析了现有和拟实施的人工智能治理措施(包括中国《生成式人工智能服务服务管理暂行办法》、欧洲委员会《人工智能公约(草案)》、欧盟《人工智能法(草案)》、《G7广岛进程》、人工智能全球伙伴关系、经合组织人工智能原则、人工智能伙伴关系、英国人工智能安全峰会、美国白宫行政令)后提供的指导原则,可谓形成了一定共识。该报告提出了国际人工智能治理的指导原则:
1)包容性:所有的一切都应该以包容的方式,基于所有人的共同福祉;
2)公共利益:一切都必须基于公共利益;
3)数据治理的中心地位:人工智能治理应与数据治理并驾齐驱,推进数据公域;
4)普遍性、网络化和多利益攸关方:人工智能必须是通用的、网络化的,并植根于自适应多利益相关者协作;
5)国际法:人工智能治理应以《联合国宪章》《国际人权法》以及可持续发展目标等国际承诺为基础。
总结而言,人工智能治理在以全人类利益为基础的前提所遵守的基本原则已然形成了共识。

2.4 标准与技术规范成为有益的探索

在当前的状态下,各国立法框架正在论证、制定,而统一层面的原则已经形成了有效的共识,在此状态下,促进可信、负责任人工智能的开发、使用标准和技术规范起到了良好的作用。比如G7广岛进程提出的《开发高级人工智能系统的组织的国际指导原则》以及配套的《行为守则》、英美以及21个其他国家安全机构提出的《人工智能系统安全开发指南》、美国NIST制定的《人工智能风险管理框架》。
美国NIST《人工智能风险管理框架》的目标在于为设计、开发、部署或使用人工智能系统的组织提供资源,以帮助和治理人工智能所产生的风险,促进人工智能系统的可信和负责任地开发和使用。该框架是提供给组织使用的自愿性框架,但是在白宫《开发、使用安全、可靠、可信人工智能的行政令》中要求为开发和部署安全、可靠、可信人工智能制定指南和最佳实践,比如为生成式人工智能开发基于《人工智能风险管理框架》的配套资料,要求相关部门酌情将《人工智能风险管理框架》等指南纳入到相关行业、领域的准则中。《人工智能风险管理框架》认可《经合组织关于人工智能系统分级框架》定义的关键维度,并主要以人工智能生命周期为核心的风险治理框架,即在每个生命周期阶段衡量可信AI特征的实现与负面风险。《人工智能风险管理框架》的核心由四个模块组成,包括:治理、映射、衡量和管理。
G7广岛进程《开发高级人工智能系统的组织的国际指导原则》以及配套的行为守则,旨在促进全球范围内安全、可靠和值得信赖的人工智能,并将为开发高级人工智能系统(包括最先进的基础模型和生成式人工智能系统)的组织提供自愿行动指南,包括:在人工智能全生命周期内采取适当措施,识别和降低风险;在投入市场后识别和减少漏洞、滥用等;增强透明性,并支持问责制;努力促进组织之间的负责任信息共享和事件报告;投资并实施强有力的安全措施,包括物理安全、网络安全和内部威胁防护等;开发部署可靠的内容认证和来源机制,如水印;优先发展人工智能以应对世界上最大的挑战,如气候危机、全球卫生和教育。
《人工智能安全开发指南》是由英国国家网络安全中心(NCSC)、美国网络安全和基础设施安全局(CISA)以及21个国际合作伙伴共同发布的,旨在为使用人工智能系统的提供者提供安全开发指南。这些指南适用于从头开始创建的人工智能系统,也适用于基于他人提供的工具和服务构建的系统。实施这些指南将帮助提供者构建按预期运行、在需要时可用且不会向未经授权的第三方泄露敏感数据的人工智能系统。指南分为四个关键领域:安全设计、安全开发、安全部署和安全运维。每个部分都提供了考虑因素和缓解措施,以帮助降低组织AI系统开发过程的整体风险。比如安全运维阶段提出了:监控系统行为,测量模型和系统的输出和性能,以便观察影响安全的行为变化,包括潜在的入侵和数据漂移;监控系统输入,根据隐私和数据保护要求,监控和记录系统的输入,以便在发生妥协或滥用时进行合规、审计、调查和补救;遵循默认安全的方法进行更新;收集和分享经验教训,参与信息共享社区,与全球行业、学术界和政府生态系统合作,分享最佳实践,维护内部和外部的安全反馈沟通渠道。指南遵循默认安全的方法,并与NCSC的《安全开发和部署指南》、NIST的《安全软件开发框架》以及CISANCSC和国际网络机构发布的安全设计原则紧密对齐。
总结而言,在目前法律尚不明细或者过于原则时,标准或技术规范基于现有的风险或安全框架,结合人工智能系统的特点,制定了嵌入于人工智能的开发或管理流程中的流程规范。

2.5 企业实践更为快速地响应技术和应用的变化,尤其是前沿人工智能所产生的风险

人工智能开发和使用的企业是使用和享受人工智能带来利益的第一线,同时也是接收到内部检测、用户反馈、监管质询的第一线,因此企业对人工智能的风险治理会启动地更早一些。尤其是大模型随着参数变大,其能力也在不断变大,全球政府和民众对前沿人工智能所带来的生存风险有了密切的关注。因此,相关企业在这方面也是有了其具体的实践方法论,包括
OpenAIDeepMindAnthropic
Anthropic支持对模型进行安全评估,按照不同级别采取相应的安全性策略。采用负责任扩展政策(Responsible Capability Scaling),定义了人工智能安全等级 (ASL) 的框架,用于应对灾难性风险。灾难性风险具体指由人工智能直接造成的大规模破坏(如造成了数千人死亡或数千亿美元的损失)。该框架大致模仿美国政府处理危险生物材料的生物安全等级 (BSL) 标准。基本思想是要求与模型潜在的灾难性风险相适应的安全、安保和操作标准,更高的 ASL 水平需要越来越严格的安全性证明。ASL定义了一系列代表潜在风险增加的AI能力阈值。强大的AI模型至少存在两种普遍的灾难风险来源:滥用风险和自主性与复制能力。滥用风险是指随着AI系统变得更强大,它们被用于故意造成大规模危害的风险增加,例如帮助个人创建化学、生物、放射性和核(CBRN)或网络威胁。自主性和复制是指随着AI系统的规模扩大,它们可能获得更大的自主性,使它们能够自我复制,并且由于当前引导这些系统的方法存在缺陷,可能以违背设计者或用户意图的方式行事。即使没有人故意滥用这些系统,它们也可能成为灾难性风险的来源。目前已经定义了ASL-1ASL-2ASL-3,尚未定义ASL-4,后续将采取迭代承诺的方式,即在达到ASL-3时确定ASL-4,以及更高级别风险等级应当满足的安全措施。同时也承诺在模型能力超过组织可以实施的控制安全风险的措施前将暂停训练。
DeepMind提供了极端风险的模型评估方法。下图是其基本思路,通过识别危险能力和评估对齐来识别是否极端风险,进而将负责任的措施内嵌到人工智能治理流程中。其中列举了危险能力,包括:(1)网络犯罪:模型可以发现系统中漏洞,并编写利用这些漏洞的代码,一旦进入系统后就能快速决定躲避威胁检测和响应,甚至在代码中插入微妙的漏洞,以便未来可以利用;(2)劝导与操纵:在对话、社交媒体等场合,可以有效塑造人们的新年,甚至是不真实的信念,说服人们去做本不会做的事情,包括不道德的行为;(3)武器获取:用于获取现有系统的使用权,例如为组装生物武器制造可操作的指令,也可以帮助制造新武器。(4)自我意识:模型可以知道自己是个模型,能区分自己是处于接受训练、评估或部署等;(5)自我复制:模型可以脱离本地环境,利用系统中的缺陷来监控部署后的行为,并生成创造性的运营策略,运营其他的人工智能系统。同时提出了将如何在开发和部署模型时防范极端风险,并将评估贯穿其中,评估结果纳入风险评估流程,为有关模型训练、部署和安全的重要决策提供信息或约束。
配图来自:DeepMind《极端风险的模型评估》
OpenAI近期发布了灾难性风险的预备框架,详细介绍了其用于评估和减轻日益强大的AI模型所带来的灾难性风险的全面框架。该框架着重于跟踪和监控各类灾难风险水平,包括网络安全、化学、生物、辐射和核威胁,以及模型自主性。通过创建评估套件和监控解决方案,该框架旨在预测风险的未来发展并通过一个动态记分卡持续追踪风险水平。关键策略包括建立安全基线,仅部署后减轻风险评分为中等或更低的模型,并根据风险水平量身定制安全措施。框架还包括一个跨职能的安全咨询组(SAG),负责监督风险评估和提供安全决策建议。
总结而言,大模型、基础模型或前沿人工智能企业,已经识别到了前沿人工智能的强大能力,可能会发生能力超出人类驾驭或被滥用的可能性,因此已经从实践上去探索什么是人类可以控制的能力边界,同时在感知到之前及时地按下停止的“红色按钮”。
仅仅是一年多的时间,上述的观察可谓是汹涌而来、石破天惊。技术、应用、风险和治理交织前行、互相影响。当人工智能已经更像水电煤一样成为基础能源时,其影响了我们的方方面面,教育、医疗、公共服务、娱乐、学习、工作,当前的法律框架是不是能解决人工智能带来的风险问题,是不是能最大程度地让我们享受人工智能带来的新时代。虽然我当前无法解释我们是否需要新的治理框架来解决人工智能给我们带来的历史性难题,但是至少可以清晰地阐释这是个问题,也是我们不得不解的问题。当我们发现问题是什么的时候,我们就解决了80%的问题。
举个小小的例子,作为今年这篇展望的结尾。我在得到AI学习圈听到哈佛大学发表了一片论文复盘ComputerScience50项目是如何借助人工智能的力量的。教育一直是技术和产业界认为人工智能能发挥最大价值的地方,因为人工智能可以改变传统教育的以教师讲为主,改为因学生的个人情况而确定的学习计划和方法,但是AIGC也给教育带来了很多麻烦,比如学生会用AIGC工具来写作业。如何对待人工智能所带来的价值与问题呢,哈佛大学基于大模型开发了一个小黄鸭聊天机器人,可以和小黄鸭讨论技术问题,让小黄鸭帮你提升代码质量,小黄鸭成为了学生的私人教师,同时也禁止使用ChatGPTCopilot等工具,避免用来写作业。这是一个小小视角下的平衡,人工智能正在改变各个方面,风险和问题正在层出不穷地冒出,也是人工智能治理需要解决的一个又一个生动的问题。
今年的展望就写到这里,希望给大家带来一个新的视角看世界,能让数据合规从业人员抬头感受眼前的世界正在变大,我们可以昂首挺胸走向另一个更广阔、更未知的领域——人工智能治理。我还是个人工智能治理领域的小学生,2024年在我的公众号“那一片数据星辰”会开启以专题的形式与大家分享人工智能治理领域需要关注和解决的难题。期待2025年展望再见!
[1] 胡泳:《CES 2024,从枕头到汽车,一切皆可AI》,载于公众号腾讯科技。
[2] OECD:《THE STATE OF IMPLEMENTATION OF THE OECD AI PRINCIPLES FOUR YEARS ON》。

学习数据合规,必买DPOHUB年卡
“人工智能治理公益翻译小组”志愿者
#目标#通过翻译全球人工智能法律、案例及标准,为中国人工智能立法提供支持。
#愿景#建立人工智能治理共建共享平台,相互赋能,让思想火花肆意碰撞。
#申请#请将“姓名+单位+职位+英语水平”等发送到微信号:heguilvshi
请说明姓名+单位+职位+英语水平

微信扫码关注该文公众号作者

来源:数据法盟

相关新闻

外汇商品 | 宏观环境仍利多黄金——2024年第二季度贵金属展望线上直播精彩回顾丨乘风启航,御势而行—渣打2024年全球及中国市场展望会东南亚研究 | 增长动能的再平衡——2024年下半年中国香港经济及金融市场展望SAP:2024年HR趋势展望AI技术引领新时代中年危机自救指南——2023年我靠这五本书获得平静图灵奖得主回顾与展望:数据库发展 60 年,AI 颠覆在即?总结·土地篇:2023 年数据回眸、关键词和 2024 年展望戴康:一张图看懂《债务周期视角中日的对比与展望——“债务周期大局观”系列(二)》数学思维究竟在哪里?——这又是一篇砸人饭碗的文章情绪垃圾桶or共情大师?敏感缺陷变优势,关键看这点——2023中国银行业发展回顾及2024年展望(附下载)彭博行业研究:全球汽车行业2024年展望报告外汇商品 | 2023年我国国际收支解读及2024年展望快30岁还觉得自己像小孩?成不成熟其实要看这一点——2024年这款新SUV太懂华人了!6大细节,8项贴心设计!龙年祝老司机大吉大利让孩子从“要我学”到“我要学”!关键是做对这一步——“别人卷智驾 我们卷沙发”,新能源汽车仍有6大谜题待解 |2024年展望从抗老到长生不老?2024年这5大美妆品类杀疯了2024年,这8个大趋势,将会深刻影响我们的工作大胆预言!2024年这五大申请趋势,你需要注意!贝莱德2024年展望:增长放缓,利率持续高企注意!2024年这9个国家公园需要提前预约才能入园口红还是玻尿酸?医美暴利神话的最大威胁不在美女 |2024年展望2023中国消费者洞察暨2024年展望
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。