Al危害人类是先见之明还是杞人忧天?谈谈规制人工智能的五种方式
▲ (视觉中国 / 图)
全文共2070字,阅读大约需要5分钟
科技与财经界对AI忧虑,即便有道理也是杞人忧天,他们很可能有先见之明,但却没有采取行动的实力和权力。最终是否对AI采取监管行动的决定权,还在于政治。
但科技与财经界对AI忧虑,即便有道理也是杞人忧天,他们很可能有先见之明,但却没有采取行动的实力和权力。最终是否对AI采取监管行动的决定权,还在于政治。
西方业界、政府与社会,现在正在采取措施,尝试对AI进行监管,以降低其对人类产生危害,大致有五种可能方式:
第一,欧盟基于AI的风险等级制定法规。
欧盟的《人工智慧法案》正在协商过程中,其理念是设置一系列可变动的监管标准,旨在对风险最高的AI系统施加严格限制。该法案将AI风险分为四个等级:不可接受的风险、高风险、有限风险、最低风险。
“不可接受的风险”包括:对个人进行社会信用评分、在公共场所进行实时面部识别等AI系统,这类工具将被禁止。其它风险略低的工具,如可以生成篡改视频或“深伪”影像的软件,必须披露“此乃AI生成内容”,违规者将被处以相当于其全球销售额6%的罚款。风险最低的系统包括:垃圾邮件过滤器、AI生成的电子游戏。
欧盟这套思路,是典型的“西式立法监管”:从古罗马时代确立“罗马法”的一脉相承法治思路。历史证明:西式法治有其优点与长处,但也存在治理效率较为低下的弱点。
而AI科技有可能造成下述问题:法治化的调查报告尚未写完,基于互联网传播的AI,就可能闪电般地造成全球性灾难。
第二,美国的自愿行为准则。
美国政府为美国企业提供了“自愿监管安全风险”选择。白宫于2023年7月宣布:包括Google、Amazon、Meta、Microsoft、Anthropic、Inflection、OpenAI等在内的多家顶级人工智能研发企业,都已同意对这些系统进行自我监管。
这些“自愿监管承诺”包括进行第三方安全测试,即所谓“红队检测”;对偏见及隐私问题进行研究;向政府和其它机构共享风险信息;开发能够应对气候变化等社会挑战同时还包含识别AI生成素材的透明性监管等等,美国的多家大企业已在履行上述承诺。
第三,美国基于技术制定法案。
美国政界精英认为:任何针对AI的实质性监管,都必须来自国会。参议院多数党领袖、纽约州参议员查克·舒默于2023年9月召开的“人工智能论坛”发表演讲,已承诺将在2024年出台全面的人工智能监管法案。
议员们目前已提出“关注AI系统创造和部署”法案。希望设立一个类似于FDA(食品药物管理局)的专业化常态化机构,来监管AI服务供应商,审核新AI系统的牌照,并制定各类行业标准。
OpenAI的CEO萨姆·奥尔特曼对此表示支持,但Google提议:以“国家标准暨技术研究院”作为政府监管的核心机构。该研究院成立于一个多世纪前,没有任何监管实权。
其他法案则重点关注了AI系统通过吸收知识产权来创建自身系统的版权侵犯行为,有提案还讨论了选举安全和限制使用“深伪”技术的问题。
美国的两套思路,是典型的双管齐下:“自愿监管”是传统资本主义商业精神的延续,类似于荷兰航海家威廉•巴伦支在数百年前用生命所创造的“信托精神”。
而立法监管则是对商业精神的补充,托底性制度设置。设立专业监管机构,理论上比仅依靠法院和司法诉讼的效率高得多,当然也要看人的执行力。
第四,中国在监管方面行动迅速。
2021年以来,中国迅速出台了旨在监管推荐算法、深伪等合成内容和生成式人工智能的政策法规。
这些规定包含禁止社交平台利用推荐算法设置价格歧视;人工智能开发商必须对AI生成的合成内容做出标记;针对诸如OpenAI类聊天机器人式生成式AI的监管草案;要求保证训练数据和该技术创作内容真实准确。
第五,全球合作。
许多专家认为:有效的人工智能监管,需要全球合作。
但到目前为止,在此问题上,各国政府的外交努力几乎未取得任何实质性成果。世界各国的监管机构采取不同方法进行监管,结果导致对AI的全球监管格局高度分散、混乱、低效。这种跨国界科技,目前正在以指数级速度助长虚假信息传播,并即将颠覆现有就业市场,甚至可能给人类存续带来风险。
专家们呼吁:建立国际性AI监管机构,效仿为限制核武扩张而建立的“IAEA(国际原子能机构)”,以全球合作来监督、管理这种跨国界科技。
但是,这项毫无疑问方向正确、富有前瞻性的建议,遭遇的最大难点在于:人类的文明冲突、意识形态对立、地缘政治争端、经济竞争、民族主义浪潮……这些因素都成为AI监管国际合作的重大障碍。
看来,人类监管由自己创造的但未必能有效控制、跨国界跨文化的“第二类智慧”,至少得同时尝试上述五种可能方式,以确保自身“第一类智慧”和物种存续的安全。
(本文仅为作者个人观点,不代表本报立场)
微信扫码关注该文公众号作者