新加坡AI治理测试框架和工具包:AI Verify
早鸟价最后三天 | 扫码报名《欧盟人工智能法》
支柱 | 原则 | 评估方法 |
人工智能和人工智能系统使用的透明度: | 透明度: | 通过文件证据(例如公司政策和沟通材料)的流程检查进行评估,为可能受人工智能系统影响的个人提供适当的信息。 |
了解人工智能模型如何做出决策: | 可解释性: | 通过技术测试和过程检查相结合的方式进行评估。 |
可重复性/再现性: 通过内部或第三方复制人工智能系统,确保人工智能输出的一致性。 | 通过文件证据的流程检查进行评估,包括人工智能模型来源、数据来源和版本控制工具使用的证据。 | |
确保人工智能系统的安全性和弹性: | 安全: | 通过对重要性评估和风险评估的文件证据进行流程检查进行评估,包括如何识别和减轻人工智能系统的已知风险。 |
安全: | 目前不适用 | |
鲁棒性: | 通过技术测试和过程检查相结合的方式进行评估。 | |
确保公平: | 公平性: | 通过技术测试和流程检查相结合来评估无意歧视的缓解情况。 |
数据治理: | 目前不适用 | |
确保对人工智能系统进行适当的(人类)管理和监督: | 问责制: | 通过文件证据的流程检查进行评估,包括用于适当管理和监督人工智能系统开发和部署的明确内部治理机制的证据。 |
人类代理和监督: | 通过对文件证据进行流程检查来评估人工智能系统的设计方式不会降低人类做出决策或控制系统的能力。这包括定义人类在人工智能系统监督和控制中的角色,例如人在环、人在环或人在环外。 | |
包容性增长、社会和环境福祉: | 目前不适用 |
培育一个社区,促进对AI测试框架、代码库、标准和最佳实践的使用和发展; 创建一个中立的平台,促进对AI测试和治理的开放式合作和思想交流; 培养一支AI倡导者网络,通过教育、展览和营销推动对AI测试的广泛采用。
时间:六月第二期(周末两天) 形式:线下为主、线上同步 费用:6800元,三人以上团购价单独询价 地址:上海市静安区江场三路250号16号楼5层 咨询:138 1664 6268,[email protected] 扫描二维码索取报名表及报名咨询
微信扫码关注该文公众号作者