AIGC技术正以惊人的速度重塑着创新的边界,InfoQ 首期《大模型领航者AIGC实践案例集锦》电子书,深度对话30位国内顶尖大模型专家,洞悉大模型技术前沿与未来趋势,精选10余个行业一线实践案例,全面展示大模型在多个垂直行业的应用成果,同时,揭秘全球热门大模型效果,为创业者、开发者提供决策支持和选型参考。关注「AI前线」,回复「领航者」免费获取电子书。
OpenAI 被曝非法阻止员工披露 AI 安全风险
近日,OpenAI 因涉嫌使用限制性保密协议 (NDA) 限制员工发声而再次受到审查。
据外媒报道, 举报人致信美国证券交易委员会,称 OpenAI 强迫员工签署“非法限制性”协议,阻止他们披露公司技术潜在的危害。
信上显示,OpenAI 向其员工发出了过于严格的雇佣、遣散费和保密协议,这些协议可能导致向联邦监管机构提出对 OpenAI 的担忧的员工受到处罚。
“这些合同发出了一个信息,即:OpenAI 不希望员工与联邦监管机构交谈,”其中一名举报人说,“ 我认为,如果人工智能公司屏蔽审查和异议,就无法构建安全且符合公众利益的技术。”
OpenAI 发言人 Hannah Wong 在一份声明中表示:“我们的举报人政策保护员工进行受保护披露的权利。此外,我们认为对这项技术进行严格讨论至关重要,并且已经对我们的离职流程进行了重要修改,删除了非贬损条款。”
美国证券交易委员会已经对该投诉做出了回应,但尚未公布任何有关其将采取或不采取的行动的细节。但举报人表示,即使 OpenAI 在其非法合同被公开披露后进行改革,执法仍然是最重要的。“这不是为了攻击 OpenAI 或阻碍人工智能技术的发展,而是为了向人工智能领域的其他参与者以及整个科技行业传递一个信息,即侵犯员工或投资者举报不当行为的权利的行为将不会被容忍。”
据报道,参议员 Grassley 表明:“监测和减轻人工智能带来的威胁是国会保护国家安全的宪法责任的一部分,而举报人对这项任务至关重要。”“OpenAI 的政策和做法似乎对举报人的权利造成了寒蝉效应,使他们无法畅所欲言,也无法因其受保护的信息披露而获得应有的补偿。”
他补充说,如果联邦政府要在人工智能领域保持“领先一步”,OpenAI 的保密协议必须改变。
此前据外媒报道,一位匿名消息人士声称, OpenAI 为了满足公司领导人设定的 5 月发布日期,在未确保其安全性的情况下,匆忙通过了安全测试,并庆祝了该产品。该员工称:“在测试产品安全性之前,他们就计划好了庆祝活动。”
人工智能的快速发展加剧了政策制定者对科技行业力量的担忧,引发了大量的监管呼吁。在美国,人工智能公司在很大程度上是在法律真空中运作的。政策制定者表示,如果没有举报人的帮助,他们就无法有效地制定新的人工智能政策,举报人可以帮助他们了解相关技术带来的潜在威胁。
参考链接:
https://www.washingtonpost.com/technology/2024/07/13/openai-safety-risks-whistleblower-sec/?continueFlag=7791616afbbc3fe3125af5b41149023f
在主题演讲环节,我们已经邀请到了「蔚来创始人 李斌」,分享基于蔚来汽车 10 年来创新创业过程中的思考和实践,聚焦 SmartEV 和 AI 结合的关键问题和解决之道。大会火热报名中,7 月 31 日前可以享受 9 折优惠,单张门票节省 480 元(原价 4800 元),详情可联系票务经理 13269078023 咨询。
今日荐文
微信扫码关注该文公众号作者