《人工智能安全治理框架》发布:建立AI服务可追溯管理制度

人工智能是人类发展新领域,给世界带来巨大机遇,也带来了各类风险挑战。9月9日,全国网络安全标准化技术委员会制定的《人工智能安全治理框架》1.0版(以下简称《框架》),对外公开发布。

《框架》将人工智能安全风险按内生安全和应用安全分类,并给出相应的技术应对措施。围绕“鼓励创新,对人工智能研发及应用采取包容态度”“快速动态精准调整治理措施”“明确主体安全责任”“共享最佳实践”的原则,《框架》推动各方就人工智能安全治理达成共识,促进人工智能安全有序发展。

图片

《框架》提出,人工智能系统设计、研发、训练、测试、部署、使用、维护等生命周期各环节都面临安全风险,既面临自身技术缺陷、不足带来的风险,也面临不当使用、滥用甚至恶意利用带来的安全风险。

其中人工智能内生安全风险包括模型算法安全风险、数据安全风险、系统安全风险,人工智能应用安全风险包括网络域安全风险、现实域安全风险、认知域安全风险和伦理域安全风险。

上述风险中模型算法安全风险的篇幅最长,共细化成六方面:可解释性差;偏见、歧视;鲁棒性弱;被窃取、篡改;输出不可靠;对坑攻击。以排在第一位的可解释性差为例,此风险是指以深度学习为代表的人工智能算法内部运行逻辑复杂,推理过程属黑灰盒模式,可能导致输出结果难以预测和确切归因,如有异常难以快速修正和溯源追责。

针对此类风险,《框架》指出要不断提高人工智能可解释性、可预测性,为人工智能系统内部构造、推理逻辑、技术接口、输出结果提供明确说明,正确反映人工智能系统产生结果的过程。在设计、研发、部署、维护过程中建立并实践安全开发规范,尽可能消除模型算法存在的安全缺陷、歧视性倾向,提高鲁棒性。

让大模型给出的结果更精准,是大模型落地到企业端的基础,可见治理此类风险对整个行业的重要性。

如何建立人工智能服务可追溯管理?《框架》认为,对面向公众服务的人工智能系统,应通过数字证书技术对其进行标识管理。制定出台人工智能生成合成内容标识标准规范,明确显式、隐式等标识要求,全面覆盖制作源头、传播路径、分发渠道等关键环节,便于用户识别判断信息来源及真实性。

《框架》还提供了人工智能安全开发应用指引,针对模型算法研究者、服务提供者、重点领域使用者、社会公众等不同角色,提出具体建议。

对社会公众而言,《框架》建议其选择信誉良好的人工智能产品,提高个人信息保护意识,避免在不必要的情况下输入敏感信息。同时,社会公众在使用人工智能产品时,应关注网络安全风险,避免人工智能产品成为网络攻击的目标。尤其是,注意人工智能产品对儿童和青少年的影响,预防沉迷及过度使用。

值得一提的是,《框架》指出,目前人工智能研发应用仍在快速发展,安全风险的表现形式、影响程度、认识感知亦随之变化,防范应对措施也将相应动态调整更新,需要各方共同对治理框架持续优化完善。

*文章为光网号的作者观点,不代表平台立场
举报
展开阅读全文
0
赞赏
广告
{{moduleName}}
{{moduleName}}
{{item.NickName==''?item.UserCode:item.NickName}}
{{item.Like_quantity}}
{{item.Comment_content}}
{{formatDate(item.Addtime,"yyyy/MM/dd")}}·
回复
删除
{{item.NickName==''?item.UserCode:item.NickName}}: {{item.ReplyContent}}
查看全部{{item.ReplyNumber}}回复
暂无信息 快来说两句
还没评论 快来说两句
评论
我来说两句…