人工智能安全治理情况如何?

人工智能安全治理情况如何?

最佳答案 匿名用户编辑于2023/12/19 11:39

加强安全治理刻不容缓,已经成为各方最大的共识。

1.人工智能安全治理趋严、趋紧、趋难

深度神经网络大模型的预训练以及在大规模 人机交互过程中强化学习必将带来人工智能 以认知发展为导向的“自我进化”,如何确 保这种自我性特征对人类社会有益而无害, 是目前需要面对的巨大挑战。 人工智能带来的挑战主要体现在技术安全、 应用安全和数据安全等三方面。从技术安全 看,人工智能技术的复杂性和不透明性造成 了“黑箱”困境。人工智能模型包含大量的 代码,人工智能的设计者利用各种来源的数 据训练算法,进行建模,获得结果。随着算 力的提升,海量数据被收集利用,机器学习 逐渐普及,人工智能高速迭代,在不依赖人 工调整的情况下,能够自我学习和更新,不 过,人工智能的设计者很难说明人工智能的 决策过程和结果,造成了其结果的“不 可 解释”。

从应用层面看,随着大模型与 AIGC 的快速融 合发展,生成的内容能够达到“以假乱真” 的效果,人人都能轻松实现“换脸”“变声 ”,人工智能在应用层的风险也相应增加, 所带来的虚假信息、偏见歧视乃至意识渗透 等问题无法避免,对个人、机构乃至国家安 全都存在较大的风险。此外,随着人工智能 技术的发展及应用的泛在化,越来越多的工 作将被机器取代,失业人群增加,这将对社 会公平提出挑战。根据牛津大学和耶鲁大学 的一项调研,研究人员预计未来AI将在多个 领域赶超人类,例如,卡车驾驶(2027年), 零售业(2031年),畅销书写作(2049年), 外科医生工作(2053年)19。

最后,从数据安全看,海量数据是人工智能 发展的基石,在采集、使用和分析这些数据 的过程中,存在数据泄漏、篡改和真实性难 验证等安全隐患。随着AIGC技术的发展,数 据安全问题的解决则更加趋难。用户在与大 模型交互的过程中输入的提示词可能被用于 迭代训练,并通过交互被提供给其他使用者。 随着AIGC向多模态发展,其文件格式更加丰 富,未来数据泄露问题将难以通过传统的数 据防泄漏(Data leakage prevention)方法 解决。 20意大利宣布禁用ChatGPT,限制OpenAI处理本国用户信息,澎湃新闻,https://www.thepaper.cn/newsDetail_forward_22539065 人工智能技术的快速迭代带来安全风险治理 难度的增加,各国目前呈现出政策法规先行、 监管趋严等特征。以Open AI开发的ChatGPT 这一具体产品为例,2023年3月31日意大利 数据保护局以违反《通用数据保护条例》 (General Data Protection Regulation, GDPR)为由暂时禁用ChatGPT20,并在此后 提出了一系列整改要求。随后陆续有德国、 法国、欧盟等发布数据监管措施。从立法层 面而言,中美欧三国作为人工智能发展的领 军国和地区,也均在积极进行探索。

欧洲已有专门的立法对人工智能进行强监管。 2021年4月,欧盟委员会提出了《人工智能法 案》提案(图25),2023年6月14日法案在 欧洲议会通过。按照立法程序,法案下一步 将正式进入欧盟委员会、议会和成员国三方 谈判协商,以确定法案的最终版本。届时该 法案有望成为全世界第一部综合性人工智能 治理立法,被各国监管机构广泛参考。从内 容来看,该法案通过将AI应用分为不同风险 级别,并针对不同等级风险实施不同程度的 限制措施。值得注意的是,与GDPR类似,该 法案具有域外效力,其第二条规定“法案适 用于在欧盟市场上投放人工智能系统或将其 应用于服务的供应商,无论供应商在欧盟或 第三方国家设立”,随着未来法案的通过可 能将进一步推动全球的AI监管和治理。

美国于2022年10月发布了《人工智能权利法案蓝 图》,提出了建立安全和有效的系统、避免 算法歧视,以公平方式使用和设计系统、保 护数据隐私等五项基本原则,且将公平和隐 私保护视为法案的核心宗旨,后续拟围绕这 两点制定完善细则。2023 年 1 月美国商务部 国家标准与技术研究院 (NIST)发布了人工智 能风险管理框架 (AI RMF 1.0),作为一份指导 文件,供设计、开发、部署或使用人工智能 系统的组织自愿使用,以帮助管理人工智能 技术的诸多风险。与欧盟的法案属于正式立 法不同的是,美国目前国家层面所颁布的框 架和蓝图均为指导性文件,不具备法律效力。 目前美国在人工智能领域的治理仍停留在行 业自律为主、监管为辅的阶段。

中国:在人工智能领域积极倡导“以人为本”和 “智能向善”,规制和引导新一代人工智能 技术研发和转化。针对生成式人工智能的快 速发展,自2023年1月10日起施行的《互联 网信息服务深度合成管理规定》对以“AI换 脸”为代表的深度合成技术进行了法律层面 的约束。2023年7月13日由国家网信办联合 多部委发布的《生成式人工智能服务管理暂 行办法》(以下简称“办法”),已于2023 年8月15日起施行。《办法》主要关注 AIGC 内容安全,对生成式人工智能服务实行包容 审慎和分类分级监管。此外,《国务院2023 年度立法工作计划》显示,《人工智能法》 已列入立法计划,草案预备年内提请全国人大常委会审议21。从我国对人工智能领域的立 法进程可以看出,我国在人工智能领域的安 全治理主要体现出精准分层治理、创新与监 管并进等治理理念和制度逻辑。8月31日起, 国内首批大模型通过《生成式人工智能服务 管理暂行办法》备案,包括百度、智谱、百 川 、 字 节 、 商 汤 、 中科院 ( 紫东太初 ) 、 MiniMax、上海人工智能实验室等8个大模型。 “备案制”既体现了政府积极引导大模型技 术规范发展,大模型厂商需紧跟政策步伐, 满足合规性要求,又在一定程度上反映出政 府对大模型创新的支持态度,对于提升公众 对大模型技术的认知和信任度有助力作用。

参考报告

毕马威&中关村产业研究院-人工智能行业全域变革图景展望:跃迁点来临(2023).pdf

毕马威&中关村产业研究院-人工智能行业全域变革图景展望:跃迁点来临(2023)风起于青萍之末,浪成于微澜之间。由ChatGPT所带来的新一轮人工智能热潮迅速席卷全球,可以被看作是推动数字经济时代生产力范式变革的标志性产品。人工智能的广泛应用将给人类未来的生产和生活方式带来巨大而深远的影响,并有望作为新的底层通用技术,点燃第四次科技革命!值此产业重要机遇期,毕马威携手中关村产业研究院通过行业调研和专家访谈,结合深入研究在本报告中共同发布了人工智能产业未来发展的十大趋势,期待能为AI产业界带来有益参考,锚定机遇,化解挑战。

查看详情
相关报告
我来回答