各国如何推进政务领域大模型应用?

各国如何推进政务领域大模型应用?

最佳答案 匿名用户编辑于2024/02/22 11:18

各国(地区)政府在 推进应用的同时,同步出台政府机构使用生成式 AI 的相关规范,着 力实现新技术应用的安全、向善、可信、可控。

1.发布临时指南,使用趋向合规

截至 2023 年 10 月,已有韩国、新加坡、美国、英国、澳大利亚、 新西兰、日本、加拿大、丹麦等 9 个国家出台了政府机关使用生成式 AI 的专项治理规范。美国、日本的部分地区还出台细化规范或要求, 指导当地公务员合理使用 AIGC 新技术。政府对人工智能工具的使用 趋向合规。 从出台背景看,各个国家或地区普遍认同 AIGC 技术将为政府机 构提供诸多潜在好处,出台政策旨在最大限度释放新技术应用潜力, 鼓励地方机构探索更多用途。但同时,AIGC 技术的迅速发展及在公 务员群体的广泛流行,也带来了诸多不确定性风险,迫使政府不得不 在短时间内制定临时性政策。西雅图市指出:“AIGC 在短时间内变 得非常流行和普遍,公务员可能很有兴趣使用此类系统开展城市治理, 其潜在政策影响和风险尚未充分了解,本临时政策旨在最大限度减少 技术使用可能出现的问题。”加拿大政府也指出:“AIGC 作为一类 新的技术尚处于不断发展阶段,潜在政策应用和风险不够明朗,不应在所有情况或场景中使用该技术,应将其使用限制在可以有效管理风 险的活动中。”

从适用范围看,文件主要规范政府机关的内部使用行为。美国总 务管理局将指南适用范围扩展至政府信息系统的承包商,波士顿市将 适用范围扩展为公立学校外的所有城市机构和部门,圣何塞市要求所 有政府相关人员(城市公务员、相关供应商、志愿者等)在工作中都 需要遵循指南要求。 从有效期限看,各国或地区普遍将出台的指南作为临时性过渡政 策,有效期多为一年或半年,或根据技术发展和应用情况持续更迭, 体现了政策的灵活性和治理的敏捷性。 

从规范内容看,主要对政府机构使用生成式 AI 的风险、用例、 规范做了提示或明确。从发布时间线看,各个国家或地区的政策内容 相互借鉴,呈现逐步完善的过程。2023 年 4 月 18 日,美国西雅图市 率先发布全球首份适用于公共部门的生成式 AI 临时政策,对政府机 构获得、使用 AIGC 技术及责任归属做了初步要求。5 月 18 日,波士 顿市发布了首份临时指南,详细阐述了公共部门应用 AIGC 的目的、 原则、示例及每个场景的详细操作规范。6 月,美国总务管理局、英 国、澳大利亚集中发布相关政策规范,适用层级由地方上升至中央部 门,内容上进一步明确了软件采购、安全测试、禁止使用场景等要求, 同时细化各部门监管职责。7 月,美国圣何塞市发布生成式 AI 使用 协议,首次系统提出应用场景的分类分级方法。9 月,加拿大发布联 邦机构使用生成式 AI 的指南,除一般性风险外,还明确过度依赖人 工智能可能会干扰行政判断、扼杀创造力、影响程序公平性等风险。 10 月 30 日,拜登签署《关于安全、可靠和可信的 AI 行政命令》,提 出采取 3 项行动“确保政府负责任且有效地使用人工智能”,一是为各机构使用人工智能发布指南,制定保护权利和安全的明确标准,改 进人工智能采购,加强人工智能部署;二是通过更快速、更高效地签 订合同,帮助机构更快、更便宜、更有效地获取指定的人工智能产品 和服务;三是加快招聘 AI 专业人才,作为由人事管理办公室、美国 数字服务部、美国数字军团和总统创新奖学金领导的全政府 AI 人才 激增计划的一部分,各机构将为相关领域的各级员工提供 AI 培训。

2.厘清关键风险,提出管控原则

作为一项新的技术工具,将 AIGC 引入政府治理面临多重风险, 各国重点聚焦讨论和解决以下四类问题: 一是隐私和数据安全。政务数据具有高敏感性,极易因误用或滥 用导致信息泄露。当前,隐私和数据安全问题已经成为各国政府推进 大模型应用的首要关注风险。日本鸟取县于 4 月 20 日宣布,禁止在 答询资料、预算编列以及制定政策上使用 ChatGPT,不允许公务人员 的电脑连到 ChatGPT。美国众议院于 6 月 8 日就 ChatGPT 使用制定 新规,仅允许议员使用付费版 ChatGPT Plus,因 Plus 版本提供“保护 国会数据等重要隐私”的功能,同时禁止输入未公开文本内容。韩国 国家情报院要求各部门公务员在使用 GPT 系统时,除公开信息不得 输入其他数据。

二是无意识的偏见和歧视。AIGC 工具可能生成歧视性或不具有 代表性的内容,或者包含刻板印象(如与性别、种族和民族等多重交 叉身份因素相关的偏见)。许多生成模型都是根据互联网数据进行训 练的,这通常是生成偏差的根源。加拿大国际治理创新中心研究指出, ChatGPT 具有政治倾向,使用 ChatGPT 类工具进行政府治理容易导 致政治价值观受到侵害。2023 年 3 月,美科技伦理组织向联邦贸易 委员会投诉称,GPT-4 具有偏见性、欺骗性,易导致对边缘化群体的 负面联想和有害的定型观念。6 月 9 日,美国两党参议员提出一项新 法案,要求披露政府在教育、就业等领域关键政策制定中人工智能的使用情况,以避免政策歧视和偏见。 三是技术可信度和透明度。研究指出,已有大模型训练语料库主 要来源于维基百科、社交媒体平台等公开数据,专业知识占比较低 15, 应用在政府治理活动很可能产生不准确、不连贯、不完整的内容。日 本横须贺市对政府机关工作人员使用 ChatGPT 情况的调查显示,近 一半使用者认为 ChatGPT 会出现不恰当答案,希望提高回复准确性。

四是技术依赖和影响程序公平。过度依赖生成式 AI 工具可能会 干扰公务员个人的自主权和判断力,强化自动化偏见,还可能导致公 务员批判性思维能力下降,从而抑制创新和创造力,导致对政策分析 不全面或不完整。此外,生成式 AI 模型的不透明性使得追踪和理解 其输出结果变得困难,在政府机构有义务向公众提供行政决策(如拒 绝福利政策)理由的情况下,可能破坏程序的公平性。当公众使用政 府提供的生成式 AI 工具(如聊天机器人)查找信息或进行公共通信 时,可能接收到不适当内容或错误信息,从而导致政府承担不必要的责任。

各国出台的临时指南,也着重聚焦上述四方面风险,提出相应的 管控原则。一是确保数据和隐私安全。普遍要求禁止输入非公开、涉 密及公民个人隐私信息。美国总务管理局禁止工作人员私自访问公开 的第三方 AIGC 平台。澳大利亚和新西兰要求,禁用工具保存聊天记 录的权限,以避免大模型从聊天记录中推断出政府信息或将记录用于 二次训练。二是避免偏见和歧视。强调公共部门使用 AIGC 应有助于 所有种族、年龄、性取向以及残障人士等人群的社会福祉,尽量减少 技术弱势群体面临的风险,在部署系统之前持续测试数据、模型和输 出中的偏差。三是保障技术可信度和透明度。普遍要求公务员对通过 AIGC 得到的建议或决策进行验证及人工审查,不得将 AIGC 提供的 回复作为信息唯一来源。政府应用新技术若对公众产生影响,应当公 开其使用过程,明确告知如何、何时、为何使用 AIGC 工具,以及如 何解决潜在风险。四是降低技术依赖。强调公务员应当受过 AIGC 应 用培训,了解工具的优点、局限,学习如何创建有效的提示并识别输 出结果的潜在问题。对 AIGC 的使用应当有效支持组织业务需求,并 非在所有情况下 AIGC 技术都是最佳选择。

3.框定场景范围,分类推进应用

AIGC 赋能政府治理活动广泛,从政策咨询、方案设计到服务提 供,受众和业务流程不同,可能产生的效益及风险也不同。从各国经 验看,大致都明确了场景分级分类的总体治理思路,但在一些复杂场 景应用规范上仍存在分歧。 依据风险高低对应用场景进行分类。一般采取三分法或两分法对 场景分类。美国圣何塞市根据“信息泄露风险”和“不利影响风险” 两大维度将应用场景分为中风险、高风险、不可接受风险三类(见图 6)。加拿大将场景归纳为谨慎使用、可以使用、不适用 AIGC 技术 三类。英国内阁将场景分为一般示例、专业示例、不当示例三类,一 般示例指使用生成式 AI 进行研究、总结信息等,专业示例指开发代 码、文本数据分析等复杂场景。澳大利亚简单分为低风险情形、不可 接受风险情形两类,后者主要包括:需输入大量政府数据或机密、敏 感信息,提供服务或做出决策,输出用于政府系统的代码等。从划分 结果看,不管是两分法还是三分法,主要考虑的都是信息泄露风险和 不利后果风险两大维度,不利后果包括歧视、决策偏差、输出信息不 准确等。此外,韩国、美国波士顿市、华盛顿州等地仅列示推荐使用 的场景清单,未对场景做出限制。

普遍强调不允许直接利用 AIGC 工具开展公共决策。加拿大政府 认为,现阶段生成式人工智能可能不适合用于行政决策,因联邦政府 无法确保 AIGC 决策的透明度、问责制和公平性。澳大利亚、美国圣 何塞市强调,运用 AIGC 直接提供服务或做出决策,可能会改变个人 或社区的权利、自由及获得服务的机会,构成不可接受风险。2023 年 以来,美国多个州表达对政府机构使用生成式 AI 进行自动化决策偏 见的担忧,并提出法案,要求政府工作者遵循负责任的人工智能采购 和实施实践。同样,OpenAI 的使用条款指示用户,不要在有关信贷、 就业、教育机构或公共援助服务的决策中使用 ChatGPT。谷歌禁止其 生成式人工智能产品的用户“在影响物质或个人权利或福祉的领域做 出自动决策”。

在翻译、编码、语音生成等场景应用上,各国态度存在分歧。在 翻译场景,圣何塞市认为,现阶段 ChatGPT 等大语言模型并不比 Google Translate 等专业的翻译软件更适合翻译,其性能还有待专业人员进行评估,因此禁止直接使用 ChatGPT 进行工作文档的翻译。其 他国家或地区对该场景限制较少。在编程场景,英国、加拿大、美国 总务管理局认为可以用 ChatGPT 等工具开发代码,用来创建网站前 端界面等,并要求人工审查其准确性、功能有效性、安全性等。日本 东京都政府接受宏、VBA 等低代码生成。澳大利亚、新西兰、美国圣 何塞市则认为,使用大模型开发用于政府系统的代码是不可接受风险, 因为生成的代码可能是过时的、受版权保护的或存在漏洞的,但可以 用来检查代码漏洞。在语音生成场景,圣何塞市禁止政府在公务活动 中通过 AI 生成音频,因为在任何城市文件或录音中使用人工智能复 制一个人的声音,可能会损害工作人员和居民对政府的信任,同时存 在潜在的法律问题。其他国家和地区对该方面限制较少。

参考报告

数字时代治理现代化研究报告(2023年):大模型在政务领域应用的实践及前景.pdf

数字时代治理现代化研究报告(2023年):大模型在政务领域应用的实践及前景。当前,生成式人工智能大模型成为各行各业关注重点和热议话题。以ChatGPT、Bard为代表的大模型是人工智能技术的一次飞跃,代表着AI技术从感知世界、理解世界向创造世界的跃迁。政务领域涉及大量内容生产及人与人交互环节,与生成式AI大模型高度的信息收集、文本总结、智能交互能力契合度较高,是未来生成式AI大模型应用的肥沃土壤。自大模型工具出现以来,全球各国纷纷探索新技术在政府治理中的应用可能,推动形成一波以智能化为主要特征的数字政府改革浪潮。从应用广度看,大模型在政务领域的应用探索已较为普遍,包括美国、英国、澳大利亚、加拿...

查看详情
相关报告
我来回答