下面从介绍大模型在数据分类分级、APP(SDK)违规处 理个人信息检测等少量场景的商业化应用情况。
1.大模型赋能数据安全
自动化数据分类分级
数据分类分级是一种必备的数据治理方法,旨在依据数据的性质、内容、来源、用途等属性将其归入相应的类 别,同时根据数据的敏感性和安全风险级别进行分级。目前,该技术面临着难以准确识别非结构化数据、难以 自学习分类分级规则等挑战。 大模型通过自动化学习行业数据安全标准及已有分类分级的样例数据,或依据人工设置的规则提示,能够从海 量非结构化数据源中准确识别并提取关键特征,实现数据的自动化分类分级。例如,大模型通过学习医疗数据, 能自动化学习到应将患者病历归类为“健康信息 - 极高敏感”,医生处方归类为“医疗处方 - 高敏感”,患者 满意度调查问卷归类为“非诊断数据 - 低敏感”。而且,对于结构化数据,大模型通过学习行业规范、标准及 人工标注数据,能实现对数据库表名、字段名、注释和示例等信息的精确解读,可大幅提高数据分类分级的准 确度。 在行业应用方面,大模型在数据分类分级方面的成熟度已达 L2 级别。目前,大模型在分类分级标准自学习、 非结构化数据识别等方面已显示出显著成效。
自动化 APP(SDK)
违规处理个人信息检测 APP(SDK) 违 规 处 理 个 人 信 息 检 测 技 术 旨 在 识 别 APP、 软 件 开 发 工 具 包(Software Development Kit, SDK)、小程序中是否存在违反个人信息保护法规的行为。通过沙箱、深度包检测等技术,检测并报告个人信 息的违规收集、使用和共享情况,并根据相关法律法规与标准进行评估。目前该领域面临着难以准确理解和自 动适应复杂的合规要求等挑战。
大模型可在智能问答、个人信息识别、隐私政策分析、潜在问题发现及检测报告生成等方面为 APP(SDK)违 规处理个人信息检测提供有力支持,能帮助开发者更好遵循个人信息保护原则。一是智能问答服务。大模型通 过学习大量法律法规和标准规范文能够提供易于理解的法规解读,针对个人信息保护相关的政策疑问提供指导, 促进合规开发。二是个人信息识别。利用其在文本、图像和音频中识别个人信息的能力,大模型能够快速扫描 APP、SDK 和小程序,准确定位并提示存在个人信息。三是隐私政策分析。大模型能够理解和评估隐私政策的 合规性,包括政策的透明度、完整性以及用户知情同意等方面是否符合法律法规和标准规范。四是潜在问题发 现。基于对大量安全案例的学习,大模型能够识别 APP、SDK 和小程序中的潜在隐私问题,例如个人信息的过 度收集或未经同意的使用等。五是自动化检测报告生成。大模型能够自动编制详细的检测报告,明确列出问题、 问题类型、严重程度以及建议的解决方案等,帮助开发者快速识别并解决 APP 中的隐私问题。
在行业应用方面,大模型在 APP(SDK)违规处理个人信息检测方面的成熟度已达 L3 级别。目前,中国信息 通信研究院已推出“智御”大模型,提供政策标准解读、合规开发指导、公共服务平台使用咨询、常见问题解 答等智慧问答服务,以人工智能技术推动 APP 个人信息保护的合规化进程。
2.大模型赋能内容安全
智能文本内容安全检测
文本内容安全检测是指对文本信息进行自动化的审查和分析,旨在识别、标记、过滤或阻止文本中可能包含的 违法或不良信息。目前该领域面临着文本表述形式复杂多样,违法不良信息变种众多等挑战。 大模型融合了丰富的社会常识、法律法规知识以及伦理道德规范等,能够迅速识别与特定领域或情境相关的不 安全文本内容。而且,大模型能深入理解文本的多层次含义,包括字面意义、隐喻、讽刺、暗示等复杂表达方 式,以准确判断文本是否存在潜在违规、不良或敏感内容。例如,在论坛或博客平台,用户可能发布看似无害, 实则隐含极端政治立场的文章。大模型能够洞察文字背后的深层含义,识别其潜在的煽动性和危害性,触发内 容审核机制,防止这类信息误导公众。同样,在直播平台的弹幕评论区,大模型能够实时监控用户发送的每一 条弹幕,迅速识别并屏蔽含有谩骂、人身攻击或恶意刷屏等不党内容,以维护健康的直播环境。 在行业应用方面,大模型在文本内容安全检测方面的成熟度已达 L2 级别。鉴于社交媒体平台的特性与监管需求, 大模型在过滤社交媒体上的不良信息方面表现卓越,同时其应用也扩展到了电子商务和企业信息安全管理体系 中。
能图像视频内容安全检测
图像 / 视频安全检测通过计算机视觉与深度学习技术对视觉内容进行深入分析,旨在识别并过滤色情、暴力场 景等不适宜的内容。目前该领域面临着 AI 生成内容以假乱真、人类和工具难以准确识别等挑战。 大模型利用其强大的数据处理、多模态识别分析能力,能够高效识别异常和伪造内容,显著提升图像视频内容 安全检测的准确性和效率。在图像内容方面,大模型通过捕获局部特征以识别违规元素。在视频内容方面,大 模型不仅捕捉时间维度上的动态变化,还结合 Transformer 模型的全局注意力机制,以高效追踪潜在的违规行为, 理解复杂的视频场景和隐匿信息。例如,在社交媒体平台上,大模型能够准确识别用户上传的图像中是否包含 血腥、裸露、自残等敏感视觉元素,并及时进行标记和限制传播,从而保护未成年人和易感人群。此外,大模 型还能够识别图像和视频中的深度伪造痕迹,如换脸、合成人物、篡改场景等,而且能够有效检测 AI 生成的 图像和视频。这些内容具有高度逼真性,可能误导公众,威胁公共安全和社会秩序。通过大模型的高级识别技 术,可以揭露并防范这些虚假信息的传播,保护社会免受其负面影响。 在行业应用方面,大模型在图像 / 视频安全检测方面的成熟度已达 L2 级别。目前,大模型在社交媒体内容审核、 数字媒体合规审查及版权监测等领域已有较为明显的应用效果。
智能音频内容安全检测
音频内容安全检测通过语音识别与自然语言处理技术,对含有不良言语、仇恨言论或其他不当内容的音频进行 有效识别和过滤。目前该领域面临着语音表述方式灵活多样,违法词语占比很少难以准确等挑战。 大模型不仅能深入解析音频数据,直接识别异常语音内容,还能将音频转化为文本进行进一步的深度分析,以 精准捕捉攻击性言论或隐晦的暗示。此外,大模型还能够捕捉语音中的语调、语速和情绪等席位特征,并与已 知的不良内容和情绪模式进行匹配,从而实现精准过滤。例如,通过分析音频中的说话节奏、音调变化等特征, 并结合上下文理解,大模型可以识别潜在的威胁或不当行为,如辱骂或威胁性言论等。同时,它还能够分辨音 频中是否包含合成语音,以防止利用语音合成技术进行欺诈、身份冒充或散布虚假信息。 在行业应用方面,大模型在音频内容安全检测方面成熟度已达 L2 级别。目前,大模型在音频内容安全检测方 面的应用,在社交媒体平台,尤其是视频直播和在线游戏场景中,表现出了特别显著的效果。