人工智能行业专题研究:如何实现AGI,大模型现状及发展路径展望.pdf

  • 上传者:一鸣惊人
  • 时间:2024/04/07
  • 浏览次数:135
  • 下载次数:21
  • 0人点赞
  • 举报

人工智能行业专题研究:如何实现AGI,大模型现状及发展路径展望。目前大模型能力仍处于 Emerging AGI 水平,就模型成熟度而言,语言大模型>多模态大模型>具身智能大模型。根据 DeepMind 的定义,AGI 应能够广泛学习、执行复杂多步骤的任务。模型的 AGI 水平可分为 Level-0 至 Level-5 共 6 个等级,现阶段大模型在处理任务的广泛性上还有很大提升空间,即使是国际顶尖的大模型也仍处于 Level-1 Emerging AGI 阶段。不同类型大模型成熟度差异较大,目前大语言模型能力相对完善,落地应用场景丰富,底层技 术路线较为成熟;多模态大模型已经能够面向 B\C 端推出商业化产品,但细节优化空间较大;具身智能类大模型还在 探索阶段,技术路线尚不清晰。 现阶段讨论 AGI 能力提升仍需聚焦于多模态大模型的训练和应用。目前学界和业界重点关注 Scaling Law 的有效性, 以及模型算法的可能改进方向。

Scaling Law 仍有深入空间。根据 OpenAI 研究,随模型参数量、数据集规模、训练使用的计算量增加,模型性 能能够稳步提高,即 Scaling Law。从训练样本效率、训练时长、各类资源对模型的贡献维度来看,目前 Scaling Law 仍是提高模型性能的最优方法。OpenAI 测算在模型参数量扩展到 88 万亿及之前,Scaling Law 依旧有效, 则中短期仍可延续此路线进行训练。

模型骨干网络架构尚未演变至终局,微调及稀疏结构成为提升模型性能的重要方法。目前主流大模型均采用 Transformer 作为底层骨干网络,但针对编码器\解码器选择、多模态融合、自注意力机制等方面的探索仍在持续 推进。微调使用更小的数据量、更短的训练时间,让模型能够适应下游任务,以降低边际落地成本。以 MoE 为 代表的稀疏结构通过分割输入任务并匹配专家模型,能够提高模型的整体性能。

开源模型性能优化速度快于闭源模型。我们认为,目前第一梯队 AI 大模型纷纷进军万亿参数,且不远的将来大模型 将逐步逼近十万亿参数收敛值,对于本轮 AI 浪潮而言,找场景或优于做模型。在场景选择方面,对“幻觉”容忍度 高且能够替代人工的场景可实现应用率先落地,如聊天机器人、文本/图像/视频创作等领域;而对“幻觉”容忍度较 低的行业需要等待大模型能力提升或使用更多场景数据训练。

1页 / 共26
人工智能行业专题研究:如何实现AGI,大模型现状及发展路径展望.pdf第1页 人工智能行业专题研究:如何实现AGI,大模型现状及发展路径展望.pdf第2页 人工智能行业专题研究:如何实现AGI,大模型现状及发展路径展望.pdf第3页 人工智能行业专题研究:如何实现AGI,大模型现状及发展路径展望.pdf第4页 人工智能行业专题研究:如何实现AGI,大模型现状及发展路径展望.pdf第5页 人工智能行业专题研究:如何实现AGI,大模型现状及发展路径展望.pdf第6页 人工智能行业专题研究:如何实现AGI,大模型现状及发展路径展望.pdf第7页 人工智能行业专题研究:如何实现AGI,大模型现状及发展路径展望.pdf第8页 人工智能行业专题研究:如何实现AGI,大模型现状及发展路径展望.pdf第9页 人工智能行业专题研究:如何实现AGI,大模型现状及发展路径展望.pdf第10页
  • 格式:pdf
  • 大小:4.1M
  • 页数:26
  • 价格: 3积分
下载 兑换积分
留下你的观点
  • 相关标签
  • 相关专题
热门下载
  • 全部热门
  • 本年热门
  • 本季热门
分享至