如何看待人工智能产业关键词?

如何看待人工智能产业关键词?

最佳答案 匿名用户编辑于2025/06/19 08:43

大模型成本与效率矛盾凸显,行业面临算力和能耗成本、优质语料短缺与集群整 体效率下滑的三重困境。

1.人工智能产业 2025 年中关键词一:“扩张”

半导体产业和技术持续进步,算力扩张为 AI 产业发展筑基

摩尔定律未明显失效、半导体产业和技术持续进步,算力扩张没有显著瓶颈。摩 尔定律是指集成电路上可容纳的晶体管数目约每隔 18 至 24 个月便会增加一倍, 本质是计算性价比的指数增长。当前,传统制程微缩面临物理极限挑战,严格意 义上的摩尔定律或正接近极限。但通过多维度的技术创新,摩尔定律的核心目标, 即计算性能的持续指数级提升,仍在以新的形式延续,3D 堆叠与先进封装、异构 计算架构等微缩路线之外的设计与工艺贡献度在上升。尽管技术难度剧增,传统 微缩路线制程的升级也仍未停滞:根据 ASML 预测,每个封装中的晶体管数量仍 然每两年翻一番,预计到 2030 年将达到 1 万亿个晶体管。生成式 AI 的发展将加 速摩尔定律的进程,2030 年全球半导体销售额将超过 1 万亿美元,预计 2025-2030 年复合年增长率 9%。

2025 年 3 月 19 日英伟达发布新一代 GPU 芯片 Blackwell Ultra,英伟达芯片的更 新节奏进一步印证了 AI 算力芯片正沿着摩尔定律的节奏持续演进。从芯片性能 对比数据来看,英伟达 A100 80GB、H100 SXM5、H200 SXM5、B100 和 B200 SXM5 在算力密度、显存带宽和容量等方面均有显著提升。算力芯片持续进步的 背后是算力供给的“扩张”,以及训练、尤其是推理成本的几何下降,这主要得益 于芯片技术的创新和生产工艺的优化。这种算力扩张为 AI 模型的规模化发展及 性能提升提供了坚实的技术基础,进一步验证了 Scaling Law 在 AI 产业发展中的 持续有效性。

短期内,Scaling Law 将继续发挥作用,训练侧算力需求将继续随着模型规模的扩 大继续扩张。Scaling Law 指模型性能与参数量、数据量及计算量之间的幂律关系, 大语言模型的性能会随着模型参数量、数据量和计算量的增加而提升,这一规律 在过去几年中得到了反复验证。从 GPT 3 到 GPT 4,大模型参数量从 1750 亿增至 1.8 万亿,训练数据量从 0.3 万亿增至 13 万亿,同时模型规模的跃升也伴随着显 著的性能改进。尽管随着模型规模的扩大,训练所需的计算资源呈指数级增长, 获取更多有效数据的难度也日益增加,对预训练阶段 Scaling Law 的持续生效提出 挑战,但更高效的芯片设计、分布式计算框架的优化等硬件技术和数据合成技术、 多模态数据的引入等更高效的数据利用,仍在为 Scaling Law 的延续提供支持。 由于新兴的扩展方法和技术,人工智能的改进速度比以往任何时候都快,为 Scaling Law 的持续有效性提供了有力支撑。在 2025 年 3 月 GTC 大会上黄仁勋 指出,Scaling Law 已从单一的预训练扩展演化为预训练、后训练和测试时扩展三 个阶段。预训练阶段通过数据量、模型参数量和算力的线性堆叠提升基础能力; 后训练阶段利用强化学习和人类反馈数据优化模型,显著提升复杂任务能力;测 试时扩展则通过动态分配计算资源和多步骤问题分解,使模型表现与计算时间正 相关。此外,技术突破如 DeepSeek R1 模型的推理算力提升、物理 AI 和代理 AI 的涌现,以及模型架构创新,进一步验证了 Scaling Law 的弹性化发展。多模态数 据的爆发式增长和算力成本的下降,也从数据和算力维度为 Scaling Law 提供了双 重驱动。

AI 产业将以更广义的 Scaling Law 扩张。Open AI 的测试结果显示,随着强化训 练时间(train-time compute)和推理计算量(test-time compute)的增长,o1 模型 性能也会随之提升。DeepSeek R1-Zero 和 R1 的出现再次证明了强化学习的潜力 所在。DeepSeek R1-Zero 以 DeepSeek-V3-Base 为基础,不使用人类专家标注的监 督微调(SFT),完全依赖强化学习,DeepSeek R1 在此基础上引入冷启动数据、 增加以推理为中心的强化学习、拒绝采样、全领域监督微调和全领域强化学习的 训练步骤,展现出长文本推理及长链推理能力、自我修复和启发式搜索的能力, 再次验证了 Post-Training Scaling Law 的有效性。

科技巨头算力资本支出的持续增加,印证了算力继续扩张的趋势,为 AI 产业发 展奠定算力基建投入基础。据《财经》杂志统计,亚马逊、微软、谷歌和 Meta 2024 年资本支出达历史最高点,分别为 777 亿美元、756 亿美元、525 亿美元和 373 亿 美元,总额超 2400 亿美元,同比增长 63%;预计 2025 年资本支出环比增加约 1000 亿美元、800 亿美元、750 亿美元、600 亿至 650 亿美元。

硬件加速落地、应用拓展及大模型迭代,驱动推理侧算力需求增长

AI 硬件加速落地、应用场景拓展与大模型迭代形成合力,推理侧算力需求将大幅 增长。根据 IDC 与浪潮信息联合发布的《2025 年中国人工智能计算力发展评估报 告》预测,中国推理算力的占比将逐渐上升,2028 年市场份额将达到 73%。

AI 眼镜、AI 耳机等 AI 端侧智能终端硬件的加速落地,多模态交互和实时智能服 务推动推理侧算力需求快速增长。低成本开源模型如 DeepSeek 契合 AI 端侧发展 需求,如字节跳动 OlaFriend AI 智能体耳机、李未可 View AI 眼镜等终端设备智 能化普及将推高推理侧算力需求。以 AI 眼镜为例,AI 眼镜需同步处理视觉、听 觉、语言等数据,目前上市的 AI 眼镜已实现提词、拍摄、物体识别、实时翻译、 导航、健康监测等功能,需要强大的推理算力来支持其复杂的计算任务。IDC 预 测,2025 年全球智能眼镜市场出货量为 1280 万台,同比增长 26%,其中中国智 能眼镜市场出货量为 275 万台,同比增长 107%;2030 年 AI 眼镜全球渗透率将达 20%。 新兴 AI 应用场景涌现,应用推广和复杂任务需求需要消耗大量推理算力。一方 面,微信、百度等接入 DeepSeek 等低成本开源模型, AI 搜索用户量将进一步扩 大,用户激增和并发请求对推理侧算力供给形成压力。另一方面,AI 技术正逐渐 渗透至医疗、金融、教育、办公、自动驾驶等多元化场景,部分场景要求低延迟、 高精度或实时性推理,多行业渗透与复杂任务需求带动推理侧算力需求增长。 大模型向多模态加速迭代,推高推理算力消耗。根据观研天下的数据,2024 年上 半年,国内多模态大模型行业市场规模为 33.33 亿元。根据谷歌云报告,2025 年 多模态 AI 将成为企业采用 AI 的主要驱动力,预计 2025 年全球多模态 AI 市场规 模将达 24 亿美元,到 2037 年底达到 989 亿美元。多模态模型需同时处理文本、 图像、视频等多种数据类型,涉及对多模态信息的综合理解和分析能力。以 Open AI 发布的文生视频模型 Sora 为例,Sora 能够生成长达 60 秒的视频,且视频涉及 高度细致背景、复杂多角度镜头、富有情感的多个角色等复杂场景,更强的视频 生成能力也意味着更大的推理算力需求。Sora 作为扩散模型,从纯粹的噪声模式 开始、逐步去除噪声、再完善模型、直至将其转化为连贯而详细的输出,这一过 程将大大增加推理计算的需求,Sora 推理侧算力消耗将远超传统文本生成模型。

推理模型数量增多,与传统模型相比把更多算力资源应用于推理侧。推理模型的 核心在于处理需要多步骤逻辑推导才能解决的复杂问题,Open AI o1 的推出验证 了推理侧 Scaling Law 的存在,标志着大模型转向缓慢、深思熟虑、多步骤的推理 时间计算,大模型算力消耗向推理侧倾斜。Open AI o1 在数学、编程、物理、化 学和生物等领域复杂推理和问题解决能力上有了显著提升,表现远超 GPT-4o,这 得益于强化学习(RL)和思维链技术(COT),但也意味着 o1 在推理过程中花费 更多思考时间,大大增加推理算力消耗。

开源大模型加速落地,多方主体加速布局,推理算力需求大。以 Deepseek 为例, DeepSeek 坚持贯彻开源策略,2025 年 2 月 24 日至 28 日,DeepSeek 连续开源五 项代码库,覆盖计算、通信与存储等关键领域。开源生态的持续繁荣显著降低了 技术准入门槛,目前 Hugging Face 的 Open-R1、香港科技大学的 simpleRL-reason、 伯克利团队的 TinyZero 等团队已成功复现了 DeepSeek 核心模型。多方主体加速 布局,阿里、腾讯、字节、百度等旗下云计算平台上线 DeepSeek 大模型,百度搜 索、腾讯元宝等多家产品也已接入 DeepSeek 模型,驱动推理热潮。 通用型 Agent Manus 发布,人机协作新范式进一步增大推理算力需求。自 2024 年 10 月以来,智谱 AI、Anthropic、OpenAI、Meta 等国内外多家头部大模型厂商 竞相推出 AI Agent 产品,百度、阿里、字节、腾讯等大厂纷纷基于自身大模型推 出一站式智能体开发平台。Gartner 将 Agentic AI 列为 2025 年十大技术趋势之一, 并预测 2028 年至少有 15%的日常工作决策将由 Agentic AI 自主完成。2025 年 3 月 6 日,通用型 Agent Manus 发布,可执行编写代码、筛选简历、分析股票、生 成网站等复杂任务,其“感知-思考-行动”的自动化工作流程所需要的推理算力支 持远超普通推理模型。

2.人工智能产业 2025 年中关键词二:“效率”

 Scaling Law 进一步扩张,成本和效率矛盾凸显

大模型成本与效率矛盾凸显,行业面临算力和能耗成本、优质语料短缺与集群整 体效率下滑的三重困境。大模型训练开发成本高昂,随着模型训练计算量的增加, 近年来模型训练成本也呈指数级增长。根据斯坦福 HAI 研究所的报告,2017 年, Transformer 模型训练成本约为 900 美元;2023 年,Google Gemini Ultra 的训练成 本约为 1.91 亿美元,OpenAI GPT-4 成本约为 7800 万美元。Meta 公布其大语言模 型 Llama 3.1 405B,基于 15 万亿个 Tokens、超 1.6 万个 H100 GPU 进行训练,扎 克伯格表示 Meta Llama 3 训练计算能力花费达数亿美元。

大模型需要大量计算资源,参数规模、数据量和计算复杂度使得算力成为大模型 发展的核心制约因素。随着模型参数量大规模提升、训练数据量及训练次数的增 加,训练阶段算力消耗量相应增加。在训练端,大模型的参数规模从数十亿乃到 上万亿不等,训练时需要处理数万亿个 Token,需要消耗巨大的算力。在推理端, 随着大模型应用场景、用户数量、活跃度、应用时间的快速增加,推理数据和模 型数量增多引发推理阶段更大的算力需求量。根据华为报告预测,2030 年全球通 用计算算力将达到 3.3ZFLOPS(FP32),AI 算力需求激增,2030 年将达到 864 ZFLOPS(FP16)。 大模型训练和运行所需能耗巨大。随着 AI 快速发展,数据中心用电量将持续攀 升。根据 Digital Information World 的报告,数据中心为训练 AI 模型产生的能耗是 常规云工作的 3 倍。据《数据中心全生命周期绿色算力指数白皮书》预计,2030 年我国数据中心能耗总量将超过 4000 亿千瓦时。德勤预测,2025 年全球数据中 心用电量大约为 536 太瓦时(TWh),占全球用电量的 2%,随着电力密集型生成 式 AI 的训练和推理需求迅速增长,预计到 2030 年全球数据中心的用电量将翻一 番,约达 1065 太瓦时。

优质语料短缺,数据规模和质量待提高。微软研究院的研究显示,要保持大模型 性能的指数增长,2026 年需要 430 艾字节(EB)的高质量训练数据。Epoch AI Research 团队预测,高质量的语言数据存量将在 2026 年耗尽,低质量的语言数据 和图像数据的存量将分别在 2030 年至 2050 年、2030 年至 2060 年枯竭。 尽管万卡集群在理论算力上具有显著优势,但随着集群规模的指数级扩张,硬件 互联、软件优化、系统稳定性等瓶颈问题逐渐暴露,导致实际运行效率与预期效 能差距拉大。集群性能并不简单等于单卡性能的累加,随着模型规模和集群规模 的扩大,大模型分布式训练对高性能网络的要求更高,集群性能并不随着 GPU 数 量的增加而线性增长。根据阿里研究院的数据,目前万卡 GPU 集群中单卡 GPU 平均利用率约 50%,集群线性加速比约 93%。同时,集群规模的提升也伴随着稳 定性问题,从而对大模型训练效率造成影响。集群规模从千卡到万卡,故障中断 次数及恢复所需时间将呈指数级增长。以 Meta 公布的 Llama 3 训练细节为例, Llama 3 405B 大模型在 1.6 万台集群训练过程中发生了 419 次意外中断,平均每 3 小时就发生一次,GPU 故障率比 CPU 高出了 120 倍。

算力端多元技术革新,破解效率困局

异构算力体系整合 CPU、GPU、FPGA、ASIC 等多种类型计算硬件资源,优化 调度策略,打破单一硬件架构的局限,有效提升计算效率,为大模型训练和推理 提供了灵活、高效的解决方案。相对于传统的单一计算架构,异构算力具有以下 优势:(1)通过综合考虑任务需求和硬件特性,发挥各类处理器专长,实现整体 性能最大化。例如 CPU 通用性强,擅长逻辑控制和串行计算;GPU 擅长并行计 算,适合图形渲染、深度学习等数据密集型任务;FPGA 灵活性强;ASIC 定制化 设计。(2)降低功耗和成本,相比仅依赖 CPU 的大规模计算,利用 GPU 或 ASIC 等异构计算架构加速深度学习模型训练可以减少大量的电力消耗。(3)增强灵活 性和扩展性,具备 AI 推理、图像处理、高性能模拟等多类型任务的处理能力。

以无问芯穹为例,无问芯穹大规模模型异构分布式混合训练系统 HETHUB 在业 内首次实现六种不同品牌芯片的交叉混合训练,通过自研的通用集合通信库和基 于流水线并行的非均匀拆分方案,解决异构芯片间的通信和负载均衡问题,无问 芯穹千卡异构混合训练集群算力利用率高最高达 97.6%。无问芯穹 Infini-AI 云平 台已集成大模型异构千卡混训能力,是全球首个可进行单任务千卡规模异构芯片 混合训练的平台,具备万卡扩展性,支持包括 AMD、华为昇腾、天数智芯、沐曦、 摩尔线程、NVIDIA 六种异构芯片在内的大模型混合训练,截至 2024 年 7 月,Infini-AI 云平台已支持 Qwen2、GLM4、Llama3 等共 30 多个模型,以及 AMD、 华为昇腾、壁仞、寒武纪、燧原、海光、天数智芯、沐曦、摩尔线程、NVIDIA 等 10 余种计算卡。无问芯穹大规模模型异构分布式混合训练系统 HETHUB 和 InfiniAI 云平台屏蔽了底层硬件差异,使开发者能够轻松调用多种芯片资源进行大模型 训练和推理,显著降低了开发和维护成本。

HBM 具有高带宽、大容量、低延迟、低功耗等优势,是 AI 算力效率提升的重要 支撑。HBM 通过 3D 堆叠架构和硅通孔(TSV)技术,将多层 DRAM 芯片封装于 小体积空间中,实现小尺存与高带宽、大容量、低延迟和低功耗的统一。相较于 传统内存技术,HBM 具有以下优势:(1)HBM 通过串行接口和优化的信号传输 技术,带宽远超传统 DRAM,满足高性能计算的需求;(2)HBM 采用 3D 堆叠技 术,将多层 DRAM 芯片垂直集成,大幅缩小了内存模块的物理尺寸;(3)HBM 紧凑的内部结构,减少了内存访问的延迟,提高了系统的响应速度和效率;(4) HBM 的垂直堆叠结构缩短了数据传输距离,结合硅通孔(TSV)技术,进一步降 低了功耗。HBM 是目前高性能 AI 服务器 GPU 显存的主流解决方案。据 Mordor Intelligence 预测,从 2024 年到 2029 年,HBM 市场规模将从约 25.2 亿美元激增 至 79.5 亿美元,年复合增长率高达 25.86%。 HBM 技术不断突破,HBM3E 为当前先进规格之一,SK 海力士、三星等头部厂 商正加速推进下一代 HBM4 的设计和量产。根据全球半导体行业标准制定权威机 构 JEDEC 发布的 HBM4 初步规范,HBM4 设计目标在于进一步提升数据处理速 度,同时保持高带宽、低功耗和单位面积或堆叠的高容量等关键特性;HBM4 将 提供 24GB 和 32 GB 的存储层,支持 4 至 16 层的硅通孔(TSV)堆栈,初期确定 的速度等级可达 6.4Gbps,且正在讨论更高频率的可能性。

同时,随着 AI 技术的不断发展,HBM 厂商纷纷加大技术创新力度,推出定制化 方案,以满足不同的应用场景对 HBM 性能、功耗和成本的差异化需求。例如, SK 海力士推出半定制化 HBM,满足特定应用的需求;三星电子将 HBM 与定制 逻辑芯片 3D 堆叠,减少占地面积,优化功耗表现。

3.人工智能产业 2025 年中关键词三:“泛化”

商业化进程提速,应用端试水在千行百业大规模开花

AI 商业化进程提速,应用场景越来越广泛。根据智能超参数的统计数据,2024 年 共 1520 个大模型相关中标项目,其中 1107 个中标项目披露的金额达 64.67 亿元, 中标项目数量同比增长了 15.5 倍,披露中标金额增长了 7.2 倍,中国大模型招投 标市场的爆发式增长充分反映出大模型技术在商业化落地方面的巨大潜力和广阔 前景。根据 IDC 和浪潮信息联合发布的报告,目前金融、制造和教育等行业已率 先引入 AI 技术。在金融领域,AI 被广泛应用于智能客服、风控决策和资产管理; 在制造业,工业机器人和生产流程的优化借助 AI 提升了效率;教育行业则通过生 成式 AI 提供个性化教学与解题服务。根据 Gartner 预测,到 2029 年中国 60%的 企业将把 AI 融入其主要产品和服务中,并且这些 AI 功能将成为收入增长的主要 驱动力。

生成式 AI 在 B 端市场的商业化进程正在加速,代码生成和辅助工具、聊天机器 人、企业搜索、数据转换和会议纪要成为 B 端市场最广泛的五大 AI 应用场景。 MenloVentures 对 600 名企业 IT 决策者的调查结果显示,企业加大对生成式 AI 的 支出,2024 年企业对生成式 AI 应用的投入达 46 亿美元,同比增长近 8 倍,代码 生成和辅助工具、聊天机器人、企业搜索、数据转换和会议纪要的企业采用率分 别为 51%、31%、28%、27%和 25%。代码生成工具如 GitHub Copilot 营收已突破 3 亿美元,新兴工具如 Codeium 和 Cursor 也在快速崛起;阿里云和通义实验室联 合推出的通义灵码基于通义大模型,具备代码智能生成和研发智能问答等多项功 能,目前通义灵码插件下载量已突破 1500 万。聊天机器人通过提供全天候的知识 支持,广泛应用于企业内部和客户服务场景,例如国内首款基于大模型重构的智 能客服产品百度智能云客悦,已和捷信、中国联通等达成合作,满足企业智能客 服全场景应用需求的智能客服系统。企业搜索工具如钉钉 AI 企业搜索,其基于通 义大模型实现自然语言查询信息,并对钉钉内的用户自有信息、企业知识进行整 理与提炼,大大提升搜索效率。会议纪要工具如 Fireflies.ai、飞书妙记等则通过自 动捕获和总结会议内容,提升了协作效率。

大模型逐渐渗透工业领域,赋能新型工业化。工业互联网的普及让部分工业企业 实现了从数据采集到数据应用的全流程,积累的丰富数据为工业大模型的训练提 供支撑,部分场景已具有落地可行性。根据沙丘智库发布的《2024 年中国工业大 模型应用跟踪报告》,大模型落地工业领域覆盖工业价值链的多个环节,包括研发 设计、生产制造、经营管理和产品服务,其中生产制造环节的落地案例最多。从 细分行业来看,电力、煤炭、汽车制造、电子制造和钢铁等行业的大模型落地速 度较快,但不同行业在场景选择上存在差异,制造类企业更倾向于将大模型应用 于产品服务环节,而能源类企业则更多聚焦于生产制造环节的应用。在技术类型 上,当前工业企业落地的大模型以语言大模型为主,但长期多模态大模型和预测 大模型将在工业领域发挥越来越重要的作用。目前工业企业更倾向于采用 RAG 扩 展或参数微调的方式落地大模型。随着大模型技术的发展,工业大模型将逐步应 用于垂直细分行业的各个应用场景,从通用能力延伸至行业专用能力,形成汽车、 家电、化工、新能源等垂直细分行业的行业大模型。

开源模型成 AI 应用落地催化剂,带动行业部署与算力利用双赢

DeepSeek 开源大模型推出,倒逼更多大模型厂商开源,百度、MiniMax、阶跃星 辰等企业跟上大模型行业开源节奏。自 2024 年 12 月 26 日 DeepSeek-V3 首个版 本上线并开源后,开源之风在大模型行业盛行:2025 年 1 月 15 日,MiniMax 发 布并开源新一代 01 系列模型,包括基础语言大模型 MiniMax-Text-01 和视觉多模 态大模型 MiniMax-VL-01;2025 年 2 月 13 日,百度宣布文心一言自 4 月 1 日起 全面免费,文心大模型 4.5 系列将全部开源;2025 年 2 月 18 日,阶跃星辰和吉利 汽车集团宣布开源两款阶跃 Step 系列多模态大模型,包含视频生成模型 StepVideo-T2V 和语音交互大模型阶跃 Step-Audio。 云服务厂商纷纷部署 DeepSeek。国内主要云服务商如天翼云、移动云、联通云、 华为云、京东云、阿里云和百度智能云均已接入 DeepSeek 大模型,国际云厂商微 软云和亚马逊云科技也迅速跟进。例如,天翼云通过自研“息壤”智算平台率先 实现 DeepSeek 模型全栈国产化推理服务落地;移动云深度集成融合 DeepSeek, 依托自研 COCA 算力原生平台,实现“开箱即用”,并提供高性价比算力定制方 案;联通云基于“星罗”平台率先实现 DeepSeek 多场景深度对接。百度智能云千 帆平台以超低价格上架 DeepSeek-R1 和 DeepSeek-V3 模型,并推出限时免费服务 降低使用门槛;阿里云 PAI Model Gallery 支持一键部署 Deep Seek-V3、Deep SeekR1;京东云上线 DeepSeek-R1 模型,扩充 AI 服务生态。 科技巨头同样加速接入 DeepSeek。腾讯元宝、AI 代码助手 ima、微信搜一搜等应 用已接入 DeepSeek-R1 模型;百度搜索与文心智能体平台实现 DeepSeek 和文心 大模型双模型联动,开放免费深度搜索服务。

基于 DeepSeek 的行业部署初现,涵盖了农业、汽车行业、手机行业、物流、办 公、金融、医疗、教育等多个领域,加速了人工智能在多场景、多产品中的应用。 开源大模型通过降低技术门槛和开发成本,使更多企业能够快速接入 AI 能力,多 行业已应用 DeepSeek 解决实际问题,体现了 DeepSeek 在不同行业落地实践的显 著成效。

参考报告

人工智能产业2025年中思考:扩张、效率、泛化.pdf

人工智能产业2025年中思考:扩张、效率、泛化。目前我国AI产业发展正处于转型升级关键期,呈现规模扩张与质效提升并重的总体特征。根据中国信通院引用IDC数据,全球AI核心产业保持稳健增长,预计2024年增至6233亿美元。技术层面,国产大模型加速迭代并构建开源生态,多模态AI成为核心突破方向。应用层面,开源生态推动AI向中小企业和边缘场景渗透,在金融、制造等行业加速落地。政策环境持续优化,推动标准建设和生态发展。尽管面临算力、数据等挑战,但政策支持与市场需求共振,未来AI产业发展趋势将聚焦技术融合与应用场景创新,与具身智能等方向的结合有望开辟新增长点。AI产业将继续全方位的“扩张&...

查看详情
相关报告
我来回答