2026年国防军工行业:AIDC电源的“最后一公里”,板载电源的高密高集成化革命
- 来源:广发证券
- 发布时间:2026/03/02
- 浏览次数:93
- 举报
国防军工行业:AIDC电源的“最后一公里”,板载电源的高密高集成化革命.pdf
国防军工行业:AIDC电源的“最后一公里”,板载电源的高密高集成化革命。AIDC算力建设增长,热功耗增长驱动数据中心电气架构全面升级。随着北美及亚太地区AI市场高速增长,智算中心(AIDC)建设进入高峰期。AI芯片(GPU/ASIC)的TDP(热设计功耗)呈指数级增长,以NVIDIAB300为例,其TDP已达1400W,导致单机柜功率密度正从当前的不足20kW向未来的兆瓦级迈进。根据维谛《智算中心基础设施演进白皮书》统计,目前国内单机架功耗从通算中心(传统数据中心)的4-6kW向智算中心(AIDC)的20-40kW迈进,未来有望逐步提升至40-120kW甚至更高,智算中...
海外 CSP 资本开支强劲增长,AIDC 高功率推动电 气架构革新
北美和亚太AI市场增势迅猛,智算中心迎来建设热潮。根据广发电新组外发报告《AI 加速驱动供电变革,SST蓄势待发迎出海良机》,根据Precedence Research测算: 2024年全球人工智能市场规模为258.6亿美元,预计至2033年将达到8039亿美元, 实现46.5%的复合年增长率;具体到美国而言,其2024年人工智能市场规模为74.1 亿美元,预计至2033年将达到2414.1亿美元,实现47.3%的复合年增长率;受益于 政策支持力度的增大,亚太市场预计将在此期间实现27.6%的复合年增长率。智算中 心(Artificial Intelligence Data Center,AIDC)作为AI时代的基础设施,在国内外云 服务厂商和通信厂商不断加大的投资力度下方兴未艾。根据中国信通院数据,2024 年我国AIDC市场规模在1000亿元以上,预计2028年将达到2886亿元,CAGR达到 30%左右。

AIDC建设拉动数据中心电力需求,未来将成为电力需求的重要组成。根据 Semianalysis数据,全球数据中心电力消耗预计将从2023年的49GW增长至2026年 的96GW,90%的增长驱动力来自AI。其中,AI需求将从2025年约20GW增长至2026 年约40GW、2028年约80GW,增速远大于非AI服务器需求增量。国际能源署预测,到2026年,数据中心、人工智能等产业的电力消耗可能将占全球电力需求的4%,是 2022年的两倍。对于美国数据中心而言,2014—2016年用电量稳定在60TWh。而后, 数据中心用电量快速增加,2018年消耗约76TWh,占美国总电力消耗的1.9%。2023 年达到176TWh,占总电力消耗的4.4%。据美国劳伦斯伯克利国家实验室预测,2028 年数据中心用电量预计达到325至580TWh,约占美国总电力消耗的6.7%至12.0%。
全球科技巨头2025Q4AI资本支出攀升,2026年投入总体计划再创新高。根据CNBC 官网, platformonomics 官网,finviz 官网,fool 官网和同花顺 iFinD 数据,亚马 逊 2025Q4 资本支出 395 亿美元,预计 2026 年达 2000 亿美元。亚马逊 2025Q4 资本支出达 395 亿美元,环比第三季度增长 13%,同比增长 42%。亚马 逊 2025 年的资本支出约为 1318 亿美元,同比增长 59%。随着公司积极投资数据 中心及其他基础设施以应对人工智能需求的激增,预计 2026 年的资本支出将继续 攀升,达到 2000 亿美元。微软 2025Q4 资本支出 375 亿美元,预计资本支出将 环比下降。微软 2025Q4 资本支出达 375 亿美元,环比第三季度增长 7%,同比 增长 66%(其中包含融资租赁相关支出;上一季度该占比曾高达 44%,本季度已 回落至总支出的 20%),其中约三分之二用于短期资产,主要为图形处理器(GPU) 与中央处理器(CPU)。支出增长的部分原因在于微软正快速投入人工智能基础设 施建设,其在最新季度新增 1 吉瓦数据中心容量,并计划针对人工智能工作负载大 规模部署 Maia 芯片。谷歌 2025Q4 资本支出 279 亿美元,预计 2026 年达 1750 亿至 1850 亿美元。谷歌母公司 Alphabet 2025Q4 资本支出达 279 亿美元, 环比第三季度增长 16%,同比增长 95%。Alphabet 2025 年的资本支出约为 914 亿美元,同比增长 74%。Alphabet 表示,预计 2026 年资本支出(CAPEX)将介 于 1750 亿至 1850 亿美元区间。该预测区间上限将是其 2025 年资本支出的两倍 以上。Alphabet 绝大部分资本支出投向了技术基础设施,2025 年约 60% 用于服 务器,40% 用于数据中心与网络设备。谷歌提到公司必须每六个月翻倍其服务能力 以满足AI服务需求,算力供应紧张。Meta 2025Q4 资本支出 221 亿美元,预计 2026 年达 1150 亿至 1350 亿美元。Meta 2025Q4 资本开支金额为 221 亿美元, 环比第三季度增长 14%,同比增长 49%(其中融资租赁仅占总支出的 3%)。Meta 2025 年的资本支出约为 722 亿美元,同比增长 84%。预计 2026 年资本支出(含 融资租赁本金偿付)将介于 1150 亿至 1350 亿美元区间内,同比实现增长,主要 受支持 Meta 超智能实验室相关投入及核心业务扩张所驱动。全公司对算力资源的需求增速,甚至超过了供给的扩张速度。

AI芯片TDP与机柜功率密度迅速提升 ,推动高功率密度电源架构需求。根据 Schneider Electric发布的白皮书《How 6 AI Attributes Change Data Center Design》, 加速器(Accelerators)占据了AI集群近一半的功耗。随着每一代新产品的推出,加 速器的功率都在呈上升趋势。芯片的功耗以瓦特(Watts)为计量单位,通常用 TDP (热设计功耗)来标示。TDP持续增长的趋势,是加速器为实现更多运算量而设计 的结果,其目的是为了以更短的时间和更低的成本完成模型训练和答案推理。随着 AI算力(TFLOPS/TOPS)提升超过100倍,单芯片TDP也从V100的300W增至B300 的1400W。与此同时,单机柜功率密度正从2020年代的不到50kW,向2025年的超 100kW迈进,并预计到2030年,单机柜功率有望突破1MW,推动了数据中心对高功 率密度电源架构的需求。
GPU&ASIC晶体管密度呈现指数级增长趋势,单芯片功耗提升幅度显著。根据《High Current, High Power-Density Intermediate Bus Converters for Vertical Power Delivery to Next-Generation Processors》,人工智能和机器学习的进步正推动新一 代极高性能图形处理单元(GPU)的发展,其晶体管数量呈指数级增长,需要更大 的芯片尺寸和更高功率。为释放数据科学家们所追求的 AI/ML 的全部潜力,需要超 强 GPU 来加速创新步伐。晶体管数量的增加也使得近几代 GPU 的热设计功耗 (TDP)和芯片尺寸不断提升。这在最新的 Blackwell GPU 上尤为明显,其晶体管 数量、芯片尺寸和 TDP 分别比上一代增加了 160%、200%和 33%。然而,尽管 计算效率不断提高,下一代 GPU 更高的功率需求给电源管理系统带来了巨大挑战。 根据ittbank《全球主流算力芯片参数汇总、整理、对比》,以英伟达GPU为例,其 2020年发布的A100系列GPU 7nm制程,晶体管数量为542亿,芯片面积为 826mm2,晶体管密度为6600万/ mm2。而2024年发布的B200系列GPU采用4NP制 程,晶体管数量达2080亿,芯片面积为1600mm2,晶体管面积达到1.3亿/mm2。以 Google TPU为例,其2023年发布的TPU V5p 采用5nm制程,晶体管数量274亿, 芯片面积为350 mm2,晶体管面积为7800万/ mm2,而2025年发布的Google TPU v7p则采用3nm制程,2744亿晶体管,芯片面积为890mm2,晶体管面积为3.08亿/ mm2。从功耗来看,A100功耗为 300W,B200功耗达1000w;TPU v5p功耗为 225w,而TPU v7p功耗达959w,提升幅度显著。
高密度GPU部署和高机柜功率成为AIDC主要特征,对供电架构提出挑战。根据广 发电新组外发报告《AI加速驱动供电变革,SST蓄势待发迎出海良机》,通用数据 中心主要用于电商与社媒平台托管、数据库管理和文件储存等,一般不需要处理复 杂计算任务;AIDC主要用于深度学习、机器学习和大规模数据处理任务,如自动 驾驶、科研计算和大语言模型等领域,其处理的计算任务通常较复杂。为此,不同 于主要搭载CPU的通用数据中心,AIDC普遍采用CPU+GPU形式的服务器,通过 高密度的GPU部署满足高性能计算要求。因此,通用数据中心单机柜功率较低,一 般在2-10kW;而AIDC单机柜功率通常在12kW以上。随着技术的升级迭代和算力 需求的增加,单机柜功率将进一步提升,为供电架构带来巨大压力。根据 Semianalysis数据,2024年全球数据中心新增装机约为8.8GW,其中AIDC新增装 机为5.8GW。2024—2028年全球数据中心新增装机CAGR预计约为25%,AIDC新 增装机CAGR预计将达到35%左右。AIDC新增装机占数据中心新增装机的比例预 计也将由2024年的66%增长至2028年的90%。

AI 机柜功率密度快速提升,AIDC 电气架构有望向 800V HVDC 升级
(一)AI 机柜功率密度快速上升,带动电气设施架构迭代升级
AIDC高功率密度带动电气基础设施迭代升级,以满足智算中心更高需求。根据广发 电新组《AIDC赋予电气设备新机遇》,随着智算中心对电力消耗需求的不断增长, 智算中心对电力供应容量、配电设备面积占比、电能利用率、服务器电源功率、散 热效率提出更高的要求。 (1)电力供应容量:以某大厂传统数据中心一栋数据机房楼为例,约2万台服务器, 1020多台机柜,单机柜功耗在12kW以上,组成IT总容量约12.9MW,其电力容量大 概在20MVA左右,通常由市政公共变电站引来四路10kV电源,对区域电网的整体压 力较小。在智算中心时代,园区用电规模普遍在百MW以上,甚至达300-500MW, 需要接入110kV或220kV更高等级电网。因此,相较于通算中心,智算中心的拓展瓶 颈已从可安装的机柜数量的物理空间问题,转变为电力供应上限,智算中心园区的 算力容量上限不再是芯片算力的上限,而是发电厂和电网容量的上限。 (2)配电设备面积占比:根据维谛根据通算中心的建设规划与经验,单机柜功耗在 2.5kW-5kW/8kW/16kW的情况下,供配电系统占地面积分别为IT设备的1/4、1/2、1, 故随着智算中心功率密度的提升,变配电设备占地面积随之增大,需要优化供配电 系统设计以减少占地面积。 (3)电能利用率/能源利用效率(PUE):在通算中心时代,为追求数据中心运营环 境的极高可用性,2N配电架构为最常见的供电设计方案,但随着智算中心对算力需 求、成本效益与空间效率的不断提升,供电效率低成为传统2N架构面临的主要问题, 故简化配电架构设计以提升系统利用率、降低占地面积、最大程度地提升算力成为 智算中心趋势,HVDC替代UPS趋势明确。此外能源利用效率(PUE)同样为数据中 心重要考核指标,PUE降低意味着用更少的电力完成更多的任务,也意味着相同的 规模可以用更少的能源实现,随着智算中心规模的不断提升对PUE提出更高要求。 (4)服务器电源:AI服务器电源在使用中需要插入标准机架中,随着服务器机架功 率提升,电源功率密度要求大幅提升。根据Navitas的数据,2023-2025年AC/DC电 源的功率密度有望达到100W/立方英寸,远期有望达到180W/立方英寸。 (5)散热效率:通算中心功率密度较低,散热需求较小,常规风冷即可以实现散热。 智算中心功率密度大幅提升,动态负载导致散热效率难以快速响应散热需求,冷板 级散热有望成为主流,相变级液冷有望代替单相液冷。
AI电源架构通常包含从高压到芯片的三次电压转换。根据《AI Load Dynamics–A Power Electronics Perspective》(Yuzhuo Li,Yunwei Li,2025年),数据中心的 电力传输通常流经多个级联转换阶段,每一级转换都包含独立的电感、电容及控制 环路,这些环节都会影响功率提升的快慢。据公众号“CDCC”《800V直流供电系统的 优势及国内外发展状况》,从一次电源来看(如HVDC DC/DC、直流不间断电源 DC/DC 和 SST 电源 DC/DC),供电设备直接接入 10kV 电网,将高压交流电转 换为 800V/±400V 高压直流电。一次电源输出的高压直流电经分配柜进行汇流与分 配,将电能输送至各个服务器机柜,是连接一次电源与二次电源的枢纽环节。从二 次电源来看(机柜内 D/D 模块),在机柜内部,D/D 模块将高压直流电转换为机架级中压直流电,并通过电容架进行储能稳压,为下游服务器提供稳定的中压直流输 入。从三次电源来看(服务器内部),服务器内置的 VR(Voltage Regulator)DC/DC 模块作为三次电源,将中压直流电进一步转换为芯片、处理器等负载所需的低压直 流电,最终为服务器核心组件供电。

GPU每代性能提升与NVLink互联域扩张导致的功率密度指数级飙升,叠加将电源组 件移出核心算力区域的空间需求,共同迫使数据中心采用全新的机柜电源架构。根 据NVIDIA官方白皮书《800 VDC Architecture for Next-Generation AI Infrastructure》, 随着CPU与GPU的迭代升级,GPU的热设计功耗通常会出现代际递增约20%的阶梯 式增长。这导致单台服务器所需的功耗随时间推移持续攀升。英伟达的NVLink技术 允许多个GPU通过网络互联,协同运作如同一颗大型同步GPU,相比基于以太网的 连接方式可显著提升性能。从功耗与成本角度考量,通过铜缆实现GPU互联能获得 最佳效益,但其代价是因信号完整性导致的传输距离受限。由于在有限的铜互连域 内集成更多GPU可实现极致性能,最大性能实际上与最大功率密度直接挂钩。这意 味着功耗增长不再局限于每代20%的幅度,随着NVLink互联域规模的扩大,功耗水 平可轻松实现2倍、4倍甚至8倍的跃升。以从Hopper架构到GB300架构的性能跃升 为例,虽然热设计功耗仅增加75%,但性能却实现了50倍的提升。这一变革同时使 得机柜功率密度增长3.4倍——NVLink互联域从4x8 GPU配置(机柜内共32个GPU) 扩展为72个GPU的互联单元。随着GPU集成技术与封装工艺的持续进步,以及网络 拓扑向更大规模互联域演进,功率密度的提升态势仍将持续。GPU每代性能提升与 NVLink互联域扩增共同推动了功率需求的飙升,其增速远超前代GPU的发展轨迹。 另一个关键目标在于尽可能将电源组件移出NVLink域的辐射范围——因为该区域是 机柜中支撑算力性能的核心地带。功率等级的持续攀升与电源组件外移这两大趋势相互叠加,正催生对新型机柜电源架构的迫切需求。
随着机架级功率的上升,使用传统的交流配电会导致系统复杂性增加、组件增多以 及可扩展性降低,从而提高下一代部署的资本和运营成本。根据NVIDIA官方白皮 书《800 VDC Architecture for Next-Generation AI Infrastructure》,传统的 415V 或 480V 三相交流电源系统长期以来一直支持着数据中心的发展。然而,随着计 算机架功率密度接近并超过兆瓦级,这些系统正达到其实际极限。(1)电源线规 格和载流量:典型的交流电源线额定值为 60A 或 100A,受热限制和诸如 IEC 60309 等连接器标准的约束。(2)机架电源入口:更高的机架功率需求需要更多 和/或更大的输入连接,占用宝贵的机架空间并使电缆管理变得复杂。(3)电源资 产协调:管理并保护多个交流电源增加了设计复杂性,并增加了设备占地面积。随 着机架级功率的上升,使用传统的交流配电会导致系统复杂性增加、组件增多以及 可扩展性降低,从而提高下一代部署的资本和运营成本。在固定线规承载48A连续 电流的条件下,相较于415V交流电,采用800V直流电可使相同横截面积的铜导体 传输功率提升157%。北美地区常见的扩容方案是使用480V交流电,但该方案仅能 提升16%的传输能力。若进一步采用1500V直流配电,相同规格导体的传输能力将 实现382%的显著提升。
(二)空间&效率再升级,800V HVDC 方案或成为 AIDC 未来主流架构
NVIDIA在其发布的《下一代AI基础设施的800伏直流架构》白皮书中,明确推荐了 +800V HVDC(高压直流)路径,认为这是平衡效率、成本和未来演进的最佳选择。 根 据 NVIDIA 官 方 白 皮 书 《 800 VDC Architecture for Next-Generation AI Infrastructure》,800VDC 已成为下一代配电的最佳架构。它能够最大限度地减少 计算空间内的转换和布线体积,同时最大限度地降低数据中心配电损耗和端到端转 换环节。与机架内的 54VDC 或设施级 480VAC 系统相比,800VDC 显著降低了 电流、铜用量和电缆体积,同时保持了安全性和可扩展性。它受益于碳化硅 (SiC) 和 氮化镓 (GaN) 功率转换器件的日益成熟,以及 800VDC 系统在电动汽车 (EV) 行业的广泛应用。这使得从电网到机架的无缝端到端集成成为可能,并实现了超过 1MW 的更高功率密度。 800VDC优势具体体现在:第一,相比415V交流电,800V直流电在相同铜线截面积 下传输功率提升157%。第二,相比多级转换方案,该方案通过64:1的LLC变换器和 矩阵变压器直接转换为12V,实现了额外1%的效率提升,并减少了26%的占用面积。 第三,800VDC的方案尽可能将电源组件从NVLink域的物理范围内移出,减少占用 机架中对性能而言价值最高的空间。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
- 国防军工行业:商业航天革命先驱Starlink深度解析.pdf
- 国防军工行业太空算力专题:构建天基智能网络,算力终极解决方案.pdf
- 国防军工行业深度:“十五五”军工哪些方向值得关注?.pdf
- 国防军工行业商业火箭:聚焦技术突破,加速商业落地.pdf
- 国防军工行业:国防预算7%增长,关注军转民投资机会.pdf
- 军工行业2026年春季投资策略:发展先进战斗力,拓展出海民用新市场.pdf
- 军工行业点评:智联天地强安全,“三先三后”拓场景—低空经济2026年展望.pdf
- 军工行业空天有清音第2期:中国军贸产品在中东地区前景探析.pdf
- 北交所新股申购报告:族兴新材(920078),铝颜料前三龙头掘金新能源车消费电子核辐射军工多赛道.pdf
- 国防军工行业可控核聚变:2026年产业加速,布局正当时.pdf
- 正泰安能:向设计要效益:AI自动化设计的实践与回报.pdf
- 艺恩报告:智驾未来:AI重塑汽车消费新纪元.pdf
- 清鹏算电:AI与电力市场应用探索——清鹏能源大模型智能体实践与展望.pdf
- 启信慧眼:全球布局洞见先行:构建AI时代的供应链韧性-2026供应链风控白皮书.pdf
- 计算机:通过AI原生,提升驾驶敏捷性和商业价值统一采购平台(英文版).pdf
- 相关文档
- 相关文章
- 全部热门
- 本年热门
- 本季热门
- 1 国防军工深度报告:航空装备、国防信息化及海军装备产业研究.pdf
- 2 新国防产业深度报告:百年未有之大变局,国防军工之新突破.pdf
- 3 国防军工行业深度报告:变局与新机.pdf
- 4 国防军工行业发展与投资机会分析(76页).pdf
- 5 国防军工行业军工强周期系列报告之二:红外制导系统应用快速增长
- 6 国防军工行业研究报告:航空制造业的规模效应
- 7 国防军工行业AI系列专题报告:反无人机系统,多模态智能融合驱动的低空安防新范式.pdf
- 8 国防军工2021中期投资策略:触底抬升,行稳致远.pdf
- 9 国防军工:经济下行压力的对冲品,2019从产业拐点到业绩拐点.pdf
- 10 国防军工行业:国防支出稳健增长,盈利驱动主线占优
- 1 国防军工行业AI系列专题报告:反无人机系统,多模态智能融合驱动的低空安防新范式.pdf
- 2 国防军工行业分析:卫星导航产业发展白皮书发布,时空体系支撑战略新兴产业发展.pdf
- 3 国防军工行业专题报告:关注可控核聚变超导材料磁体的投资机会.pdf
- 4 国防军工行业新时代的中国航天:卫星互联网产业――以星织网路,天堑变通途.pdf
- 5 国防军工行业专题报告:政策技术需求共振,商业航天赛道加速.pdf
- 6 国防军工行业分析:板块业绩结构性特征明显,关注订单基本面复苏机遇.pdf
- 7 国防军工行业分析:论印巴冲突对军工行业的影响,内外兼修,左右逢源.pdf
- 8 国防军工行业深度报告:军贸迎来DeepSeek时刻,体系化出口大势所趋.pdf
- 9 国防军工行业分析:重视军贸成长空间,强调内需+外需共振景气向上趋势.pdf
- 10 国防军工行业深度报告:军工行业2026年度策略,军贸放量叠加新质战力,四大主线引领军工新周期.pdf
- 1 国防军工行业2026年度投资策略:转型,增长的信心.pdf
- 2 国防军工行业:SpaceX,太空巨头的崛起与启示(一).pdf
- 3 国防军工行业可回收运载火箭:高价值量环节和成本构成.pdf
- 4 国防军工行业:商业航天强势行情持续演绎,全面看多国产大飞机产业链.pdf
- 5 国防军工行业商业航天系列报告之一:仰望星空,向天突围.pdf
- 6 国防军工行业深度报告:太空算力有望推动商业航天产业变革.pdf
- 7 国防军工行业周报:航天发射曲折中前行,重复使用火箭技术突破可期.pdf
- 8 国防军工行业:商业航天景气度持续提升,燃气轮机基本面改善有望超预期.pdf
- 9 国防军工行业:国产大飞机航司交付及国产化率双提升,C919产业链景气上行.pdf
- 10 基金市场与ESG产品周报:被动资金显著加仓大盘宽基ETF,国防军工主题基金表现占优.pdf
- 全部热门
- 本年热门
- 本季热门
- 1 2026年国防军工行业:商业航天革命先驱Starlink深度解析
- 2 2026年国防军工行业太空算力专题:构建天基智能网络,算力终极解决方案
- 3 2026年国防军工行业深度:“十五五”军工哪些方向值得关注?
- 4 2026年国防军工行业商业火箭:聚焦技术突破,加速商业落地
- 5 2026年国防军工行业:国防预算7%增长,关注军转民投资机会
- 6 2026年国防军工行业可控核聚变:2026年产业加速,布局正当时
- 7 2026年国防军工行业:美以联合袭击伊朗,全球安全格局动荡升温
- 8 2026年国防军工行业:AIDC电源的“最后一公里”,板载电源的高密高集成化革命
- 9 2026年国防军工行业:SpaceX﹒多行星文明,“运、连、算、光”四位一体太空基建
- 10 2026年国防军工行业:大飞机与两机、商业航天景气抬升
- 1 2026年国防军工行业:商业航天革命先驱Starlink深度解析
- 2 2026年国防军工行业太空算力专题:构建天基智能网络,算力终极解决方案
- 3 2026年国防军工行业深度:“十五五”军工哪些方向值得关注?
- 4 2026年国防军工行业商业火箭:聚焦技术突破,加速商业落地
- 5 2026年国防军工行业:国防预算7%增长,关注军转民投资机会
- 6 2026年国防军工行业可控核聚变:2026年产业加速,布局正当时
- 7 2026年国防军工行业:美以联合袭击伊朗,全球安全格局动荡升温
- 8 2026年国防军工行业:AIDC电源的“最后一公里”,板载电源的高密高集成化革命
- 9 2026年国防军工行业:SpaceX﹒多行星文明,“运、连、算、光”四位一体太空基建
- 10 2026年国防军工行业:大飞机与两机、商业航天景气抬升
- 1 2026年国防军工行业:商业航天革命先驱Starlink深度解析
- 2 2026年国防军工行业太空算力专题:构建天基智能网络,算力终极解决方案
- 3 2026年国防军工行业深度:“十五五”军工哪些方向值得关注?
- 4 2026年国防军工行业商业火箭:聚焦技术突破,加速商业落地
- 5 2026年国防军工行业:国防预算7%增长,关注军转民投资机会
- 6 2026年国防军工行业可控核聚变:2026年产业加速,布局正当时
- 7 2026年国防军工行业:美以联合袭击伊朗,全球安全格局动荡升温
- 8 2026年国防军工行业:AIDC电源的“最后一公里”,板载电源的高密高集成化革命
- 9 2026年国防军工行业:SpaceX﹒多行星文明,“运、连、算、光”四位一体太空基建
- 10 2026年国防军工行业:大飞机与两机、商业航天景气抬升
- 最新文档
- 最新精读
- 1 2026年中国医药行业:全球减重药物市场,千亿蓝海与创新迭代
- 2 2026年银行自营投资手册(三):流动性监管指标对银行投资行为的影响(上)
- 3 2026年香港房地产行业跟踪报告:如何看待本轮香港楼市复苏的本质?
- 4 2026年投资银行业与经纪业行业:复盘投融资平衡周期,如何看待本轮“慢牛”的持续性?
- 5 2026年电子设备、仪器和元件行业“智存新纪元”系列之一:CXL,互联筑池化,破局内存墙
- 6 2026年银行业上市银行Q1及全年业绩展望:业绩弹性释放,关注负债成本优化和中收潜力
- 7 2026年区域经济系列专题研究报告:“都”与“城”相融、疏解与协同并举——现代化首都都市圈空间协同规划详解
- 8 2026年历史6轮油价上行周期对当下交易的启示
- 9 2026年国防军工行业:商业航天革命先驱Starlink深度解析
- 10 2026年创新引领,AI赋能:把握科技产业升级下的投资机会
