DeepSeek对算力效率的提升一度让市场对算力的逻辑产生分歧,而随着DS用户数的增长,算力紧缺的现实却不容忽视。事实告诉我们,当用户规模爆发后,推理带来的前端需求将让AI算力的蛋糕越变越大。伴随近期AI Agent等热点技术快速落地以及各深度学习架构的快速进展,叠加海内外各巨头均增加AI相关投资,AI应用的需求起量已成为必然趋势。而AI应用起量将带动算力前端需求迅速增长。我们认为,伴随AI应用增长推动计算集群由十万卡向百万卡规模迈进,其中GPU与光模块的配比关系将从传统的线性协同预期向超线性依赖方向演进。
以往市场普遍认为计算集群中每块GPU通常配备3个光模块,主要用于横向互联(GPU-GPU)和CPU的连接。而随着未来技术演进以及计算集群规模的大幅扩张,光模块配比将大幅上升,以用于更高的前后端带宽适配:
NVLink:一种点对点连接接口,目前最高可实现8:1甚至更高的GPU对GPU直连,计算集群所需的高带宽、低延迟要求越高,GPU-GPU直连数量越多,导致光模块数量激增。
NVSwitch:基于NVLink的一种硬件交换机,可支持16个甚至更多的GPU之间的高带宽通信,实现“每个GPU到其他所有GPU”之间的直接数据传输,GPU数量越多所需光模块比例越高。
更高吞吐的存储前端:数据吞吐量增加拉动存储需求增加,而采用高IOPS存储(如HBM+PCle Gen5/6+CXL)则可能需要更多光连接以避免存储成为瓶颈。
外部数据接入优化:模型推理任务对实时数据流、外部数据库或云端数据输入依赖更大,导致前端光模块需求上升。
从模型训练以及推理视角来看,大模型训练阶段虽模型参数巨大,但GPU-GPU通信是主要瓶颈,传统3倍光模块即可满足需求。而在推理以及应用阶段,计算集群需接入海量外部数据(多模态数据、数据流、IoT设备等),需要更强的前端IO和数据传输带宽,导致光模块需求大增。从数据流架构来看,传统HPC或AI训练的数据基本在本地高带宽存储和GPU互联之间传输,对光模块需求较低。而AI推理所需的CDN式数据访问(分布式数据存储+云计算源,AI推理中主要解决带宽有限、延迟高问题)则需要高吞吐的光连接。
我们认为,伴随未来大量AI应用落地,海量的外部数据和AI推理实时响应的特性将驱动低延迟、高宽带的光互连成为主流,光模块在大规模AI集群的作用将持续扩大。同时AI推理和应用侧对高IO、低时延数据流的需求增加,未来随着存算分离、光互连、CXL、分布式计算的发展,光模块需求在AI数据中心中的占比可能持续上升。
目前超大规模AI推理如大模型API服务、搜索推荐、AI Agent在推理时需要跨多个GPU访问键值缓存,如xAI采用了十万卡集群用于推理、Deep Seek由于访问数过多频繁出现“服务器繁忙”问题均说明大规模推理仍有需求。
AI推理数据吞吐远超训练阶段,高速率光模块将迎来产品切换。AI模型训练时通常使用本地数据集,而推理阶段需要接收海量的外部数据,这将导致数据中心需要更高速率、更低延迟的光模块来存储、计算和外部数据源。我们认为,随着AI推理对数据处理要求越来越高,800G、1.6T光模块将逐步普及。另一方面CPO等低功耗、高带宽方案将成为主流。
正如我们上述观点,Deep Seek服务器频繁宕机说明一个问题——目前推理侧机房数量不足以支撑其提供如此多的用户访问并提供推理服务,这反映了AI推理端对机房的大量需求。而上一波云计算浪潮带来的IDC建设高峰留下了大量空置或低租金的存量资源,我们认为随着AI端推理侧的需求增加,将会加速老旧数据中心去库存进程,加速机房改造并提高资源利用率。
综上,我们仍长期看好算力板块,重点推荐光通信龙头中际旭创、新易盛、天孚通信等。同时建议关注相关产业链如光互连方向太辰光、德科立等,数据中心方向润泽科技、万国数据、数据港、光环新网、奥飞数据等,CDN方向网宿科技等。
光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。铜链接:沃尔核材、精达股份。算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪、海光信息。液冷:英维克、申菱环境、高澜股份。边缘算力承载平台:美格智能、广和通、移远通必博官方网站信。卫星通信:中国卫通、中国卫星、震有科技、海格通信。IDC:润泽科技、光环新网、奥飞数据、科华数据、润建股份。
运营商:中国电信、中国移动、中国联通。数据可视化:浩瀚深度、恒为科技、中新赛克。
光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。
算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪。
本周国内数据中心相关标的行情较好,主要由于AI技术迭代加快,叠加海内外均增加AI相关领域投资,继“星际之门”计划后,欧盟宣布投资2000亿欧元用于AI研发,各国进行AI竞赛的现状大幅提振市场对于数据中心建设的信心,其中奥飞数据、光环新网本周分别涨13%、6%;海外方面算力产业链如英伟达等行情回暖,其中英伟达、Meta本周分别涨6.9%、3.1%。
我们仍长期看好算力板块,重点推荐光通信龙头中际旭创、新易盛、天孚通信等。同时核心建议关注相关产业链如光互连方向太辰光、德科立等,数据中心方向润泽科技、万国数据、数据港、光环新网、奥飞数据等,CDN方向网宿科技等。
本周(2025年2月10日-2025年2月14日)上证综指收于3346.72点。各行情指标从好到坏依次为:创业板综万得全A(除金融,石油石化) 万得全A中小板综上证综指沪深300。通信板块上涨,表现优于上证综指。
从细分行业指数看;移动互联、云计算、区块链、运营商、量子通信分别上涨8.3%、6.5%、5.9%、5.0%、4.3%,表现优于通信行业平均水平;物联网、卫星通信导航、光通信、通信设备分别上涨3.4%、1.1%、0.3%、0.2%,表现劣于通信行业平均水平。
本周,受益于软件开发概念,拓维信息上涨47.797%,领涨版块。受益于DRG/DIP概念,思创医惠上涨39.634%;受益于Deep Seek概念,日海智能上涨37.422%;受益于阿里巴巴概念,中恒电气上涨31.067%;受益于数据安全概念,ST信通上涨27.476%。
DeepSeek对算力效率的提升一度让市场对算力的逻辑产生分歧,而随着DS用户数的增长,算力紧缺的现实却不容忽视。事实告诉我们,当用户规模爆发后,推理带来的前端需求将让AI算力的蛋糕越变越大。伴随近期AI Agent等热点技术快速落地以及各深度学习架构的快速进展,叠加海内外各巨头均增加AI相关投资,AI应用的需求起量已成为必然趋势。而AI应用起量将带动算力前端需求迅速增长。我们认为,伴随AI应用增长推动计算集群由十万卡向百万卡规模迈进,其中GPU与光模块的配比关系将从传统的线性协同预期向超线性依赖方向演进。
以往市场普遍认为计算集群中每块GPU通常配备3个光模块,主要用于横向互联(GPU-GPU)和CPU的连接。而随着未来技术演进以及计算集群规模的大幅扩张,光模块配比将大幅上升,以用于更高的前后端带宽适配:
NVLink:一种点对点连接接口,目前最高可实现8:1甚至更高的GPU对GPU直连,计算集群所需的高带宽、低延迟要求越高,GPU-GPU直连数量越多,导致光模块数量激增。
NVSwitch:基于NVLink的一种硬件交换机,可支持16个甚至更多的GPU之间的高带宽通信,实现“每个GPU到其他所有GPU”之间的直接数据传输,GPU数量越多所需光模块比例越高。
更高吞吐的存储前端:数据吞吐量增加拉动存储需求增加,而采用高IOPS存储(如HBM+PCle Gen5/6+CXL)则可能需要更多光连接以避免存储成为瓶颈。
外部数据接入优化:模型推理任务对实时数据流、外部数据库或云端数据输入依赖更大,导致前端光模块需求上升。
从模型训练以及推理视角来看,大模型训练阶段虽模型参数巨大,但GPU-GPU通信是主要瓶颈,传统3倍光模块即可满足需求。而在推理以及应用阶段,计算集群需接入海量外部数据(多模态数据、数据流、IoT设备等),需要更强的前端IO和数据传输带宽,导致光模块需求大增。从数据流架构来看,传统HPC或AI训练的数据基本在本地高带宽存储和GPU互联之间传输,对光模块需求较低。而AI推理所需的CDN式数据访问(分布式数据存储+云计算源,AI推理中主要解决带宽有限、延迟高问题)则需要高吞吐的光连接。
我们认为,伴随未来大量AI应用落地,海量的外部数据和AI推理实时响应的特性将驱动低延迟、高宽带的光互连成为主流,光模块在大规模AI集群的作用将持续扩大。同时AI推理和应用侧对高IO、低时延数据流的需求增加,未来随着存算分离、光互连、CXL、分布式计算的发展,光模块需求在AI数据中心中的占比可能持续上升。
目前超大规模AI推理如大模型API服务、搜索推荐、AI Agent在推理时需要跨多个GPU访问键值缓存,如xAI采用了十万卡集群用于推理、Deep Seek由于访问数过多频繁出现“服务器繁忙”问题均说明大规模推理仍有需求。
AI推理数据吞吐远超训练阶段,高速率光模块将迎来产品切换。AI模型训练时通常使用本地数据集,而推理阶段需要接收海量的外部数据,这将导致数据中心需要更高速率、更低延迟的光模块来存储、计算和外部数据源。我们认为,随着AI推理对数据处理要求越来越高,800G、1.6T光模块将逐步普及。另一方面CPO等低功耗、高带宽方案将成为主流。
正如我们上述观点,Deep Seek服务器频繁宕机说明一个问题——目前推理侧机房数量不足以支撑其提供如此多的用户访问并提供推理服务,这反映了AI推理端对机房的大量需求。而上一波云计算浪潮带来的IDC建设高峰留下了大量空置或低租金的存量资源,我们认为随着AI端推理侧的需求增加,将会加速老旧数据中心去库存进程,加速机房改造并提高资源利用率。
综上,我们仍长期看好算力板块,重点推荐光通信龙头中际旭创、新易盛、天孚通信等。同时建议关注相关产业链如光互连方向太辰光、德科立等,数据中心方向润泽科技、万国数据、数据港、光环新网、奥飞数据等,CDN方向网宿科技等。
据C114报道,在巴黎举行的 AI 行动峰会期间,欧盟宣布将投入 2000 亿欧元用于 AI 的研发,其中包括将用于建设处理和训练大模型的“AI 巨型工厂”的 20 亿欧元(当前约 151.11 亿元人民币)。
在当地时间周二的峰会上,欧盟委员会主席乌尔苏拉 冯 德莱恩宣布了这一名为 InvestAI 的计划,并强调欧洲并未在与中美的竞争中落后。“前沿技术始终在发展,领导地位依然可以争取,而在这一前沿之后,AI 的应用将涉及到整个世界,”冯 德莱恩表示。“欧洲在将 AI 应用于特定行业、提升生产力和改善民生方面,具备独特的领先优势。”
消息发布后,法国也宣布私人投资将向其 AI 生态系统注入 1090 亿欧元(当前约 8235.74 亿元人民币)。此外,法国还承诺为由 FluidStack 主导的 AI 计算项目提供 1 吉瓦的核能支持,项目将使用英伟达的芯片。
刚刚过去的 1 月,美国和中国的 AI 领域迎来了重要的增长节点。在美国,OpenAI 与软银宣布了价值 5000 亿美元(当前约 3.65 万亿元人民币)的合作协议“星际之门”,旨在共同建设 AI 基础设施;在中国,DeepSeek 迅速走向国际舞台,其产品不仅质量与竞争者相当,开发成本远低于对手。
5.豆包大模型团队提出全新的稀疏模型架构 UltraMem,推理速度较 MoE 架构提升 2-6 倍,推理成本最高可降低 83%
根据豆包官方公众号,近期,字节跳动豆包大模型团队提出了全新的稀疏模型架构 UltraMem,该架构有效解决了 MoE 推理时高额的访存问题,推理速度较 MoE 架构提升 2-6 倍,推理成本最高可降低 83%。该研究还揭示了新架构的 Scaling Law,证明其不仅具备优异的 Scaling 特性,更在性能上超越了 MoE。
实验结果表明,训练规模达 2000 万 value 的 UltraMem 模型,在同等计算资源下,可同时实现业界领先的推理速度和模型性能,为构建数十亿规模 value 或 expert 开辟了新路径。
在 Transformer 架构下,模型的性能与其参数数量和计算复杂度呈对数关系。随着 LLM 规模不断增大,推理成本会急剧增加,速度变慢。尽管 MoE 架构已经成功将计算和参数解耦,但在推理时,较小的 batch size 就会激活全部专家,导致访存急剧上升,进而使推理延迟大幅增加。
为此,字节跳动豆包大模型 Foundation 团队提出 UltraMem,一种同样将计算和参数解耦的稀疏模型架构,在保证模型效果的前提下解决了推理的访存问题。实验结果表明,在参数和激活条件相同的情况下,UltraMem 在模型效果上超越了 MoE,并将推理速度提升了 2-6 倍。此外,在常见 batch size 规模下,UltraMem 的访存成本几乎与同计算量的 Dense 模型相当。
6.2024年全球企业人工智能存储领域支出达67亿美元 未来五年年复合增长率为12.2%
据C114报道,国际数据公司(IDC)与浪潮信息联合发布《2025年中国人工智能计算力发展评估报告》,《报告》指出,随着人工智能技术的飞速发展,企业对数据存储的需求达到了前所未有的高度。
IDC数据显示,2024年全球企业在人工智能存储领域的支出达到67亿美元,2025年将增至76亿美元,2028年有望达到102亿美元,2023-2028年五年年复合增长率为12.2%。
大模型训练和生成式人工智能技术的应用对存储市场产生了显著影响。首先,算力的增强推动了对存储性能需求的升级。存储系统需要具备更大的容量、更快的读写速度、更低的延迟、更高的可靠性和更佳的灵活性,以支持高效的数据处理与模型训练,同时适应不断增长的数据量和扩大模型规模的需求。在这个过程中,分布式存储架构凭借其性能线性扩展的优势,成为训练场景的主要选择。
随着算力集群规模扩大,存储带宽需相应提升,传统集中式存储和串行运算模式已难以满足需求。分布式存储与并行运算的结合,为人工智能领域提供了新的解决方案。分布式存储系统通过将数据分散在多个物理节点上,提供冗余备份、无限扩展性和并行访问,提升数据可靠性和容错性,系统可以迅速从其他节点恢复数据,确保应用的连续运行;支持PB级甚至EB级数据扩展,满足人工智能模型对海量数据的需求;支持并行访问,多个节点可以同时读取和写入数据,降低数据访问延迟。
其次,存储系统需要能够灵活应对复杂的数据治理和应用需求。当训练出的大模型应用于具体行业时,需要将行业内的各种数据与大模型结合,而这些海量数据来源广泛、类型多样且分布在不同地点,企业需要高效完成这些数据的汇集和预处理。除分布式存储架构外,多协议支持将成为关键。存储系统需要支持多种数据访问协议以及具备无损互通非结构化数据的能力,兼容不同数据格式和传输方式,从而提高数据管理的效率和灵活性,满足复杂应用场景的需求。
未来,随着推理工作负载的增加,存储系统将更加注重快速读写数据、实时响应推理任务、支持大量并发访问以及确保数据的高可用性和完整性。通过采用NVMe SSD等高性能存储介质,结合数据缓存和预取机制,设计灵活的扩展方案,并实施智能数据管理和优化策略,可以帮助企业提高存储利用率和性能,优化数据治理,加速数据价值挖掘。
全闪存存储方案凭借其卓越的数据传输速度、更低的能耗以及更高的单位物理空间容量,在人工智能市场中展现出强劲的增长势头。特别是QLC SSD(四层单元固态硬盘),预计将在以读取为中心的工作负载及应用程序中,以及缓存和分层架构的企业SSD市场中占据越来越重要的地位。PCIe接口协议正逐步占据更大的市场份额,代表下一代高性能网络技术的NVMe over Fabric(NVMe-oF)也开始崭露头角。NVMe-oF能够提供服务器与网络存储间极低的访问延迟,从而充分发挥NVMe SSD的优势并加速其普及。
据C114报道,光通信行业市场研究机构LightCounting在最新报告中指出,AI对光连接的需求依然强劲,但是相关元器件的短缺阻碍了2024年Q4光模块销售的增长,这一情况将会延续到2025年上半年。
亚马逊、Meta、微软、甲骨文、谷歌母公司Alphabet在2024年的资本开支仍明显高于2023年,特别是在2024年Q4,这几家公司的资本开支总和同比增长了73%。
如下图所示,2024年Q4,甲骨文的资本开支同比增长了268%,但它是TOP5中规模最小的。甲骨文在2024年资本开支不到110亿美元,而Meta和亚马逊分别为390亿美元和830亿美元。
甲骨文首席执行官表示,2025财年的资本开支将是2024年的两倍。Alphabet、Meta和微软计划在2025年的资本开支增长超过40%,亚马逊计划增长20%。到目前为止,DeepSeek的成功并没有改变这些云服务厂商的资本开支计划。
Coherent报告称,2024年Q4仅环比增长6%,预计与2025年Q1的营收持平。LightCounting预计旭创科技的营收增长也将出现类似的趋势,但其他光模块供应商可能会继续报告两位数的增长率。
作为800G DR8和2xFR4光模块的主要供应商,Coherent和旭创科技将受限于100G EML的供应短缺。同时,谷歌和英伟达将推迟部署1.6T光模块,进一步冲击这两家企业的业绩。
Lumentum报告2024年Q4营收环比增长20%,该公司开始向一家新的超大规模客户交付光模块,并创下EML销售额的新纪录。另一家领先的EML供应商住友电工称,营收在2024年Q4实现了两位数的增长。
中国光模块制造商将在今年4月份公布全年业绩,但其中几家已经公布了2024年的业绩预告,净利润大幅增长。中国领先的云计算公司对光模块的需求也在急剧增长。与此同时,全球众多二线云计算公司和初创企业也将为2025年及以后的市场增长做出贡献。
LightCounting预计EML短缺将在2025年下半年缓解,硅光方案将继续获得市场份额。“我们仍然预计2025年以太网光模块的销售额将增长50%。
8.OpenAI宣布GPT-5即将发布:用户可免费使用“王炸级”技术突破
据C114报道,2月12日凌晨,OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)通过社交平台X宣布,公司将在未来几个月内正式推出新一代人工智能模型GPT-5。
此次更新被业界称为“王炸级”技术突破,而且免费版用户也能够体验到最新模型。
GPT-5将在ChatGPT和API中融合OpenAI多项核心技术,包括原计划独立发布的推理模型o3。该模型将集成语音交互、画布创作、实时搜索及深度研究等能力,进一步扩展应用场景。
免费用户可无限制使用基础版GPT-5,付费用户(Plus版20美元/月、Pro版200美元/月)则可解锁解锁更高智能级别与深度研究次数。
奥尔特曼表示,OpenAI将彻底调整其人工智能产品路线图,未来数周内发布GPT-4.5作为过渡产品,而数月后发布的GPT-5将是真正的变革者。
OpenAI近期动作频频,可见Deepseek的爆火带给OpenAI的压力和威胁。OpenAI急需展示自身的技术实力以保持市场地位,同时,OpenAI目前正处于融资关键阶段,也需要稳定投资者信心。
9.CSP、OEM需求强劲,2024年全球AI服务器出货量同比增长46%
据C114报道,根据TrendForce集邦咨询最新研究,2024年全球AI服务器(Server)出货量受惠于CSP、OEM的强劲需求,年增幅度为46%。
国际形势、DeepSeek效应、英伟达GB200/GB300 Rack供应链整备进度等将成为影响2025年AI Server出货量的变量,TrendForce集邦咨询据此提出三种情境预估。第一种为基础情境(base case),研判发生的机率最高。近期Microsoft、Meta、Amazon、Google等主要CSP业者皆宣布,扩大今年对云端或AI基础设施的资本支出,平均年成长可望逾30%,将支撑AI Server需求动能。另外,目前供应链对全年整体AI Server出货量评估尚无明显变化,在此情境下,TrendForce集邦咨询预估2025年全球AI Server出货量有望年增近28%。然而,若今年GB200/GB300 Rack出货放量遇到挑战,CSP等终端客户可能转为优先拉货HGX、MGX等机型,或布局自有ASIC基础建设。
发生机率次高的是悲观情境(worse case),估计整体AI Server出货量的年成长介于20%至25%间。TrendForce集邦咨询表示,这项预估基于三大考量:首先,国际形势变化对AI芯片影响扩大;其次,英伟达 GB Rack方案因设计较为复杂,出货大宗将落于2025年下半年,GB300预计于相同时间点推出,因规格较高,对于整体Server Rack系统测试、验证期程也将拉长。最后则考量DeepSeek效应,可能导致客户降低对高阶AI方案的依赖。
乐观情境(bullish case)基于中美AI政策转趋积极,如美国的Stargate计划可望加速各业者布局AI Server。此外,尽管DeepSeek可能影响高阶GPU采用,但美系CSP购置自家ASIC AI server的速度优于预期,加上预期DeepSeek效应有助扩大AI应用场景,进而带动edge AI Server发展。综上所述,2025年AI Server出货的乐观预估为年增近35%。
TrendForce集邦咨询指出,在DeepSeek驱动下,CSP业者预计将更积极发展成本较低的自有ASIC方案,并把重心从AI训练转往AI推理,预估将逐步推升AI推理服务器占比至接近50%。未来GPU仍将支持各种AI算法发展,但持续发展大型算法的CSP业者和更重视成本考量的边缘企业客户将各有需求。
10.Anthropic发布首份AI经济指数报告:软件工程师、作家成AI应用先锋
据C114报道,Anthropic 公司2月10日发布了首份经济指数(Economic Index)报告,软件工程师和作家率先拥抱 AI,并表明现阶段 AI 的定位并非替代者,而是协作工具。
人们普遍担忧人工智能会快速取代人类工作,但 Anthropic 的经济指数提供了新的必博官方网站数据,挑战了这一假设。
该报告基于数百万次与 Claude AI 模型交互,AI 主要被用作协作者,揭示了人工智能如何融入现实世界任务,并发现 AI 主要应用于软件开发和技术写作等领域,更多地用于增强而非自动化人类能力。
该研究利用名为 Clio 的系统分析了 Claude.ai上约一百万次匿名对话,并根据美国劳工部维护的职业信息网络(ONET)数据库对对话进行分类,匹配每次对话与最能代表人工智能角色的 ONET 任务,进而分析人工智能在不同职业和任务中的应用情况。
数据显示,人工智能在“计算机和数学”类职业中的应用最为广泛,占比高达 37.2%,主要涉及软件修改、代码调试和网络故障排除等任务;“艺术、设计、体育、娱乐和媒体”类职业位居第二,占比 10.3%,主要用于写作和编辑;而需要大量体力劳动的职业,例如“农业、渔业和林业”类职业,人工智能的使用率最低,仅为 0.1%。
研究表明,人工智能的使用略微倾向于增强人类能力 (57%),而非自动化任务 (43%)。在大多数情况下,人工智能并非用于取代人类,而是与人类协作,例如验证工作、辅助学习新知识和技能,以及迭代任务等。
据C114报道,OpenAI正积极推进其减少对英伟达芯片依赖的计划,即将完成自家首款自研人工智能芯片。据最新消息,OpenAI已决定将这款自研芯片交由全球领先的半导体制造商台积电进行“流片”测试。
这一步骤意味着,经过精心设计的芯片将被送往台积电工厂,进入试生产阶段。这不仅是对芯片设计的一次实战检验,更是OpenAI向大规模自主芯片生产迈出的关键一步。
OpenAI规划着在2026年实现自研芯片在台积电的大规模生产。尽管每次流片测试的费用高达数千万美元,且通常需耗时约六个月。
然而,值得注意的是,首次流片测试并非万无一失。面对可能的技术挑战,OpenAI已做好充分预案。一旦芯片在测试中出现问题,OpenAI的工程师团队将迅速诊断问题所在,并着手进行必要的调整与优化,随后再次进行流片测试,直至达到预期效果。
这款自研芯片在OpenAI内部被视为一种重要的战略性工具。随着首款芯片的顺利投产,OpenAI的工程师团队还将以此为契机,逐步开发出性能更强、功能更广泛的处理器系列,进一步巩固其在人工智能领域的领先地位。
本文节选自国盛证券研究所已于2025年2月15日发布的报告《国盛通信丨Deep Seek的启示:不容忽视的算力前端需求》,具体内容请详见相关报告。