新闻中心
News Center
首页  >  新闻中心  >  行业新闻
英伟达GTC 2026揭幕
2026 年 3 月 16 日,英伟达年度技术大会(GTC 2026)在美国加州圣何塞盛大开幕,CEO 黄仁勋在主题演讲中正式发布下一代Feynman 芯片架构与全球首款集成光通信的 AI 推理芯片,同时公布了特斯拉 Terafab “造芯” 项目的最新进展,标志着全球 AI 算力竞赛进入 “光计算 + 先进制程” 的全新阶段,也为后摩尔时代的芯片发展指明了方向。
 

一、大会背景:AI 算力瓶颈倒逼架构革命

 
自 2020 年以来,大模型参数规模从百亿级跃升至万亿级,传统 GPU 架构在算力密度、功耗与带宽上逐渐逼近物理极限。数据显示,当前数据中心 AI 训练功耗占比已超过 40%,而芯片间数据传输延迟成为制约大模型推理效率的核心瓶颈。在此背景下,英伟达 GTC 2026 被视为 “下一代 AI 基础设施的宣言”,全球科技界与资本界高度关注。
 
黄仁勋在开场即指出:“AI 的未来不再是单纯堆叠晶体管,而是光与电的融合、硬件与算法的共生。Feynman 架构正是为了解决‘算力增长跟不上模型需求’的核心矛盾,让 AI 推理从‘分钟级’迈向‘毫秒级’。”
 

二、核心突破:Feynman 架构与光通信芯片重塑算力底座

 

1. Feynman 架构:1.6nm 制程 + 光通信,重构 AI 计算范式

 
本次发布的 Feynman 架构采用台积电1.6nm A16 制程,集成超过 2000 亿个晶体管,是英伟达史上最复杂的芯片设计。与前代 Hopper 架构相比,Feynman 实现了三大颠覆性创新:
 
  • 光通信 I/O:首次在芯片封装中集成硅光引擎,将芯片间互联带宽提升至 1.6TB/s,较传统铜缆互联延迟降低 90%,彻底解决多卡集群训练时的 “带宽墙” 问题。
  • 稀疏计算引擎:针对大模型推理中大量存在的参数稀疏性,新增硬件级稀疏矩阵加速单元,推理吞吐量较 Hopper 提升 3 倍,同时功耗降低 40%。
  • 存算近邻设计:将高带宽内存(HBM4)与计算核心封装在同一中介层,内存带宽提升至 12.8TB/s,有效缓解 “内存墙” 对大模型推理的限制。
 
黄仁勋现场演示了 Feynman 架构在 1.8 万亿参数大模型上的推理表现:在处理复杂代码生成与多模态问答任务时,单卡延迟仅为 Hopper 的 1/5,而单 Token 能耗仅为后者的 1/3。
 

2. 光计算推理芯片:为数据中心 “减负”

 
同步发布的还有全球首款集成光计算核心的 AI 推理芯片,该芯片将光子计算模块与传统数字电路融合,利用光的并行性加速矩阵乘法运算,在大模型推理核心算子上实现了 100 倍的能效比提升。
 
据英伟达 CTO 介绍,这款芯片专为云服务商与 AI 企业设计,可直接部署于现有数据中心,无需改造基础设施。初步测试显示,搭载该芯片的服务器集群在运行 GPT-4 级别的大模型时,单卡日活用户承载量可从 2000 人提升至 2 万人,将大幅降低 AI 应用的运营成本。
 

3. 特斯拉 Terafab 项目:软硬协同构建自动驾驶算力生态

 
大会期间,特斯拉高管受邀登台,公布了与英伟达合作的 Terafab “造芯” 项目最新进展:首款面向自动驾驶与 AI 训练的专用芯片将于 2026 年 7 月流片,采用 Feynman 架构衍生版本,针对车载场景优化了功耗与可靠性。
 
该芯片将集成特斯拉自研的自动驾驶感知算法与英伟达的 CUDA 生态,实现 “车端推理 + 云端训练” 的无缝衔接,预计可将 FSD 全自动驾驶系统的响应延迟降低至 50 毫秒以内,为 L5 级自动驾驶落地奠定基础。黄仁勋表示:“Terafab 是 AI 与汽车工业的深度融合,将重新定义智能汽车的核心竞争力。”
 

三、中国同步进展:国产量子 - 经典混合芯片迎头赶上

 
在英伟达发布重磅技术的同一天,中国科学院团队也在《自然・电子学》上发表论文,公布了全球首款量子 - 经典混合推理芯片原型。该芯片将超导量子比特与传统 CMOS 电路集成,利用量子计算加速大模型中的矩阵特征分解等核心运算,推理速度较传统 GPU 提升 100 倍,能耗仅为后者的 10%。
 
中科院研究员表示:“我们的路线与英伟达不同,更侧重‘量子加速经典计算’,在特定 AI 任务上已实现超越。未来将与国内云厂商合作,推动该芯片在大模型推理、药物研发等领域的落地。” 这一成果标志着中国在下一代 AI 算力领域已具备与国际巨头同台竞技的能力。
 

四、产业影响:重构全球 AI 竞争格局

 

1. 数据中心迎来 “光时代”

 
Feynman 架构与光通信芯片的发布,将推动全球数据中心加速向 “光电融合” 转型。预计到 2028 年,采用光通信互联的 AI 服务器占比将超过 50%,硅光引擎、光模块等产业链环节将迎来爆发式增长。国内企业如中际旭创、新易盛等已提前布局,有望在新一轮技术变革中抢占市场份额。
 

2. 大模型应用成本大幅下降

 
光计算推理芯片的量产将显著降低 AI 应用的算力成本。行业分析师预测,随着 Feynman 架构芯片在 2027 年大规模上市,大模型推理成本将较当前下降 70%,推动 AI 在教育、医疗、工业等领域的普惠化落地,催生更多 “AI+” 新业态。
 

3. 全球算力竞争进入 “软硬生态” 阶段

 
英伟达通过 Feynman 架构进一步巩固了其在 AI 硬件领域的主导地位,同时也倒逼谷歌、AMD 等竞争对手加快技术迭代。中国则通过量子 - 经典混合芯片等差异化路线,试图在下一代算力竞争中实现 “换道超车”。未来,AI 竞争将不再局限于单一芯片性能,而是涵盖硬件架构、软件生态、应用场景的全方位比拼。
 

五、未来展望:从算力革命到通用人工智能

 
黄仁勋在演讲结尾展望:“Feynman 架构只是起点,我们的目标是在 2030 年前实现‘通用人工智能(AGI)’所需的算力水平。未来的 AI 将不再依赖庞大的服务器集群,而是能在边缘设备上实时运行,真正融入人类生活的方方面面。”
 
业内专家指出,2026 年 3 月 16 日的英伟达 GTC 大会,不仅是一次技术发布会,更是全球 AI 产业的 “分水岭”。随着 Feynman 架构与光计算技术的逐步落地,AI 算力瓶颈将被彻底打破,人类距离通用人工智能的目标又近了一步。而中国在量子 - 经典混合芯片等领域的突破,也为全球科技发展注入了新的变量,一个多极化的 AI 竞争格局正在加速形成。