2026 年,生成式AI 從實驗室走向規模化商用,大模型參數量與訓練資料量的雙增長,正將資料中心的算力需求推向物理極限。高盛2025 年3 月發佈的《全球AI 基礎設施投資報告》顯示,2026 年全球AI 訓練伺服器出貨量同比增長67%,單台伺服器的算力需求較2023 年提升超3 倍; 對應AI 晶片總需求突破1600 萬顆,但傳統GPU ( 如NVIDIA H100) 的訂單排期已延至2027年Q1,單卡小時租賃成本漲至6.5-7.0 美元,較2025 年同期上漲15%-20%。
支撐這一需求的, 是大模型參數量的指數級躍升:為承載如此龐大的算力集群,Microsoft 為OpenAI 部署的GB300 超算集群中,單顆GPU 需至少800Gbps 的點對點互聯頻寬—— 這一指標已遠超傳統電互聯的能力邊界,甚至部分接近其物理極限。
2026 年,矽光子晶片已從實驗室原型走向規模化量產,其核心價值在於解決傳統電互聯無法突破的兩大瓶頸:一是通過光子的高速傳輸,突破” 算力牆”,滿足大模型對萬卡級GPU 集群的互聯需求;二是通過光子的低功耗特性,突破”功耗牆”,將資料中心的互聯功耗降低50% 以上。