DeepSeek、待望のAIモデル「DeepSeek-V4」を発表。100万文字規模に対応、性能はClaude 4.5超え(36Kr Japan)
原始發表日期:2026-04-29
中國頂尖人工智慧實驗室 DeepSeek 震撼發布最新一代大語言模型「DeepSeek-V4」,其不僅具備高達 100 萬字元(Token)的超長文本處理能力,跑分數據更宣告超越歐美頂尖模型 Claude 4.5。這則重磅消息標誌著全球 AI 算力與演算法的軍備競賽已進入白熱化階段,且中國 AI 勢力正以驚人的速度突破美國的技術封鎖,重塑全球科技版圖。
產業現況
AI 模型的能力邊界正在極速擴張。「超長文本窗口(Long Context Window)」是目前各大巨頭廝殺的主戰場。高達百萬字的處理能力意味著企業可以將整本財報、數十萬行的程式碼或一整座圖書館的專業文獻,一次性「餵」給 AI 進行深度分析與推演。DeepSeek 的突破,不僅對 OpenAI、Anthropic 造成極大的競爭壓力,更宣示了開源/半開源模型在商業應用落地上,已具備與閉源巨頭一較高下的絕對實力。
總經分析
從地緣政治經濟學的視角來看,DeepSeek-V4 的誕生是對美國高端 AI 晶片禁令的一記強烈反擊。中國企業透過極致的演算法優化(如混合專家模型 MoE)與分散式運算架構,成功在算力受限的環境下訓練出世界級的模型。這預示著未來全球 AI 生態圈將加速走向「中美雙軌制(Bifurcation)」。同時,強大且低成本的開源模型將徹底顛覆軟體開發、法律審閱與金融分析等白領知識產業,引發新一波的勞動生產力革命與結構性失業陣痛。
未來展望
隨著基礎大模型(Foundation Models)能力的同質化,未來的超額利潤將不再屬於單純提供 API 的模型開發商,而是掌握特定產業專有數據(Proprietary Data)並能將 AI 深度整合至工作流程中的垂直應用服務商(Vertical AI)。投資人應將目光從輝達(Nvidia)等硬體基礎設施,逐漸轉移至在醫療診斷、自動駕駛與自動化軟體測試領域,能真正將百萬級文本處理能力轉化為經常性訂閱營收(ARR)的 AI 原生應用企業。
財經小辭典
- Token (詞元):大語言模型處理文本的基本單位。一個 Token 在英文中大約是一個單字的一部分或全部,在中文中約等於一到兩個漢字。模型能同時處理的 Token 數量(窗口大小)決定了其理解長篇文章的能力。
- MoE (混合專家模型, Mixture of Experts):一種先進的機器學習架構。透過將龐大的神經網路拆分為多個專精不同領域的「專家」子網路,在每次推論時只啟動相關的專家,從而大幅降低算力消耗並提升模型效能。
- 開源模型 (Open Source Model):開發者將 AI 模型的架構、權重數據公開,允許全球研究人員與企業免費下載、修改並部署在自己的伺服器上,與 OpenAI 等不公開底層技術的「閉源模型」形成強烈對比。