本週都是AI的新聞,來看看吧!
(1)OpenAI 建構「超級 App」,整合 ChatGPT、Codex 及瀏覽器對抗 Anthropic 競爭(原文點此)
OpenAI精簡產品線,未來會將ChatGPT、Codex(AI輔助程式設計工具)、Atlas(瀏覽器)整合在一起,以集中研發資源並讓使用者更好用。
短評:
OpenAI從2025年開始不論是LLM模型或者是產品,大都沒有令人驚豔的表現(效能、價格...等),這對於以ChatGPT為主要收入的他們而言,的確是值得擔憂;他們也在2025年底宣布進入Code Red(深具威脅)狀態。 如今看到OpenAI有把研發資源重新聚焦,算是往好的方向發展。
Nvidia本週舉行開發者大會。
(2)推論時代來臨!NVIDIA 正式推出 Vera Rubin、Vera CPU 以及全新「推論加速器」(原文點此)
(3)Feynman 世代藍圖一次看:Rosa CPU 登場、銅與 CPO 雙軌 Scale-up 架構成形(原文點此)
(4)NVIDIA 攜手 IBM 重塑數據處理新紀元,兩大函式庫解構非結構化資料(原文點此)
Nvidia開發者大會GTC 2026於本週登場,重點摘要如下:
[a]正式推出Vera Rubin平台,包含:Vera CPU(負責資料流管理)、Rubin GPU(負責AI運算)、Vera Rubin Superchip、Groq LP30 LPU(高效能AI推論)、NVLink 6 Switch(交換器,在Scale-up層級將網路封包依據Routing Table在不同的port間傳送(Routing Table由軟體定義))、BlueField-4 DPU(位於處理核心單元與ConnectX-9 SuperNIC間的PCIe加速卡,負責在Scale-out層級進行資料儲存、網路安全、ICMS(Inference Context Memory Storage(推論上下文記憶體管理)))、ConnectX-9 SuperNIC(PCIe加速卡,負責在Scale-out層級將進行網路封包、解封包,以及其他的處理)、Spectrum-6 Switch/Quantum-X Switch(在Scale-out層級將網路封包依據Routing Table在不同的port間傳送(Routing Table需要另外的CPU不定期更新))。
[b]下一代平台會是Rosa Feynman平台,預計包含:Rosa CPU、Feynman GPU、Rosa Feynman Superchip、Groq LP40 LPU、BlueField-5 DPU、ConnectX-10 SuperNIC、Spectrum-7 Switch...等。 其中,牽涉到NVLink的連線部分,將會以光纖、銅線連線並進的方式發展。
[c]推出新一代圖形渲染(Rendering)技術「DLSS 5」。 DLSS 5會利用AI幫遊戲加入接近真實的光影與材質,讓畫面更逼真。
[d]Inference(推論)加速軟體「Dynamo」優化。 Dynamo會將Inference過程分割為Prefill、Decode Attention、Decode FFN/ MoE(前饋網路/專家混合計算)...等階段,並將需要大量記憶體的Decode Attention交給Vera Rubin Superchip處理,而需要低延遲與高頻寬的Decode FFN/ MoE交給Groq LP30 LPU處理,以增加效能。
[e]推出Open Source Stack(開源軟體堆疊)「NemoClaw」。 NemoClaw利用NVIDIA OpenShell runtime,讓近期爆紅的AI Agent「OpenClaw 」能被包覆在安全沙盒中(也就是不會影響到系統安全性的環境)運行,以解決OpenClaw 令人詬病的安全問題。
[f]推出Foundational Libraries(基礎函式庫)「QDF」(針對資料框架、結構化數據)、「QVS」(針對向量庫、非結構化數據),讓GPU能更有效的處理資料。
短評:
在Agentic AI時代,Agent會更頻繁地呼叫各類軟體(因而需要更多CPU來支援運算),同時也對即時回應能力提出更高要求。 Nvidia此次首度單獨販售Vera CPU,並同步發表LPU,顯然是在為此趨勢提前布局。 再加上NemoClaw的推出,使更多使用者能更安心地導入Agentic AI,整體而言可說已做好相當完善的準備。
留言
張貼留言