本週都是國際大廠的新聞,來看看吧!
(1)NVLink Fusion 一改過去封閉架構,NVIDIA 背後策略為何?(原文點此)
Nvidia宣布開放第三方廠商在其產品(ASIC、模組、板卡...等)中使用NVLink Fusion與Nvidia產品相連,但禁止與非Nvidia產品相連。
編按:
目前系統級互聯技術的2大陣營為:NVLink(Nvidia)、UALink(非Nvidia陣營)。 效能是NVLink領先。
短評:
Nvidia這一步很明顯的是要把ASIC(客製化晶片)廠商納入他的生態系。 不過,部分ASIC廠商當初不用Nvidia的產品而設計自家產品,有可能就是不想要關鍵資源掌握在Nvidia手中,所以NVLink Fusion是否真的能吸引到大量ASIC廠商使用,有待觀察。
(2)Anthropic Claude 4 來了!是怎麼做到即時、深度思考能力的(原文點此)
Anthropic推出新版LLM(大型語言模型)「Claude 4」,多項指標表現優良。 模型的性能由低至高為:Claude Opus 4、Claude Sonnet 4。
編按:
目前發展LM模型較知名的公司有:OpenAI(GPT-4.1、4o、o3、o4-mini)、Google(Gemini 2.5)、Meta(Llama 4)、Amazon(Nova)、Apple(OpenELM、Ferret-UI)、Microsoft(Phi 4)、Anthropic(Claude 4)、Mistral(Mistral Medium 3)、xAI(Grok 3)、DeepSeek(DeepSeek R1)、阿里巴巴(Qwen 3)、百度(ERNIE 4.5)、字節跳動(Doubao 1.5)...等。
Google本週舉行開發者大會。
(3)Google I/O 2025 懶人包,一次看完 Gemini 六大進程(原文點此)
(4)全能 AI 助理時代來臨!Gemini Live + Project Astra 記得你所有偏好,動口就能整行程、購物(原文點此)
(5)Google 搜尋要推出 AI Mode,要讓「資訊凝聚成智慧」(原文點此)
(6)Google 大幅更新 AI Agent「Project Mariner」,可同時完成 10 種任務(原文點此)
(7)Android XR 眼鏡現身!可即時顯示翻譯、針對環境提供資訊(原文點此)
Google開發者大會Google I/O 2025於本週登場,重點摘要如下:
[a]LLM 「Gemini 2.5」升級,目前有:Flash Experimental、Pro Experimental。 其中,Pro Experimental加入了Deep Think功能(平行思考取得最佳答案)。
[b]推出使用Diffusion Model技術的實驗性LLM「Gemini Diffusion」。 傳統LLM是使用Autoregressive技術,也就是由目前的token去推出機率最高的下1個token,以此慢慢生成完整答案;Diffusion技術則是先產生1個隨機的完整答案,再把雜訊去除得到最佳的完整答案。 經內部測試,Gemini Diffusion在邏輯推理的任務上表現優異。
[c]推出新版文字生圖片AI「Imagen 4」,可生成更多解析度的圖片。
[d]推出新版文字生影片AI「Veo 3」,可生成含配樂、對話的影片。
[e]簡介「Project Astra」。 Project Astra的目標是研發能夠理解使用者週遭世界、個人化的通用型AI Agent。
[f]簡介「Project Mariner」。 Project Mariner的目標是研發看懂螢幕,並自動完成瀏覽器操作的AI Agent。
[g]Google搜尋推出AI Mode、Search Live,以及強化購物體驗的相關功能。 在AI Mode之下,搜尋會使用生成式AI進行搜尋。 Search Live之中,使用者能透過即時影音輸入,獲取建議。 在強化購物體驗的功能之中,使用者能夠查看衣服試穿效果、設定目標價並在價格符合時自動結帳購買...等。
[h]AI助理「Gemini Live」升級,支援透過語音、影像理解使用者所處的周遭世界並給予回饋。
[i]推出電影生成工具「Flow」,此工具整合Gemini、Veo 3、Imagen 4的功能,能協助電影製作團隊更快的製作電影片段。
[j]宣布將與Samsung共同開發搭載Android XR作業系統的智慧眼鏡「Project Moohan」。
短評:
Google這次開發者大會的AI產品可說是琳瑯滿目。 雖然說部分功能重疊,不過看得出他們是砸大量資源在發展AI。
留言
張貼留言