跳到主要內容

2026.01.17一週科技新聞集錦:台美關稅降至15%

建蛋的生活軌跡.JPG
先來看看國際大廠的新聞。
(1)摩根大通確定接手 Apple Card 發卡業務(原文點此)
JPMorgan Chase將接手Goldman Sachs的Apple Card業務。
編按:
[a]由於Goldman Sachs於消費者金融領域的經驗不足,在Apple要求Apple Card必須放寬信用審核門檻,並且是無手續費、無滯納金、高額現金回饋...等條件之下,收入不足以彌補其過高的壞帳;此外,Goldman Sachs的結算、客服系統也不是為了Apple Card這種全體用戶都是單一結帳日的系統設計,還需額外投入資本改善系統。 種種情況之下,Goldman Sachs已虧損數十億美元以上,只好放棄此業務。 
[b]JPMorgan Chase有多年消費者金融領域的經驗,外界多半預測它不會重蹈覆轍。

(2)Google 的逆襲!蘋果證實合作 Google,Gemini 將驅動 Apple 逾 20 億台活躍裝置(原文點此)
Apple正式宣布與Google合作,將導入Google客製化的Gemini做為Apple Intelligence的基礎AI模型。 外界推測Apple每年會支付Google 10億美元的授權費。
編按:
未來Apple Intelligence將分為3層:底層使用Apple自研小模型,跑在終端裝置端,處理簡單的AI功能;中層使用客製化Gemini中模型,跑在Private Cloud Compute(Apple私有雲),處理需要查詢隱私資料的中等AI功能;上層使用Gemini/ChatGPT...等外部大模型,會跑在外部雲端,處理非關隱私的複雜任務。
短評:
目前LLM已被認為是大宗商品(也就是差異化較小的商品)。 Apple做為掌握大量終端用戶的存在,本可讓各家AI公司付費爭取作為使用者預設AI,但Apple卻反過來向Google付費購買AI,有點反常理。 比較可能的原因是,Apple要利用這次客製化Gemini模型來學習關鍵的AI模型知識,最後還是會轉用自家的AI。

最後來看台美貿易協議的新聞。
(3)台美貿易協議關稅降至 15%,學者:「接近 FTA」美視台為核心夥伴(原文點此)
台灣與美國達成貿易協定。 美國方的內容含:台灣關稅稅率由20%降為15%、部份生技與航空商品0關稅、未來受到232條款影響的半導體商品可取得最優惠待遇。 台灣方的內容含:半導體及能源廠商需赴美投資至少2500億美元、台灣政府需提供2500億美元的政府擔保融資協助企業至美國投資、部分商品降稅(未來才會公布)...等。
編按:
[a]美國政府對貿易夥伴的關稅分為基礎關稅(不分國家為10%)、對等關稅(對特定國家還會額外加徵)。 此外,另有依Trade Expansion Act of 1962第232條款課稅的商品(鋼鐵與鋁及其衍生品(50%)、汽車及汽車零組件(25%)、銅及關鍵礦物(50%,暫緩課稅)、半導體(轉運品25%,其餘稅率未定)...等),稅率不會與基礎關稅、對等關稅疊加。
[b]目前美國政府主要貿易夥伴的關稅稅率包含:英國(10%)、台灣(15%)、日本(15%)、南韓(15%)、歐盟(15%)、瑞士(15%)、菲律賓(19%)、印尼(19%)、馬來西亞(19%)、泰國(19%)、柬埔寨(19%)、越南(20%)、印度(25%)、墨西哥(25%)、加拿大(35%)、巴西(50%)...等;其中,印度因為進口俄羅斯石油,被額外再加徵25%懲罰性關稅。 中國和美國尚未達成協議,不過目前處於休兵期,關稅為10%;另須課10%芬太尼關稅,以及2018年貿易戰開徵、最高25%的關稅。 非主要貿易夥伴的關稅是10%。 這些關稅仍會動態調整。
[c]除了以上關稅之外,目前和購買俄羅斯原油、和伊朗有貿易關係的國家也會被課徵額外關稅。 格陵蘭議題上,也有部分國家預計被課徵額外關稅。
短評:
美國的戰略目標就是要有本土的半導體供應鏈,預期台灣半導體供應鏈完全留在台灣根本就不切實際。 在這個前提之下,台積電的獲利能力可以扛的下如此龐大的投資案,免除掉政府、中小企業大量出資的財務和營運風險,再加上與競爭對手在關稅稅率拉至同樣基準點(以前很多貿易協定都無法簽定,關稅是處於弱勢地位),可說是一項很好的結果。


由於上週停刊的緣故,在此補充一下上週的新聞。
(1)NVIDIA 亮 Vera Rubin 最新進度,黃仁勳:已全面量產!(原文點此)
Nvidia公布下一代GPU系統架構,由Vera CPU、Rubin GPU、BlueField-4 DPU、ConnectX-9 SuperNIC、NVLink 6 Switch、Spectrum-X6 Switch...等元件組成。
編按:
[a]AI在運作時需要大量的硬體資源,所以需要將大量的硬體串接起來。 Nvidia依據層級將這些連線分為:die-to-die(封裝內、使用Interposer的連線)、chip-to-chip(封裝內或跨封裝、不使用Interposer的連線)、Scale-up(rack(機架)內連線)、Scale-out(跨rack連線)、Scale-across(跨資料中心連線)。
[b]die-to-die是使用NV-HBI或UCIe的方式相連(parallel IO),例如:GPU die和GPU die的連線。 chip-to-chip使使用NVLink C2C的方式相連(SerDes),例如:CPU die和GPU die的連線。 Scale-up使使用NVLink/NVLink Fusion的方式相連(SerDes)。 Scale-out使用Spectrum-X(高效能Ethernet Protocol)或InfiniBand(InfiniBand Protocol)相連(SerDes)。 Scale-accross使用Long-reach WAN/DCI的方式相連。
[c]Nvidia的網路系統的元件主要有:Vera CPU、Rubin GPU、Vera Rubin Superchip(Vera CPU+Rubin GPU)、BlueField-4 DPU、ConnectX-9 SuperNIC、NVLink 6 Switch、Spectrum-X6 Switch(Spectrum-X)/Quantum-X Switch(InfiniBand)、。
[d]Vera CPU(負責資料流管理)、Rubin GPU(負責AI運算)、Vera Rubin Superchip,這3者是運算的核心單元。  NVLink 6 Switch是交換器,在Scale-up層級將網路封包依據Routing Table在不同的port間傳送(Routing Table由軟體定義)。 BlueField-4 DPU是位於處理核心單元與ConnectX-9 SuperNIC間的PCIe加速卡,負責在Scale-out層級進行資料儲存、網路安全、ICMS(Inference Context Memory Storage(推論上下文記憶體管理))。  ConnectX-9 SuperNIC是PCIe加速卡,負責在Scale-out層級將進行網路封包、解封包,以及其他的處理。 Spectrum-X6 Switch/Quantum-X Switch是交換器,在Scale-out層級將網路封包依據Routing Table在不同的port間傳送(Routing Table需要另外的CPU不定期更新)。 
短評:
[a]Nvidia先前已顯露出將Inferece(推論)階段的硬體依不同需求優化,這次則是看到他們對網路元件進行優化。 其中,BlueField-4 DPU中的ICMS可大幅擴展在Inference階段時使用的KV Cache儲存容量,預計能讓Inference時能記住更多的上下文,增進效能和表現。
[b]對於一個系統而,整體的效能會由最弱的元件所限制住。 Nvidia不斷的改善各個元件,加上CUDA開發平台也不斷進化,如果其他AI廠商的ASIC迭代速度不夠快,那麼因客製化而得到的效能優勢可能很快就會被Nvidia追過去。
工程師也能過得精采-工作、旅行、美食,缺一不可!

留言