MoneyDJ新聞 2024-06-03 12:36:40 記者 羅毓嘉 報導
IP大廠ARM執行長哈斯(Rene Hass)表示,由於未來資料中心所使用的電量將不斷提升,在邊緣(edge)AI的裝置領域,對於耗電量的要求勢必將更為嚴苛,ARM強大的低能耗運算架構為ARM在AI時代奠定了更佳的競爭基礎,預期未來包括行動裝置、個人電腦,乃至汽車電子系統等領域的邊緣AI都會見到ARM的IP,且在雲端企業的晶片系統當中,ARM亦不會缺席。
哈斯表示,ARM的IP設計架構已經協助包括AWS、Microsoft、Google的資料中心運算系統節約40%-60%的能耗,而在NVIDIA的Blackwell系統當中能效更高達前代系統的25倍之多,全球對於AI的需求越高、需要使用的能源就越多,因此如何降低每一個運算單元的能耗,是當前晶片設計商、生態系夥伴都在追求的。
同時,除了能耗之外,運算速度也是AI時代的重中之重,哈斯指出,ARM的解決方案在電競領域將運算速度提升了6.6倍,而生成式AI的運算速度則較前代晶片提升近2倍,在一般PC運算領域的速度也提升了75%。
針對AI裝置與應用開發者的需求,ARM也推出arm Kleidi AI平台,截至目前為止ARM已經協助包括手機大廠Samsung整合通訊與AI功能、以及meta旗下的Whatsapp,乃至Instagram等app的AI軟硬體整合,哈斯表示,可預期未來將會有更多的開發商投入系統、app功能與AI的接合工作,ARM也將持續發揮IP實力、協助生態系擴張。
「AI必須隨處可得(AI needs to run everywhere),」哈斯表示,從雲端到邊緣,AI需要大量的算力並對指令與互動環境作出回應,而ARM的IP存在於大量的CPU、GPU、NPU平台當中,且是目前最被廣為使用的平台系統,目前採用ARM IP的晶片年出貨量已經達到3,000億顆,龐大的生態系也是ARM在AI時代持續推展的最佳夥伴。
哈斯表示,在2012年的COMPUTEX時僅有一款行動裝置搭載ARM的平台,然而到2024年的當下,從開發者工具、到Microsoft Windows on ARM原生平台,乃至各式各樣的app,都仰賴ARM的運算架構,藉此提供更節能的運作效能。