download BusinessFocus app
Akamai推出全球首個AI Grid智能協調系統助企業邁向Web4.0

Akamai推出全球首個AI Grid智能協調系統助企業邁向Web4.0

Market Information Media OutReach
By Media OutReach on 30 Mar 2026
Media OutReach is the first full-service newswire company in Asia Pacific offering a totally integrated service of press release distribution and media monitoring with analysis service for the public relations and investors relations communities. Founded in 2009, the company is headquartered in Hong Kong with office in Singapore.

Akamai Inference Cloud以NVIDIA AI Grid將AI推理從孤立數據中心推向4,400多個邊緣節點,藉智能分配AI工作負載平衡延遲、成本和性能表現


香港 - Media OutReach Newswire - 2026年3月30日 - 隨著人工智能 (AI) 的應用由純粹工具進展成為具備自主執行能力的代理角色,互聯網正以前所未見的速度邁向與AI更深度融合的Web4.0。然而,由數個大型數據中心擔任AI工廠,集中訓練和運算的固有模式,亦開始面臨與早期互聯網基建在媒體交付、線上遊戲、金融交易等應用當中遇到的相同延展局限。因此,曾為業界打破以上延展限制,致力於支持並保護各行各業線上業務的Akamai Technologies (NASDAQ:AKAM) 率先在全球部署NVIDIA AI Grid,並利用創新智能工作負載協調系統,將日益重要的AI推理工作負載從孤立的AI工廠擴展至統一的分散式網格上執行,使企業用戶能同時以環球網絡的規模與本地運算的反應速度執行代理式及物理AI。


Akamai Inference Cloud 利用分散式網格、智能協調機制和專用系統,成功將AI推理運算從孤立的AI工廠分散至邊緣網絡,為企業的AI部署和應用策略帶來新氣象。

Akamai Inference Cloud 利用分散式網格、智能協調機制和專用系統,成功將AI推理運算從孤立的AI工廠分散至邊緣網絡,為企業的AI部署和應用策略帶來新氣象。


按照此新延展策略,Akamai Inference Cloud分散式架構上由好幾千顆NVIDIA RTX PRO 6000 Blackwell Server Edition GPU組成的叢集負責處理各種AI請求,而作為AI Grid核心的智能協調系統就成為所有AI請求的實時中介,並憑藉Akamai優化應用程式表現的專長,顯著降低每個AI Token的成本、反應速度 (TTFT) 以及所需吞吐量。

Akamai香港及澳門區域經理黎志豪表示:「如果企業想控制AI應用成本和減少延遲,它們那些與實時視像、物理AI,又或是高度並發的個人化體驗相關的AI推理便得在用戶接觸點,而非中央運算叢集進行。Akamai的AI Grid智能協調系統正正讓這些企業的AI工廠可以用合理的成本,於適當的時間,把AI推理工作負載路由至我們全球分散式基建的4,400個節點加以處理,完美革新AI部署方式。」

突破成本與反應速度局限

現在,企業已可透過Akamai的龐大環球邊緣覆蓋存取微調或稀疏模型,為各式大小的AI工作負載帶來巨大的成本與效能優勢,包括:

  • 成本規模效益:企業藉著將工作負載自動與適當的運算層配對,大幅降低推理成本。同時,協調器應用語義快取 (semantic caching) 和智能路由等技術,將請求導向規模合適的資源,從而為高端任務的工作負載保留優質的GPU運算週期。採用開源架構的Akamai Cloud會負責提供充裕的出口流量額量,以支援大規模數據密集型AI運作。
  • 實時反應能力:Akamai覆蓋4,400多個節點的分散式邊緣網絡能夠通過集成式快取記憶、無伺服器邊緣運算和高性能連接,在用戶接觸點處理請求,免除了往返源站雲端所造成的延遲。
  • 核心的生產級AI:大型語言模型、持續後訓練和多模態推理工作負載皆需要由專用基礎設施提供的持久高密度運算。Akamai基於數千顆NVIDIA RTX PRO 6000 Blackwell Server Edition GPU的叢集,將為最大負荷的工作負載集中運算力,與分散式邊緣相輔相成。

運算從核心移至遠端邊緣

此外,Akamai利用NVIDIA AI Enterprise套件、NVIDIA Blackwell架構與NVIDIA BlueField DPU進行硬件加速,從而加強網絡傳輸和安全,有效管理涵蓋邊緣及核心位置的複雜服務等級協議 (SLA):

  • 邊緣 (超過4,400個網站):為物理AI和自主式代理提供快速回應,並利用語義快取及諸如Akamai Functions (基於WebAssembly運算) 和EdgeWorkers等無伺服器服務,於用戶接觸點提供模型親和性和穩定性能。
  • Akamai Cloud IaaS與專用GPU集:核心公共雲基建負責支援大規模工作負載的遷移與成本節約,而由NVIDIA RTX PRO 6000 Blackwell GPU驅動的Pod叢集則能處理繁重的後訓練和多模態推理。

推進實時AI新浪潮

Akamai Inference Cloud備受運算密集型和延遲敏感型行業的歡迎並獲得率先採納:

  • 遊戲:電玩工作室藉此提供僅有毫秒級延遲的AI驅動非玩家角色 (NPC) 互動,有助保持玩家的沉浸式感受。
  • 金融服務:金融機構可以利用該網格在由用戶登入到首屏展示的關鍵時刻,執行極其個人化的欺詐檢測和營銷推介。
  • 媒體和視像:廣播公司使用分散式網絡為世界各地的觀眾執行由AI驅動的轉碼和實時配音。
  • 零售和商務:零售商採用該網格運行店內AI應用及銷售點的員工生產力工具。

在企業需求的帶動下,該平台更獲得多間主要技術供應商的肯定,當中包括涵蓋一所專為企業AI基建打造、位處都市邊緣的數據中心內的多GPU叢集,價值二億美元及為期四年的服務協議。

AI工廠擴展到分散式網絡

AI基建以往是指那些在個別中樞地點作大規模部署、為AI訓練而優化的GPU叢集。然而,隨着推理成爲主要的工作負載,加上AI代理的興起,這種中央運算模式就如早期互聯網在低延遲應用方面般遇到了延展限制。

Akamai透過分散式網絡、智能協調機制和專用系統,協助企業克服了互聯網的延展困境,成功將密集運算從核心分散到網絡邊緣,讓內容和情境脈絡盡可能靠近數碼接觸點。該策略既令企業改善了用戶體驗,亦提升了它們的投資回報率。現在,Akamai Inference Cloud 將這已獲驗證的架構——分散式網絡、智能協調機制和專用系統應用於AI 工廠,把密集運算從核心分散至邊緣。 這不僅有助於企業部署具備情境脈絡感知能力且反應靈活的AI代理,開啟新一波的業務擴張與增長,同時亦推動孤立的AI工廠演變成為環球分散式設施,為業界繪出 AI基建新藍圖。

Akamai Inference Cloud現已向符合條件的企業客戶開放服務。
Hashtag: #Akamai

發佈者對本公告的內容承擔全部責任

Akamai Technologies

Akamai是一家專注於網絡安全與雲端運算的公司,致力於支持並保護企業的線上業務。我們憑藉領先市場的安全性解決方案、卓越的威脅情報和全球運營團隊,構築深層防禦,全面守護企業數據與應用程式的安全。Akamai全方位的雲端運算解決方案,透過全球最廣泛分布的平台,提供卓越的性能和極具競爭力的價格。全球企業信賴Akamai,因其領先業界的可靠性、可擴展性和專業知識,幫助他們自信地推動業務成長。如欲瞭解更多,請造訪akamai.com和akamai.com/blog,或在 Facebook上追蹤Akamai Technologies。

【了解更多最快最新的財經、商業及創科資訊】

👉🏻 追蹤 WhatsApp 頻道 BusinessFocus

👉🏻 下載 BusinessFocus APP

👉🏻 立即Follow Instagram businessfocus.io

最新 金融投資熱話專頁 MarketFocus