Sesterce的驗證成果彰顯了F5與NVIDIA的協同創新實力,助力客戶釋放 AI 優先的應用交付價值
巴黎,2025年7月9日 – 全球領先的應用交付和API安全解決方案提供商F5(NASDAQ:FFIV),日前宣布F5 BIG-IP Next for Kubernetes推出全新功能。該解決方案深度整合NVIDIA BlueField-3 DPU以及NVIDIA DOCA軟件框架,并已通過歐洲客戶Sesterce的實際部署驗證。Sesterce是歐洲領先的新一代基礎設施及主權人工智能(AI)運營商,致力于滿足加速計算與AI發展的嚴苛需求。
作為對F5應用交付與安全平臺(F5 Application Delivery and Security Platform)的進一步擴展,BIG-IP Next for Kubernetes現可原生運行于NVIDIA BlueField-3 DPU,為大規模AI基礎設施提供高性能流量管理與安全防護,從而顯著提升AI應用的運行效率、控制能力與性能表現。今年早些時候,F5 曾在該解決方案正式發布時公開普遍可用性并展示其卓越性能優勢。如今,Sesterce已完成對該聯合解決方案多項關鍵能力的驗證,涵蓋以下領域:
●性能、多租戶能力與安全性全面增強:達到云級應用交付標準,初步測試顯示GPU利用率提升達20%;
●集成NVIDIA Dynamo及KV Cache Manager:顯著降低大語言模型(LLM)推理系統延遲,并優化GPU與內存資源利用率;
●基于BlueField DPU的LLM智能路由:與NVIDIA NIM微服務協同運行,支持多模型工作負載,幫助客戶靈活調用最優模型;
●模型上下文協議(MCP)擴展與安全防護:通過反向代理功能與安全防護機制,提升LLM的可擴展性與安全性,助力客戶快速、安全地利用MCP服務器的強大效能;
●強大的數據可編程能力:依托F5 iRules實現快速定制化開發,以滿足AI應用及日益演進的安全需求。
Sesterce首席執行官兼聯合創始人Youssef El Manssouri表示,“早在尚未進行任何測試前,F5與NVIDIA的集成方案就展現出令人矚目的潛力。通過在AI環境中實現高吞吐量的Kubernetes入口與出口流量,我們的測試結果印證了F5動態負載均衡技術的卓越優勢。該解決方案不僅提升了流量分發效率,優化了GPU資源利用率,同時也使我們能夠為客戶提供更多差異化價值。我們很高興地看到F5正不斷拓展對NVIDIA多樣化應用場景的支持,包括增強型多租戶功能。我們期待雙方在下一代AI基礎設施領域持續深化合作,推動更多技術創新?!?/p>
全新解決方案的核心能力價值包括:
●基于BIG-IP Next for Kubernetes的大語言模型路由與動態負載均衡
借助該聯合解決方案,企業可將簡單的AI相關任務路由至成本更低、更輕量級的LLM以支持生成式AI,同時將更復雜的查詢留給性能更強大的高階模型處理。該可定制化的智能路由機制還支持按領域調用特定 LLM,從而提升輸出質量并顯著改善客戶體驗。F5的先進流量管理技術可確保查詢精準分發至最適合的模型節點,從而降低延遲并加快首個詞元生成時間。
F5首席創新官Kunal Anand表示,“當前,企業日益采用多模型架構以打造先進的AI體驗,但LLM 流量智能分類與路由計算資源消耗大,易導致系統性能下降并影響用戶體驗。F5 BIG-IP Next for Kubernetes通過在NVIDIA BlueField-3 DPU上直接編寫路由邏輯,提供了業界當前最高效的LLM流量交付與安全解決方案。這僅僅是一個開始——我們的平臺正在為AI基礎設施釋放更多潛能。隨著企業級AI規模持續擴大,我們期待未來持續深化與NVIDIA的聯合創新。”
●通過NVIDIA Dynamo與KV緩存集成實現分布式AI推理的GPU優化
今年早些時候,NVIDIA推出Dynamo框架,旨在為生成式AI與推理模型在大規模分布式環境中的部署提供支撐。通過統一調度、流量路由和內存管理等核心任務,NVIDIA Dynamo有效簡化了分布式環境中AI推理的復雜性,確保其在動態工作負載下的穩定運行。F5與NVIDIA的聯合解決方案的核心優勢之一,是將部分計算操作從CPU卸載至BlueField DPU,從而顯著提升整體效率。借助F5技術,Dynamo KV Cache Manager可基于容量智能路由請求,并通過鍵值(KV)緩存機制,顯著加速生成式AI應用的響應速度。該機制通過復用歷史運算信息,避免重復計算,顯著降低資源開銷。就基礎架構而言,企業通過KV緩存存儲與復用機制,相比直接占用GPU昂貴的內存資源,能以更低成本實現性能優化。
NVIDIA AI網絡與安全解決方案生態系統及市場營銷高級總監Ash Bhalgat表示,“采用NVIDIA BlueField-3 DPU加速的BIG-IP Next for Kubernetes,為企業與服務提供商提供了單點控制,助力AI工廠實現高效GPU利用率,并加速數據攝取、模型訓練、推理、檢索增強生成(RAG)及代理式AI等各類 AI 流量處理。此外,F5對多租戶的支持以及iRules可編程性方面的持續優化,為未來進一步集成NVIDIA Dynamo分布式KV Cache Manager等先進特性打下了堅實基礎?!?/p> ●F5與NVIDIA聯合強化MCP服務器安全防護能力 MCP是由Anthropic推出的一項開放協議,旨在標準化應用向LLM提供上下文信息的方式。通過在MCP服務器前端部署F5與NVIDIA聯合解決方案,F5可充當反向代理,從而增強MCP解決方案及其所支持LLM的安全能力。同時,F5 iRules提供的全數據可編程能力,能夠快速并靈活地響應AI協議的快速演進需求,并進一步抵御新興網絡安全風險。 World Wide Technology全球服務提供商高級副總裁Greg Schoeny表示,“實施代理式AI的企業日益依賴MCP部署來提升LLM的安全性與性能。F5與NVIDIA通過為大規模Kubernetes環境提供先進的流量管理與安全防護能力,打造了融合可編程性與自動化能力的AI 功能集,這一集成解決方案目前在業界尚無先例?!?/p> 基于NVIDIA BlueField-3 DPU平臺部署的F5 BIG-IP Next for Kubernetes現已全面上市。 如需了解更多技術細節與部署優勢,請訪問www.f5.com,更多詳細信息亦可參閱F5發布的配套技術博客。
免責聲明:市場有風險,選擇需謹慎!此文僅供參考,不作買賣依據。 關鍵詞: