F5攜手NVIDIA全面增強AI時代的性能、多租戶與安全能力

          來源:今日熱點網 | 2025-07-09 12:18:48 |

          Sesterce的驗證成果彰顯了F5與NVIDIA的協同創新實力,助力客戶釋放 AI 優先的應用交付價值

          巴黎,202579 全球領先的應用交付和API安全解決方案提供商F5(NASDAQ:FFIV),日前宣布F5 BIG-IP Next for Kubernetes推出全新功能。該解決方案深度整合NVIDIA BlueField-3 DPU以及NVIDIA DOCA軟件框架,并已通過歐洲客戶Sesterce的實際部署驗證。Sesterce是歐洲領先的新一代基礎設施及主權人工智能(AI)運營商,致力于滿足加速計算與AI發展的嚴苛需求。

          作為對F5應用交付與安全臺(F5 Application Delivery and Security Platform)的進一步擴展,BIG-IP Next for Kubernetes現可原生運行于NVIDIA BlueField-3 DPU,為大規模AI基礎設施提供高性能流量管理與安全防護,從而顯著提升AI應用的運行效率、控制能力與性能表現。今年早些時候,F5 曾在該解決方案正式發布時公開普遍可用性并展示其卓越性能優勢。如今,Sesterce已完成對該聯合解決方案多項關鍵能力的驗證,涵蓋以下領域:

          性能、多租戶能力安全性全面增強:達到云級應用交付標準,初步測試顯示GPU利用率提升達20%;

          集成NVIDIA DynamoKV Cache Manager:顯著降低大語言模型(LLM)推理系統延遲,并優化GPU與內存資源利用率;

          基于BlueField DPULLM智能路由:與NVIDIA NIM微服務協同運行,支持多模型工作負載,幫助客戶靈活調用最優模型;

          模型上下文協議(MCP)擴展與安全防護:通過反向代理功能與安全防護機制,提升LLM的可擴展性與安全性,助力客戶快速、安全地利用MCP服務器的強大效能;

          強大的數據可編程能力:依托F5 iRules實現快速定制化開發,以滿足AI應用及日益演進的安全需求。

          Sesterce首席執行官兼聯合創始人Youssef El Manssouri表示,“早在尚未進行任何測試前,F5與NVIDIA的集成方案就展現出令人矚目的潛力。通過在AI環境中實現高吞吐量的Kubernetes入口與出口流量,我們的測試結果印證了F5動態負載均衡技術的卓越優勢。該解決方案不僅提升了流量分發效率,優化了GPU資源利用率,同時也使我們能夠為客戶提供更多差異化價值。我們很高興地看到F5正不斷拓展對NVIDIA多樣化應用場景的支持,包括增強型多租戶功能。我們期待雙方在下一代AI基礎設施領域持續深化合作,推動更多技術創新?!?/p>

          全新解決方案的核心能力價值包括:

          基于BIG-IP Next for Kubernetes的大語言模型路由與動態負載均衡

          借助該聯合解決方案,企業可將簡單的AI相關任務路由至成本更低、更輕量級的LLM以支持生成式AI,同時將更復雜的查詢留給性能更強大的高階模型處理。該可定制化的智能路由機制還支持按領域調用特定 LLM,從而提升輸出質量并顯著改善客戶體驗。F5的先進流量管理技術可確保查詢精準分發至最適合的模型節點,從而降低延遲并加快首個詞元生成時間。

          F5首席創新官Kunal Anand表示,“當前,企業日益采用多模型架構以打造先進的AI體驗,但LLM 流量智能分類與路由計算資源消耗大,易導致系統性能下降并影響用戶體驗。F5 BIG-IP Next for Kubernetes通過在NVIDIA BlueField-3 DPU上直接編寫路由邏輯,提供了業界當前最高效的LLM流量交付與安全解決方案。這僅僅是一個開始——我們的臺正在為AI基礎設施釋放更多潛能。隨著企業級AI規模持續擴大,我們期待未來持續深化與NVIDIA的聯合創新。”

          通過NVIDIA DynamoKV緩存集成實現分布式AI推理的GPU優化

          今年早些時候,NVIDIA推出Dynamo框架,旨在為生成式AI與推理模型在大規模分布式環境中的部署提供支撐。通過統一調度、流量路由和內存管理等核心任務,NVIDIA Dynamo有效簡化了分布式環境中AI推理的復雜性,確保其在動態工作負載下的穩定運行。F5與NVIDIA的聯合解決方案的核心優勢之一,是將部分計算操作從CPU卸載至BlueField DPU,從而顯著提升整體效率。借助F5技術,Dynamo KV Cache Manager可基于容量智能路由請求,并通過鍵值(KV)緩存機制,顯著加速生成式AI應用的響應速度。該機制通過復用歷史運算信息,避免重復計算,顯著降低資源開銷。就基礎架構而言,企業通過KV緩存存儲與復用機制,相比直接占用GPU昂貴的內存資源,能以更低成本實現性能優化。

          NVIDIA AI網絡與安全解決方案生態系統及市場營銷高級總監Ash Bhalgat表示,“采用NVIDIA BlueField-3 DPU加速的BIG-IP Next for Kubernetes,為企業與服務提供商提供了單點控制,助力AI工廠實現高效GPU利用率,并加速數據攝取、模型訓練、推理、檢索增強生成(RAG)及代理式AI等各類 AI 流量處理。此外,F5對多租戶的支持以及iRules可編程性方面的持續優化,為未來進一步集成NVIDIA Dynamo分布式KV Cache Manager等先進特性打下了堅實基礎?!?/p>

          F5NVIDIA聯合強化MCP服務器安全防護能力

          MCP是由Anthropic推出的一項開放協議,旨在標準化應用向LLM提供上下文信息的方式。通過在MCP服務器前端部署F5與NVIDIA聯合解決方案,F5可充當反向代理,從而增強MCP解決方案及其所支持LLM的安全能力。同時,F5 iRules提供的全數據可編程能力,能夠快速并靈活地響應AI協議的快速演進需求,并進一步抵御新興網絡安全風險。

          World Wide Technology全球服務提供商高級副總裁Greg Schoeny表示,“實施代理式AI的企業日益依賴MCP部署來提升LLM的安全性與性能。F5與NVIDIA通過為大規模Kubernetes環境提供先進的流量管理與安全防護能力,打造了融合可編程性與自動化能力的AI 功能集,這一集成解決方案目前在業界尚無先例?!?/p>

          基于NVIDIA BlueField-3 DPU臺部署的F5 BIG-IP Next for Kubernetes現已全面上市。

          如需了解更多技術細節與部署優勢,請訪問www.f5.com,更多詳細信息亦可參閱F5發布的配套技術博客。

          免責聲明:市場有風險,選擇需謹慎!此文僅供參考,不作買賣依據。

          關鍵詞:

          heyzo亚洲精品日韩| 久久夜色精品国产嚕嚕亚洲av| 久久久久无码精品亚洲日韩| 国产中文在线亚洲精品官网| 亚洲精品国产福利一二区| 婷婷亚洲综合一区二区| 亚洲av无码偷拍在线观看| 亚洲中文字幕无码av永久| 亚洲性色精品一区二区在线| 亚洲av成人综合网| 亚洲最大天堂无码精品区| 亚洲国产乱码最新视频| 亚洲色欲啪啪久久WWW综合网| 亚洲成人激情小说| 亚洲精品无码专区久久| 国产精品国产亚洲区艳妇糸列短篇 | 亚洲AV蜜桃永久无码精品| 高清在线亚洲精品国产二区| 亚洲A∨午夜成人片精品网站| 亚洲国产成人久久一区WWW| 国产啪亚洲国产精品无码 | 亚洲日本国产精华液| xxx毛茸茸的亚洲| 亚洲欧美中文日韩视频| 欧洲亚洲国产精华液| 亚洲阿v天堂在线2017免费| 国产亚洲?V无码?V男人的天堂| 亚洲一区AV无码少妇电影☆| 亚洲av永久无码精品网站| 91亚洲导航深夜福利| 亚洲最大的黄色网| 亚洲国产成人久久综合| 亚洲阿v天堂在线2017免费| 亚洲日产韩国一二三四区| 亚洲av无码乱码国产精品| 亚洲欧洲日产国码二区首页| 波多野结衣亚洲一级| 亚洲av综合日韩| 亚洲日韩精品一区二区三区| 亚洲Aⅴ无码专区在线观看q| 亚洲成年人电影网站|