5月21日 消息:戴爾技術在年度戴爾技術全球峰會上宣布了一系列新的生成式人工智能(AI)能力。其中,戴爾 AI 工廠是公司的新戰略,旨在幫助企業更簡單、更安全、更經濟地采用 AI。這一方案包括與 Nvidia 的合作,擴大了兩家公司于2023年7月宣布的合作解決方案。戴爾 AI 工廠與 Nvidia 集成了戴爾和 Nvidia 的硬件和軟件,以幫助企業實施生成式 AI 項目。戴爾還推出了新的硬件,以支持最近宣布的 Nvidia Blackwell GPU。
圖源備注:圖片由AI生成,圖片授權服務商Midjourney
此外,戴爾還加強了與 Hugging Face 的合作,該合作最初于2023年11月宣布,并推出了更多的企業集成。與 Meta 的合作也是如此,兩家公司正在建立在 Llama2合作基礎上的 Llama3合作。
盡管云端有許多生成式 AI 選項,但戴爾的總體目標是使企業能夠盡可能輕松地評估生成式 AI 并在本地實施技術。戴爾技術高級副總裁 Varun Chhabra 告訴 VentureBeat:“我們的目標是幫助客戶盡快實現其 AI 工作負載的價值。”
戴爾 AI 工廠與 Nvidia 超越了去年的 Project Helix 合作。戴爾技術全球峰會上一年前,兩家公司宣布了 Project Helix,旨在幫助組織建立和部署生成式 AI。在過去一年里,企業生成式 AI 領域發生了很多變化,戴爾 AI 工廠與 Nvidia 部分反映了這些變化。
Nvidia 企業計算副總裁 Manuvir Das 告訴 VentureBeat:“當我們推出 Project Helix 時,主要集中在訓練方面。現在,在推理方面以及實際使用模型方面有了更多的內容。” 隨著對推理和 RAG(Retrieval Augmented Generation)用例的需求轉變,最近宣布的 Nvidia NIMs(Nvidia 推理微服務)方法現在也與戴爾合作伙伴關系。Das 解釋說,NIMs 通過將部署問題交給開發人員以外的人來幫助解決。當 NIMs 容器放置在服務器上時,它會確定如何設置環境以高效、安全地運行 AI 模型,并為硬件提供適當的優化。這使開發人員只需編寫應用程序,而不必擔心部署和執行模型的底層細節。
戴爾和 Nvidia 加速企業 RAG。與最初宣布 Project Helix 時相比,企業希望連接數據的方式發生了變化。在過去一年中,RAG 方法已成為標配,它將現有的數據存儲與生成式 AI 部署相結合。新的戴爾 RAG 加速器服務旨在幫助開發人員在戴爾硬件上構建和測試 RAG 用例。該服務利用戴爾 Precision 工作站和 Nvidia AI 工作臺開發平臺。
Das 解釋說,Nvidia NeMo Retriever 技術也是其中的一部分。NeMo Retriever 本身不包含向量數據庫,而 RAG 需要向量數據庫。Das 表示,NeMo Retriever 具有可插入模型,支持各種向量數據庫,組織可以選擇將其部署為 RAG 應用程序的一部分。
戴爾繼續與合作伙伴合作,擴大其生成式 AI 能力。戴爾自2023年11月以來一直與 Hugging Face 合作,以將開放模型帶給企業用戶,并不斷擴大合作范圍。新的戴爾企業中心旨在簡化企業使用 Hugging Face 模型的過程。該服務精選了 Hugging Face 的最佳模型,旨在簡化本地部署 AI 模型的程。
此外,戴爾還繼續與 Meta 合作,為 Meta 的 Llama3模型提供部署指南和性能測試,就像去年為 Llama2做的一樣。此外,戴爾還與微軟合作,在戴爾基礎設施上提供 Azure AI 解決方案。新的戴爾適用于 Microsoft Azure AI 服務的 AI 解決方案使組織能夠將 Microsoft Azure AI 能力與在 Azure 中使用的相同 API 在本地使用。
Chhabra 表示:“這使組織能夠將各種 Azure AI 服務,如語言、翻譯、語音、文件智能和視覺等,更接近大多數位于本地的數據。”