近日,紅帽推出最新版本的紅帽企業Linux AI(RHEL AI),這是紅帽的基礎模型平臺,可為企業應用開發、測試和運行生成式人工智能(gen AI)模型提供更無縫的支持。
RHEL AI 1.3支持Granite 大型語言模型 (LLM) 家族的最新進展,并結合了數據準備方面的開源創新,同時繼續提供針對混合云部署的多樣化選擇,包括底層的加速計算架構。
IDC的《Market Analysis Perspective:開放生成式人工智能、大型語言模型和不斷演進的開源生態系統》指出,61%的企業計劃在gen AI用例中使用開源基礎模型,而超過56%的企業部署的基礎模型已經開源。
紅帽認為,這一趨勢驗證了該公司對企業gen AI的愿景,即:
更小的開源許可模型,可以根據需要在混合云的任何地方運行。
微調功能,使企業能夠更輕松地根據私有數據和特定用例定制LLM。
由推理性能工程專業技術驅動的優化和更高效的人工智能模型。
強大的合作伙伴和開源生態系統支持,為客戶提供更廣泛的選擇。
RHEL AI是紅帽人工智能愿景的關鍵支柱,它匯集了開源許可的Granite模型系列和基于大規模對話機器人對齊(LAB)方法的InstructLab模型對齊工具。然后,這些組件被打包成優化的、可啟動的紅帽企業Linux鏡像,用于在混合云的各種地方部署單個服務器。
RHEL AI 1.3擴展了紅帽對Granite LLM的承諾,支持Granite 3.0 8b英語語言用例。Granite 3.0 8b是一個融合模型,不僅支持英語,還支持其他數種自然語言、代碼生成和函數調用。非英語語言用例以及代碼和函數在RHEL AI 1.3中作為開發人員預覽版提供,這些功能有望在未來的RHEL AI版本中得到支持。
Docling是一個上游社區項目,近期由IBM Research開源,可幫助解析常見文檔格式并將其轉換為Markdown和JSON等格式,從而為gen AI應用和訓練準備好這些內容。現在,RHEL AI 1.3 將這一創新作為一項受支持的功能,使用戶能夠將PDF轉換為Markdown,從而簡化數據攝取,以便使用InstructLab進行模型調整。
通過Docling,RHEL AI 1.3現在還包括上下文感知分塊,它考慮到了用于gen AI訓練的文檔的結構和語義元素。這有助于生成的gen AI應用程序保持更好的一致性,并根據上下文對問題和任務做出適當的回應,如果不這樣的話它們就需要進一步調整和對齊。
未來的RHEL AI版本將繼續支持和完善Docling組件,除了 InstructLab 知識調整外,還包括其他文檔格式以及檢索增強生成(RAG)管道的集成。
選擇是混合云中的基本元素,gen AI作為混合環境的標志性工作負載,這種可選擇性需要從底層芯片架構開始。RHEL AI已經支持NVIDIA和AMD的領先加速器,1.3版本現在還以技術預覽版的形式包括了Intel Gaudi 3。
除芯片架構外,RHEL AI還支持各大云提供商,包括AWS、Google Cloud和Microsoft Azure控制臺,作為“自帶訂閱”(BYOS)產品組合。該平臺還即將作為經過優化和驗證的解決方案選項在Azure Marketplace和AWS Marketplace上推出。
RHEL AI 作為首選基礎模型平臺,可用于紅帽合作伙伴提供的加速硬件產品組合,包括Dell PowerEdge R760xa服務器和Lenovo ThinkSystem SR675 V3 服務器。
由于用戶希望擴展LLM的服務,紅帽OpenShift AI現在支持使用vLLM運行時跨多個節點并行服務,從而提供了實時處理多個請求的能力。紅帽OpenShift AI還支持用戶在被服務時動態更改LLM的參數,例如將模型分片到多個GPU上,或將模型量化到更小的占用空間。這些改進旨在加快用戶的響應速度,提高客戶滿意度,降低客戶流失率。
RHEL AI和紅帽OpenShift AI共同支持著紅帽AI。紅帽AI是紅帽的解決方案組合,可加快產品面市時間并降低在混合云上交付AI解決方案的運營成本。
RHEL AI支持單個Linux服務器環境,而紅帽OpenShift AI則賦能分布式Kubernetes平臺環境,并提供集成的機器學習運營(MLOps)能力。這兩種解決方案相互兼容,紅帽OpenShift AI將整合RHEL AI 的所有功能,以實現大規模交付。
RHEL AI 1.3現已全面可用。有關附加功能、改進、錯誤修復以及如何升級到最新版本的更多信息