Technology

Red Hat 發布 Red Hat Enterprise Linux AI 提供易存取、開源的生成式 AI 創新

Vendor Icon

CIO Taiwan

5月. 13, 2024

預設精選圖片1200x630

文/Red Hat

AMDIntel NVIDIA 平台提供支援的企業就緒模型執行時間環境

世界領先開放原始碼軟體解決方案供應商 Red Hat 今日宣布推出 Red Hat Enterprise Linux AI (RHEL AI),此基礎模型平台賦能使用者更無縫地開發、測試與部署生成式 AI(GenAI)模型。RHEL AI 整合 IBM 研究院(IBM Research)開源授權的 Granite 大型語言模型(LLM)系列、基於 LAB(聊天機器人大規模對齊)方法的 InstructLab 模型對齊工具,以及透過 InstructLab 專案進行社群驅動的模型開發方法。全套解決方案整合為經優化且可啟用的 RHEL 映像檔,適用於跨混合雲的單一伺服器部署,同時也是 OpenShift AI—Red Hat 混合機器學習營運(MLOps)平台,可用於跨分散式叢集環境的大規模執行模型與 InstructLab。

Red Hat 資深副總裁暨產品負責人 Ashesh Badani 指出:「生成式 AI 為企業帶來革命性躍進,但其前提是科技公司要能用符合其特定商業需求的方式實際部署與使用 AI 模型。RHEL AI、InstructLab 專案與可擴展 Red Hat OpenShift AI 的整合,是為了降低生成式 AI 在混合雲中面臨的許多障礙,如從有限的資料科學技能到其所需的全面資源,同時推動企業部署及上游社群的創新。」

IBM 資深副總裁暨 IBM 研究院院長 Dario Gil 表示:「將真正開源創新帶入 AI 模型開發,並發揮廣泛社群的力量,將改變企業對於 AI 導入和規模化計劃的看法。IBM 一直是開源的強力支持者,支援 Linux、Apache 和 Eclipse 等具影響力的社群,與 Red Hat 的合作代表我們在建立安全、負責任和有效 AI 開放方法的一大進步。結合 RHEL AI 和 InstructLab,以及 IBM 的開源 Granite 系列模型,將為客戶提供新的價值和選擇,他們可因此利用自己的資料解決方案,在多樣化的混合雲環境中最大程度降低成本。」

推出 ChatGPT 致使人們對生成式 AI 產生極大興趣,從而加速創新步伐。企業已開始將目標從生成式 AI 服務的早期評估轉向建置 AI 應用程式。快速成長的開放式模型選項生態系刺激了 AI 進一步創新,也展現出「沒有一個模型能統治一切」的情況。客戶將能自一系列可解決特定需求的選擇中獲益,並將透過開放的創新方法進一步加速。

實踐 AI 策略所需的不僅是挑選一個模型。技術組織需具備專業知識以針對其特定應用情境調整特定模型,同時解決實踐 AI 所需的可觀成本。資料科學技能的稀缺加劇了包括以下重要費用在內的財務壓力:

  • 採購 AI 基礎架構或消費性 AI 服務
  • 針對特定業務需求微調 AI 模型的複雜流程
  • 將 AI 整合至企業應用程式中
  • 管理應用程式與模型的生命週期

要真正降低 AI 創新的進入門檻,企業需擴張可參與 AI 計畫的人員名單,同時控制成本。藉由 InstructLab 對齊工具、Granite 模型與 RHEL AI,Red Hat 旨在將真正的開源專案優勢—可自由存取、可重複利用、透明且開放貢獻—應用於生成式 AI,以排除障礙。

透過 InstructLab 公開建構AI

IBM 研究院創建了大規模對齊聊天機器人(Large-scale Alignment for chatBots,LAB)技術,此模型對齊方法運用了分類法引導的合成資料生成與新穎的多階段調整架構。該方法減少了對昂貴的人工註釋(annotation)與專有模型的依賴,因此 AI 模型開發可更加開放,並供所有使用者訪問。使用 LAB 方法可透過指定分類法相關的技能與知識、從該資訊大規模生成合成資料以及運用生成的資料進行模型訓練等方式來改善模型。

LAB 方法有助顯著提升模型效能,因此 IBM 與 Red Hat 決定攜手推出建構於 LAB 方法及 IBM 開源 Granite 模型上的開源社群 InstructLab,旨在賦能開發人員輕鬆參與 LLM 建置,如同為其他開源專案做出貢獻一樣簡單。

作為 InstructLab 發布中一環,IBM 也公開了一系列 Granite 英語語言及程式碼模型。這些模型是經 Apache 授權公布的,且用於訓練這些模型的資料集也是透明的。Granite 7B 英語語言模型已整合至 InstructLab 社群中,終端使用者可以像參與其他任何開源專案一樣,貢獻技能和知識,共同強化該模型。針對 InstructLab 中 Granite 程式碼模型的相似支援也即將推出。

奠基於可信賴的 Linux 開源 AI 創新

RHEL AI 奠基於開放的 AI 創新方法,藉由整合企業就緒版 InstructLab 專案、Granite 語言及程式碼模型和全球領先的企業級 Linux 平台,簡化混合基礎架構環境部署,創造一個將開源授權之生成式 AI 模型引進企業的基礎模型平台。RHEL AI 包括:

  • 擁有 Red Hat 支援與擔保的開源授權 Granite 語言及程式碼模型。
  • 支援生命週期的 InstructLab 發行版,不僅提供可擴展、具經濟效益的解決方案,還強化 LLM 功能,貢獻易取得的知識與技能給更廣泛的使用者。
  • 透過 RHEL 映像檔模式,使用 Granite 模型及 InstructLab 工具包作為可啟用的 RHEL 映像檔模式之優化、可啟用模型執行個體,包括最佳化 Pytorch 執行函式庫以及針對 AMD Instinct MI300X、Intel、NVIDIA GPU 及 NeMo 架構之加速器。
  • Red Hat 完整企業支援與生命週期承諾從可信賴的企業產品發布開始,提供 24 小時全天候生產支援及擴展模型生命週期支援

當企業在 RHEL AI 上實驗與調整全新 AI 模型,便已提供包含 RHEL AI 的 Red Hat OpenShift AI 匝道擴展 AI 模型的工作流程,如此一來不僅能充分利用 OpenShift 的 Kubernetes 引擎大量訓練與服務 AI 模型,還能利用 OpenShift AI 的整合 MLOps 功能管理模型的生命週期。OpenShift AI 與 RHEL AI 也將整合 IBM watsonx,為企業 AI 開發、資料管理及模型治理帶來更多功能。

AMD AI 事業部副總裁 Ramine Roane 表示:「AI 是過去 50 年來技術上最重要的變革之一。為了加速 AI 更廣泛的應用,建置 AI 應用程式所使用的模型和工具需面向企業開放。奠基於可信賴的 Linux 基礎上,搭配開源工具和開源授權模型,RHEL AI 是能提供此特點的平台之一。我們很高興能藉由 AMD 技術,包括 Instinct AI 加速器,支援 Red Hat 推動企業 AI 發展的努力。」

思科運算部門資深副總裁暨網路總經理 Jeremy Foster 表示:「AI 浪潮對企業來說是一場巨大轉變,許多企業正努力尋找最佳的前進道路。思科會持續與 Red Hat 密切合作,推動進階 AI 應用,而 RHEL AI 也將透過支援開源的 LLM 模型,作為企業就緒 Linux 平台的一部分加速創新。」

戴爾科技集團技術解決方案平台資深副總裁 Gil Shneorson 表示:「戴爾科技一直是提供可靠和一致性基礎架構生命周期管理的先驅者。我們相信,鑒於系統持續演進,在企業 IT營運中一致、可靠和安全的系統更新至關重要。保持創新進程的關鍵是提供企業擴展程式碼更新和減少部署時間能力的新技術。」

慧與科技 AI 與運算解決方案部門總監 Frances Guida 指出:「慧與科技與 Red Hat 合作長達二十年之久,提供整合 HPE Compute platform 與 RHEL 的產業領先解決方案。之於像生成式 AI 增長如此快速的技術類別,開放的環境對於創新至關重要,我們引頸期盼與 RHEL AI 和 Red Hat 在新的合作領域一同探索,助力慧與科技的客戶取得成功。」

IBM Infrastructure 技術長暨創新總經理 Hillery Hunter 說明:「許多企業正尋求將 AI 融入其關鍵應用程式。RHEL AI 及 OpenShift AI 在 IBM Cloud 上的可用性將有助於轉變社群和企業構建和利用生成式 AI 的方式。我們正在促進開放式協作,簡化模型自定義,並提供支援企業品質的模型和工具,將 AI 導入每個應用程式中。」

英特爾資料中心和人工智慧事業部執行副總裁暨總經理 Justin Hotard 表示:「若要大規模應用 AI,必須完全開源,賦能社群成員貢獻並創建新的應用程式和使用案例。透過導入開源 Granite 模型和 InstructLab 專案,RHEL AI 正改變我們在生產環境中互動、調整和最終使用 AI 模型的方式。」

聯想基礎架構解決方案業務(ISG)總裁 Kirk Skaugen 指出:「部署 AI 驅動應用程式的客戶需要在值得信任、熟悉且又創新的平台上測試與實驗潛在模型。聯想相信 AI 未來是混合的,而我們將 RHEL AI 視為拓展混合 AI 創新的關鍵途徑,並透過 Red Hat OpenShift AI 實現生產環境擴展性。我們很高興與 Red Hat 合作,且藉由聯想 ThinkSystem 8-GPU 伺服器進行聯合測試,持續推動混合 AI 創新發展,為開源 AI 提供可靠的硬體基準。」

NVIDIA 企業產品副總裁 Justin Boitano 表示:「Red Hat 與 NVIDIA 有著長期緊密的合作歷史,而 RHEL AI 展現了我們共同專注於為開發人員和研究人員提供完整堆疊的運算和軟體,以建構下一波 AI 技術和應用。」

雲端是混合的,AI亦然

30 多年來,開源技術實現了快速創新,同時大幅降低 IT 成本並減少創新障礙。至 2000 年代初期提供開放的企業級 Linux 平台 Red Hat Enterprise Linux(RHEL),到以 Red Hat OpenShift 驅動容器與 Kubernetes 作為開放式混合雲及雲端原生運算的基礎,Red Hat 在此領域中幾乎持續位於領先地位。

Red Hat 持續推動跨開放式混合雲 AI/ML 策略,無論是在資料中心、多重公有雲抑或是邊緣,賦能 AI 工作負載可在資料所在地運行。Red Hat 對 AI 之願景不僅侷限於工作負載,更將模型訓練與調整引向同一條道路,以進一步解決資料主權、合規性及營運完整性的限制。無論在何處運行,Red Hat 平台跨環境提供一致性之於保持 AI 創新的流動至關重要。

RHEL AI 與 InstructLab 社群進一步實現此願景,並打破實驗與建構 AI 模型的諸多障礙,同時提供推動下一波智慧工作負載所需的工具、資料與概念。

服務提供狀態

Red Hat Enterprise Linux AI 現已推出開發者預覽版。借助 IBM Cloud 提供用於訓練 Granite 模型並支援 InstructLab 的 GPU 基礎架構,IBM Cloud 現將增加對 RHEL AI 和 OpenShift AI 的支援。此整合賦能企業更輕鬆地將生成式 AI 部署至其關鍵應用程式中。

The post Red Hat 發布 Red Hat Enterprise Linux AI 提供易存取、開源的生成式 AI 創新 first appeared on CIO Taiwan.

內容來源

author avatar
CIO Taiwan
IDG集團的媒體品牌CIO於1987年創刊,為國際性最權威的IT管理專業雜誌。擁有全球最頂尖的IT管理專家作者群,因此能寫出最權威的分析評論、最先進的IT管理觀念。
donate plan

充電計畫

喜歡這篇文章嗎?歡迎幫作者充電,好內容值得更多人支持