科技

優先投資生成式 AI?切勿忽視 IT 基礎設施

Vendor Icon

CIO Taiwan

5月. 20, 2024

1200x630 2151003701

生成式 AI 不是資訊長唯一要做的事情,持續投資於普遍的 IT 基本設施也會帶來重大回報。

文/Mary Branscombe·譯/曾祥信


成式 AI 持續在許多組織的 IT 專案中佔據主導地位,有三分之二的企業領導者在哈里斯民意調查(Harris Poll)中表示,他們已在組織內部部署生成式 AI 工具,此外,國際數據資訊(IDC)預測 2024 年企業在生成式 AI 的支出將增加一倍以上。

但是 IT 部門常見的一系列優先事項並未因此消失。安全性、成本控制、身分管理、容器蔓生(container sprawl)、資料管理與硬體更新等基本設施,仍然是資訊長必須處理的關鍵策略領域。

人們很容易把這些視為爭奪資訊長注意力和預算的競爭優先項目,與董事會深感興趣、可望帶來閃耀全新機會的生成式 AI 相比,這些基本優先事項相形見絀,但這是不公平的比較。

任何嶄新技術,到了要執行、實現專案的階段時,成敗與否依然取決於 IT 組織基本能力的強弱,例如網路連接能力、權限管理及組態管理等。

[ 推薦文章:資訊長透過 AI 重新詮釋自己的角色 ]

「徹底掌握 IT 基礎知識與能力 ─ 敏捷的多重雲端基礎、強大的網路安全防護能力、有效的資料隱私和 IP 控制,以及很可能對於最終完全釋放人工智慧潛力最重要的:建立能夠橫跨不同應用程式、強大且開放的資料基礎系統 ─ 是維持船隻漂浮不可或缺的木板和釘子」,Constellation Reseach 副總裁兼首席分析師 Dion Hinchcliffe 如此說道。

「有人把這些 IT 基礎知識與能力比喻為『蔬菜飲食』 ─ 雖然不總是那麼吸引人,但對於 IT 的長期健康與實力來說卻是必不可缺」,他說道。「正如均衡飲食可以強身健體一樣,健全且現代化的 IT 基礎建設所奠定的基礎,才能讓人工智慧和其他先進技術蓬勃發展」。

獨立研究分析師公司 Sageable 創辦人 Andi Mann 認同此觀點,並指出 IT 基礎設施當中許多內部運作與基本功能,最終會成為推動人工智慧淘金熱的「鎬和鏟子」。他表示:「資訊長必須竭盡所能,確保人工智慧以符合規範、不危害世界的方式良好運作。若你想想資訊長針對一般科技應用所需要採取的一切預防措施和問題解決行動,這些尤其適用於人工智慧」。

資料盡職調查(Data due diligence)

Mann 表示,生成式 AI 對於資料安全帶來特別影響,「當你叫人工智慧吸收所有資料並重複使用時,你要如何預防資料遺失的風險?」

事實上,出於安全性、合乎法規與效率等因素,資訊長絕對希望更謹慎管理生成式 AI 所能存取的資料。例如,檢索增強生成(Retrieval Augmented Generation,RAG)正掘起成為關鍵技術,使大型語言模型(LLM)在處理資料上更有幫助,但是你不會想把所有資料都餵給模型。

因為這不僅涉及準備更大資料集所需的成本(需要罕見的特殊專業技術,必須支付高薪才能獲得),而且也涉及你訓練模型時使用的資料內容。想像你輸入完整的 Slack 或 Teams 對話歷史記錄,那麼你最終訓練出來的人工智慧可能會作出「我明天會處理」之類的回覆,這對於人類員工來說是完全適當的回應,但絕不符合你對生成式 AI 系統的期望。

Rencore 合作夥伴管理總監同時具備微軟最有價值專家身分的 Christian Buckley 警告說,像 Copilot 這樣的人工智慧工具,將會暴露出組織使用的資訊管理方法中的缺陷,例如「建立資料與元資料(metadata)的結構、資訊架構、清理資料並了解資料內容」等項目裡的瑕疵,以及許多組織的權限管理和資料清理方法有多麼地鬆散。

[ 推薦閱讀:生成式 AI 調查 ]

隨著資料儲存成本下降,很多組織保留了不必要的資料,或者正在清除過時的資料或是在雲端遷移或組織重整後再也不需要的資料。

Buckley 說:「人們不會去回顧、整理多餘的資料,因為它們不會造成損失 ─ 除了增加風險及降低資料搜尋效能」。他警告道,如果不考慮資料淨化(data hygiene)就導入生成式 AI 功能,人們會因為沒有做好前置工作以使其發揮最佳功效,而對人工智慧的幻想破滅。

當微軟推出 Delve 系統,以及早在 2010 年整合 FAST、為 SharePoint 帶來強大搜尋功能時,也暴露了相同的問題。「當人們在 SharePoint 中實際開始使用搜尋功能時,他們抱怨此功能的運作有問題」,Buckley 說道,「但確實如此,它所做的正顯露出企業在資料治理方面的缺乏。我聽過人們抱怨:『這項功能破壞了我全部的權限』。事實並非如此,它只是暴露出系統裡的漏洞。你想要利用人工智慧以獲得更強大的資料搜尋能力,但卻對安排組織資料的方式毫無把握嗎?」。

另一個問題是,生成式 AI 工具和使用者看不到應該包含在內的資訊,因為資料沒有套用正確的元資料標記(metadata tagging)及敏感度標籤(sensitivity label)。

無論是哪一種情況,管理不善的資料都會引發法規遵遁與保密性問題,例如外部工作夥伴可以存取生成式 AI 工具,而該工具卻暴露那些僅在公司內部才能使用的資訊。

[ 非讀不可:企業面臨的 4 大項 LLM 威脅 ]

說到底,牽涉到更多外部使用者的專案,本來就需要仔細審查系統存取什麼樣的資訊,以及開放外部存取是否仍然合宜。有時候,即使是公司內部使用資料都有可能造成混亂,例如,假設你是一間跨國公司,在法國擁有員工,但人力資源部門的 AI 機器人,存取的卻是澳洲的退休金或育嬰假政策資訊。

Buckley 說:「如果你不知道自己擁有什麼資料內容、儲存在何處、哪些內部與外部使用者具有存取權限、哪些資料被共享,以及資料被標記的方式,你要如何宣稱資料已妥善治理,準備就緒供人工智慧使用呢?從資料治理的觀點來說,你必須追蹤人們使用什麼資料、在什麼地方使用,以及如何使用。而且這些都是會持續改變的」。

容器與憑證

權限管理(privilege management)必須仰賴身分管理(identity management),這是另一個需要持續關注的領域。隨著容器(container)生態系統的發展,越來越多企業使用 Kubernetes,這也需要新的技能。而許多資訊長仍在加快腳步管理容器化應用程式的執行環境,這種環境與虛擬化(virtualization)有著顯著的差異 – 隨著組織決定如何因應 Broadcom 對於 VMware 授權方式所做的重大變更,由虛擬化到容器化的轉變,很可能今年就會加速發生。

IAM(身分存取管理)平台供應商 AppViewX 的首席解決方案長 Murali Palanisamy 表示,此趨勢意謂著需要管理更多機器的身分。「整體來說,數位轉型大幅提升了互聯裝置、雲端服務、與原生雲端和容器化應用程式的使用程度。所有這些額外增加的機器、運算負載和服務,都需要可信任的身分,因此擴大了企業對機器身分管理的需求」。

物聯網、軟體供應鏈安全(尤其是透過程式碼簽署來緩解安全問題的需求),以及讓生成式 AI 使用資料,皆提高了 TLS 憑證與私密金鑰的使用比例,它們是安全存取所仰賴的技術。Palanisamy 補充道:「每當應用程式或機器與彼此溝通時,絕大多數通訊都使用 TLS 憑證來建立信任關係、向系統確認彼此身分,並且安全地驗證與加密通訊內容」。

[ 推薦閱讀:在生成式 AI 供應商選擇過程中權衡風險與報酬 ]

Palanisamy 認為,保護這些機器的身分極為重要,而管理它們的身分再也不能是手動、即興的流程,尤其考慮到 Google 提議將 TLS 憑證效期由 398 天縮減為 90 天,更迅速的管理流程勢在必行。此外還有其他需要注意的規則改變:美國證券交易委員會(SEC)的網路安全管理新規定(自 2023 年 12 月起生效)、歐盟新版網路與資訊安全指令(NIS2),以及根據風險而非規定來定義安全標準的普遍趨勢,例如支付卡產業資料安全標準(PCI-DSS)更新為 PCI 4.0。

Palanisamy 提到,「管理機器身分」也必須成為核心的安全重點領域,這件事情需依賴自動化、自動註冊與取消權限,以有效管控私有與敏感資料的存取使用。他說:「隨著人工智慧專案不斷增加,管理機器身分成為確保信任、安全驗證與加密不可或缺的關鍵,如此一來,只有對於適當資料的適當存取才能得到管理和控制,進而確保敏感與私密資料的安全」。

人們很容易被全新閃耀的人工智慧吸引,而低估了雲端專案的優先次序,但他表示這些專案實際上是重要基石。「人工智慧專案需要速度和敏捷度才能成功,因此必須打從一開始,就在人工智慧專案底下的雲端基礎設施裡,打造足夠的安全性」,他補充道。

成本控制

雲端服務的 FinOps 和成本控制仍然是優先事項,而由於大量的生成式 AI 仰賴雲端人工智慧服務與 API,資訊長必須考慮預算和自動化議題,特別是將人工智慧運用在產品開發與實驗的情況。

Mann 說:「假設你有一百個員工正使用人工智慧技術進行實驗,只要有一個人忘記取消雲端運算中的執行個體(instance),你就會收到帳單」。同時你也必須監控產品開發的工作負載,看看是否可以以管理其他工作成本相同的策略及工具,透過縮小執行個體、改用較便宜的大型語言模型或較初級的授權方案,來縮減成本規模。他補充:「管理 Copilot 不是只有權限管理,人們會想知道他們公司是否真的有在使用付費授權方案的內容」。

正如其他雲端工作負載,我們必須證明服務授權及 API 的使用成本能夠為組織帶來充分的價值,我們同樣也需要評估,生成式 AI 專案是否真能實現其承諾的生產力改進和創新價值。

[ 推薦閱讀:企業透過生成式 AI 而獲得的生產效益 ]

「我在等著看第一個因為讓人工智慧運作太快、太久而被解僱的資訊長」,Mann 說道。「對資訊長來說,這是基本的阻截與擒抱(blocking and tackling)原則:我的投資組合是什麼,什麼是有價值的,我把錢花在什麼地方,獲得什麼回報,還有管理這些工作負載的使用率和品質。

這種 ITSM(IT 服務管理)、ITIL(IT 基礎架構資料庫)風格的紀律作法與投資組合管理會再次開始流行,因為企業勢必需要以如此嚴謹的紀律,來評估新技術的工作負載」。但在其他領域,IT 團隊將會增加預算與支出。

加速硬體更新

隨著 Windows 10 即將於 2025 年壽終正寢,資訊長們將計劃在接下來更新到 Windows 11,而為了獲得新作業系統預設提供的安全改良,組織必須投資購買配備新世代 CPU 的 PC,這種新 CPU 具有適當的指令集,能在不影響效能的情況下支援安全防護功能。

數量不斷增加的這類硬體設備,將內建神經處理器(NPU, neural processing unit)或類似的專用硬體,以加速設備上的人工智慧運算工作,無論是即時編輯視訊會議的能力,或是在 Windows 11 上執行 Copilot。但是,快速的硬體進展很可能意謂著,資訊長必須為更短的硬體更新週期做好預算準備,以在未來隨時讓硬體保持在最新狀態。透過資產管理以追蹤哪些員工擁有合適的 PC 硬體,也是實現人工智慧承諾帶來的生產力提升的關鍵。

為資料中心做好準備也代表著更多的投資,而這不僅是關於 GPU 的支出成本。雖然多數大型語言模型會在雲端系統上運行,並透過 API 存取,但要讓生成式 AI 工具對企業發揮效用,仍需要將它們連接到企業本身的資料來源。

有效支援混合式與遠端工作模式的關鍵,是進化網路架構,以減少網路延遲並且安全地提供更好的連接能力 ─ 無論你使用的是 5G、Wi-Fi 6 與 7 還是新興的衛星連線方式。至於人工智慧,則會進一步迫使企業設法滿足安全邊緣運算(edge computing)與網路的需求。

[ 加入 CIO Taiwan 官方 LINE Facebook ,與全球CIO同步獲取精華見解 ]

此外,資料管理軟體公司 Datadobi 的產品行銷副總裁 Steve Leeper 表示,全快閃(all-flash)物件儲存系統的價格下降,使得企業更普遍採用這種技術,以提升資料庫效能,這將有利於處理人工智慧運算工作不可或缺的大型資料集,這類運算工作需要快速的吞吐量(throughput)與規模擴展性(scalability)。全快閃儲存技術亦有助於滿足人工智慧營運上永無止盡的資料需求,與快速存取資料的需求。

他補充道,一般來說,資訊長需要考慮人工智慧運算使用的硬體基礎設施,首先是人工智慧運算所需的資料儲存量和儲存設備等級、互連網路,與 GPU 叢集。另外也要考慮資料處理環節,包括:辨識找到合適的資料集、在運算通道上不同節點之間迅速且正確地搬移資料位置(也就是不會有未知的資料毀損情況),以及確保人工智慧運算結果也會被放至適當的儲存位置與類別。

Leeper 表示,生成式 AI 使用的資料集未必總是很龐大,他說:「實際情況會是大型與小型的資料集混合在一起。有些資料集包含關鍵的資料,根據組織的資料治理政策,必須使用本地端的資源設備來處理這類資料集」。

管理人工智慧對於這些資料集的存取,依靠的是資訊長已非常熟悉的傳統 IT 基礎設施管理方法,因此,今年優先投資在基礎設施,將會為傳統 IT 與人工智慧兩者同時帶來回報。

「唯有我們運用既有的紀律,才能解決這些問題」,Mann 補充道。「但很多時候這些問題沒有獲得解決,是因為沒有人考慮到長期的影響,所以也沒有人去負責扛下它們」。不過這種情況或許正在改變。2023 年初,Gartner 報告顯示只有 15% 的組織已擁有資料儲存管理解決方案,能夠分類及優化資料。但該分析公司預測,到了 2027 年,這個數字至少會上升至 40%。


(本文授權非營利轉載,請註明出處:CIO Taiwan)

The post 優先投資生成式 AI?切勿忽視 IT 基礎設施 first appeared on CIO Taiwan.

內容來源

author avatar
CIO Taiwan
IDG集團的媒體品牌CIO於1987年創刊,為國際性最權威的IT管理專業雜誌。擁有全球最頂尖的IT管理專家作者群,因此能寫出最權威的分析評論、最先進的IT管理觀念。
donate plan

充電計畫

喜歡這篇文章嗎?歡迎幫作者充電,好內容值得更多人支持

瞭解詳情