科技

NIST 透過 AI RMF 人工智慧風險管理框架解決人工智慧隱憂

Vendor Icon

CIO Taiwan

11月. 30, 2022

1200-futuristic-robot-artificial-intelligence-revolutionary-ai-technology-concept

一如 NIST 開發的 Cybersecurity Framework 這類其他風險管理框架,AI RMF 終究將對私有與公眾領域造成廣大影響。

文/Cynthia Brumfield‧譯/Nica


業組織與政府單位很快接受不斷擴展的各式人工智慧應用:自動化各種活動提升功能執行效率、重新調整購物建議、信用審核、影像處理、預測性告警等等。

人工智慧如同所有數位科技,可能遭受一連串傳統資安漏洞與隱私、偏見、不公與安全性疑慮等新興的隱憂所影響。美國國家標準與技術研究院(NIST)開發了一套自發性框架,以利善加管理人工智慧相關風險,此框架稱之為「人工智慧風險管理框架」(AI Risk Management Framework,AI RMF)。這個框架的目標是提升將可信度考量納入人工智慧產品、服務與系統的設計、開發、使用與評估的能力。

[ 加入 CIO Taiwan 官方 LINE Facebook ,與全球 CIO 同步獲取精華見解 ]

NIST 希望 AI RMF 將能說明以人工智慧為基礎的系統所產生的風險何以異於其他範疇,鼓勵並且讓人工智慧領域眾多利益相關人具備目的性處理這些風險的能力。NIST 認為這個框架能用在比對合規性考量,超越框架涉及的內容,包括現有法規、法律或其他強制性準則。

即便人工智慧面臨的風險與其他 NIST 框架所涵蓋的差不多,但有些風險「落差」或概念仍是人工智慧獨有。這些落差正是 AI RMF 要解決的問題。

人工智慧利益相關團體與技術特性

NIST 認為有四類利益相關團隊為該框架的潛在受眾:人工智慧系統利益相關人、營運商與評估者、外部利益相關人以及一般大眾。NIST 針對識別與管理人工智慧系統相關風險的全面性處理應考量的特性,使用了三級分類:技術特性、社會技術特性與指導原則。

技術特性是指人工智慧系統設計者與開發人員直接控制的因子,可能利用標準評估條件計算,像是準確度、可靠性與回復能力。社會技術特性則是指人工智慧系統使用與理解個人、族群及社會背景的方式,例如「可解釋性」、隱私、保障與管理偏差。在 AI RMF 分類裡,指導原則指的是廣義社會規範與價值觀,意即公平公正、當責與透明度這類社會優先事項。

630-ai-rmf-engagement-timeline
(圖片來源:www.nist.gov,點圖可放大)

一如其他 NIST Frameworks,AI RMF 核心內容為組織人工智慧風險管理活動的三個元素:功能、類別與子類別。功能用以比對、計算、管理與控制 AI 風險。雖然 AI RMF 預期透過剖析檔提供特定使用案例的背景資訊,但這個任務與計劃中的實務指南,皆已推遲由之後的草案處理。

NIST 在草案框架釋出後,同時也舉辦了為期三天的工作坊,探討 AI RMF 所有面向,包括深入挖掘如何減少 AI 技術裡的有害偏差。

AI 風險比對:來龍去脈很重要

談到比對 AI 風險,「我們還是得釐清前後背景資訊、使用案例與佈署場景。」卡內基梅隆大學的 Rayid Ghani 在工作坊中如此表示。「我認為在理想情況下,你建造這個系統的時候,這所有的事都發生過了。」

美國的醫療保險計劃副總裁 Marilyn Zigmund Luke 告訴與會者:「各種不同的背景與構造,對個人與企業組織來說,風險當然會有所不同。我認為要瞭解評估風險的各方各面,你得從頭開始,才能建立出不同的參數。」

衡量 AI 活動:新技術的必要性

基於 AI 系統中社會政治倫理與風俗習慣的複雜性,AI 相關活動的測量仍處於初步階段。加州大學聖地牙哥分校的 David Danks 表示:「許多測量功能現在基本上是委由人類處理才能瞭解。在這個特定情況下,某些東西帶有偏見意謂著什麼?相關價值有哪些?因為風險基本上不就是關於人類或企業組織的價值受到威脅,而價值是難以具體說明的。」

人工智慧安全與研究調查公司 Anthropic 共同創辦人 Jack Clark 表示,人工智慧的出現,衍生出新指標與測量方式的需求,理想上它們應該融入 AI 技術本身的創造裡。「對某些現代 AI 元素而言,挑戰之一便是『我們』必須將新衡量技術,設計在使用科技本身的共同開發裡。」Clark 表示。

管理 AI 風險:訓練用資料必須升級

AI RMF 管理功能,處理已比對且測量出最大化效益與最小化負面影響的那些風險。但 AI 風險管理背後可能隱藏資料品質問題,Parity AI 技術長 Jiahao Chen 如此表示。「我們用來訓練模組的資料,可用性不見得適用於真實世界,因為這些資料可能過時多年。你要擔心的是,訓練用資料是否確實反映今日社會狀態。」

Adobe 道德創新總監 Grace Yee 表示:「對我們來說,傳遞全球最優質的技術以產生數位體驗,是不夠的。我們必須確保我們的技術是在包容性與遵重客戶、社群與 Adobe 價值的前提下設計。確切來說,我們正在設計新系統與處理程序,評估我們的人工智慧是否產生有害偏見。」

紐約大學法學院的 Vincent Southerland 以預測告警工具的使用,做為管理 AI 可能出錯的教訓課題。「它們佈署在所有犯罪系統裡。」他表示,從識別犯罪的肇事者,到犯罪者應何時被釋放。「這些工具仰賴的資料,與工具操作的方式,其實助長了種族不平等的惡化,也加劇犯罪系統本身的危害。」但直到最近,「都還沒有這樣的基本認知。」

AI 治理:少數企業組織在做

談到 AI 治理政策,只有少數企業在做。bnh.ai 科學家 Patrick Hall 表示,除了大型消費金融組織與少數其他高度監管領域外,都是在沒有正規治理指南的情況下使用人工智慧,因此公司企業只能自行解決這些衝突不斷的治理問題。

Microsoft 的人工智慧執行長 Natasha Crampton 表示:「治理方式過度分散時,就會出現失敗模式。團隊想要將 AI 模式佈署到產品裡,若他們只是採用自有流程與架構,幾乎不協同合作,就會出現這種狀況。」

Wells Fargo 的執行副總裁暨企業模式風險主管 Agus Sudjianto 也強調了治理 AI 風險中的高層管理。「若負責 AI 或管理的主管,得不到高層重視與支持,也沒有用。」

Accenture 的雲端技術長 Teresa Tung 強調,所有企業都必須將重點放在人工智慧上。「Global 2000 的企業中,有半數在法說會中報告人工智慧相關事項。所有商業組織都必須意識到這件事。」

一如 NIST 開發的 Cybersecurity Framework 這類其他風險管理框架,AI RMF 終究將對私有與公眾領域造成廣大影響。


(本文授權非營利轉載,請註明出處:CIO Taiwan)

內容來源

author avatar
CIO Taiwan
IDG集團的媒體品牌CIO於1987年創刊,為國際性最權威的IT管理專業雜誌。擁有全球最頂尖的IT管理專家作者群,因此能寫出最權威的分析評論、最先進的IT管理觀念。
donate plan

充電計畫

喜歡這篇文章嗎?歡迎幫作者充電,好內容值得更多人支持

瞭解詳情