verify it, the trust it - DALL·E 產生。

最近,工業技術研究院(ITRI)在人工智慧發展方面投入了大量資源,其中一個重點是根據國際行業標準建立本地化的 「可信任人工智慧評估系統和服務」。

該評估體系強調幾個關鍵領域,包括理解人工智慧(確保因果關係的可追溯性並制定相關規範)、維護人工智慧(在模型訓練過程中納入道德準則)、穩定人工智慧(進行監測和檢測,並在必要時發出更正或警告)以及最佳化人工智慧(持續檢測模型中的偏差並加以改進)。

下面,我將闡述我對可信任工智慧算法驗證機制各個方面的看法。

理解 AI(可追溯性、因果關係和規範)

這就像玩一個新遊戲,需要理解規則以及你的行動如何導致特定結果。在 AI 的世界中,我們需要知道 AI 是如何做出決策的,並設定規則以確保 AI 的行為是正確的。實際上,我們可以使用一種稱為「可解釋 AI」(Explainable AI)的技術來理解 AI 的決策過程。這種技術允許我們看到 AI 在做出決策時考慮的因素。

然而,對於與可解釋性相關的技術的信任尚未普及。據玉山銀行首席技術官張志興所

這經常發生在銀行業,人們對 AI 的決策過程感到困惑,選擇不信任它,就像當 AlphaGo 對戰世界象棋冠軍時,我們無法理解它為什麼會做出某些舉動。因此,關鍵是花時間建立人與機器之間的信任,第一步是幫助監管單位理解 AI 如何做出決策以及決策過程的差異。最後,需要進行客觀評估和平行驗證。」

維護人工智慧(在模型培訓中納入道德準則)

這就像你在學校學習一樣。老師不僅教給你知識,還會引導你成為一個好人,尊重他人,公平對待每一個人。在訓練人工智慧時,我們也需要教它遵守道德原則,以確保其行為是正確和公正的。

在人工智慧模型訓練過程中,我們可以使用一種名為「公平機器學習 」的技術來確保人工智慧決策的公平性。這種技術可以幫助我們發現並減少人工智慧決策中的偏差。此外,我們還可以就道德準則的重要性對人工智慧開發人員進行教育和培訓。不過,近幾年來,這些道德部門正在被一一裁掉。

「公平機器學習 」和 「倫理準則 」主要由西方國家制定,在缺乏亞洲價值觀輸入的情況下,它們可能包含隱含的偏見。此外,生成式人工智慧的崛起將我們帶入了一個后真相時代,在這個時代,確定什麼是真實變得具有挑戰性,而地緣政治因素也助長了公平定義的動態性質。目前的法律發展速度使得人們很難就公平的定義達成共識,阻礙了人工智慧產品有效地融入市場。

公平性的技術檢測也面臨著法律、政治與技術專家的不信任。公平性評估公司與人工智慧產品供應商之間的責任分配還有待明確界定。在我讀過的一篇論文中,作者Roman Yampolskiy甚至表示,在機器學習中實現公平是不可能的。 這些挑戰需要進一步解決和討論,以確保實現機器學習的公平性。他認為,好的監管機制,應該要向通訊理論的 Regulator 設計一樣,嵌入在整個系統中,才能達到效果。

穩定人工智慧(持續監控,及時糾正或發出警報)

這就好比你在玩耍時,父母會在一旁看護,確保你不會受傷或做出危險行為。在人工智慧的世界里,我們需要持續監控人工智慧系統的行為,如果出現任何問題,我們需要及時糾正或發出警報。

我們可以使用各種監控工具來實時監控人工智慧系統的行為。如果發現任何問題,這些工具可以立即發出警報,讓我們有機會及時解決問題。此外,還可以進行定期審核,確保人工智慧系統的行為符合我們規定的標準。

但真正更大的挑戰是如何確保人類保留對人工智慧決策過程的最終控制權。在我讀到的資料,主要設計背景的人比較關心。關鍵字是 Human-In-The-Loop。其實這也是很需要投入資源的地方。

最佳化人工智慧(不斷發現模型偏差並改進不足之處)

這就好比你在學習一項新技能時--你需要不斷練習,找出自己的弱點,並努力加以改進。在人工智慧領域,我們也需要不斷評估人工智慧系統的性能,找出其不足之處,並努力加以改進,以更好地完成任務。

我們可以使用各種評估指標來評估人工智慧的性能,找出需要改進的地方。這可能涉及提高人工智慧的準確性、減少偏差、提高效率等等。一旦確定了需要改進的領域,我們就可以調整人工智慧的訓練流程或利用新技術來提高人工智慧的性能。

就評估指標達成共識是一項挑戰,我們或許可以借鑒網絡治理的多方利害關係人治理模式、審議式民主和設計領域的方法,就這些指標達成一致。我個人偏好是在區塊鏈上搞「預測市場」(predicate market)。

還有一件事:人工智慧產品保險

然而,制定標準只是整個過程的一部分。

在提出「可信任人工智慧(TrustableAI)」的概念時,初衷是確保因使用人工智慧產品而受到傷害的消費者能夠獲得賠償。這就是我們需要建立認證和驗證機制的原因。這跟歐盟基於人權倡議的 TrustworthyAI 背景有很大的差別,能拉開出來的產業也不同。

那時最火紅的路線是「Explainable AI」、「Responsible AI」、「Beneficial AI」,我尋思臺灣要競爭 AI 基礎建設應該是很困難的,不如直接跳到下一個階段搞檢測,處理 AI 導入到社會的最後一哩路 - 信任,灣道超車。

延伸閱讀