什麼是人工智慧監管市場?
當前,全球對人工智能(AI)監管需求的增加,不同地區的監管策略出現了分歧。歐盟和美國在AI監管上的不同取態凸顯了跨大西洋合作的挑戰和機遇。歐盟採取集中式、全面的法規方法,而美國則偏好分散、以風險管理為導向的策略。這種分歧不僅反映了兩大經濟體對於技術監管的哲學差異,也對全球AI應用的未來發展及其監管市場的形成提出了重要的問題。
集中式、類似核能的超組織監管方式面臨著批評,主要因為它可能過於僵化和遠離地方需求。此類監管忽略不同地區間在文化、經濟和技術發展水平上的差異,導致制定的規則可能不適用於所有情況。不但如此,超級組織可能難以迅速適應技術創新和市場變化,從而阻礙了創新。集中式監管也可能導致權力過度集中,增加腐敗和效率低下的風險。尋求更加分散、靈活的監管框架,能夠更好地適應不同地區的需求和快速變化的技術環境,變得尤為重要。
再則,我們已經從全球對於醫療器材規範的過去的協調努力看到,傳統的中央集權式監管方法不太可行。因為每個國家或地區的法律、文化和經濟環境各不相同,實現全球性的監管共識幾乎是不可能的。在過去二十年間,全球各國曾試圖尋求一種統一的醫療器械監管體系。,這些努力未能成功。主要挑戰來自於各國在醫療器械的安全性、效能和使用條件等關鍵問題上的立場和法規存在差異,使得達成監管方案的共識變得困難。這種情況導致了法規的碎片化,迫使醫療器械製造商必須遵從多套不同的法規,增加了成本和複雜性。
因此在監管人工智慧上,我們需要一種更有彈性、更有效的監管模式。隨著技術的快速發展,政府往往難以跟上技術的演進,並在理解及應對相關問題上顯得力不從心。另一方面,政府的資源有限,常常不足以提供充足的監管資金,可能導致監管機構過度偏向於某一方,無法公正執行監管職責。
監管市場或許能提供一種解決方案。在這個模式中,可能會出現多個私人監管機構,每一個機構都開發出針對特定目標或地區的監管服務。各國政府可以根據自己的需求和目標,選擇一個或多個私人監管機構的服務。這樣,製造商只需遵守該私人機構的規則,便可在所有認可該機構監管的國家進行銷售。這種做法保持了各國在監管決策上的主權,同時減輕了製造商的法規負擔。
人工智慧監管市場是由 Gillian K. Hadfield 提倡的一種獨特治理模式,Hadfield 教授目前是多倫多大學法學院和經濟學系的教授。她從 2018 年到 2023 年在舊金山的 OpenAI 擔任高級政策顧問。
這樣的治理模式,主要是基於 Kenneth 的 RIT 模型,涉及三個主要角色:被監管的對象(通常是企業或其他組織)、提供監管服務的私人機構(這些機構在為被監管的對象提供服務時相互競爭)以及政府(確保私人機構的監管服務符合公共利益,同時也對被監管的對象進行監管)。
舉例來說,假設有一家生產人工智慧產品的公司,政府可能對這些產品的安全性和隱私保護有所關注,因此需要進行監管。然而,政府可能缺乏足夠的專業知識或資源來直接監管。於是,私人監管機構便出現了,這些機構擁有專業的知識和技術,能夠開發出針對人工智慧產品的監管服務。政府將要求該公司購買並遵守這些監管服務,以確保其產品的安全性和隱私保護得到維護。
然而,政府並不會將所有監管責任完全交給私人機構。相反,它們會對這些私人機構進行預先評估,以及持續的審計和監督,以確保它們的監管服務能夠達到政府的目標。
這個模式的風險在於,如果政府未能進行足夠的監督,可能會出現問題。例如,在2008年的金融危機和波音737-MAX的悲劇中,監管中介機構的失敗都被視為導致這些事件的部分原因。
臉部識別技術的監管也是一個例子,多個私人監管機構提供不同的監管服務,各國政府根據自己的目標來評估和選擇這些監管機構。這種模式不僅提供了多樣性,也帶來了競爭,激勵監管機構改進和創新他們的服務。
在 Facebook 的劍橋分析學醜聞中,我們看到了人工智慧和數據挖掘如何被濫用以操控用戶行為,導致了一系列的社會問題。這再次強調了監管市場的重要性,以及有多個獨立監管機構專注於不同的監管目標的必要性。
監管市場包含三個主要參與者:被監管的企業、私人監管機構(無論是營利或非營利的)、以及政府。政府的角色是要求這些被監管的企業購買私人監管機構的服務,並確保監管市場的運作符合公眾利益。
這種新的監管市場模型的創新之處在於,政府將重心轉向建立監管目標,而非自行實施監管。相反,它讓受政府監管的私人機構負責具體的執行工作。監管效果的確認,將通過預先評估和持續審計來實現,例如,通過測量結果指標和評估私人監管機構在實現原則方面的表現。
在這種模型下,供應商可以從協調一致的好處中獲益——他們只需遵守一種或少數幾種監管制度,即可進入多個法律管轄區。然而,每個管轄區仍有權決定自己的監管目標和要求,並選擇適合的監管機構。
此外,全球監管市場的規模可以帶來更多好處,允許更多的監管機構運用不同的監管技術和方法來進行競爭。這不僅能增強競爭力,因為更多的監管機構會被激勵去投資於監管創新以確保市場份額,同時也降低了壟斷的可能性。全球市場還可能帶來溢出效應,因為小國或貧窮國家可以從大國或富裕國家的監管創新投資中獲益。
然而,這種模型的風險在於,如果政府沒有足夠的投資進行有效的監督,可能會出現問題 - 監管捕獲(regulatory capture)。監管機構與其監管的公司之間的勾結可能相當普遍,因為有資格在該行業工作的人通常具有在監管機構中擔任角色所需的資格和網路。這可能導致集體思考風險是什麼,最終可能是自私的。往往監管失敗的,都是因為監管捕獲。
例如,在2008年金融危機中信用評級機構的失敗,以及波音737-MAX悲劇中美國聯邦航空管理局的監管不足,都是缺乏有效監管監督的警示。因此,實現這一模型需要一種可持續的融資模式,以應對監管的實際成本。
對於這點 Paolo 認為,依靠賞金激勵機制難以維持有效的監管市場,賞金激勵機制制度常見於資安領域。他主張,政府應視激勵措施為對不安全行為的預防投資,即使在當前沒有發生不安全行為的情況下,也應持續提供資金支持。這種做法保證了監管機構即便在未發現不安全行為時也能獲得激勵,但若它們未能識別出風險企業,則有可能面臨激勵收回的風險,這一制度促使監管機構保持警惕,即使是高質量的機構也不能例外。
考量到政府面對預算限制的現實,持續為監管市場提供充足的資金支持確實存在挑戰。因此,探索其他資金來源,如公私合作伙伴關係或特定技術稅,可能對於維持有效監管變得尤為重要。
參考文獻
- Jack (2019), Regulatory Markets for AI Safety
- Gillian K. (2023), Regulatory Markets: The Future of AI Governance
- Alex (2023), The EU and U.S. diverge on AI regulation: A transatlantic comparison and steps to alignment
- JOVANA (2020), What are regulatory markets and how can they help ensure that AI is safe, fair, and ethical?
- Gillian (2020), An AI regulation strategy that could really work
- Kenneth W. (2017), Theorizing Regulatory Intermediaries: The RIT Model
- Paolo (2023), Both eyes open: Vigilant Incentives help Regulatory Markets improve AI Safety