01 全球AI監管趨勢
全球范圍內,AI的開發和使用正在加速。政策制定者正密集開展工作,以確保AI作為一個整體,促進其服務經濟和社會目標的同時,降低其風險。從全球看,AI監管表現為以下六方面的趨勢。
趨勢一、以OECD的AI原則作為政策制定的基準
OECD和G20于2019年通過的AI原則,成為政府和組織建構以人為本的可信AI方法的全球基準。這些原則于2016年開始的有關AI使用應遵循的核心道德原則的公開討論之后制定,原則涵蓋了諸如確保AI的好處在社會廣泛傳播、AI不破壞諸如保護人權等社會保障措施,以及使用AI的組織是否已建立適當的治理和問責制度等方面。下表是OECD的AI原則及其對政府政策制定的建議。

例如,歐盟的AI法案要求與OECD的問責和AI的健全、安全使用原則一致,并在OECD原則基礎上更進一步,指定了AI應用的“紅線”,包括禁止使用AI進行基于社會行為或個人特征的社會評分的應用。盡管我國不是OECD國家,但OECD原則為包括我國在內的G20國家領導人于2019年6月背書的G20 AI原則提供了基礎。
趨勢二、采取基于風險的AI方法制定政策
各國正專注于將AI原則付諸實踐,采用的方法從自愿指導到強制性規則不等,但都在尋求基于風險的AI方法。2023年4月,G7的數字化和技術部長表達了統一AI的觀點,呼吁應基于AI活動帶來的風險制定和調整相關政策和法規,在鼓勵負責任的AI發展使用和降低AI風險之間找到平衡。這種方法使得政策制定者可以更快響應快速發展的AI創新。
在這一方法指導下,2023年10月30日,G7國家(加拿大、法國、德國、意大利、日本、英國、美國和歐盟)就AI國際指導原則和AI開發人員行為準則達成協議,這一舉措對于推動政府建立全球協調一致的基于風險的框架,以促進AI系統負責任和安全開發和使用至關重要。比如歐盟和加拿大的AI法案和數據法案,都使用風險和影響評估將AI系統歸入不同的合規義務類別。最廣泛的合規要求適用于被歸類為高風險的系統,而低風險AI系統則根據其風險水平滿足較低要求。
趨勢三、區別行業通用和特定兩方面因素制定雙重AI監管政策
AI技術在某些行業的使用可能帶來獨特風險,例如,由于安全風險高,需要額外的行業特定指導或規則來部署在公路上的自動駕駛汽車;在銀行使用AI,監管機構需要制定特定規則,以最小化AI對消費者貸款構成的潛在風險(例如,有偏見的承保)或對銀行的安全性造成的風險。
我國等全球各國正區別行業通用和特定因素制定雙重AI監管政策:跨行業方法構建的基本框架,為無論在哪個行業開發或使用AI,都能提供基本的保護措施;行業特定方法則為解決具體行業風險,對AI使用制定了額外的指導方針。下表是各國通用和特定行業雙重AI監管政策舉例。

趨勢四、制定和調整AI相關影響領域的政策
AI規則,同時會影響和推動數據所有權、數字身份、網絡安全和數字內容流動等相關領域新政策的制定,或需對現有政策進行新的解釋。2024年5月,歐洲理事會正式通過全球第一部《AI法案》,并在受AI影響領域采取了最全面的方法,在相應領域制定新的法規,比如,《通用數據保護條例》規定了解決AI在自動化決策中使用個人數據所帶來的挑戰的規則,《數據法案》規定了所有行業對于AI所需數據的公平獲取和使用規則,《數字服務法案》包括有關AI用于在線內容訪問和分發的規定,以及《網絡彈性法案》則引入了新的保障措施,以保護消費者和企業免受日益復雜的AI驅動網絡威脅的侵害。
趨勢五、利用AI沙盒開展監管測試
沙盒允許在受監管的環境中進行技術創新測試,因此,AI沙盒可以幫助制定針對性AI法規,推動風險投資,促進競爭,并鼓勵監管機構與參與公司進行更好溝通。自2014年英國金融行為監管局(UK FCA)建立監管沙盒后,已有約40個司法管轄區采用并建立了這一工具。
目前UK FCA正在測試金融科技領域的AI系統,而英國信息專員辦公室(ICO)正在對AI進行數據隱私測試。在歐盟和新加坡,監管機構正在使用AI監管沙盒解決AI快速發展及其自身對AI技術缺乏經驗的雙重挑戰。此外,西班牙、瑞典和德國也在建立AI沙盒,為歐盟的AI法案實施做準備。
趨勢六、AI治理的全球合作勢頭日益增強
2023年全年,伴隨著公眾對生成式AI系統開發和發布的關注不斷升溫,建立全球AI共同治理和監管基礎的共識也日益增強。包括中國在內的28個與會國共同達成的《布萊切利宣言》在首屆全球AI安全峰會正式發表,這是全球第一份針對AI這一快速新興技術的國際性聲明,提出“迫切需要通過新的全球共同努力,理解和集體管理潛在風險,以確保AI以安全、負責任的方式開發和部署,造福全球社區”。這些倡議要求全球各國共同面對AI安全、倫理和治理等復雜挑戰,通過協調國際響應和保障措施機制,促進AI治理的全球合作。另外,在OECD的AI治理工作組、歐洲委員會AI委員會、全球AI伙伴關系和聯合國機構的各種倡議基礎上,日本G7主席國發起了“廣島生成式AI進程”, 發布關于AI國際指導原則和AI開發人員的行為準則。
02 對AI政策制定的啟示
1.全面認識AI的復雜性
應確保基于足夠的專業知識制定AI政策,并確保受監管實體擁有足夠的專業知識有效實施其政策。確定并獲取此類專業知識需要一定時間,還涉及到相關指導、培訓、流程、治理、監督,以及相應執行。政府需對全民AI素養進行長遠規劃,并對相應投入做好充分的準備,比如新加坡國會議員動議補貼40歲以上新加坡人重新進課堂學習AI。
2.明確AI法規制定的確定性
制定AI法規時,需要區別AI和AI系統,明確規則制定的意圖是監管AI技術本身帶來的風險(例如,自然語言處理或面部識別等特性)還是AI技術的使用方式(例如,AI在招聘流程或監控中的應用)帶來的風險。對于企業來說,法規的確定性至關重要,還應將AI作為一個整體進行監管。明確知道哪些AI系統屬于監管的范圍,以及內部風險管理流程重點在哪里,有助于提高企業遵守AI規則并滿足監管期望的能力。
3.理解全球法規互操作的重要性
全球AI治理合作,有賴于全球AI法規的互操作性:一方面,互操作性確保各國法規具備一致的可比較的有效規則基礎,可減少監管套利的風險;另外一方面,互操作性可為全球運營的AI服務的消費者提供通用保護,避免受到AI傷害。除此之外,法規互操作性還可以大大降低AI公司技術研發、應用服務提供和運營的相應成本。
4.將第三方供應的AI納入風險管理
由于許多公司依賴第三方供應的AI,政策制定者需要將第三方AI納入風險管理和合規要求。如歐盟的《AI法案》包括跨組織的AI供應鏈規定,為AI系統的提供者、分銷商、進口商和用戶規定了相應義務;而美國國家標準與技術研究院(NIST)制定的《AI風險管理框架》為第三方AI用戶創建指導手冊,說明通過第三方采購AI服務時需考慮的風險和合規要求。
本文作者

漆晨曦
戰略發展研究所
高級分析師
高級經濟師,26年通信行業的數據分析、數據挖掘和數據科學及BI、營銷一體化平臺架構和業務規范的相關專業實踐和研究經驗,近年專注企業數字化運營轉型和數據要素市場研究。