點擊右上角
微信好友
朋友圈

請使用瀏覽器分享功能進行分享

作者:徐超(中國社會科學院信息情報研究院副研究員)
近年來,以信息技術為基礎的新一輪科技革命方興未艾,人工智能(AI)廣泛應用于人類社會生活不同領域,促進相關產業鏈發展,同時也滋生諸多風險與挑戰。為有效應對人工智能帶來的風險與挑戰,世界主要國家和地區陸續制定人工智能監管制度。從共性來看,人工智能監管以風險分級治理為基本理念,以倫理審查、算法治理、內容治理、數據安全、競爭執法、行業監管等作為主要抓手,確保人工智能安全、可信、可控。我國作為人工智能研發與應用大國,應適當借鑒人工智能國際監管最新成果,控制相關領域風險并提升人工智能全球治理的話語權。
人工智能監管的全球維度
當前,人工智能監管往往以“軟法”形式存在,其中《布萊切利宣言》較具有代表性。2023年11月1日至2日,首屆全球人工智能安全峰會在英國舉行,峰會發布《布萊切利宣言》。該宣言將前沿AI風險的監管重點分為三個方面。一是識別共同關注的AI安全與風險,構建以科學和證據為基礎的風險識別方法與機制,拓展關于AI對人類社會深遠影響的思考與認知范圍。二是不同國家應根據不同風險級別制定相應監管制度以確保安全與發展,鼓勵適當情況下的國際合作,同時理解不同國家可能因國情和法律框架不同而采取不同的監管制度與方法。三是除了提高私人機構在前沿AI開發方面的透明度要求外,還應制定合理的評估標準,推廣安全測試工具,促進公共部門提升相關能力,鼓勵科學研究。
人工智能監管的區域維度
2024年8月正式生效的歐盟《人工智能法案》,是全球第一部針對人工智能衍生風險而制定的監管法案,有助于提升歐盟在人工智能全球治理進程中的話語權。該法案根據人工智能對健康、安全和自然人基本權利存在的潛在風險,對其進行風險分類并設置不同法律義務與責任,主要內容如下:(1)不可接受的風險,禁止任何企業或個人等市場主體進入該領域;(2)高風險,允許相關主體在履行事前評估等義務后,進入市場或使用,同時要求事中、事后持續監測;(3)有限風險,無須取得特殊牌照、認證或履行報告、記錄等義務,但應遵循透明度原則,允許合理的可追溯性和可解釋性;(4)低風險或最低風險,相關主體可自行決定是否進入市場和使用。對于生成式人工智能,由于其沒有特定目的并且可應用于不同場景,故不能基于一般操作模式對其進行風險分級,而應當按照開發或使用生成式人工智能的預期目的和具體應用領域進行區分。需要說明的是,該法案要在人工智能實踐中予以落實和執行,仍存在技術等方面的不確定性。
人工智能監管的國家維度
美國以行業管理標準為主,輔之以必要的部門立法。自2016年以來,美國不斷加大監管人工智能的力度,相繼通過多部相關監管法律制度和指南。2020年11月,美國正式發布《人工智能應用監管指南》,提出美國聯邦機構在制定人工智能應用立法時,應當考量的十項基本原則,包括風險評估與管理、公平和非歧視及公開與透明等要求。在《國家人工智能倡議法案》的推動下,美國成立國家人工智能資源研究工作小組,負責調查美國發展AI研究網絡、基礎設施的可及性和可供咨詢特征,并在2023年1月發布《加強和民主化美國人工智能創新生態系統:國家人工智能研究資源實施計劃》,旨在構建一個更加普遍、系統的AI研究網絡基礎設施體系。其目標包括:鼓勵創新,增加人才供給多樣性,提高管理能力,確保人工智能應用的安全、可控、可信。2023年1月,美國國家標準與技術研究院公布《人工智能風險管理框架》,用于指導組織機構在開發和部署人工智能系統時降低安全風險,避免產生偏見和其他負面后果,提高人工智能可信度,保護公民的公平自由權利。
英國制定人工智能政策白皮書。2023年3月,英國新設的科學創新與技術部公布了一份政策白皮書,即《創新型人工智能監管》(A pro-innovation approach to AI regulation),通過簡化創新審查、制定監管相關風險與威脅等措施,促使英國在人工智能全球治理進程中發揮建設性作用。該白皮書提出以下五項監管原則:(1)安全與穩健性;(2)透明度和可解釋性;(3)公平;(4)問責和治理;(5)可競爭性和補救。然而,AI供應鏈(包括算法、數據庫、參數設計、訓練模型設計等)通常是不透明的,這使其風險監管和問責措施難以在現實生活中執行。
韓國立法與行業監管相結合。從2019年的《國家人工智能戰略》到2020年的《完善人工智能法律法規監管路線圖》,再到2023年的《數字權利法案》等法律制度相繼出臺與生效,足以說明韓國正在持續完善人工智能監管體制機制。其中,尤其值得關注的是《促進人工智能產業和建立可信人工智能框架法案》。這項立法基于“先采用技術后監管”原則扶持AI技術發展,對高風險AI領域提出具體監管要求,包括強制要求事先通知用戶,確保系統可信度和安全性等。此外,《信用信息使用和保護法》規定,信用數據主體有權要求相關數據控制者對自動化評估和決策作出解釋,包括提交有利信息的權利、要求更正或刪除基本信息的權利等。《個人信息保護法》規定,自動化決策對數據主體的權利或義務產生重大影響的,數據主體有權拒絕自動化決策,并要求相關數據控制者作出解釋。即使自動化決策不會對數據主體的權利或義務產生重大影響,數據主體也可以要求數據控制者對自動化決策作出解釋。
完善我國人工智能監管體系
妥善處理人工智能創新、發展與安全之間的關系,是國際社會監管人工智能的重要考量。當前,須在總體國家安全觀的指導下,完善我國人工智能監管體系。
首先,劃分風險等級,構建不同風險等級的監管制度。縱觀前述全球、地區和國家的人工智能監管制度,可以發現以下兩方面共同特征。一方面,系統評估人工智能應著重分析人工智能系統在使用中可能產生的潛在風險并逐一進行排查,比如訓練數據的偏差、系統的穩健性、信息安全的防護等具體問題;另一方面,根據人工智能應用領域的差異而開展不同維度的風險評估,比如醫療領域AI應用比消費者推薦系統AI應用風險更高,應適用更嚴格且系統的風險評估。人工智能企業應提前布局,組建內部人工智能風險治理委員會,及時研判人工智能在數據、技術和應用等層面的潛在風險,逐步建立有效的風險預警與應急管理體制機制,采取分類分級監管等簡便、有效方式,積極探索人工智能設計、研發、投入市場、運行維護等全流程評估驗證機制,持續提升人工智能風險管控和處置能力。
其次,搭建資源平臺,促進跨學科專家學者和實務界人士共同研究,構建AI安全應用方案。當下,我國應加大資源投入和搭建資源平臺,聚集更多專家學者和實務界人士共同研發和改進人工智能,這有助于提升我國科技實力在全球的排名,并能夠促進我國經濟社會高質量發展。《生成式人工智能服務管理暫行辦法》第5條、第6條明確了我國鼓勵和發展生成式人工智能的立場和方案。比如,支持行業組織、企業、教育和科研機構、公共文化機構、有關專業機構等,在生成式人工智能技術創新、數據資源建設、轉化應用、風險防范等方面開展協作。今后,可以進一步出臺相關行業規范和實施細則,推動此項方針政策依法有序落地。
最后,多措并舉優化人工智能監管體制機制。一是建立健全科學、合理、公開和透明的人工智能監管體制機制,加強對人工智能的設計問責和應用監督的雙重監管。二是充分實現對人工智能算法設計、產品開發和成果應用等全過程監督,督促人工智能行業及企業自律。以個人信息數據及隱私保護為核心,保護公民的個人信息和數據安全。三是減少偏見因素,確保技術中立,強化人工智能治理機構之間的協調性和能動性,建立多元有序的規制體系。
