圖:AIGC帶來巨大發(fā)展機遇的同時,也衍生了知識產權保護、算法歧視、安全挑戰(zhàn)、倫理風險、環(huán)境風險等問題。
推動AIGC(生成式人工智能)健康發(fā)展和規(guī)范應用,亟需各方協(xié)同努力,以促進市場潛力釋放。AIGC一方面為金融行業(yè)帶來了巨大的發(fā)展機遇,另一方面,知識產權保護、算法歧視、安全挑戰(zhàn)、倫理風險、環(huán)境風險等問題都制約了AIGC在金融行業(yè)的應用。中國亟需探索構建可持續(xù)人工智能生態(tài)的路徑。
“我們總是高估未來兩年的技術改變,但低估未來10年的技術影響?!闭缥④泟?chuàng)始人比爾.蓋茨所言,在下一個黃金十年,AI(人工智能)將進一步釋放歷次科技革命和產業(yè)變革積蓄的巨大能量。
歐盟和美國等西方多數(shù)國家都主張采用多元主體參與、協(xié)同共治的模式,人工智能治理從政府主導向“政府+市場”主導轉型。希望既加速人工智能產業(yè)發(fā)展,又同步推進監(jiān)管規(guī)則的制定。
2019年,歐盟發(fā)布《可信賴人工智能道德準則》(以下簡稱《準則》),提出了實現(xiàn)可信賴人工智能全生命周期的框架。提出四項倫理準則:尊重人自主性、預防傷害、公平性和可解釋性。列出實現(xiàn)可信賴AI的七個關鍵條件:人的能動性和監(jiān)督;技術穩(wěn)健性和安全性;隱私和數(shù)據(jù)管理;透明度;多樣性、非歧視性和公平性;社會和環(huán)境福祉;問責。
《準則》將“信任”與“可信賴”等術語置于文件的核心地位,這也是世界各國制定的人工智能倫理準則中廣泛使用的概念之一。2023年6月,歐洲議會又邁出了具有歷史意義的重要一步,通過《人工智能法案》草案,但距離完全生效可能還需數(shù)年時間,為未來的人工智能監(jiān)管奠定了法律基礎。這一舉措讓外界看到了超越道德和法律的人工智能科技在歐洲迎來了一扇有法可管的大門。同時,歐洲也立下了全球人工智能監(jiān)管的新標準。
中美監(jiān)管思路各異
美國為了平衡創(chuàng)新與治理的需要,采取了較為寬松的“軟監(jiān)管”。2020年1月,美國聯(lián)邦政府發(fā)布了《人工智能應用的監(jiān)管指南》,要求聯(lián)邦政府以減少人工智能技術應用的障礙和促進技術創(chuàng)新為目標。在治理主體上,美國成立了“人工智能國家安全委員會”,由政府官員、科學家、企業(yè)高管和學者等組成的多元治理主體。可以看出,美國不僅側重維護自身核心價值,而且更加強調對人工智能創(chuàng)新與發(fā)展的促進,避免一刀切式的過度干預。其優(yōu)先考慮不通過政策手段阻礙人工智能技術和產業(yè)發(fā)展,降低創(chuàng)新門檻和成本,高度重視為人工智能應用創(chuàng)建“安全港”、監(jiān)管轄免等。
歐美AI治理對于中國的金融機構和眾多產業(yè)提供了啟示。努力確保AI算法和模型具有透明度和可解釋性,使用戶和監(jiān)管機構能夠理解決策的依據(jù)和過程,這有助于建立信任。另外,金融機構要積極參與國際合作,密切跟蹤技術前沿,科學、動態(tài)地制定和調整倫理規(guī)范。倡導發(fā)展“以人為本”的人工智能,共同參與制定倫理治理標準和規(guī)范。讓AI的發(fā)展符合社會倫理,為人類創(chuàng)造積極價值。
在AIGC方面,中外監(jiān)管思路存在差異。歐美國家側重于從數(shù)據(jù)安全、數(shù)據(jù)保護和數(shù)據(jù)治理的角度進行監(jiān)管;而中國則采取綜合治理的思路,強調權益保護、數(shù)據(jù)治理和內容治理等多個方面的監(jiān)管。
為了促進AIGC健康發(fā)展和規(guī)范應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益,2023年7月,國家網(wǎng)信辦等七部門聯(lián)合發(fā)布的《生成式人工智能服務管理暫行辦法》(簡稱“《辦法》”)于2023年8月15日起施行。這是國家首次專門針對AIGC進行系統(tǒng)監(jiān)管的文件,重點強調了AIGC產品訓練數(shù)據(jù)及生成內容的真實性,對技術發(fā)展與治理做出具體要求。
《辦法》提出國家堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結合的原則,采取有效措施鼓勵AIGC創(chuàng)新發(fā)展,對AIGC服務實行包容審慎和分類分級監(jiān)管,明確了提供和使用AIGC服務總體要求。明確了發(fā)展與安全并重、創(chuàng)新和依法治理相結合,將“發(fā)展”置于“安全”前、“創(chuàng)新”置于“治理”之前,還明確指出“鼓勵生成式人工智能技術在各行業(yè)、各領域的創(chuàng)新應用”等。相比此前的征求意見稿,正式辦法的基調從強監(jiān)管、禦風險轉變?yōu)榘輰徤鳌⒐膭畎l(fā)展,凸顯了中央對AIGC技術發(fā)展的支持。
《辦法》被看作是一個重大的信號,體現(xiàn)了提前研判、提前介入、提前監(jiān)管的思路。隨著監(jiān)管法規(guī)的不斷完善,有望指引AIGC行業(yè)發(fā)展方向,促進行業(yè)長期健康發(fā)展。同時,政府、企業(yè)和社會各界也需要共同努力,加強合作與溝通,共同推動AIGC技術的創(chuàng)新和應用,為社會帶來更多的福祉和發(fā)展機會。
完善制度規(guī)避風險
在中國,金融機構開展AIGC合規(guī)發(fā)展和有效治理尤為重要。筆者認為共筑可信生態(tài)的路徑,可從以下七個方面進行:
1)“三駕馬車”共護數(shù)據(jù)安全。《網(wǎng)絡安全法》、《數(shù)據(jù)安全法》、《個人信息保護法》等“三駕馬車”構成了中國數(shù)據(jù)安全領域完整的基礎性法律體系。金融機構主體要遵守現(xiàn)行相關法律體系,以及征求意見稿等最新監(jiān)管規(guī)定,建立健全內部監(jiān)管制度。在訓練數(shù)據(jù)、數(shù)據(jù)清洗、數(shù)據(jù)出境等全流程中采取嚴格的數(shù)據(jù)安全措施,構建和完善合理的數(shù)據(jù)采集、使用和共享機制,防止數(shù)據(jù)洩露和濫用。
2)建立算法模型審查機制。金融機構在AIGC產品上線前應主動進行事前審查,及時發(fā)現(xiàn)其運作程序、服務內容存在的問題,彌補外部監(jiān)督的缺陷,使算法倫理問題可溯源可追責。借助決策樹、特征重要性、敏感性分析、原型選擇等算法解釋器,以一定的方式和程度向監(jiān)管部門和公眾說明自動化決策的內在邏輯,履行透明度義務,回應公眾所關心的特定因素對算法決策的具體影響。
3)加強AIGC技術研究和創(chuàng)新,持續(xù)改進應用。積極應用隱私計算、區(qū)塊鏈等新技術和新模型,創(chuàng)新算法保護和倫理判別技術手段。定期審核、評估、驗證生成合成類算法機制機理,持續(xù)評估人工智能系統(tǒng)的性能、合規(guī)性和風險。根據(jù)反饋結果,及時調整和改進系統(tǒng),使模型應用與人類價值觀保持一致并遵循人類意圖。
4)建立獨立倫理委員會或審查機制。探索人工智能倫理治理,基于風險分級和應用分類,采取政策指南、監(jiān)管沙盒、試點、標準認證等多元化監(jiān)管措施。加強對生成內容審查及內容過濾,避免基于種族、性別、年齡等因素造成的偏見和不公平現(xiàn)象,打造可信AIGC生態(tài)。
5)建立健全應急處置制度。對人工智能系統(tǒng)的使用進行風險評估和管理,包括技術風險、操作風險和道德風險等方面。建立相應的風險管理框架和流程,定期開展應急演練,測試和評估安全應急預案的可行性和有效性。
6)積極構建人才培養(yǎng)體系。加快高水平AIGC人才培養(yǎng),打造領軍人才和創(chuàng)新團隊。布局一批適應AIGC技術研究所需的科教資源和數(shù)字化資源平臺,促進各類創(chuàng)新要素優(yōu)化聚集,深化產學研合作。
7)廣泛開展國際交流合作。學習借鑒國際AIGC領域的先進經驗,與其他組織、學術界和政府機構進行合作,共享最佳實踐。參與行業(yè)標準制定,促進大模型綠色低碳發(fā)展。
AIGC的誕生帶來了許多驚喜和創(chuàng)新,同時也引發(fā)了爭議和挑戰(zhàn)。面對這種新興技術,我們需要保持開放、包容和積極的態(tài)度,尋求法律和制度的創(chuàng)新來規(guī)避風險,實現(xiàn)可持續(xù)發(fā)展。AI是不能錯過的一次革命。麥肯錫公司預測,未來10年的科技進步,將超過之前100年的總和。AI作為新的電力,有望在未來幾年改變所有主流行業(yè)。守正創(chuàng)新行穩(wěn)致遠,共筑AIGC生態(tài)新范式,必將造福全社會。