全讯网-全讯网.www.7897899

楊建軍:可信人工智能發(fā)展與法律制度的構(gòu)建

  • 2025年03月19日
  • 西北政法大學(xué)
關(guān)注西法大官網(wǎng)
微信
微博
Qzone
網(wǎng)址
打印
閱讀

以可信為基礎(chǔ)構(gòu)建人工智能治理法律制度的必要性

人工智能技術(shù)發(fā)展突飛猛進,在諸多領(lǐng)域取得了令人矚目的成就。但是,人工智能的發(fā)展,卻因為技術(shù)的復(fù)雜性、風(fēng)險的不完全確定性、技術(shù)濫用、法律規(guī)制的缺位等因素,還未完全贏得社會的信任。

(一)人工智能發(fā)展中還存在侵蝕其可信性的諸多因素

其一,人工智能技術(shù)發(fā)展還存在諸多可知或不可知的風(fēng)險。當(dāng)前,人工智能存在著失控性風(fēng)險、社會性風(fēng)險、侵權(quán)性風(fēng)險、歧視性風(fēng)險、責(zé)任性風(fēng)險五個方面的倫理安全風(fēng)險。其二,人工智能技術(shù)還不完全可信。(1)人工智能技術(shù)還未真正達到人們想象的發(fā)達程度,總體上還處于專用人工智能而不是通用人工智能發(fā)展階段。(2)深偽技術(shù)加劇了人們對真實性瓦解的擔(dān)憂。(3)技術(shù)安全等問題未完全解決。(4)與人工智能技術(shù)關(guān)聯(lián)的問題是,人工智能的良好運行高度依賴個人信息和數(shù)據(jù),而個人信息和數(shù)據(jù)管控本身還存在諸多問題,如App違反合法、正當(dāng)、必要的原則收集與所提供服務(wù)無關(guān)的個人信息,“強制授權(quán)、過度索權(quán)、超范圍收集個人信息”大量存在。其三,人工智能應(yīng)用不當(dāng)導(dǎo)致了侵權(quán),致使人工智能不完全可信。其四,人工智能治理的技術(shù)使用還存在與其宣示的價值取向不一致的情形,損害了人工智能發(fā)展的價值基礎(chǔ)。其五,規(guī)制人工智能的法律還不可信。

(二)人工智能法為什么要強調(diào)信任

信任,是人際關(guān)系得以長久維系的橋梁,是社會關(guān)系得以拓展的基礎(chǔ),是社會發(fā)展的內(nèi)在條件,更是建立高效社會組織的基本前提。信任是社會合作得以進行的基礎(chǔ)。信任成功與否取決于信任拓展范圍的大小。人工智能技術(shù)的發(fā)展程度,不僅是由技術(shù)決定的,而且是由規(guī)制人工智能的倫理、法律等規(guī)范決定的。那些真正發(fā)展得良好的技術(shù),必定也是法律保障有力、遵循了良好倫理規(guī)范的技術(shù)。

人工智能獲得社會信任的法律基礎(chǔ)

(一)人工智能的信任需要法律來保障

其一,傳統(tǒng)社會基于血緣等關(guān)系構(gòu)建了人際信任,人與人之間的信任多建立在熟人關(guān)系基礎(chǔ)上。其二,到近現(xiàn)代社會,法律力圖建構(gòu)的是一種打破血緣關(guān)系、促進陌生人合作的普遍信任機制。現(xiàn)代社會共同體合作,主要建立在平等交換、契約自由基礎(chǔ)上。其三,人工智能時代的信任須建立在人工智能技術(shù)安全、確定性的法律管控和社會倫理引領(lǐng)的基礎(chǔ)上。

(二)捍衛(wèi)現(xiàn)代法治的傳統(tǒng)和公民的基本權(quán)利系確保人工智能可信的關(guān)鍵

人們對人工智能技術(shù)的信賴,建立在人工智能技術(shù)的安全性、保障和規(guī)制人工智能的法律制度的正當(dāng)性、規(guī)制人工智能發(fā)展的制度的價值正義性、人工智能技術(shù)的實踐運作對人類基本價值追求和人的基本權(quán)利維護的有效性的基礎(chǔ)上。在支撐人工智能信任的技術(shù)維度、法律維度、倫理維度和實踐維度中,最為關(guān)鍵的是為人工智能發(fā)展設(shè)定法律監(jiān)管標準。

可信人工智能法律構(gòu)建的倫理基礎(chǔ)與可信特征

包括我國在內(nèi)的許多國家均將“可信”作為人工智能的核心倫理原則,而“正當(dāng)性”則是保障人工智能可信法律構(gòu)建的基礎(chǔ)。

(一)正當(dāng)性是保障人工智能可信法律構(gòu)建的倫理基礎(chǔ)

全球關(guān)于人工智能治理可信問題的關(guān)注最初是在倫理文件中表達的。雖然存在一些爭議,但是國際社會在“可信賴的人工智能”“負責(zé)任的人工智能”等核心理念上可能會達成一致。可信被很多國家人工智能倫理確認為了一項基本倫理原則,這一原則的提出,是為了解決人工智能的價值對齊問題,即確保人工智能的目標與人類的目標一致,使其“行為和決定符合人類的價值、目標、道德考量”。但是,單純從倫理準則角度構(gòu)建人工智能的可信存在諸多問題:(1)全球關(guān)于人工智能治理存在諸多爭議,不同準則之間的沖突日益凸顯,如“普惠發(fā)展與隱私保護”“安全可靠與非歧視要求的沖突”等;既有準則規(guī)范可能由私人部門提出,實際上是抵制政府監(jiān)管的借口等。(2)作為倫理準則的可信標準,主要是一種倡導(dǎo)性、自律性準則,缺乏有效的監(jiān)督執(zhí)行機制,強制性程度不足;準則的表達多采概括性概念,可操作性不強。因而,國家立法所要做的工作就是,將倫理準則轉(zhuǎn)化為法律準則,并通過更加具體的技術(shù)規(guī)則和法律規(guī)則設(shè)計,保障可信準則在人工智能產(chǎn)品或服務(wù)的研究、開發(fā)、設(shè)計、部署、使用、監(jiān)管等具體環(huán)節(jié)得到落實。

(二)現(xiàn)行可信人工智能的評估標準

何積豐院士提出,人工智能的可信特征包括四個方面:(1)魯棒性,即對未知情況具備一定的應(yīng)對能力;(2)自我反省,即對自身性能或錯誤能夠有所感知;(3)自適應(yīng),即能夠成為通用的系統(tǒng),能被應(yīng)用到新的環(huán)境;(4)公平性,如應(yīng)防止被不當(dāng)力量訓(xùn)練為種族歧視的智能。有學(xué)者提出了可信人工智能系統(tǒng)的質(zhì)量框架,包括:(1)尊重人類自治原則,含人權(quán)代理與監(jiān)督。這是最為重要的原則,人工智能應(yīng)當(dāng)賦予人類新的權(quán)利而不是取代人類,且處于人類控制之下,不對人類基本權(quán)利或健康造成損害。(2)傷害預(yù)防原則,包括魯棒性、穩(wěn)定性、安全性(包括保密性、完整性、可用性)、可靠性、可問責(zé)性、隱私性、可重復(fù)性、準確性等。(3)可解釋性原則,包括透明性、可解釋性。(4)公平性原則,即確保群體或者個體不受偏見或歧視。(5)一般軟件質(zhì)量屬性,如兼容性、可維護性、功能適用性、可移植性、性能效率、易用性等。

可信人工智能發(fā)展對法律構(gòu)建提出的要求

(一)保障可信人工智能發(fā)展的多元路徑與法律路徑

保障可信人工智能發(fā)展的路徑是多元的,大致包括四個方面。(1)側(cè)重行業(yè)技術(shù)保障的路徑。如中國信息通信研究院和京東探索研究院通過對全球范圍內(nèi)已經(jīng)發(fā)布的84份政策文件按照詞頻進行梳理發(fā)現(xiàn),當(dāng)前人工智能治理原則已經(jīng)收斂在“透明性、安全性、公平性、可責(zé)、隱私保護等五個方面”,支撐可信的技術(shù)包括“穩(wěn)定性技術(shù)、可解釋性技術(shù)、隱私保護技術(shù)、公平性技術(shù)、可視化技術(shù)”等。(2)技術(shù)認證的客觀標準與倫理價值評價的主觀標準結(jié)合的路徑。(3)人工智能的風(fēng)險防控路徑。(4)法律、倫理、技術(shù)結(jié)合的路徑。2019年,歐盟人工智能高級別專家組發(fā)布了《可信人工智能的倫理指南》,提出人工智能在整個生命周期中需要滿足三個條件:合法性,即可信人工智能應(yīng)當(dāng)依法合規(guī);道德性,即人工智能發(fā)展要符合道德原則、價值觀;穩(wěn)健性,即人工智能發(fā)展應(yīng)避免造成無意的損害或負面影響。這實際上提出了保障人工智能可信發(fā)展的綜合路徑。

為人工智能設(shè)定法律標準,實際上是為人工智能的研究者、開發(fā)者、部署者等設(shè)定最為基本的標準,并通過法律的強制執(zhí)行性推動各項標準的落實,以防人工智能的發(fā)展偏離人類追求的價值目標,實現(xiàn)對人工智能產(chǎn)業(yè)發(fā)展的規(guī)制、引領(lǐng)作用。

(二)可信人工智能對法律提出的期待

可信是一種文化,一種基于技術(shù)發(fā)展而形成的人對人工智能的認知和信任狀態(tài)。為了保障人工智能的可信發(fā)展,法律制度的創(chuàng)設(shè)或者調(diào)整應(yīng)當(dāng)遵循一系列外在準則和內(nèi)在準則。

1.可信人工智能法律構(gòu)建應(yīng)遵循的外在準則

外在準則構(gòu)成了人工智能發(fā)展的國家社會目標,意在維護國家社會的福祉和法律的基本價值,是人工智能長遠發(fā)展的基本準則。外在準則主要是一種理念,它無法通過人工智能技術(shù)而直接得到落實,但它可以成為評判人工智能技術(shù)發(fā)展是否正當(dāng)?shù)脑獪蕜t,是人工智能發(fā)展的總的引領(lǐng)性準則。

其一,以人為本,捍衛(wèi)人的基本權(quán)利。人工智能立法堅持以人為本,就應(yīng)當(dāng)保護個人信息和數(shù)據(jù)等數(shù)據(jù)權(quán)利,保護人格權(quán)、人的自主決策(自治權(quán))和人類的主體性,還應(yīng)當(dāng)重視對社會弱勢群體的權(quán)益保護。發(fā)展以人為本的人工智能,既應(yīng)從技術(shù)發(fā)展的角度來設(shè)定制度,還應(yīng)從人的基本權(quán)利的角度規(guī)制人工智能技術(shù)。以人為本還應(yīng)當(dāng)認真考量新產(chǎn)業(yè)發(fā)展對傳統(tǒng)產(chǎn)業(yè)帶來的沖擊,如人工智能發(fā)展對傳統(tǒng)產(chǎn)業(yè)領(lǐng)域的就業(yè)替代,就是一個需要高度關(guān)注的問題。以人為本的理念與憲法確定的人的基本權(quán)利之間具有密切的聯(lián)系。

其二,人類主導(dǎo)原則。人類主導(dǎo)原則是從人與機器關(guān)系的最終意義上說的。因為人工智能在很多方面代替人進行道德選擇和決策,但智能系統(tǒng)要為人類做決定,不能脫離人類倫理指導(dǎo)。當(dāng)人工智能的決定不符合人類需要的時候,人類可以取代人工智能做出決定。人類主導(dǎo)原則還要求,人工智能的設(shè)定,還應(yīng)當(dāng)尊重國別文化的多元性、尊重個體差異,并采取措施防止“人類對機器人的過度依賴”。

其三,技術(shù)中立原則。技術(shù)中立原則是設(shè)計人工智能法律制度時應(yīng)遵循的一項前置性原則。例如,如果在交通事故中對普通駕駛?cè)税凑者^錯責(zé)任進行歸責(zé),而對人工智能汽車采取嚴格責(zé)任原則予以歸責(zé)并要求車主承擔(dān)交通事故責(zé)任,那么就背離了技術(shù)中立原則,而適用過錯原則可能是妥當(dāng)?shù)摹?/span>

2.可信人工智能法律制度構(gòu)建的內(nèi)在準則

內(nèi)在準則主要是法律技術(shù)性準則,這些準則大多可通過人工智能的技術(shù)設(shè)計、改進而得以落實。內(nèi)在準則構(gòu)成了人工智能法律的操作性準則。

其一,透明原則。人工智能的透明,首先是為了保障公民的知情權(quán),讓人們了解人工智能是如何運作的。透明原則是為了防止人工智能被運用于不法目的或不正當(dāng)目的,有助于增強人的自主性,不透明的人工智能難以獲得人的信任。

其二,安全原則。首先應(yīng)確保網(wǎng)絡(luò)安全、數(shù)據(jù)安全與算法安全。(1)可信意味著必須降低人工智能風(fēng)險,采用“強制性標準”對風(fēng)險進行管控,且風(fēng)險管控措施應(yīng)符合比例原則,不能向人工智能開發(fā)者提出過高的要求(歐盟人工智能法第64部分)。(2)對風(fēng)險宜進行分類管控或是分級管控。如2024年歐盟發(fā)布的人工智能法案將人工智能的風(fēng)險分為四級,采取不同的限制措施。中國的人工智能法(學(xué)者建議稿)則將人工智能分為關(guān)鍵領(lǐng)域與一般領(lǐng)域進行管控,對關(guān)鍵領(lǐng)域進行重點管控。

其三,公平原則。核心是,在人工智能的模型訓(xùn)練中,排除那些明顯存在或者隱性存在文化偏見、性別歧視或種族歧視的數(shù)據(jù)集。

其四,隱私保護原則。隱私被侵犯,自然人的感知最為直接,顯然,一個無法保護隱私利益的人工智能,是無法被人們接受的。

其五,可問責(zé)原則。確保人工智能的部署、使用產(chǎn)生的法律責(zé)任是可問責(zé)的。問責(zé)是對侵權(quán)者的追責(zé),也是對受害者的救濟。

保障人工智能可信發(fā)展的具體法律制度

(一)設(shè)計、評估與測試制度

其一,設(shè)計階段的價值對齊制度。(1)法律應(yīng)當(dāng)將價值對齊作為一項基本義務(wù)賦予人工智能設(shè)計者。(2)人工智能在開發(fā)階段就應(yīng)注意防止偏見和歧視。首先,識別人工智能必須遵守的倫理價值和規(guī)范,其次,將這些規(guī)范通過程序編碼寫入人工智能系統(tǒng),最后,為了驗證人工智能是否與特定價值和規(guī)范兼容,應(yīng)當(dāng)對人工智能的規(guī)范和價值的有效性進行評估。

其二,評估制度。人工智能開發(fā)者、提供者在開發(fā)、提供人工智能產(chǎn)品和服務(wù)前,可自行或委托第三方機構(gòu)對數(shù)據(jù)質(zhì)量、潛在偏見歧視、科技倫理審查情況、公共利益影響、保護措施等內(nèi)容進行安全風(fēng)險評估。

其三,人工智能的安全測試制度。(1)為了保證安全,應(yīng)建立密碼技術(shù)管理制度,實現(xiàn)可信計算和可信驗證。(2)設(shè)立沙盒監(jiān)管制度,強化安全測試和安全風(fēng)險監(jiān)管。(3)人工智能提供者對人工智能生成內(nèi)容的標示制度。

(二)建立針對人工智能領(lǐng)域的監(jiān)督制度

(1)采用“憲法性AI”的思路,用人工智能監(jiān)督人工智能,用“一個從屬的AI模型評估主模型的輸出是否遵循了特定的‘憲法性’原則(即原則或規(guī)則清單),評估結(jié)果被用于優(yōu)化主模型”。目的在于推進價值對齊,將對可信人工智能影響最大的法律原則,落實在人工智能發(fā)展技術(shù)中。雖然人工智能監(jiān)督人工智能是高效的,但考慮到人工智能法律監(jiān)督僅處在初期,故設(shè)置針對人工智能法律監(jiān)督的人類標注員依然是必要的、重要的。(2)分級監(jiān)督制度。針對人工智能決策,針對性地建立一級監(jiān)督制度或二級監(jiān)督制度。一級監(jiān)督制度針對部分自動化決策,即把人工智能決策作為專業(yè)人員決策的支持理由,決策最終由人類來選擇;此等情形下,人工智能決策是人類決策的組成部分。二級監(jiān)督針對的是完全自動化決策,即在人工智能作出決定后,人類對智能化作出的決策進行監(jiān)督和糾正。總之,“一級監(jiān)督在決策過程中具有構(gòu)成性作用,而二級監(jiān)督對一級監(jiān)督進行檢查和控制”。(3)隱私保護監(jiān)督制度。(4)權(quán)力制約監(jiān)督制度。

(三)完善人工智能的責(zé)任制度

其一,人工智能的使用者為了安全、放心,當(dāng)然期望人工智能的開發(fā)或銷售企業(yè)能夠承擔(dān)起全部責(zé)任。其二,在法律責(zé)任設(shè)定上,“應(yīng)輔以問責(zé)框架,包括免責(zé)聲明以及審查和補救機制等,以確保在開發(fā)、部署和使用之前和之后對人工智能系統(tǒng)及其結(jié)果負責(zé)和問責(zé)”。其三,刑法應(yīng)增設(shè)相關(guān)責(zé)任條款,將對非法訪問AI或從事黑客攻擊的嚴重行為、讓人工智能運行實行犯罪的使用惡意軟件的行為納入刑法調(diào)整范圍。

結(jié)語

可信人工智能治理進程中的法律制度的構(gòu)建,應(yīng)以技術(shù)路徑為基礎(chǔ),融合倫理準則,溝通人工智能發(fā)展的外在準則和內(nèi)在準則,捍衛(wèi)現(xiàn)代法治傳統(tǒng),保障憲法確認的公民的基本權(quán)利;同時,應(yīng)當(dāng)處理好人工智能發(fā)展中國際性與地方性、市場邏輯和治理邏輯、監(jiān)管的包容與審慎、權(quán)力制約與權(quán)利保護、道義與理性等關(guān)系。

蓝盾百家乐娱乐场开户注册| 二爷百家乐的玩法技巧和规则| 淘宝博百家乐的玩法技巧和规则 | 百家乐官网怎么计算概率| 太阳城百家乐主页| 黑水县| 百家乐平台出租家乐平台出租| 真人赌博网站| 青鹏百家乐游戏币| 金榜百家乐现金网| 真人百家乐官网怎么对冲| 大发8888| 免费玩百家乐的玩法技巧和规则| 真人游戏 豆瓣| 南京百家乐官网赌博现场被| 大发888真人游戏| 墓地附近做生意风水| 大发888软件下载| 千亿百家乐官网的玩法技巧和规则 | 菲律宾太阳城娱乐| 百家乐平台哪个比较安全| 菲律宾百家乐官网排行| 常熟市| 澳门赌博经历| 现金棋牌游戏| 百家乐游戏分析| 缅甸百家乐官网赌场娱乐网规则| 海立方百家乐官网海立方| 德州扑克初级教程| 九运2024年-2043年| 百家乐官网折桌子| 永利博百家乐官网游戏| 双辽市| 博彩网络| 德州扑克怎么玩的| 如何赢百家乐的玩法技巧和规则| 诺贝尔百家乐的玩法技巧和规则 | 百家乐平台哪个有在线支付呢| 金银岛百家乐官网的玩法技巧和规则| 高雄县| 全州县|