物聯(lián)傳媒 旗下網(wǎng)站
登錄 注冊

人工智能安全的法律治理:圍繞系統(tǒng)安全的檢視

作者:本站收錄
來源:金融新鮮事兒
日期:2017-12-11 11:17:50
摘要:在眾多風險中,本文重點關(guān)注的則是人工智能安全的法律規(guī)制。

  01、前言:人工智能法律治理現(xiàn)狀

  人工智能科技誕生于20世紀50年代,在六十多年的發(fā)展歷程中幾經(jīng)潮起潮落,近年人工智能迎來了其第三個發(fā)展高峰,而這次的高峰被認為是不同以往的,其中原因被歸結(jié)為算力、算法以及數(shù)據(jù)等技術(shù)進步為人工智能科技提供了穩(wěn)健前行的基礎(chǔ):

  首先,云計算技術(shù)與GPU處理器的應(yīng)用以及前景可期的量子計算,它們?yōu)槿斯ぶ悄芴峁┝藦姶蟮乃懔χ?其次,人工智能領(lǐng)域以機器學習為代表的算法的突破以及大數(shù)據(jù)提供的海量數(shù)據(jù)資源“煤礦”,均為人工智能的發(fā)展賦予了能量。

  人工智能技術(shù)與應(yīng)用正在快速普及在社會生活的各個方面,世界各國均致力于制定與其發(fā)展相適應(yīng)的法律規(guī)則,如歐盟于2016年10月制定了《歐盟機器人民事法律規(guī)則》(European Civil Law Rules in Robotics),提煉出人工智能觸及的民事法律問題的框架,從法律和倫理的角度評估和分析未來歐洲民法領(lǐng)域的機器人規(guī)則,給予這些法律問題以方向性的指導。

  而以自動駕駛汽車的立法探索為例,美國共計23個州政府共制定了四十余部自動駕駛汽車法案,聯(lián)邦層面的自動駕駛汽車法案也正在推進。不可否認的是,世界各國的人工智能頂層戰(zhàn)略文件均不約而同提及應(yīng)盡快建立相應(yīng)的法律規(guī)范體系,而多國已經(jīng)將這些建議與構(gòu)想真正提上了立法議程。

  世界各國積極推進人工智能領(lǐng)域的立法,主要有以下兩個方面的原因:

  一方面,各國均希望在這場被稱為第四次的工業(yè)革命的浪潮真正到來之前,能夠搶占法律規(guī)則制定先機,促使本國的法律規(guī)則能夠在國際社會享有話語權(quán)與主導權(quán);另一方面,人工智能衍生了一系列社會風險,包括:人工智能算法決策透明度與可解釋性的缺失、人工智能應(yīng)用的個人信息與隱私的保護、人工智能系統(tǒng)安全、人工智能造成人類損害及責任分擔方案以及人工智能為人類就業(yè)帶來的負面影響等。

  面對這些風險,制定與其現(xiàn)階段發(fā)展相適應(yīng)的法律規(guī)則的重要性凸顯。

  在眾多風險中,本文重點關(guān)注的則是人工智能安全的法律規(guī)制。“安全”所包含的內(nèi)容范圍需要從以下兩個方面進行說明:

  首先,本文主旨為探討人工智能技術(shù)與應(yīng)用的網(wǎng)絡(luò)安全,根據(jù)我國現(xiàn)有網(wǎng)絡(luò)安全法律體系與人工智能技術(shù)與應(yīng)用現(xiàn)狀,對人工智能帶來的新生網(wǎng)絡(luò)安全風險進行挖掘,提出將人工智能對應(yīng)規(guī)范嵌入現(xiàn)有網(wǎng)絡(luò)安全法律框架的可行性建議。

  其次,國外學術(shù)文獻對人工智能“安全”問題的探討,還包含了:機器確保人類人身安全的議題。造成這種提法差異的原因在于“safety”與“security”兩詞的含義誤差:在英語語境中,“safety”重在人身安全,如阿西莫夫的機器人三原則,其主旨為確保機器人不會傷害人類;而當談及“security”則意指數(shù)據(jù)安全和通信秘密等網(wǎng)絡(luò)空間的安全。但當兩詞翻譯為中文時,則被統(tǒng)一稱之為“安全”。

  關(guān)于“safety”(人身安全)問題的探討目前聚焦于倫理范疇與技術(shù)標準領(lǐng)域,如探索設(shè)計機器的道德準則(如不傷害人類)并以有效方式將這些道德準則植入人工智能算法與系統(tǒng)的可行性,以及制定相關(guān)的機械安全技術(shù)標準與規(guī)范;關(guān)于“safety”問題的法律治理則更多聚焦于造成人身損害后的責任如何分擔,如操作系統(tǒng)服務(wù)商、汽車生產(chǎn)廠商與乘客誰會為損害承擔責任,采用無過錯侵權(quán)責任還是設(shè)計相應(yīng)的責任豁免規(guī)則等問題的探索。

  需要向讀者闡明的是,本文所探討的“安全”意為“security”,即為網(wǎng)絡(luò)安全,并不涉及人工智能確保人身安全的議題。

  人工智能面臨哪些網(wǎng)絡(luò)安全風險,是否存在新生的安全風險形式?根據(jù)我國已有的網(wǎng)絡(luò)安全法律體系,網(wǎng)絡(luò)安全是指通過采取必要措施,防范對網(wǎng)絡(luò)的攻擊、侵入、干擾、破壞和非法使用以及意外事故,使網(wǎng)絡(luò)處于穩(wěn)定可靠運行的狀態(tài),以及保障網(wǎng)絡(luò)數(shù)據(jù)的完整性、保密性、可用性的能力。

  以系統(tǒng)和數(shù)據(jù)兩個核心網(wǎng)絡(luò)安全要素為視角,將人工智能技術(shù)與應(yīng)用的形式對應(yīng)分析,我們將人工智能安全問題聚焦于:系統(tǒng)安全、算法透明度與問責性和數(shù)據(jù)隱私的保護。

  以具體的人工智能應(yīng)用舉例,如自動駕駛汽車系統(tǒng):黑客可以從智能汽車端、移動應(yīng)用端和云平臺以及三者交互的通信管道實施攻擊,復雜的系統(tǒng)組成要素則大大增加了安全風險。目前已實際發(fā)生過黑客通過盜取移動app賬號密碼而控制自動駕駛汽車的案例,這類系統(tǒng)脆弱性為乘客人身安全和社會安全帶來了巨大隱患。

  與此同時,人工智能算法和系統(tǒng)對社會運行及公民個人利益的影響也日益重要起來。以目前內(nèi)容分發(fā)所廣泛使用的用戶畫像技術(shù)為例,該技術(shù)會通過用戶的點擊歷史以及觸屏操作分析用戶行為,對用戶進行畫像分類,并添加相應(yīng)的標簽,而后精準推送與標簽對應(yīng)的內(nèi)容,關(guān)于該項應(yīng)用所引發(fā)的合理性爭議也隨之產(chǎn)生,它被質(zhì)疑減少了用戶廣泛接觸各類信息的機會,剝奪了用戶平等獲取信息的權(quán)利。

  反觀精準信息推送在2016年美國總統(tǒng)競選中所發(fā)揮的作用:在競選過程中存在著數(shù)量巨大的政治機器人,它們被用于在社交媒體傳播錯誤信息和虛假新聞。此種高度精密的技術(shù)將會通過大數(shù)據(jù)分析和人工智能技術(shù)判斷和預測每個選民的關(guān)注重點,而針對性地分發(fā)對應(yīng)的具有煽動性的內(nèi)容,有針對性地制造輿論假象,進而惡意引導民意??梢愿Q見,人工智能的法律治理已迫在眉睫。

  本文正文分為三部分進行論述。第一部分介紹兩個基本問題,人工智能的含義及人工智能現(xiàn)有網(wǎng)絡(luò)安全問題的剖析,在這部分我們試圖從側(cè)重實用與技術(shù)落地的角度,對人工智能做一個更加具體化的界定。

  第二部分,以智能硬件、智能網(wǎng)聯(lián)汽車以及物聯(lián)網(wǎng)為示例,分別對其系統(tǒng)安全的關(guān)鍵問題進行分析,提煉出具有共通性的人工智能系統(tǒng)安全風險要素,找到法律治理的切入點。

  第三部分,通過將人工智能系統(tǒng)安全問題融入既有網(wǎng)絡(luò)安全法律框架,就核心問題具體分析,而提出在網(wǎng)絡(luò)安全法律體系的落實建議。

  02、人工智能的含義試析

  1955年,John McCarthy首先提出 “Artificial Intelligence”一詞,起初關(guān)于Artificial Intelligence的設(shè)想是:通過將人類的學習行為及其他智力主導行為進行解構(gòu)分析,從而將人類智能精確地描述出來,繼而在機器上構(gòu)建與人類智能相類似的智能,因此被稱為“人工智能”。

  目前關(guān)于人工智能的含義劃定仍未有定論,在此引用人工智能專業(yè)教科書關(guān)于人工智能的定義,在該定義中,人工智能被描述為一種計算機系統(tǒng),它包含以下特質(zhì):

  (1)具備能夠像人類一樣思考的潛力,例如可以識別架構(gòu)和神經(jīng)網(wǎng)絡(luò);

  (2)與人類行為相似,可以借助自然語言處理并通過圖靈測試,進行自動推理和學習;

  (3)能夠進行理性思考,例如邏輯運算,推理和優(yōu)化;

  (4)具備行為理性,例如通過感知、規(guī)劃、推理、學習、交流、決策和行動來實現(xiàn)目標。

  現(xiàn)階段人工智能技術(shù)從本質(zhì)來說屬于計算機技術(shù)的一種,因此準確理解人工智能算法與系統(tǒng)和普通計算機程序運行的核心區(qū)別則成為了理解人工智能技術(shù)的關(guān)鍵。

  我們說當今的人工智能算法和系統(tǒng)或多或少都有一個特質(zhì):它們可以通過外界設(shè)定的一個輸出目標,由計算機程序自動尋找方法完成任務(wù),輸出成果,而不同于傳統(tǒng)程序編程,需要工程師對輸出結(jié)果的每一個相關(guān)參數(shù)進行設(shè)計。

  例如,圖像神經(jīng)網(wǎng)絡(luò)如何學會識別“貓”,通常需要將標注好“貓”的圖片輸入圖像識別人工智能系統(tǒng),系統(tǒng)會自行學習所有圖片中“貓”的特點,進而獲取辨識“貓”的能力,然而機器依賴辨識的特征可能是不具有任何人類知識含義的,因此其決策的過程及原理難以被人們所理解。

  人工智能的應(yīng)用復雜多樣,究其原因,首先是因為人工智能算法和系統(tǒng)可以內(nèi)嵌至各類應(yīng)用場景及解決方案之中;其次,在實操層面人們無法劃定什么是人工智能、什么不屬于人工智能的分界線,例如由人工智能研究者研發(fā)的處理大量數(shù)據(jù)的技術(shù),現(xiàn)在被定義為大數(shù)據(jù)技術(shù);在面對一個尚未解決的問題時,人們通常認為需要人工智能算法解決問題,然而一旦該解決方案被廣泛接受后,這套解決方案則會被認為是常規(guī)的數(shù)據(jù)處理流程。

  談及人工智能的法律治理,在結(jié)合人工智能技術(shù)特點的基礎(chǔ)上,針對具體的應(yīng)用類型制定針對性法律治理方案意義重大。值得注意的是,人工智能在現(xiàn)階段的應(yīng)用突出表現(xiàn)在兩個層面:

  (1)算法及系統(tǒng)層面的應(yīng)用,也即具體的人工智能算法和軟件、解決方案等,如圖像識別、語音識別、信息推送應(yīng)用的用戶畫像技術(shù)、金融領(lǐng)域的智能投顧技術(shù)等,它們可以幫助人們在短時間內(nèi)處理人力所不能及的大量數(shù)據(jù),并輔助預測、決策。

  (2)硬件和基礎(chǔ)設(shè)施層面的應(yīng)用,如機器人、自動駕駛汽車、無人機、智能硬件等,這類應(yīng)用將硬件與人工智能算法和系統(tǒng)進行融合,賦予硬件以更高的智能。智能硬件廣泛協(xié)同后,形成物聯(lián)網(wǎng)(Internet of things),可用以打造特定行業(yè)網(wǎng)絡(luò)神經(jīng),成為基礎(chǔ)設(shè)施的重要組成部分。

  綜上,鑒于人工智能算法與系統(tǒng)的特點,考慮到人工智能應(yīng)用場景,可以認為人工智能衍生的安全風險集中于以下三個層面:

  首先,在系統(tǒng)安全的風險層面,廣泛互聯(lián)的物聯(lián)網(wǎng),智能硬件的系統(tǒng)漏洞、基礎(chǔ)安全技術(shù)缺失以及復雜的供應(yīng)鏈條帶來的歸責困境為系統(tǒng)安全的監(jiān)管帶來挑戰(zhàn)。

  其次,在算法透明度與可解釋性的風險層面,人工智能算法的 “自動化”學習與決策的過程、無法吸納人類知識的缺陷、機器學習依據(jù)的海量數(shù)據(jù)帶來的不確定性等,使得算法的決策過程和決策規(guī)則難以被人類明確知悉,由此引發(fā)人工智能算法的可解釋性和透明度缺失隱患。

  最后,在數(shù)據(jù)使用和隱私保護的風險層面,原有數(shù)據(jù)使用和個人信息使用和保護機制面臨失效的困境,例如在物聯(lián)網(wǎng)中巨大量級的用戶數(shù)據(jù)在各個設(shè)備和系統(tǒng)之間傳輸共享非常頻繁,如要獲取用戶的同意確認,將帶來大量的時間消耗并且不具備可操作性。同時引起創(chuàng)建數(shù)據(jù)收集與使用新規(guī)的探索,如機器學習的訓練數(shù)據(jù)的收集是否可以擊穿隱私數(shù)據(jù)收集最小化原則和使用的必要性原則等。

  本文將圍繞人工智能系統(tǒng)安全的問題展開論述,傳統(tǒng)系統(tǒng)安全問題在人工智能應(yīng)用場景下無創(chuàng)新探討的,本文將不再涉及。

  03、人工智能系統(tǒng)安全問題要覽

  在傳統(tǒng)系統(tǒng)安全風險之外,人工智能還因其應(yīng)用本身的特點,多維度增加了系統(tǒng)安全的治理難度。下文以智能硬件、智能網(wǎng)聯(lián)汽車以及物聯(lián)網(wǎng)為示例,就人工智能系統(tǒng)安全所存在的風險及治理難點進行分析。

  ▌(一)智能硬件系統(tǒng)安全

  近年智能硬件產(chǎn)業(yè)得到了快速的發(fā)展,各類智能硬件產(chǎn)品種類繁多、用途廣泛,然而因其目前仍處于產(chǎn)業(yè)初創(chuàng)與技術(shù)探索階段,而導致了安全問題遭到忽視。智能硬件的系統(tǒng)安全風險總體來說存在于接入技術(shù)保障、固件安全、移動客戶端安全以及云平臺安全四個層面。

  首先,在接入技術(shù)層面,因智能硬件體型較小,資源受限,因此,加密算法的設(shè)置與選擇不得不考慮功耗問題,導致了市場上部分智能硬件加密手段缺失。

  其次,在固件安全層面,因固件安全代碼的缺陷具有隱蔽性強、難以檢測,難以剔除等特點,部分固件存在無法更新升級的情況,這就導致一旦出現(xiàn)系統(tǒng)漏洞,無法修補而只能更換設(shè)備。

  第三,就移動客戶端安全層面,因使用到手機端app,移動端防守較為薄弱,可用的攻擊形式眾多。而云平臺安全層面的風險可以概括為傳統(tǒng)的web風險。

  面對智能硬件多發(fā)的系統(tǒng)風險,首先需要從生產(chǎn)廠商層面保障智能硬件的接入、訪問控制,加密傳輸、補丁更新等基本的信息安全功能。其次,從立法層面,應(yīng)盡快將智能硬件納入網(wǎng)絡(luò)安全法律監(jiān)管體系。

  ▌(二)智能網(wǎng)聯(lián)汽車系統(tǒng)安全

  智能網(wǎng)聯(lián)汽車的系統(tǒng)安全問題關(guān)乎生命安全,同時也更為復雜。智能網(wǎng)絡(luò)汽車的技術(shù)核心被歸納為“信息”與“控制”,意為由系統(tǒng)進行信息感知、決策預警和智能控制,使智能操作可以逐漸替代駕駛員,并最終自主執(zhí)行全部駕駛?cè)蝿?wù)功能。

  因此防范對網(wǎng)絡(luò)的攻擊、侵入、干擾、破壞需要從“信息”與控制的各個環(huán)節(jié)進行落實,這具體包含了:整車及車內(nèi)系統(tǒng)安全、移動智能終端安全、車聯(lián)網(wǎng)服務(wù)平臺安全以及通信安全四個方面,除整車及車內(nèi)系統(tǒng)安全較為復雜以外,其余安全風險方面與智能硬件類似,在此不多做展開。

  智能網(wǎng)聯(lián)汽車安全監(jiān)管舉措要點集中在整車及系統(tǒng)的風險評估、安全防護與測試等方面。根據(jù)我國《國家車聯(lián)網(wǎng)產(chǎn)業(yè)標準體系建設(shè)指南》關(guān)于車聯(lián)網(wǎng)信息安全標準的要求,車聯(lián)網(wǎng)信息安全標準在遵從信息安全通用要求的基礎(chǔ)上,以保障車輛安全、穩(wěn)定、可靠運行為核心,主要針對車輛及車載系統(tǒng)通信、數(shù)據(jù)、軟硬件安全,從整車、系統(tǒng)、關(guān)鍵節(jié)點以及車輛與外界接口等方面提出風險評估、安全防護與測試評價要求,防范對車輛的攻擊、侵入、干擾、破壞和非法使用以及意外事故。

  同時,車聯(lián)網(wǎng)產(chǎn)業(yè)鏈長、防護環(huán)節(jié)眾多,因此引發(fā)產(chǎn)業(yè)鏈上各供應(yīng)商安全事故責任承擔的一系列問題:是否僅以整車廠作為承擔安全風險責任的主體,以及供應(yīng)鏈上下游服務(wù)提供商的網(wǎng)絡(luò)安全事故責任如何認定等。責任承擔問題將成為包括智能網(wǎng)絡(luò)汽車在內(nèi)的人工智能應(yīng)用網(wǎng)絡(luò)安全法律治理的抓手與難點。

  ▌(三)物聯(lián)網(wǎng)系統(tǒng)安全

  物聯(lián)網(wǎng)被定義為:通過收集,處理和分析由傳感器或智能對象產(chǎn)生的數(shù)據(jù)來監(jiān)測和控制物理環(huán)境的無處不在的網(wǎng)絡(luò),目前在我國被廣泛應(yīng)用于工業(yè)、農(nóng)業(yè)、能源、物流等行業(yè)。

  國務(wù)院《新一代人工智能發(fā)展規(guī)劃》指出,要培育高端高效的智能經(jīng)濟,從智能軟硬件、智能機器人和智能運載工具等人工智能新興產(chǎn)業(yè),到應(yīng)用于制造業(yè)、農(nóng)業(yè)、物流和金融等產(chǎn)業(yè)的智能化升級,物聯(lián)網(wǎng)在其中承擔著重要的功用。

  物聯(lián)網(wǎng)的系統(tǒng)安全治理在智能硬件、智能網(wǎng)聯(lián)汽車等分離的硬件系統(tǒng)安全治理的基礎(chǔ)上,還應(yīng)建立物聯(lián)網(wǎng)全局性網(wǎng)絡(luò)安全響應(yīng)機制。

  首先,物聯(lián)網(wǎng)的系統(tǒng)安全風險來源于軟件和硬件的異質(zhì)性和復雜性疊加,缺乏安全設(shè)計(security by design)和安全默認(security by default)衍生了巨大的網(wǎng)絡(luò)安全風險。如,作為物聯(lián)網(wǎng)組成部分的智能硬件安全設(shè)計的缺失,使管理、控制和安全保護更加困難。

  其次,物聯(lián)網(wǎng)作為硬件與網(wǎng)絡(luò)聯(lián)結(jié)的整體,其系統(tǒng)安全的影響更具有全局性,總體來說,應(yīng)著手于建立網(wǎng)絡(luò)安全測評、風險評估、安全防范、以及應(yīng)急響應(yīng)等基本機制,目標是使物聯(lián)網(wǎng)基礎(chǔ)設(shè)施、重大系統(tǒng)、重要信息的安保能力大大增強。

  ▌(四)人工智能系統(tǒng)的技術(shù)與制度風險

  人工智能的系統(tǒng)安全新生風險主要表現(xiàn)在人工智能硬件應(yīng)用的場景中,通過上文對智能硬件、智能網(wǎng)聯(lián)汽車以及物聯(lián)網(wǎng)的系統(tǒng)安全要點分析,提煉其中共有的系統(tǒng)安全特點及治理要點,本文將現(xiàn)階段人工智能系統(tǒng)安全面臨的技術(shù)與制度的風險概括為以下五個方面:

  一是安全保障技術(shù)有待完善。

  智能硬件缺失加密技術(shù)、采用默認密碼等技術(shù)措施不足,使大量的用戶信息處于裸露狀態(tài),黑客入侵易如反掌。而智能網(wǎng)聯(lián)汽車也需要加強通信、系統(tǒng)與硬件層面的安全技術(shù)保障,保證認證、訪問、關(guān)鍵節(jié)點的安全性。物聯(lián)網(wǎng)需要在網(wǎng)絡(luò)搭建之初的每一個環(huán)節(jié)進行安全設(shè)計與安全默認的考量,使網(wǎng)絡(luò)安全的技術(shù)保障貫穿于物聯(lián)網(wǎng)的生命周期。

  二是復雜的系統(tǒng)構(gòu)成導致高密度關(guān)聯(lián)風險增加。

  從智能硬件到智能網(wǎng)聯(lián)汽車,我們可以看到,眾多的人工智能硬件的應(yīng)用都涉及到“兩端一云一管道”,也就是智能硬件(智能網(wǎng)聯(lián)汽車)終端,移動應(yīng)用終端(即輔助操作的移動app),云端(作為用戶賬戶管理以及信息分發(fā)的平臺),以及穿插在三者中間由運營商提供的信息通信管道,任何一端或一個環(huán)節(jié)出問題都有可能導致整個系統(tǒng)被入侵、干擾或破壞。

  三是復雜供應(yīng)鏈條導致安全責任歸咎困境。

  以智能網(wǎng)聯(lián)汽車為例,如因配件或軟件漏洞造成的系統(tǒng)脆弱性,導致被入侵后造成的安全事故責任,是否應(yīng)該統(tǒng)一落實到整車廠,抑或是由相應(yīng)的配件生產(chǎn)商或是軟件系統(tǒng)服務(wù)提供商承擔責任。再以物聯(lián)網(wǎng)為視角,如因硬件端被入侵而使整個網(wǎng)絡(luò)遭到攻擊,是否應(yīng)該將事故責任歸屬于網(wǎng)絡(luò)運營者,抑或是歸屬于相應(yīng)的硬件生產(chǎn)廠商。這其中涉及到權(quán)益與責任相一致的問題,但也要保證給予硬件生產(chǎn)商以適當?shù)姆芍贫葔毫Γ虼?,如何設(shè)計網(wǎng)絡(luò)安全法律責任,還需審慎地探討和衡量。

  四是技術(shù)標準與評估方案亟待制定。

  目前我國眾多人工智能應(yīng)用都已制定相應(yīng)的標準體系建設(shè)規(guī)劃,如無人機、智能網(wǎng)聯(lián)汽車以及物聯(lián)網(wǎng)技術(shù)規(guī)范標準。技術(shù)標準作為軟性法律,可以為市場提供安全技術(shù)的一致指引,與認證評估制度相配合,確保基本安全技術(shù)在標準規(guī)范層面得到保障。另外,由于人工智能應(yīng)用的種類繁多,應(yīng)注意根據(jù)具體的使用場景和應(yīng)用的重要程度制定不同的技術(shù)標準和評估方案,用以化解不同應(yīng)用的不同系統(tǒng)安全風險與保障需求的差別化治理難題。

  五是與網(wǎng)絡(luò)安全法律監(jiān)管體系融合障礙。

  其中存在的概念的差異,法律制度的空隙,以及可能導致網(wǎng)絡(luò)安全監(jiān)管碎片化、多元化的挑戰(zhàn),都不同程度地影響了《網(wǎng)絡(luò)安全法》及其配套制度在人工智能環(huán)境下的實施與適用。

  04、網(wǎng)絡(luò)安全法律視野下的治理路徑

  ▌(一)人工智能硬件應(yīng)用與《網(wǎng)絡(luò)安全法》的融合

  人工智能硬件應(yīng)用集中了人工智能的新生系統(tǒng)風險隱患,因此,以人工智能硬件應(yīng)用為核心,探索其與《網(wǎng)絡(luò)安全法》及其配套規(guī)定的融合與嵌入性規(guī)范與制度的設(shè)計,可以是人工智能系統(tǒng)核心風險法律治理的主要途徑。下文我們就具體問題進行探討。

  1、人工智能硬件應(yīng)用的概念屬性

  從《網(wǎng)絡(luò)安全法》責任主體視角出發(fā),人工智能硬件應(yīng)用生產(chǎn)廠商是否被包括在《網(wǎng)絡(luò)安全法》“網(wǎng)絡(luò)運營者”概念之中,是其被納入網(wǎng)絡(luò)安全法律體系,以及其生產(chǎn)廠商承擔相應(yīng)的網(wǎng)絡(luò)安全保障義務(wù)的前提。

  根據(jù)《網(wǎng)絡(luò)安全法》第七十六條第三款關(guān)于“網(wǎng)絡(luò)運營者”的含義界定,明確網(wǎng)絡(luò)運營者是指網(wǎng)絡(luò)的所有者、管理者和網(wǎng)絡(luò)服務(wù)提供者;根據(jù)第十條指出:建設(shè)、運營網(wǎng)絡(luò)或者通過網(wǎng)絡(luò)提供服務(wù)應(yīng)履行相關(guān)網(wǎng)絡(luò)安全保障義務(wù)。因人工智能硬件應(yīng)用生產(chǎn)廠商不屬于網(wǎng)絡(luò)的所有者、管理者,因此其是否被包括在《網(wǎng)絡(luò)安全法》“網(wǎng)絡(luò)運營者”含義之中,問題的關(guān)鍵在于,其是否歸屬于“網(wǎng)絡(luò)服務(wù)提供者”以及“通過網(wǎng)絡(luò)提供服務(wù)”。而《網(wǎng)絡(luò)安全法》條文中則未對 “網(wǎng)絡(luò)服務(wù)提供者”、“網(wǎng)絡(luò)產(chǎn)品、服務(wù)”等概念做明確的規(guī)定。

  從另一個角度出發(fā),《網(wǎng)絡(luò)安全法》第二十一條規(guī)定了網(wǎng)絡(luò)運營者應(yīng)履行建立在國家等級保護制度基礎(chǔ)上的安全保護義務(wù),而在《網(wǎng)絡(luò)安全法》配套技術(shù)標準《信息安全技術(shù) 網(wǎng)絡(luò)安全等級保護定級指南》中,明確將物聯(lián)網(wǎng)納入定級對象。

  并且已制定《信息安全技術(shù) 網(wǎng)絡(luò)安全等級保護基本要求 第4部分:物聯(lián)網(wǎng)安全擴展要求(征求意見稿)》、《信息安全技術(shù) 網(wǎng)絡(luò)安全等級保護設(shè)計技術(shù)要求 第4部分:物聯(lián)網(wǎng)安全要求(征求意見稿)》等技術(shù)規(guī)范,由此可以判斷物聯(lián)網(wǎng)運營者確屬網(wǎng)絡(luò)運營者范疇,物聯(lián)網(wǎng)是我國《網(wǎng)絡(luò)安全法》現(xiàn)有語境下的治理對象。而智能硬件雖為物聯(lián)網(wǎng)的組成部分,但其生產(chǎn)廠商的義務(wù)與責任仍不明確。

  以現(xiàn)有網(wǎng)絡(luò)產(chǎn)品的審查是否包含人工智能硬件應(yīng)用著手分析:根據(jù)《網(wǎng)絡(luò)產(chǎn)品和服務(wù)安全審查辦法(試行)》第四條規(guī)定重點審查網(wǎng)絡(luò)產(chǎn)品和服務(wù)的安全性、可控性,其中包括:產(chǎn)品及關(guān)鍵部件生產(chǎn)、測試、交付、技術(shù)支持過程中的供應(yīng)鏈安全風險。本條文雖提到了硬件的審查,但是“關(guān)鍵部件”的概念內(nèi)涵較窄,可能無法覆蓋市場上大部分人工智能硬件應(yīng)用。

  綜上,網(wǎng)絡(luò)安全法律體系對人工智能系統(tǒng)安全的治理首先應(yīng)明確,人工智能硬件應(yīng)用是否為《網(wǎng)絡(luò)安全法》的監(jiān)管對象,何為“網(wǎng)絡(luò)服務(wù)、產(chǎn)品”,其中是否包含了擁有內(nèi)置cpu、操作系統(tǒng),傳感器以及信息傳輸通路的各類人工智能硬件,“網(wǎng)絡(luò)服務(wù)提供者”是否包含了這些人工智能硬件的生產(chǎn)廠商。

  其次,目前《網(wǎng)絡(luò)安全法》對網(wǎng)絡(luò)服務(wù)、產(chǎn)品的審核集中在相對重要的產(chǎn)品范圍,涉及的硬件種類較少,如要增加智能硬件的網(wǎng)絡(luò)安全審核,則可能造成體系臃腫與失衡,因此需要圍繞人工智能硬件構(gòu)建專門的監(jiān)管體系,通過層層制度設(shè)計將監(jiān)管重任分層剝離。

  2、針對人工智能硬件應(yīng)用構(gòu)建網(wǎng)絡(luò)安全監(jiān)管體系

  通過上文分析,人工智能硬件應(yīng)用尚未完全融入網(wǎng)絡(luò)安全法律體系,本文建議圍繞人工智能硬件的特點與安全風險構(gòu)建一套完備立體的網(wǎng)絡(luò)安全監(jiān)管配套制度,從技術(shù)標準、評估認證、漏洞監(jiān)測與披露、行業(yè)自治等多層次落實監(jiān)管任務(wù):

  首先,制定一系列人工智能應(yīng)用技術(shù)標準,對人工智能硬件應(yīng)用的安全技術(shù)基線做出明確的規(guī)定,我國目前已有:八部門聯(lián)合發(fā)布的《無人駕駛航空器系統(tǒng)標準體系建設(shè)指南(2017-2018年版)》,工信部《國家車聯(lián)網(wǎng)產(chǎn)業(yè)標準體系建設(shè)指南(智能網(wǎng)聯(lián)汽車)(2017年)(征求意見稿)》和《物聯(lián)網(wǎng)發(fā)展規(guī)劃(2016-2020)》中關(guān)于物聯(lián)網(wǎng)標準體系建設(shè)的內(nèi)容。需要注意的是,應(yīng)側(cè)重根據(jù)人工智能不同的應(yīng)用類型對安全的差異化需求,制定不同層次的安全標準。

  其次,建立人工智能硬件應(yīng)用的安全評估與認證制度。根據(jù)其使用范圍及功能的重要性,設(shè)定不同的安全評估方案,當智能硬件使用范圍達到某一數(shù)量后,即使是城市建設(shè)末梢的“智能燈泡”也應(yīng)該納入評估;對決定人身安全的人工智能應(yīng)用,則更應(yīng)審慎嚴格評估,如智能網(wǎng)聯(lián)汽車。而資格認證則可以作為通用的審批環(huán)節(jié)進行落實,以保證人工智能硬件應(yīng)用廠商資格符合要求,有能力提供基本的安全技術(shù)與措施。同時應(yīng)注意平衡對初創(chuàng)企業(yè)應(yīng)給予相對寬松的監(jiān)管環(huán)境,防止嚴格監(jiān)管抑制技術(shù)創(chuàng)新。

  第三,以漏洞監(jiān)測與披露任務(wù)為核心建立人工智能硬件的安全威脅監(jiān)測制度,將智能硬件、智能網(wǎng)聯(lián)汽車等人工智能硬件應(yīng)用納入《公共互聯(lián)網(wǎng)網(wǎng)絡(luò)安全威脅監(jiān)測與處置辦法》的體系中,由硬件生產(chǎn)廠商分別監(jiān)測、上報或由整車廠等負有主要責任的廠商集中對人工智能硬件的漏洞與脆弱性風險進行監(jiān)測與上報,保證在產(chǎn)品生命周期內(nèi)的更新升級等安全維護服務(wù)。

  最后,發(fā)展行業(yè)自治制度,促進行業(yè)信息共享,例如,在供應(yīng)商和制造商之間建立共同信任的軟件材料清單,以及開發(fā)人員和制造商應(yīng)考慮在設(shè)備包中提供已知的硬件和軟件組件的清單,該清單可以作為物聯(lián)網(wǎng)生態(tài)系統(tǒng)中的其他利益相關(guān)者了解和管理其風險并在安全事故后立即修補任何漏洞的寶貴工具。更多的行業(yè)自治舉措更待廣泛探討。

  3、建立物聯(lián)網(wǎng)全局性網(wǎng)絡(luò)安全響應(yīng)機制

  物聯(lián)網(wǎng)作為硬件和網(wǎng)絡(luò)聯(lián)結(jié)的整體,整合了分散的人工智能硬件資源,因而與人工智能硬件的治理途徑有所不同,其側(cè)重點在于網(wǎng)絡(luò)安全測評、風險評估、監(jiān)測預警、以及應(yīng)急響應(yīng)等全局性網(wǎng)絡(luò)安全響應(yīng)機制的建立,落實到《網(wǎng)絡(luò)安全法》的制度體系中,則包括以下四個方面:等級保護、關(guān)鍵信息基礎(chǔ)設(shè)施、網(wǎng)絡(luò)安全監(jiān)測預警和信息通報制度以及網(wǎng)絡(luò)安全風險評估和應(yīng)急處置。

  首先,應(yīng)結(jié)合網(wǎng)絡(luò)安全等級保護和關(guān)鍵信息基礎(chǔ)設(shè)施制度做好物聯(lián)網(wǎng)設(shè)施全面、重點的保護。無論是傳統(tǒng)能源、工業(yè)、農(nóng)業(yè)等關(guān)鍵基礎(chǔ)設(shè)施領(lǐng)域的物聯(lián)網(wǎng)系統(tǒng),還是民生領(lǐng)域的智能交通、車聯(lián)網(wǎng)、物流追溯、安全生產(chǎn)、醫(yī)療健康領(lǐng)域的物聯(lián)網(wǎng)系統(tǒng),都應(yīng)納入等級保護和關(guān)鍵信息基礎(chǔ)設(shè)施評定范圍。

  隨著智慧城市、智能交通、智能環(huán)保的逐漸發(fā)展,大量智能硬件終端將會占據(jù)物聯(lián)網(wǎng)的末端,尤其應(yīng)在等級保護與關(guān)鍵信息基礎(chǔ)設(shè)施的保護基礎(chǔ)上做好重要、核心硬件設(shè)施的防護與鑒別,加強重要、核心部位的訪問控制與認證技術(shù)保障。同時,應(yīng)注意與關(guān)鍵信息基礎(chǔ)設(shè)施的重點保護任務(wù)相結(jié)合,對核心、重要的配件供應(yīng)鏈進行有效管理,落實供應(yīng)商的信息安全保障責任。

  其次,在網(wǎng)絡(luò)安全監(jiān)測預警和信息通報制度中,網(wǎng)絡(luò)產(chǎn)品、服務(wù)提供者應(yīng)注意物聯(lián)網(wǎng)涉及的多端口協(xié)同配合的工作機制。具體涉及到云端、硬件終端、移動終端與通信服務(wù),任何一端出現(xiàn)問題,都需要及時告知生態(tài)鏈條的各經(jīng)營者及負責人,并能及時聯(lián)動做出響應(yīng)與反饋。

  同時,根據(jù)《公共互聯(lián)網(wǎng)安全威脅監(jiān)測與處置辦法》,工業(yè)和信息化部建立網(wǎng)絡(luò)安全威脅信息共享平臺,統(tǒng)一匯集、存儲、分析、通報、發(fā)布網(wǎng)絡(luò)安全威脅信息,并制定相關(guān)的接口規(guī)范,與相關(guān)單位網(wǎng)絡(luò)安全監(jiān)測平臺實現(xiàn)對接,而基于物聯(lián)網(wǎng)復雜的供應(yīng)鏈條,還需明確各供應(yīng)商的接入平臺的權(quán)限劃分問題。

  最后,關(guān)于網(wǎng)絡(luò)安全風險評估和應(yīng)急處置,應(yīng)明確監(jiān)管部門的職責分工問題。在風險監(jiān)測、態(tài)勢研判、威脅預警、事件處置以及應(yīng)急預案等任務(wù)的職責分工問題,如涉及物聯(lián)網(wǎng)不同端口所在地的監(jiān)管部門,如何厘清職責,協(xié)同聯(lián)動各地監(jiān)管機構(gòu)的同時,還需確定哪方所在地的監(jiān)管部門負責主導。

  ▌(二)人工智能硬件應(yīng)用的供應(yīng)鏈責任承擔問題

  人工智能硬件應(yīng)用的普及使網(wǎng)絡(luò)系統(tǒng)的安全保障責任被無限細分在了每一個終端節(jié)點之上,而這些終端節(jié)點往往被市場監(jiān)管所忽略。供應(yīng)鏈廠商應(yīng)承擔何種網(wǎng)絡(luò)安全保障責任則需要審慎的探討和衡量。

  在我國現(xiàn)有網(wǎng)絡(luò)安全法律體系中,涉及到供應(yīng)鏈管理的條文有:《工業(yè)控制系統(tǒng)信息安全防護指南》第十條與《網(wǎng)絡(luò)產(chǎn)品和服務(wù)安全審查辦法》第四條第二款,但均未明確供應(yīng)鏈條中各方的行政責任承擔問題。以此為背景,綜合實踐及慣例,我們就現(xiàn)有網(wǎng)絡(luò)安全法律體系中,供應(yīng)商應(yīng)承擔的網(wǎng)絡(luò)安全保障責任方案進行簡析。

  1、網(wǎng)絡(luò)運營者承擔責任——基礎(chǔ)方案

  根據(jù)《網(wǎng)絡(luò)安全法》的“法律責任”條文設(shè)定,責任承擔主體為:網(wǎng)絡(luò)運營者及其直接負責的主管人員和其他直接責任人員、關(guān)鍵信息基礎(chǔ)設(shè)施運營者及其直接負責的主管人員和其他直接責任人員、網(wǎng)絡(luò)產(chǎn)品或者服務(wù)的提供者,等。從條文分析,違反《網(wǎng)絡(luò)安全法》各項義務(wù)的責任承擔主體主要為網(wǎng)絡(luò)運營者、網(wǎng)絡(luò)產(chǎn)品服務(wù)提供者,并不涉及供應(yīng)鏈條上的各方供應(yīng)商。而以網(wǎng)絡(luò)產(chǎn)品或服務(wù)提供者作為責任主體為切入點,則又回到人工智能硬件生產(chǎn)商的主體資格歸屬,其是否屬于網(wǎng)絡(luò)產(chǎn)品或服務(wù)提供者。目前尚未有定論。

  再以《工業(yè)控制系統(tǒng)信息安全防護指南》第十條為例進行分析,該條款規(guī)定供應(yīng)鏈服務(wù)商以合同方式明確網(wǎng)絡(luò)安全責任與義務(wù)。因此,《網(wǎng)絡(luò)安全法》規(guī)定的各項網(wǎng)絡(luò)安全保障責任并不涉及供應(yīng)鏈條上的各供應(yīng)商,而是由相應(yīng)的網(wǎng)絡(luò)服務(wù)提供者(及其直接負責的主管人員和其他直接責任人員)承擔,可以認為這是我國現(xiàn)有網(wǎng)絡(luò)安全法律體系中基礎(chǔ)的責任承擔方式。

  2、核心廠商承擔責任——分擔救濟

  以智能網(wǎng)聯(lián)汽車為例,其供應(yīng)鏈條涵蓋元器件供應(yīng)商、設(shè)備生產(chǎn)商、整車廠商、軟硬件技術(shù)提供商、通信服務(wù)商、信息服務(wù)提供商等。而車內(nèi)集成了一系列軟件與系統(tǒng),包括車載操作系統(tǒng)、車載中間件、車載應(yīng)用軟件等。供應(yīng)鏈條結(jié)構(gòu)復雜,由統(tǒng)一的核心廠商承擔網(wǎng)絡(luò)安全保障義務(wù)或許可以是便利監(jiān)管與信息集成的高效方式。

  但對于核心廠商,也應(yīng)給予責任分擔救濟的途徑。核心廠商應(yīng)通過設(shè)計、規(guī)范和采購實踐確定、管理供應(yīng)鏈、分包商和服務(wù)提供者應(yīng)承擔的安全責任,并與供應(yīng)商在合同中明確各自的網(wǎng)絡(luò)安全保障義務(wù)及相應(yīng)的賠償與救濟方式。在網(wǎng)絡(luò)安全執(zhí)法時,也應(yīng)當視具體情況,對于提供重要功能服務(wù)和產(chǎn)品且具有明顯過錯的供應(yīng)商,如通信服務(wù)商、車載操作系統(tǒng)服務(wù)提供商,處以相應(yīng)的法律責任。

  3、供應(yīng)鏈廠商承擔責任——權(quán)責平衡

  以物聯(lián)網(wǎng)為例,假設(shè)某重要的工控系統(tǒng),發(fā)生一起網(wǎng)絡(luò)安全事故,事故源于智能閥門被黑客入侵控制;或是路由器被攻破,加密信息被篡改后引發(fā)的網(wǎng)絡(luò)安全事故。在這兩個例子中,由智能閥門生產(chǎn)商或路由器生產(chǎn)商分別承擔相應(yīng)的事故責任將會導致權(quán)利與責任的明顯失衡。

  如同上文所述,圍繞人工智能硬件建立多層次的網(wǎng)絡(luò)安全監(jiān)管體系將起到定分止爭的作用,結(jié)合強制性技術(shù)標準、資格認證以及網(wǎng)絡(luò)安全方案評估等方式明確供應(yīng)鏈廠商的責任,如未達到強制性技術(shù)標準、未經(jīng)過資格認證或未通過評估的產(chǎn)品或廠商,應(yīng)當根據(jù)違反強制性技術(shù)標準、資格認證及評估的條款進行處罰,而不適宜再追究相應(yīng)的網(wǎng)絡(luò)安全事故責任。

  4、引入多維責任分配機制

  人工智能硬件應(yīng)用的網(wǎng)絡(luò)安全責任的分配應(yīng)以權(quán)利與責任相一致為原則,構(gòu)建多方位的審核認證體系。

  首先,應(yīng)對不同類別的供應(yīng)商進行分類分級管理,如將智能網(wǎng)聯(lián)汽車中重要的系統(tǒng)、配件的種類列出清單,對提供重要服務(wù)及產(chǎn)品的供應(yīng)商設(shè)定與重要功能相適應(yīng)的網(wǎng)絡(luò)安全保障責任。

  其次,不論采用哪種責任承擔方案,都應(yīng)在合同中清晰體現(xiàn)各供應(yīng)商的網(wǎng)絡(luò)安全保障義務(wù)的分配,這一方面明確了相應(yīng)的民事責任,另一方面也給予網(wǎng)絡(luò)安全執(zhí)法工作一定參考。

  最后,萬物互聯(lián)帶來了巨大的網(wǎng)絡(luò)安全隱患,我們無法保證每一個設(shè)備的安全措施都足以防御蓄意的網(wǎng)絡(luò)攻擊,因此,建議引入保險機制,為小型供應(yīng)商承擔的巨大風險及網(wǎng)絡(luò)安全事故的損失探尋平衡的救濟出口。

  05、結(jié)語:人工智能系統(tǒng)安全法治要點及趨勢

  科技發(fā)展帶來社會紅利的同時也為立法與監(jiān)管帶來了巨大的挑戰(zhàn),應(yīng)當指出的是,關(guān)于人工智能系統(tǒng)安全的法律治理有以下三個要點不應(yīng)忽視:

  首先,人工智能進入公眾視野雖為時未久,但其所帶來的安全風險已經(jīng)足以進入立法的考量視野。制定與技術(shù)發(fā)展相適應(yīng)、又不影響技術(shù)創(chuàng)新和市場活躍度的法律規(guī)范將成為衡量立法效果的關(guān)鍵因素。

  其次,人工智能以具體應(yīng)用為基礎(chǔ)的法律治理將引導監(jiān)管走向碎片化與多元化。在人工智能時代,我們將看到,一種解決方案和既有的監(jiān)管路徑將難以應(yīng)對多變的技術(shù)發(fā)展與復雜的網(wǎng)絡(luò)環(huán)境,針對不同的人工智能應(yīng)用建立區(qū)別化監(jiān)管方案將成為人工智能法律治理的顯著特點。而構(gòu)建兼顧各方權(quán)利與責任的動態(tài)分配方案,將成為立法落地的重要支撐。

  最后,在人工智能時代,軟性法律的適用將成為網(wǎng)絡(luò)安全法律治理的趨勢,所謂軟性法律是指差異化的技術(shù)標準與規(guī)范,以及各類應(yīng)用的系統(tǒng)安全設(shè)計方案(如遵循安全設(shè)計與安全默認原則等)、網(wǎng)絡(luò)安全方案(應(yīng)對網(wǎng)絡(luò)攻擊的應(yīng)對方案)、系統(tǒng)測試方案的評估與審核等。軟性法律適用的核心特點是更加側(cè)重個性化與自主化的解決方式。而傳統(tǒng)的自上而下、以歸納思維為主的法律治理思路可能已逐漸無法勝任人工智能時代的監(jiān)管重任。

人物訪談