道德建設(shè)成人工智能最艱巨挑戰(zhàn)
Nao機(jī)器人被用于機(jī)器倫理實(shí)驗(yàn)中。圖片來(lái)源:Peter Adams
在1942年的短篇小說(shuō)中,科幻作家Isaac Asimov提出了機(jī)器人的3條準(zhǔn)則——工程安全措施和內(nèi)置的道德準(zhǔn)則,以保證機(jī)器人會(huì)友善對(duì)待人類并使人們免于機(jī)器末日。這些準(zhǔn)則一是機(jī)器人不能傷害人類,或無(wú)所作為而導(dǎo)致人類受傷害;二是機(jī)器人必須聽從命令,除非這些命令違背第一條準(zhǔn)則;三是機(jī)器人必須保護(hù)自身,但這些保護(hù)不能與第一和第二條準(zhǔn)則相違背。
不過(guò),今年5月,在美國(guó)布魯金斯學(xué)會(huì)的一個(gè)無(wú)人駕駛汽車研討會(huì)上,專家討論了在危急時(shí)刻無(wú)人駕駛汽車應(yīng)當(dāng)怎樣做。如果汽車為了保護(hù)自己的乘客而急剎車,但造成后方車輛追尾應(yīng)如何?或當(dāng)車輛為了躲避兒童進(jìn)行急轉(zhuǎn),但撞到旁邊其他人怎么辦?
“在日常生活中,我們能看到越來(lái)越多的自動(dòng)化系統(tǒng)?!毖杏憰?huì)參加者、德國(guó)西門子公司工程師Karl-Josef Kuhn說(shuō)。但他問道,研究人員如何能裝配一個(gè)可以在“兩個(gè)壞主意之間作決定的”機(jī)器人?
隨著機(jī)器人不斷發(fā)展,這些困境將很快影響到衛(wèi)生保健機(jī)器人、軍事無(wú)人機(jī)和其他有能力決定幫助或傷害人類的自動(dòng)設(shè)備。研究人員越來(lái)越意識(shí)到,社會(huì)對(duì)此類機(jī)器的接受程度將取決于它們是否安全,能否遵守社會(huì)準(zhǔn)則和鼓勵(lì)彼此間的信任。“我們需要取得人工智能在倫理方面的成功?!奔幽么鬁厣髮W(xué)哲學(xué)家Marcello Guarini說(shuō)。
目前,幾個(gè)項(xiàng)目正在應(yīng)對(duì)這些挑戰(zhàn),其中包括美國(guó)海軍研究辦公室和英國(guó)政府工程資金委員會(huì)資助的一些創(chuàng)新項(xiàng)目。他們必須處理一系列難題,例如機(jī)器人要進(jìn)行倫理決策需要哪些智能、程度如何以及如何將這些轉(zhuǎn)化成機(jī)器指令。計(jì)算機(jī)學(xué)家、機(jī)器人學(xué)家和哲學(xué)家都要投身其中。
“如果你5年前問我,我們能否制作出有道德的機(jī)器人,我將會(huì)說(shuō)不能。但現(xiàn)在,我不再認(rèn)為這是一個(gè)瘋狂的主意?!庇?guó)布里斯托機(jī)器人實(shí)驗(yàn)室機(jī)器人專家Alan Winfield說(shuō)。
學(xué)習(xí)型機(jī)器
一個(gè)被頻繁提及的實(shí)驗(yàn)是一個(gè)名為Nao的商業(yè)機(jī)器人,它會(huì)提醒人們按時(shí)服藥。
“乍聽上去十分簡(jiǎn)單?!笨的腋翊髮W(xué)哲學(xué)家Susan Leigh Anderson說(shuō)。她與丈夫、哈特福德大學(xué)計(jì)算機(jī)學(xué)家Michael Anderson一起致力于機(jī)器人研究?!暗幢阍谶@種有限的任務(wù)中,也涉及許多倫理問題。”例如,如果患者拒絕接受它的藥物,Nao應(yīng)該如何做?
為了教N(yùn)ao處理此類問題,Anderson夫婦給予它許多生物倫理學(xué)家解決自治、傷害和患者利益間沖突的案例。然后,學(xué)習(xí)算法會(huì)將這些案例分類,直到他們找到指導(dǎo)機(jī)器人應(yīng)對(duì)新情況的模式。
通過(guò)此類“機(jī)器學(xué)習(xí)”,機(jī)器人能從甚至模糊不清的輸入信息中提取有用的知識(shí)。該方法理論上將幫助機(jī)器人在遇到更多情況時(shí),在倫理決策方面做得更好。但很多人擔(dān)憂,這種進(jìn)步是有代價(jià)的。斯坦福大學(xué)人工智能和倫理學(xué)講師Jerry Kaplan表示,這些原則不會(huì)被寫進(jìn)計(jì)算機(jī)代碼,因此“你沒辦法了解為何一個(gè)特殊程序能告訴它某件事在倫理上是對(duì)或錯(cuò)”。
許多工程師表示,解決這一問題需要不同的策略,大部分人嘗試生成具有明確規(guī)則的程序,而非要求機(jī)器人自行判斷。Winfield去年出版的實(shí)驗(yàn)結(jié)論顯示:什么是能讓機(jī)器人營(yíng)救掉入洞中的人的最簡(jiǎn)單規(guī)則?Winfield認(rèn)為,顯然機(jī)器人需要能察覺周圍環(huán)境,識(shí)別出洞和人的位置以及它相對(duì)于兩者的位置。而且,機(jī)器人也需要規(guī)則以預(yù)期自身行動(dòng)可能產(chǎn)生的影響。
Winfield的實(shí)驗(yàn)使用了冰球大小的機(jī)器人,他讓其中一些“H機(jī)器人”代表人類,另一些“A機(jī)器人”代表以Asimov命名的倫理機(jī)器。Winfield利用類似Asimov第一條法則的規(guī)則編成了“A機(jī)器人”:如果它認(rèn)為“H機(jī)器人”掉入洞中,它必須前往拯救“H機(jī)器人”。
結(jié)果顯示,即便最低限度的倫理機(jī)器人也將是有用的。Winfield表示,“A機(jī)器人”通常會(huì)設(shè)法拯救“人類”,并會(huì)首先前往離自己近的那一個(gè)。有時(shí),通過(guò)快速移動(dòng),它甚至能兩個(gè)都救出。但實(shí)驗(yàn)也顯示出保守行動(dòng)的限制。在幾乎一半的試驗(yàn)中,“A機(jī)器人”會(huì)陷入兩難境地,并使得兩個(gè)“H機(jī)器人”都“死亡”。
為了解決該問題,就需要額外的規(guī)則,以確定如何選擇。如果一個(gè)“H機(jī)器人”是成人,而另一個(gè)“H機(jī)器人”是兒童,“A機(jī)器人”應(yīng)該先救誰(shuí)?諸如此類的判斷,即便是人類也不能總是達(dá)成一致。就像Kaplan提到的那樣,通?!拔覀儾恢廊绾尉幾牒畏N顯性規(guī)則”。
殺人機(jī)器爭(zhēng)論
支持者認(rèn)為,基于規(guī)則的方法有一大優(yōu)點(diǎn):它通常能明確機(jī)器人為何作出這個(gè)選擇,因?yàn)槭撬脑O(shè)計(jì)者編纂了這些規(guī)則。對(duì)于美國(guó)軍隊(duì)而言,還有一個(gè)重要關(guān)注點(diǎn):哪些自動(dòng)系統(tǒng)是重要的戰(zhàn)略目標(biāo)。佐治亞理工學(xué)院機(jī)器人倫理軟件學(xué)家Ronald Arkin指出,對(duì)于機(jī)器人能否協(xié)助士兵或執(zhí)行致死任務(wù),“你最不想做的事就是把一個(gè)自動(dòng)機(jī)器人送到軍隊(duì),并找出它應(yīng)遵循哪些規(guī)則”。如果一個(gè)機(jī)器人要選擇拯救士兵還是追逐敵軍,它必須預(yù)先知道自己要做什么。
在美國(guó)國(guó)防部的支持下,Arkin正在設(shè)計(jì)一個(gè)程序,以確保軍事機(jī)器人能按照國(guó)際戰(zhàn)爭(zhēng)條約執(zhí)行任務(wù)。一套名為“倫理管理”的算法將評(píng)估射擊導(dǎo)彈等任務(wù)是否可行,如果允許機(jī)器人行動(dòng),答案會(huì)是“是”。
在倫理管理的虛擬測(cè)試中,一個(gè)無(wú)人駕駛飛模擬行器被要求打擊敵方目標(biāo),但如果附近有平民設(shè)施則不能進(jìn)行該任務(wù)。在各種給定的場(chǎng)景中,該算法會(huì)決定何時(shí)將允許無(wú)人機(jī)完成它的使命。
目前,美、日、韓、英等國(guó)大幅增加了軍事機(jī)器人研發(fā)的經(jīng)費(fèi),有英國(guó)專家稱,20年內(nèi)“自動(dòng)殺人機(jī)器”技術(shù)將可能被廣泛應(yīng)用。對(duì)此,不少人感到憂慮:對(duì)于這些軍事機(jī)器,人類真的能完全掌控它們嗎?Arkin認(rèn)為,這些機(jī)器在一些情況下能做得比人類士兵更好,只要它們被編程不會(huì)打破戰(zhàn)爭(zhēng)規(guī)則。
無(wú)論如何,聯(lián)合國(guó)《特定常規(guī)武器公約》近日正再次就殺手機(jī)器人主題聽取技術(shù)和法律專家的意見。國(guó)際機(jī)器人武器控制委員會(huì)成員、斯坦福大學(xué)網(wǎng)絡(luò)與社會(huì)研究中心的Peter Asaro表示,越來(lái)越多的人贊同,沒有人類監(jiān)督情形下的機(jī)器人殺人是不可接受的。
人類、道德和機(jī)器
自從1818年瑪麗·雪萊創(chuàng)作出世界上第一部科幻小說(shuō)《科學(xué)怪人》,到1927年美國(guó)西屋公司制造出第一個(gè)機(jī)器人“電報(bào)箱”,再到現(xiàn)在,幻想正在一步步變?yōu)楝F(xiàn)實(shí)。機(jī)器人在擁有“十八般武藝”的同時(shí),也甚至開始有自己的“情感”。
近日,日本電信企業(yè)軟銀集團(tuán)宣布,將在日本推出能識(shí)別人的情感并與人交流的機(jī)器人Pepper。據(jù)介紹,第一代Pepper機(jī)器人于去年6月公開亮相,經(jīng)過(guò)1年的研發(fā),新款機(jī)器人的智力和情感交流能力都有顯著提升。新款機(jī)器人Pepper時(shí)而歌唱、時(shí)而舞蹈,并且輕松自如地與人們互動(dòng)交流。當(dāng)受到人們表?yè)P(yáng)時(shí),Pepper會(huì)流露出喜悅之情。當(dāng)被“戲弄”時(shí),則會(huì)委屈地放聲哭泣。隨著科技的發(fā)展,情感機(jī)器人總有一天會(huì)變?yōu)楝F(xiàn)實(shí)。這不禁引發(fā)了人類新的思考:人應(yīng)該怎樣對(duì)待機(jī)器人?
研究人員表示,如何建造倫理機(jī)器人將對(duì)機(jī)器人的未來(lái)發(fā)展產(chǎn)生重要影響。英國(guó)利物浦大學(xué)計(jì)算機(jī)學(xué)家Michael Fisher認(rèn)為,規(guī)則約束系統(tǒng)將讓大眾安心?!叭绻麄儾淮_定機(jī)器人會(huì)做什么,他們會(huì)害怕機(jī)器人。”他說(shuō),“但如果我們能分析和證明他們的行為的原因,我們就可能克服這種信任問題?!痹谝粋€(gè)政府資助項(xiàng)目中,他與Winfield等人合作,以證實(shí)倫理機(jī)器項(xiàng)目的產(chǎn)出。
相比之下,機(jī)器學(xué)習(xí)方法讓機(jī)器人能從經(jīng)驗(yàn)中提取信息。這將使得它們更靈活和有用。許多機(jī)器人專家表示,最好的前進(jìn)道路是多種方法結(jié)合。“這有點(diǎn)類似精神療法?!盤ereira說(shuō),“你可能不會(huì)只用一個(gè)理論?!币粋€(gè)尚未解決的挑戰(zhàn)是,如何將這些方法結(jié)合成一個(gè)可行的方法。