物聯(lián)傳媒 旗下網(wǎng)站
登錄 注冊

無人駕駛引發(fā)車禍,背鍋的到底是人還是車?

作者:本站收錄
來源:大數(shù)據(jù)文摘
日期:2018-05-15 16:08:15
摘要:3月18日,美國亞利桑那州發(fā)生的Uber無人車撞傷行人并致死的事故可以理解為“錯過干預(yù)”。車禍正式報告還未公布,但據(jù)外媒報道,事故發(fā)生時,車輛已經(jīng)檢測到車頭前的行人,但決策系統(tǒng)卻“決定”不采取任何閃避措施,同時人類安全駕駛員也未能及時作出反應(yīng)。
關(guān)鍵詞:無人駕駛自動駕駛

  讓我們先來做一道選擇題。

  司機老王正開著一輛帶有自動駕駛系統(tǒng)的車,這時道路前方突然出現(xiàn)了一個行人,可怕的是剎車失靈了。如果及時左轉(zhuǎn),老王的車就不會撞人;如果依舊直行,老王的車會將人撞死。

  你覺得以下哪種情景,老王要為行人之死負責?

  老王決定左轉(zhuǎn),而自動駕駛系統(tǒng)強制選擇了直行(撞人);

  老王決定直行(撞人),而自動駕駛系統(tǒng)沒有干預(yù);

  自動駕駛系統(tǒng)決定左轉(zhuǎn),而老王強制選擇了直行(撞人);

  自動駕駛系統(tǒng)決定直行(撞人),而老王沒有干預(yù)。

  A和C選項中,人類和機器駕駛員都進行了錯誤干預(yù)。B和D選項中,兩者都沒有進行有效干預(yù)(錯過干預(yù))。到底誰的責任更大?

  為無人車事故定責不是個簡單的選擇題。

  MIT、哈佛、加州大學爾灣分校、法國圖盧茲大學的一個聯(lián)合研究小組,致力于通過定量研究的手段,了解人們在面對無人車事故時的態(tài)度,并于最近發(fā)布了研究成果。

  論文作者來自腦與認知科學、心理學、經(jīng)濟學等多個不同領(lǐng)域,MIT火爆的無人車課程講師Sydney Levine也是作者之一。

  先說MIT聯(lián)合研究小組通過向2583個人發(fā)放3次調(diào)查問卷得出的結(jié)論:

  進行了錯誤干預(yù)的駕駛者是過失方,無論是人架勢還是機器駕駛;

  如果人機同時錯過有效干預(yù),輿論對機器更包容,人類司機的疏忽更受關(guān)注。

  明確事故定責,是無人車發(fā)展的前提

  3月18日,美國亞利桑那州發(fā)生的Uber無人車撞傷行人并致死的事故可以理解為“錯過干預(yù)”。車禍正式報告還未公布,但據(jù)外媒報道,事故發(fā)生時,車輛已經(jīng)檢測到車頭前的行人,但決策系統(tǒng)卻“決定”不采取任何閃避措施,同時人類安全駕駛員也未能及時作出反應(yīng)。

  Uber之后,3月23日,一輛開啟了Autopilot的Model X在高速上撞向隔離帶,導致車主不幸喪生,還引發(fā)車輛起火和兩車追尾。

  對此,特斯拉表示:“司機已收到過幾次警告,包括可視警告和聲音警告。在碰撞發(fā)生前的6秒鐘,司機都沒有手握方向盤。事故發(fā)生前,司機有大約5秒鐘的時間和150米的無障礙視野,但車輛記錄顯示司機沒有做出任何動作。”同樣,可以理解為“錯過干預(yù)”。

  歷史總是驚人地相似。

  2016年5月,全球首例引起廣泛關(guān)注的Autopilot致死事故在佛羅里達發(fā)生。一輛特斯拉Model S在使用Autopilot模式行駛途中與一輛正在轉(zhuǎn)彎的卡車相撞,導致特斯拉車主死亡。

  特斯拉解釋說:“在強烈的日照條件下,駕駛員和自動駕駛系統(tǒng)都未能注意到卡車的白色車身,所以沒有及時啟動剎車系統(tǒng)。”

  也就是說,在這場事故中,無論是機器駕駛員還是人類駕駛員都應(yīng)該采取措施(避開正在左轉(zhuǎn)的卡車),然而他們并沒有采取行動。人類和機器駕駛員的“錯過干預(yù)”導致了撞車事故。美國高速公路安全管理局等部門在經(jīng)過6個月的調(diào)查后,認定特斯拉Autopilot系統(tǒng)不存在缺陷。

  據(jù)世界衛(wèi)生組織統(tǒng)計,全球每年約有125萬人死于車禍。通常,法律裁決的重點是判定誰是過失方,誰為事故承擔責任。

  隨著半自動駕駛和全自動駕駛技術(shù)趨于成熟,如何公正判決誰該承擔責任,成了法官和陪審團的難題,因為事故中的過失和責任將由人類和機器駕駛員共同承擔。

  法官和陪審團都是人類。他們會偏袒自己的同胞嗎?還是認為人類因為智力更勝一籌所以應(yīng)當承擔更多責任?

  在2016年的特斯拉Autopilot事故中,公眾明顯偏向于指責事故中疏忽的人類駕駛員,比如有傳聞?wù)f車主當時正在看哈利·波特電影(盡管沒有任何證據(jù)證實這點)。

  輿論對自動駕駛產(chǎn)業(yè)有直接的影響。

  目前,公眾對混合駕駛模式造成的車禍態(tài)度仍不明確,制造商也無法判斷他們的責任范圍,這直接反映在了無人車高昂的定價上,也減緩了無人車普及的速度。如果公眾傾向于將責任歸咎于人類駕駛員而不是機器,這將導致法律體系建設(shè)的放緩和監(jiān)管的缺失,也無法給制造商施加足夠的壓力來提升無人車安全性。

  MIT聯(lián)合研究小組呼吁,為事故明確定責,是完善監(jiān)管、促進自動駕駛行業(yè)發(fā)展的第一步。

  有司機的無人車,司機責任更大?

  目前,自動駕駛技術(shù)以混合駕駛模式為主。一些自動駕駛系統(tǒng)可以越過司機的權(quán)限執(zhí)行緊急操作(例如豐田的Guardian Angel)。其他半自動駕駛車輛可以完成大部分駕駛操作,同時要求司機不斷監(jiān)控情況并隨時準備采取控制措施(例如特斯拉的Autopilot)。

  這里的核心問題是:當一輛半自動駕駛的汽車發(fā)生事故并造成人員傷亡時,如何判定人類和機器駕駛員之間的過失和因果責任?

  讓我們詳細看看MIT聯(lián)合研究小組的結(jié)論。

  他們研究了6種駕駛模式,分別是單人駕駛模式、單機駕駛模式(全自動駕駛汽車)以及雙駕駛員(兩個人類或兩個機器)的不同組合模式。這些模式分別對應(yīng)無人車的6個等級,從L0到L5。比較典型的是,L2級的豐田Guardian Angel被歸類為H-M模式,即人類(H)是主駕駛,機器(M)是副駕駛;L3級的特斯拉Autopilot被歸類為M-H模式,即機器是主駕駛,人類是副駕駛。

  焦點在于H-M和M-H模式下的兩個場景:

  主駕駛做出正確判斷,而副駕駛錯誤干預(yù)(“錯誤干預(yù)”);

  主駕駛做出錯誤判斷,而副駕駛沒有進行干預(yù)(“錯過干預(yù)”)。

  研究人員使用了兩個自變量做回歸:駕駛員是否犯錯、駕駛員類型(人或機器)。

  在“錯誤干預(yù)”的場景下,最重要的發(fā)現(xiàn)是:駕駛員是否犯錯對評分具有顯著的影響,而駕駛員類型對結(jié)果的影響并不明顯??梢詮南聢D左邊看到,做出錯誤干預(yù)的副駕駛被認為過失更大,而且副駕駛是藍色(機器)或紅色(人類)的情況下過失及責任分數(shù)接近。

  也就是說,人們普遍認為,做出錯誤判斷的一方是過失方。如果“錯誤干預(yù)”的駕駛操作導致行人死亡,那么無論做出誤判的是人還是機器,都應(yīng)當承擔更多責任。

  不同駕駛模式的過失及責任評估分數(shù)(分數(shù)越高責任越大)。藍色代表車輛本身和汽車制造商的疊加責任分數(shù),紅色代表人類司機的責任分數(shù)。x軸標簽first driver指主駕駛,last driver指副駕駛。

  而有關(guān)“錯過干預(yù)”的研究結(jié)果和此前的結(jié)果不同。

  此前的研究表明,當機器和人類都做出錯誤的判斷時,機器會受到更多的指責。而且,當人和算法犯了同樣的錯誤時,人們對算法失去信任的速度要快于人類本身。

  這次的結(jié)論是,如果發(fā)生“錯過干預(yù)”的情況(即人類犯錯機器沒有干預(yù),或者機器犯錯人類沒有干預(yù)),機器責任程度明顯小于人類。

  在雙駕駛員模式下,人類和機器駕駛員都承擔責任(缺乏有效干預(yù)),但是可以明顯看出紅藍兩色的差距。作為對照,如果主駕駛和副駕駛都是人類或者都是機器,他們的責任分數(shù)相同(對應(yīng)上圖右第2行及第7行)。

  具體回歸結(jié)果可以看這張圖:

  他們本應(yīng)采取行動,但他們什么都沒做

  盡管人們對無人車的普及可能存在著許多心理上的障礙,但這一結(jié)果表明,公眾不會對混合駕駛模式下的事故做出過度反應(yīng)。

  盡管在研究中進行了一些系統(tǒng)的簡化,但結(jié)果也能反映出一定的公眾言論效應(yīng)。公眾傾向于將注意力集中在人類駕駛員的極度疏忽上,因此將責任歸咎于人類駕駛員而不是機器。

  受訪者也對人類和機器駕駛員的能力分別做了評估,結(jié)果相近。在了解事故前,受訪者對人類和機器的駕駛能力同樣有信心。在被告知發(fā)生了“錯過干預(yù)”的事故后,信心同比例下降。

  “錯過干預(yù)”情況下,對駕駛員的能力評估

  事實上,更應(yīng)該關(guān)心的也許是公眾的反應(yīng)不足(under-reaction)。

  研究人員認為,公眾的反應(yīng)不足會導致驅(qū)動監(jiān)管法案制定的輿論壓力缺失。如果半自動駕駛汽車的監(jiān)管法案在有陪審團的法庭上制定,陪審團的裁決會偏向于汽車制造商,使其在人機共同犯錯的案例中免責。這樣的話,就無法給制造商施加足夠的壓力來改善汽車的安全性能設(shè)計。

  其實,我們之前也經(jīng)歷過類似的情況。在20世紀60年代之前,汽車制造商將傷害事故責任歸咎于駕駛員的錯誤或疏忽,從而逍遙法外。為此,很有必要通過自上而下的監(jiān)管,將“事故責任制”的概念引入法律體系,即汽車的設(shè)計應(yīng)盡可能減少發(fā)生事故時對乘客造成的傷害。

  只有在法律約束下,汽車制造商才能被迫改進他們的設(shè)計。然而,安全的標準究竟如何,仍然是一個懸而未決的問題。

  研究人員指出,僅僅在一種條件下,公眾有可能產(chǎn)生過度反應(yīng),機器受到的責備會大于人類:機器做出了“錯誤干預(yù)”。

  在這種駕駛模式中,人類并沒有義務(wù)去糾正機器犯的錯誤。也就是說,機器的工作是糾正人類可能犯下的錯誤,但如果機器犯了錯誤,人類沒有糾正的義務(wù)(僅在“H-M”模式下如此。在“M-H”模式下,如果機器發(fā)生故障,糾正故障始終是人類的責任)。

  因此,一旦發(fā)生由“錯誤干預(yù)”造成的事故,可能會引起公眾的廣泛關(guān)注。如果我們對此不加以適當?shù)念A(yù)測和管理,那么全自動駕駛技術(shù)的進程可能會減緩。在研發(fā)機器比人類具有更大權(quán)限的汽車時,制造商們應(yīng)該關(guān)注這類極端情況,因為在該情況下,機器比人類更易受到指責。

  公眾反應(yīng)和輿論壓力會影響判決和立法,也會影響個體的決策。

  比如,人們可能會選擇“能承擔事故責任和輿論壓力”的駕駛系統(tǒng)。更糟糕的是,人們可能會改變駕駛習慣,盡量讓機器成為過失方(比如說,不去糾正機器的“錯誤干預(yù)”)。

  畢竟,如果什么都不做,可以讓機器背鍋。

  One More Thing

  如果你對社會實驗感興趣,這里還有一個MIT開發(fā)的小游戲,你可以自己試試看在兩難時你會怎么操控無人車:http://moralmachine.mit.edu/