無人駕駛技術(shù)面臨的問題與挑戰(zhàn)?
在谷歌自動駕駛汽車項目進行的早期,該公司員工(你可以稱他們?yōu)閎eta測試人員)被允許開著配備自動駕駛技術(shù)的汽車回家。
該項目的領(lǐng)導(dǎo)者們發(fā)現(xiàn),同伴們?nèi)绱搜杆俚剡^度信任了這項還處于萌芽階段的技術(shù)——他們選擇放松注意力,并盯著手機,而不是觀察前方的道路。
“我們的發(fā)現(xiàn)相當(dāng)可怕。”Waymo的前首席執(zhí)行官約翰·克拉弗西克(John Krafcik)回憶起2017年的測試時說?!八麄円呀?jīng)失去了觀察周圍環(huán)境的意識?!盬aymo是該項目的商業(yè)化后續(xù)。
Waymo前首席執(zhí)行官約翰·克拉弗西克▼
一個測試者在方向盤后面打瞌睡,這讓谷歌官員感到不安,他們放棄了對這種涉及人機結(jié)合的自動駕駛技術(shù)的追求,轉(zhuǎn)而采用一種不讓人類參與駕駛的自動駕駛路線。
其他公司,比如特斯拉,仍然看好人機共存,而對于將自動化引入汽車的同時仍需要人類承擔(dān)操作責(zé)任的擔(dān)憂,幾乎沒有消除。
特斯拉在2014年推出了Autopilot駕駛員輔助系統(tǒng)的硬件,并在2015年通過OTA升級啟用了這一功能。2021年,這家汽車制造商以同樣的方式發(fā)布了其“完全自動駕駛”(Full Self-Driving)系統(tǒng)。
2021年10月下旬,該公司的市值超過了1萬億美元,這在很大程度上要歸功于這些功能,這兩個功能在該公司狂熱的車主中激發(fā)了相當(dāng)大的熱情。特斯拉在財務(wù)上的成功,讓行業(yè)專家(至少在某些方面)懷疑Waymo是否做出了錯誤的決定。
然而,從安全的角度來看,擔(dān)憂仍在增加。
自動化自滿
美國國家交通安全委員會(NTSB)調(diào)查了多起涉及Autopilot的致命事故,并創(chuàng)造了“自動化自滿”(automation complacency)這個詞,來描述人類駕駛員過于信任駕駛輔助系統(tǒng)(并非自動駕駛系統(tǒng))的行為。
美國國家公路交通安全管理局(NHTSA)的聯(lián)邦調(diào)查人員在2021年的大部分時間里對Autopilot和高級駕駛輔助系統(tǒng)進行了進一步調(diào)查。
2021年4月,該機構(gòu)的撞車事故特別調(diào)查小組開始調(diào)查五年間發(fā)生的39起事故,這些事故造成了12人死亡,其中33起事故涉及特斯拉汽車。
最近,NHTSA開始對12起事故展開更嚴(yán)格的調(diào)查,在這些事故中,啟動了Autopilot系統(tǒng)的特斯拉汽車撞上了停放的急救車輛。
2021年9月,特斯拉對其Autopilot軟件進行了OTA升級,而現(xiàn)在監(jiān)管機構(gòu)想知道,這家汽車制造商為何進行了升級,卻沒有發(fā)起召回。
亞利桑那州立大學(xué)社會創(chuàng)新未來學(xué)院教授安德魯·梅納德(Andrew Maynard)表示,監(jiān)管機構(gòu)剛剛才開始考慮軟件定義汽車的安全影響,這本身就是個問題。
“如果一家制造商說,‘我們推出了一種新型制動系統(tǒng),我們不太確定它是否會起作用,但我們會把它放在一些汽車上,看看會發(fā)生什么,’沒有人會認(rèn)為這是可以接受的?!彼f,“從監(jiān)管角度來看,這是完全不可接受的。那么為什么軟件可以這樣做,而硬件卻不行呢?”
注意力不集中
在駕駛輔助系統(tǒng)方面,這是幾個沒有明確答案的挑戰(zhàn)之一,因為專家們認(rèn)為駕駛輔助功能(而不是自動駕駛系統(tǒng))至少在未來十年將成為主導(dǎo)技術(shù),至少在傳統(tǒng)車主購買和維護的車輛中是如此。
其他挑戰(zhàn)同樣是根本性的。人類很難監(jiān)控大多數(shù)時候運行良好的自動化系統(tǒng)——這不僅是Waymo在十年前學(xué)到的教訓(xùn),而且從航空到核能等各行各業(yè)都明白這一點。
麻省理工學(xué)院研究人員9月份發(fā)表的一項研究強調(diào)了這一點。
他們發(fā)現(xiàn),當(dāng)啟用Autopilot時,特斯拉司機眼睛偏離道路的頻率更高、時間更長。對其他汽車制造商駕駛輔助系統(tǒng)的進一步研究正在進行中。
如果系統(tǒng)引起了注意力不集中,它們會被認(rèn)為是安全的嗎?包括通用汽車在內(nèi)的一些汽車制造商正在尋求和推廣駕駛輔助技術(shù),允許駕駛員將手從方向盤上移開。
卡內(nèi)基梅隆大學(xué)專門研究嵌入式安全系統(tǒng)的教授菲爾·庫普曼(Phil Koopman)說:“ADAS安全的問題在于,你是否正在構(gòu)建一個非超人司機也能安全操作的系統(tǒng)?”
“我們告訴他們不要睡著,但我們知道事實并非如此。你不能忽視可預(yù)測的人類反應(yīng)?!?/p>
隨著駕駛輔助系統(tǒng)在汽車行業(yè)的普及,了解駕駛員的狀態(tài)以及他們的反應(yīng)準(zhǔn)備,將比以往任何時候都更加重要。
監(jiān)測司機
在多次調(diào)查與自動駕駛相關(guān)的致命事故后,NTSB發(fā)現(xiàn)特斯拉對駕駛員行為的監(jiān)控能力不足。
該委員會的建議包括,汽車制造商、標(biāo)準(zhǔn)機構(gòu)和NHTSA都應(yīng)該開發(fā)更好的應(yīng)用程序和規(guī)則,以監(jiān)測人類駕駛員的狀態(tài)。
2021年4月,行業(yè)組織汽車創(chuàng)新聯(lián)盟概述了一套安全原則,以應(yīng)對人們對駕駛員監(jiān)控系統(tǒng)日益增長的需求。值得注意的是,特斯拉并不是這個行業(yè)組織的成員。
但這些自愿原則并沒有與安裝駕駛輔助系統(tǒng)的棘手問題發(fā)生沖突。他們只是說,例如,應(yīng)該“評估”可預(yù)見的系統(tǒng)濫用。
NTSB的報告明確指出,特斯拉通過監(jiān)測方向盤扭矩來監(jiān)控駕駛員參與度的方法是不夠的,該聯(lián)盟只是表示,應(yīng)該“考慮”基于攝像頭的座艙系統(tǒng)——許多駕駛輔助系統(tǒng)的供應(yīng)商都喜歡這種系統(tǒng)。
也許,與駕駛員監(jiān)控技術(shù)的萌芽狀態(tài)相比,這些原則的中庸性質(zhì)是一個較小的問題。內(nèi)視攝像頭系統(tǒng)可以確保駕駛員的頭部朝向前方的道路,更好的系統(tǒng)甚至可以透過太陽鏡跟蹤司機的眼神。
然而,在駕駛員注意力已經(jīng)偏離,或者在他們需要糾誤時,車載報警器才向發(fā)出鳴叫,不一定是最有效的。
“預(yù)測是預(yù)防的關(guān)鍵?!币陨谐鮿?chuàng)公司Adam CogTec的聯(lián)合創(chuàng)始人兼現(xiàn)任董事長埃雷茲·阿盧夫(Erez Aluf)說。該公司致力于開發(fā)一種技術(shù),可以衡量司機的認(rèn)知能力,并有助于提高人類的表現(xiàn)。
更好的決策
從這個意義上說,駕駛輔助系統(tǒng)不僅監(jiān)控司機,還是一種駕駛員管理技術(shù),試圖促進人與機器之間的合作關(guān)系?!斑@不是一個或另一個,”阿盧夫說,“而是一加一?!?/p>
當(dāng)汽車不僅了解司機是否在盯著前方的道路,還了解司機在駕駛工作中的參與程度,它就能更好地決定何時交出控制權(quán)或保持控制權(quán)。
信任是這種微妙合作的核心。德國亞琛工業(yè)大學(xué)的人類系統(tǒng)集成教授弗蘭克·弗萊米施(Frank Flemisch)將其比喻為騎馬者隨著時間的推移,與他們的動物共同學(xué)習(xí)的一種直覺平衡。
但是,如果說機器駕駛員和人類駕駛員之間需要相互信任,那么在更廣泛的層面上,駕駛員、大肆宣傳自動化技術(shù)前景的汽車制造商、獨立的第三方(如學(xué)術(shù)界和保險公司)以及監(jiān)管機構(gòu)之間,也需要這種信任。
建立這種信任,不僅僅要在事故發(fā)生時承擔(dān)責(zé)任,還要確保每個利益相關(guān)者以透明和負(fù)責(zé)任的方式,開發(fā)和部署技術(shù)。
亞利桑那州立大學(xué)教授梅納德說:“在一個更好的社會中,這個鏈條上的每個人,無論是特斯拉的首席執(zhí)行官、制造產(chǎn)品的工程師,還是做決定的其他人,他們都有社會責(zé)任創(chuàng)新的心態(tài)?!?/p>
“在這種模式下,他們會不斷問自己,‘這樣做合適嗎?’如果他們這么做了,我想事情就會不同了?!?/p>
登載此文只為提供信息參考,并不用于任何商業(yè)目的。如有侵權(quán),請及時聯(lián)系我們:cp688cp688@163.com
