為什么機(jī)器人和人類能共存?
其一,人類充當(dāng)機(jī)器人的后援,在機(jī)器人達(dá)到能力極限時(shí)進(jìn)行接管。許多工作流程正在以這種方式進(jìn)行重新設(shè)計(jì),就像自動(dòng)呼叫中心,其中語(yǔ)言理解系統(tǒng)嘗試處理呼叫者的查詢,僅在技術(shù)混淆時(shí)向操作員進(jìn)行確認(rèn)。
可能有人會(huì)說(shuō),Uber的致死車禍?zhǔn)鹿示褪窃谶@樣的情況下發(fā)生的,但這起事故是一個(gè)可能出錯(cuò)的極端例子。斯坦福大學(xué)的一項(xiàng)研究顯示,人類駕駛員至少需要6秒才能恢復(fù)意識(shí)并收回控制權(quán)。但即使有足夠的時(shí)間讓人恢復(fù)注意力,進(jìn)入某種情況的人也可能看到與機(jī)器不同的東西,以至于二者之間并不能達(dá)到無(wú)縫切換。
我們需要在軟件系統(tǒng)和人之間共同努力,不過(guò)這是一個(gè)非常困難的事情,至少語(yǔ)言的使用就有一定的難度。對(duì)人類來(lái)說(shuō),我們可以用很少的詞來(lái)傳達(dá)意義——說(shuō)話者和聽(tīng)者對(duì)彼此之間的語(yǔ)境的共同理解,讓這些詞語(yǔ)用意義更加明了,但機(jī)器在理解人的語(yǔ)言時(shí)做不到這一點(diǎn),與此同時(shí),計(jì)算機(jī)科學(xué)家們也尚未研究如何在機(jī)器中建立共識(shí)。
其二, 在人機(jī)合作中確保敏感任務(wù)總是以人類為主。即使在自動(dòng)化系統(tǒng)已經(jīng)完成所有準(zhǔn)備工作,并且能夠完全完成任務(wù)本身的情況下,涉及軍事等領(lǐng)域的敏感任務(wù)最好還是由人類進(jìn)行處理。像軍事無(wú)人機(jī),人類“飛行員”,通常位于數(shù)千英里之外,被要求做出射擊目標(biāo)的決定,就是一個(gè)例子。用于幫助移民官員識(shí)別可疑旅行者的面部識(shí)別系統(tǒng)是另一個(gè)例子,但兩者都表明人工智能如何在不剝奪控制權(quán)的情況下使人類更有效。
然而對(duì)無(wú)人機(jī)等半自動(dòng)武器的還存在另一種說(shuō)法,即將它們變成完全自治的系統(tǒng)沒(méi)有技術(shù)障礙,且可以快速更改當(dāng)前的程序和安全措施。
根據(jù)加州大學(xué)伯克利分校的人工智能教授Stuart Russell的說(shuō)法,在國(guó)家緊急情況下將人類無(wú)人機(jī)操作員,從工作流程中移除是一個(gè)簡(jiǎn)單而容易的步驟,但這將加速機(jī)器人武器時(shí)代的到來(lái),而這個(gè)所謂的機(jī)器人武器還可以自行決定什么時(shí)候開(kāi)始?xì)⑷?。所以,“你不能說(shuō)這項(xiàng)技術(shù)本身只能在人為控制下,以防御的方式進(jìn)行使用。事實(shí)并非如此?!癛ussell如是說(shuō)。
其三,涉及使用人工智能的“人在循環(huán)”系統(tǒng)。這意味著機(jī)器人不能完全獨(dú)立地處理任務(wù),而可以在人類決策中起到輔助作用,比如將算法逐漸滲透到日常生活中。但是,算法只能與他們訓(xùn)練的數(shù)據(jù)一樣好,而且他們不善于處理新情況。這就需要信任這些系統(tǒng)的人通常也要信仰這些系統(tǒng)。
登載此文只為提供信息參考,并不用于任何商業(yè)目的。如有侵權(quán),請(qǐng)及時(shí)聯(lián)系我們:cp688cp688@163.com
