為什么機器人要比普通人類(lèi)工作起來(lái)更加可靠
現在的機器人已經(jīng)擁有了智能自治系統,因此有時(shí)它們自己也會(huì )產(chǎn)生特定的“焦慮”和不確定性,即使是每天它們都在完成同一種任務(wù),這樣的可能性也是存在的。因此,為了減少機器人出現的“焦慮”,我們應該更加著(zhù)重研究如何能夠讓它們真正的在第一時(shí)間代替人類(lèi)做出正確的決定。只有這樣,在某種程度上來(lái)說(shuō),這樣的機器人才比人類(lèi)更加可靠。
本文引用地址:http://dyxdggzs.com/article/246277.htm
經(jīng)常喜歡看科幻故事的朋友都知道,其實(shí)機器人還可以更進(jìn)一步。我們關(guān)心的是,但機器人取代了普通的人類(lèi)飛行員之后,在遇到特殊情況時(shí)會(huì )自動(dòng)根據條件變化做出合適的對策。在目前的飛行系統中,自動(dòng)駕駛系統可以使飛機在固定的航線(xiàn)中飛行,但是依然需要人類(lèi)飛行員來(lái)決定該走哪個(gè)方向、什么時(shí)候轉彎以及如何應對意想不到的意外情況。同樣的道理,巡航控制、車(chē)道控制等系統雖然可以讓汽車(chē)根據當前路線(xiàn)自動(dòng)行駛,但是一切重大決策的制定還是要依靠人類(lèi)。但是一旦自治系統變得更加先進(jìn),軟件就會(huì )發(fā)揮更大的作用。我們將不再需要真正的人類(lèi)來(lái)決定何時(shí)改變飛機的飛行路線(xiàn)或當高速公路關(guān)閉后選擇哪條小路繼續行駛。
相信許多人看到這樣的想法,一定會(huì )有這樣的擔心。即使是一臺機器可以自動(dòng)做出決定,那么我們怎么保證它的決定是安全的呢?相信看過(guò)《終結者》系列電影的朋友都知道,機器人其實(shí)也并非完全可靠,而在現實(shí)生活中,選擇乘坐飛機本身就是具有一定危險概率的時(shí)間,更不用說(shuō)這架飛機還是完全依靠“沒(méi)血沒(méi)肉”的機器人來(lái)駕駛。
通常情況下我們大致要面臨兩種選擇。完全相信它們或拒絕它們。不過(guò)現在已經(jīng)出現了第三種選項。當我們在與另外一個(gè)人相處時(shí),雖然我們無(wú)法確定對方做出什么樣的決定,但是我們可以基于對對方的了解而做出我們自己的判斷。而判斷的依據就是對方之前是否欺騙過(guò)我們或有過(guò)類(lèi)似的經(jīng)歷。但是我們并不能完全根據這種經(jīng)驗判斷來(lái)假設對方一定是在欺騙自己。而機器人的自治系統則并不一樣。它的本質(zhì)上是由軟件來(lái)控制,因此如果我們能夠將這些軟件變得“完美”,將所有人類(lèi)的高級思維融入其中,而軟件和系統就會(huì )可以非常詳細的分析行動(dòng)計劃。在這一點(diǎn)上,人類(lèi)的大腦可并非輕易能夠辦到。
目前,一種對計算機科學(xué)與軟件的深入分析研究已經(jīng)變得越來(lái)越流行,特別是如何證明軟件的邏輯分析能力如何正確的匹配實(shí)際的需求。這種方法被稱(chēng)為形式驗證(formal verification),在分析和評估足以影響人類(lèi)安全的軟件中非常有用,比如火車(chē)站、生命支持系統或交通系統等。一旦這些軟件能夠通過(guò)自治系統做出更高級的決定,我們就可以對某些項目的詳細工作進(jìn)行更加準確的驗證。
而目前科學(xué)界的研究最主要的方向就是如何驗證這種自治系統所做出的行為判斷最為科學(xué),來(lái)證明通過(guò)軟件控制的機器人系統永遠不會(huì )做出錯誤或糟糕的決定。
這個(gè)決策的過(guò)程也是讓機器人被絕對信賴(lài)的核心之處,如何更舒心、更省力的讓機器來(lái)做出最佳決定。不過(guò)這樣的工作系統通常都是非常復雜和充滿(mǎn)了不確定性的,所以即使是事故已經(jīng)發(fā)生,我們也要保證軟件系統之前已經(jīng)至少?lài)L試了試圖避免事故發(fā)生。這似乎是一種不可避免的缺點(diǎn),但是至少可以讓那些擔憂(yōu)科幻小說(shuō)中出現機器人欺騙人類(lèi)情況的朋友稍微放心一些。
雖然我們不能肯定的說(shuō)一個(gè)機器人永遠都不會(huì )意外的對人類(lèi)造成傷害,但是通過(guò)系統和實(shí)驗證明至少這些傷害都不是機器人故意的行為。通過(guò)觀(guān)察機器人內部的編程代碼,我們不僅要評估它們要去做什么,更要評估它們?yōu)楹我@樣做。盡管目前人類(lèi)對于機器人和自治系統依然無(wú)法完全相信,但是如果了解了系統并不會(huì )故意對人類(lèi)造成欺騙,也許就會(huì )讓這些人對機器人的好感度能夠提升一點(diǎn)。
目前最主要的問(wèn)題就是我們要證明的是什么,而不是如何來(lái)證明。我們永遠無(wú)法試圖證明一個(gè)機器人會(huì )故意選擇傷害人類(lèi),但是對于諸如醫療機器人或警察機器人這種特殊行業(yè)的例子來(lái)說(shuō),也有可能是它們在試圖幫助人類(lèi)(比如進(jìn)行胸部施壓幫助呼吸)的過(guò)程中無(wú)意中對人類(lèi)造成傷害。還有機器人警察在保護普通公民的時(shí)候也會(huì )對犯罪份子開(kāi)槍?zhuān)@雖然傷害了某個(gè)人類(lèi)的個(gè)體,但是其實(shí)也是為了保護大多數人的安全。
通過(guò)上面的闡述,我們已經(jīng)從技術(shù)、哲理和倫理的角度為未來(lái)機器人更加普及的應用進(jìn)行了一些證明。因此如果未來(lái)機器人和自治系統真的試圖在某些領(lǐng)域完全代替人類(lèi),我們也要相信它們本身的決策過(guò)程都是以獲得最佳結果為依據的。
評論