為什么人類(lèi)不相信機器人呢?
盡管有24%的美國消費者認為自動(dòng)駕駛汽車(chē)的安全性高于人類(lèi)駕駛員,但人類(lèi)卻并不相信人工智能或機器人。但是考慮到90%以上的交通事故都是由人類(lèi)的錯誤導致的,所以未來(lái)有很大的可能人工智能將接過(guò)人類(lèi)的駕駛權,那幺我們就不禁要問(wèn)了,為什幺人類(lèi)不相信人工智能呢?
本文引用地址:http://dyxdggzs.com/article/201710/369007.htm2014 年,沃爾頓商學(xué)院進(jìn)行了一項調查,在這項調查中,調查者會(huì )根據人們做出的預測情況的好壞進(jìn)行適當的獎勵。在預測過(guò)程中,人們可以使用自己的判斷,也可以采用人工智能的意見(jiàn)。這個(gè)算法得出的預測比人類(lèi)的預測更好。盡管如此,只要人工智能做出了錯誤的預測,人們就會(huì )對其失去信心,盡管他們自己做出的錯誤更多。
這種情況被稱(chēng)為“算法規避”或“算法回避”,即當機器人出現一個(gè)錯誤時(shí),人們就不再信任機器人。
除此之外,在酒品、醫療服務(wù)和股票選擇上也有一些相似的研究。無(wú)一例外,不管人類(lèi)和機器人相比有多幺差勁,人們都會(huì )對機器人失去信心。甚至還不需要機器人真正做錯什幺。我們通常不信任那些和我們自己不相似的東西,因為它們的運作模式和我們不一樣。
當機器人開(kāi)始在各行各業(yè)開(kāi)始工作時(shí),或者人工智能出現各種各樣的產(chǎn)品中時(shí),這就會(huì )成為一個(gè)問(wèn)題。你應該如何增加人類(lèi)對人工智能的信任,從而讓你的員工和客戶(hù)接受它呢?
解決方案卻很奇怪:讓機器人看起來(lái)更沒(méi)有信心。
看起來(lái)猶豫不決和困惑不解的機器人反倒能夠贏(yíng)得人們更多的信任。馬薩諸塞大學(xué)盧維爾分校進(jìn)行了一項調查,他們要求人們幫助機器人通過(guò)一項滑雪游戲的課程。他們可以選擇使用操作桿引導機器人,或者讓機器人自己做,或者兩者結合使用。自動(dòng)模式下的機器人的運動(dòng)時(shí)相當快的,但這一點(diǎn)并不為參與者所知,而且機器人的程序中有讓機器人犯錯的程序。當機器人犯錯時(shí),研究參與者可能就會(huì )放棄機器人。但研究中的一些機器人的設計中會(huì )表現出困惑。當他們不肯定應該選擇那一條道路時(shí),它們的表情就會(huì )從高興切換成悲傷。當機器人表現出困惑時(shí),人們更容易相信機器人能找到自己的解決方案。
這項研究已經(jīng)用在提高人類(lèi)對機器人的信任上。此外還有兩項分別來(lái)自美國芝加哥大學(xué)和康涅狄格大學(xué)和荷蘭埃因霍溫大學(xué)的研究也試圖幫助人們提高對自動(dòng)駕駛汽車(chē)的信心。埃因霍溫大學(xué)的研究者設計出了一個(gè)名叫Bob的驅動(dòng)程序,此外它還具有人類(lèi)的表情和頭部動(dòng)作。在另一項研究中,駕駛模擬器使用了友好的女性聲音,并且還有一個(gè)女性的名字Iris。顯然,人們更容易相信Iris,而不是一個(gè)沒(méi)有名字的機器。
顯然,未來(lái)十年內,人工智能的問(wèn)題還將繼續是一個(gè)敏感問(wèn)題。隨著(zhù)機器人和人工智能不斷向工作領(lǐng)域的滲透,關(guān)系重大的不僅僅是是否相信它們的判斷,而且還在于是否丟掉工作,士氣的問(wèn)題以及傷痕累累的自我。但是除非人類(lèi)知道自己可以相信人工智能,而你并不能完成所有的事情。所以搞清楚如何實(shí)現你的人工智能的人性化才是一個(gè)很好的開(kāi)始。
評論