為什么馬斯克有關(guān)AI的警告可能是正確的?
8月26日消息,據CNBC網(wǎng)站報道,特斯拉和SpaceX公司的首席執行官埃隆·馬斯克(ElonMusk)曾多次表示,隨著(zhù)人工智能(AI)的應用越來(lái)越廣泛,社會(huì )需要更加關(guān)注其安全問(wèn)題。
本文引用地址:http://dyxdggzs.com/article/201708/363770.htm馬斯克最近在推特上寫(xiě)道:“如果你不擔心人工智能的安全性,那么現在你應該擔心了。”
軟件解決方案公司SAP的首席學(xué)習官(CLO)珍妮·迪爾伯恩(JennyDearborn)對這觀(guān)點(diǎn)表示贊同。
事實(shí)上,她認為,至關(guān)重要的是要開(kāi)展好有關(guān)人工智能知識以及如何更好利用這項技術(shù)的教育。
她告訴CNBC:“人工智能將無(wú)處不在。這將是我們社會(huì )中最普遍的一種現象,而這種現象不會(huì )被人們直觀(guān)地看到。但它將存在一切事物的背后。”
迪爾伯恩稱(chēng),人工智能將影響我們所做的一切,包括掃描證件、滾動(dòng)網(wǎng)頁(yè)、使用應用程序和家庭傳感器系統,以及日常生活的許多其他方面。結果,人工智能將不斷收集數據和個(gè)人信息。迪爾伯恩解釋說(shuō),企業(yè)可以利用這些信息,應用算法來(lái)了解你的行為。
她說(shuō):“我們需要利用人工智能讓人類(lèi)更強大,而不是取代人類(lèi)。我們需要讓更多的人在如何利用人工智能上發(fā)出自己的聲音,這樣我們就不會(huì )反過(guò)來(lái)被人工智能所利用。”
但在人工智能上誰(shuí)會(huì )利用我們呢?我們?yōu)槭裁匆3中⌒哪?迪爾伯恩稱(chēng),在人工智能領(lǐng)域的前沿有三家公司:谷歌、Facebook和亞馬遜。她說(shuō),(如果人類(lèi)被人工智能所利用)它們“將受益最大”。
迪爾伯恩表示:“對于人工智能滲透到人們生活的程度,人們需要有所了解。這樣,他們就不會(huì )在某天醒來(lái)說(shuō):‘我一直都是被利用的棋子’。”
她以Fitbit等健康追蹤設備為例:一家醫療保健公司可以利用健身應用提供的數據來(lái)了解人們的健康習慣。她說(shuō):“那么,如果有一天,對于每天步行少于1萬(wàn)步的人,它決定增加他的保險費用,人們該怎么辦?”
迪爾伯恩認為這是一種極端但不是不可能發(fā)生的情形。她問(wèn)道:“誰(shuí)來(lái)做出這個(gè)決定?”。她說(shuō),如果我們不參與有關(guān)人工智能的討論,那這些大公司將擁有全部話(huà)言權。
她擔心,人們會(huì )為了方便起見(jiàn)而愉快地泄露自己的隱私。她指出:“他們說(shuō),‘我可以接受’,但如果(一家公司的所作所為)越過(guò)紅線(xiàn)怎么辦呢?”
迪爾伯恩稱(chēng):“現在,大多數公司都比政府擁有更大的權力。”今后,會(huì )有大量關(guān)于人們隱私、個(gè)人自由和紅線(xiàn)的討論。因此,“開(kāi)展這方面的教育非常關(guān)鍵。”
她表示,我們應該決定我們希望這個(gè)新經(jīng)濟會(huì )是什么樣子,了解我們自己在其中扮演的角色,參與對話(huà)并成為知情的公民。這樣,在人工智能如何“設計和以何為導向”上,社會(huì )大體上可以做出明智的決定。
馬斯克有類(lèi)似的觀(guān)點(diǎn),他說(shuō):“人工智能對人類(lèi)文明的存在構成了根本性的風(fēng)險,這與汽車(chē)事故、飛機相撞、藥物錯配、食品安全的影響方式不同——后者只會(huì )對社會(huì )造成局部的損害,但人工智能有可能對整個(gè)社會(huì )造成威脅。”
迪爾伯恩提出了自己的解決方案:“我們應該教育好年輕人,讓他們對我們要去的地方持批評態(tài)度。”她支持年輕人進(jìn)入科技行業(yè),事實(shí)上,她說(shuō),對我們生活產(chǎn)生最大影響的重大決策經(jīng)常來(lái)自于科技行業(yè),而不是政府。
她說(shuō):“如果你想從事衛生保健行業(yè),就選擇以醫療保健為重點(diǎn)的科技類(lèi)專(zhuān)業(yè);如果你想成為一名神經(jīng)系統的科學(xué)家,那就選擇以神經(jīng)系統其為重點(diǎn)的科技類(lèi)專(zhuān)業(yè)。”
迪爾伯恩補充說(shuō),我們最大的責任是弄清楚社會(huì )將如何利用人工智能。
她給出了一個(gè)例子:谷歌一直在測試無(wú)人駕駛汽車(chē)。但是,如果一輛無(wú)人駕駛汽車(chē)即將發(fā)生碰撞,它必須在拯救駕駛員和撞向人群,或避開(kāi)人群但讓載有駕駛員的汽車(chē)發(fā)生碰撞這兩項選擇做出一個(gè)數學(xué)決策,那該怎么辦?
盡管她承認這是一個(gè)極端的例子,迪爾伯恩稱(chēng),人們很快就必須對這類(lèi)問(wèn)題做出回答。因此,讓更多來(lái)自不同背景的人群參與有關(guān)人工智能開(kāi)發(fā)和應用方式的討論很重要。
她說(shuō):“這就像創(chuàng )造一個(gè)政府結構或社會(huì )秩序。你需要確保構建這些系統的人們擁有平等的代表性和多樣性。”
她說(shuō),現在的科技領(lǐng)域以白人男性為主,他們同時(shí)制定了有關(guān)我們的道德和社會(huì )原則的規則。
迪爾伯恩稱(chēng):“在這方面,我們不能采取自由放任的方式。這些都是倫理準則和紅線(xiàn),不能讓營(yíng)利性公司自行做出這些決定。”
評論