人工智能發(fā)展面臨的法律挑戰
值得注意的是,對于產(chǎn)品生產(chǎn)者的嚴格責任,規定有“當前科學(xué)水平尚不能發(fā)現缺陷”的免責事由。但是這項免責事由在人工智能領(lǐng)域是否適用值得討論?盡管在深度學(xué)習訓練數據和學(xué)習過(guò)程存在不可預見(jiàn)性,但考慮到人工智能的算法完全由開(kāi)發(fā)者編寫(xiě),開(kāi)發(fā)者對風(fēng)險源頭具有絕對的控制力,司法機關(guān)可能會(huì )推定開(kāi)發(fā)者應當預見(jiàn)算法執行中的可能風(fēng)險或要求開(kāi)發(fā)者需要對風(fēng)險程度的增加承擔責任。在此情況下,如果生產(chǎn)者想要免責,就要對當前技術(shù)難以發(fā)現這項風(fēng)險進(jìn)行舉證,但這是比較困難的,特別是在人身?yè)p害領(lǐng)域,法院對免責事由的審查往往比財產(chǎn)損害要更加嚴格。
本文引用地址:http://dyxdggzs.com/article/201704/346769.htm人工智能與行業(yè)監管
人工智能技術(shù)或者產(chǎn)品的研發(fā)本身目前并未設置行政許可和準入限制,但是一旦這些技術(shù)和產(chǎn)品將要應用到具體的行業(yè)之中,那么就有可能會(huì )涉及各類(lèi)行業(yè)的牌照取得的問(wèn)題。
例如在目前最備受熱議的“智能投顧”行業(yè),就出現了很多人打著(zhù)智能投顧的幌子行非法薦股和無(wú)牌照代銷(xiāo)的現象。智能投顧,通俗地說(shuō)就是“機器人理財”,最早出現在美國,是用數據算法優(yōu)化理財配置的產(chǎn)品。目前國內的智能投顧平臺主要有投資咨詢(xún)和資產(chǎn)管理兩大方向的業(yè)務(wù)。因此,“智能投顧”也會(huì )涉及投資咨詢(xún)和資產(chǎn)管理兩個(gè)方面的牌照。如果平臺從事證券投資咨詢(xún)業(yè)務(wù),按規定,其必須取得經(jīng)中國證監會(huì )頒發(fā)的證券投資咨詢(xún)從業(yè)資格。而且這樣的平臺只能向投資者提供咨詢(xún)建議,不能接觸投資者賬戶(hù)或者受托理財。如果智能投顧平臺涉及銷(xiāo)售金融產(chǎn)品,還需要根據產(chǎn)品類(lèi)型取得相關(guān)許可。未取得相關(guān)許可的智能投顧平臺經(jīng)營(yíng)者可能會(huì )因非法經(jīng)營(yíng)罪陷入刑事法律風(fēng)險。在其他的人工智能應用行業(yè),例如醫療設備、聯(lián)網(wǎng)的可穿戴設備等,牌照的監管問(wèn)題也不容忽視。
未來(lái)行業(yè)監管是否需要延伸至人工智能領(lǐng)域?對于金融、醫療、智能家居、自動(dòng)駕駛等專(zhuān)業(yè)領(lǐng)域,監管是否有必要介入人工智能的開(kāi)發(fā),這取決于人工智能技術(shù)的發(fā)展程度,如果有一天人工智能進(jìn)化到了能夠代替人做決策的階段,那么在人工智能的開(kāi)發(fā)環(huán)節便需要引入相關(guān)領(lǐng)域的具備資質(zhì)的專(zhuān)業(yè)人員。在此之前,對于僅僅在自動(dòng)化操作和輔助判斷領(lǐng)域發(fā)揮作用的人工智能,不妨留給技術(shù)人員自由生長(cháng)。
技術(shù)創(chuàng )新與不正當競爭
人工智能的優(yōu)勢,就在于它能在一定程度上模擬用戶(hù)的思維過(guò)程,并輔助或代替用戶(hù)作出決定。不難預見(jiàn),這一過(guò)程中可能存在的服務(wù)交叉和選擇偏好問(wèn)題,將成為競爭法領(lǐng)域新的熱門(mén)話(huà)題。
為了進(jìn)行輔助決策,人工智能可能需要利用其他設備或軟件運行過(guò)程中的數據,那么用戶(hù)和其他軟件的開(kāi)發(fā)者,誰(shuí)是這些數據的所有人,誰(shuí)能夠作出有效的授權?如果堅持使用公共數據必須逐一取得其他設備生產(chǎn)者或軟件開(kāi)發(fā)者的同意,無(wú)疑將極大的制約人工智能的應用場(chǎng)景和發(fā)展速度。相反,如果認為人工智能開(kāi)發(fā)者在充分保證用戶(hù)知情權和選擇權、不損害產(chǎn)品或軟件原有功能和商業(yè)模式的前提下,可以獲取其他設備或軟件的公共數據,那么必將有助于市場(chǎng)競爭、打破目前“軍閥割據”的混亂局面。
語(yǔ)音助手已經(jīng)可以簡(jiǎn)化用戶(hù)的操作,不遠的未來(lái),如果人工智能發(fā)展到可以預測用戶(hù)的需求的階段,在用戶(hù)的進(jìn)入特定場(chǎng)景前便已經(jīng)準備好相應的服務(wù),這種“衣來(lái)伸手飯來(lái)張口”的提前介入,糾結屬于合法的技術(shù)創(chuàng )新,還是構成對競爭對手的惡意干擾甚至流量劫持,往往需要結合介入時(shí)機、介入方式和損害后果等因素綜合判斷。技術(shù)中立原則并非萬(wàn)能的擋箭牌。
總得來(lái)說(shuō),人工智能的最高理想是代替用戶(hù)決策,而決策隱含著(zhù)對服務(wù)的篩選和分發(fā),這意味著(zhù)人工智能將成為一種全新的流量入口??梢灶A見(jiàn)的是,開(kāi)發(fā)者夾帶自身利益的沖動(dòng)難以杜絕,但另一方面,也無(wú)需對此過(guò)度擔憂(yōu),長(cháng)遠來(lái)看,只要用戶(hù)依然享有用腳投票的權利,市場(chǎng)競爭始終是保證用戶(hù)體驗的不二法門(mén)。
未成年人保護和AI倫理
一說(shuō)到人工智能的用戶(hù),很多人第一聯(lián)想到的總是成年人,而忽略了身邊的很多“小玩家”。人工智能作為一種“增值”技術(shù),早已滲透在我們的手機、iPad、電腦當中,而小朋友們又是這些產(chǎn)品的“頭號粉絲”,其接觸到人工智能,實(shí)屬必然。但是就在這時(shí)候,人工智能貌似并不能識別出“小用戶(hù)們”的身份。最近,國外網(wǎng)站出現了一段視頻,在視頻中小孩向亞馬遜Alexa下達指令:“Alexa,請播放‘diggerdigger(兒童歌曲)’。”之后,亞馬遜個(gè)人助手通過(guò)算法進(jìn)行識別,竟然認為小孩子想聽(tīng)情色內容并開(kāi)始播放。當小孩子的父母意識到發(fā)生了什么事情的時(shí)候,已經(jīng)為時(shí)已晚。無(wú)獨有偶,一名六歲的女孩在和Echo內置的人工智能助手Alexa聊天時(shí),訂下了價(jià)值170美元的玩具。雖然小孩的媽媽在知道此事后立刻取消了操作,但訂單早已經(jīng)被處理。和孩子身高幾乎相同的玩偶在第二天就被送到了家門(mén)口。因此,我們看到,鑒于人工智能技術(shù)尚不成熟,而且小孩子這項技術(shù)的認知也未深入,他們在接觸到人工智能系統時(shí)很有可能發(fā)生各種問(wèn)題。人工智能的研發(fā)者和制造者應該預料到未成年人有接觸到其產(chǎn)品的可能性,并采取相應的保護措施。
同時(shí),其他主體例如政府、學(xué)校和家長(cháng),對提高未成年人對人工智能的認知都負有責任。例如,在美國白宮發(fā)布的報告《為未來(lái)人工智能做好準備》中就提到,院校應在安防、隱私和安全方面納入倫理學(xué)和相關(guān)主題,將其作為人工智能、機器學(xué)、計算機科學(xué)和數據科學(xué)整體課程的一部分。同時(shí),在其另一份報告《人工智能、自動(dòng)化與經(jīng)濟報告》中也提出了“為未來(lái)的工作教育和培訓美國人”戰略,明確在數學(xué)、計算機科學(xué)等與人工智能密切相關(guān)的主題中提高學(xué)生們的認知。
在過(guò)去的六十年中,人工智能技術(shù)起起伏伏,這一波人工智能熱將在多大程度上影響人類(lèi)社會(huì )還未可知。在考慮如何使用這項技術(shù)幫助人類(lèi)決策的同時(shí),我們也要清楚地認識到,監管部門(mén)和司法機關(guān)對透明性和舉證責任的要求,與機器學(xué)習結果的不確定性和算法保密要求之間,存在著(zhù)一種結構性的緊張關(guān)系。如何在建立一個(gè)既能鼓勵人工技術(shù)發(fā)展,又能合理分配風(fēng)險的監管制度,是下一篇專(zhuān)欄要討論的問(wèn)題。
評論