慕尼黑大學(xué)對話(huà)AI專(zhuān)家:我們該如何理解機器智能?
與聊天機器人的交流會(huì )如何改變我們?
本文引用地址:http://dyxdggzs.com/article/201903/398951.htm心理學(xué)、市場(chǎng)與消費者心理學(xué)教授Sarah Diefenbach博士:
“在邏輯占主導地位的領(lǐng)域,各類(lèi)情境、決策與行動(dòng)往往都能夠合理使用嚴格的邏輯術(shù)語(yǔ)進(jìn)行制定并簡(jiǎn)化為公式,如此一來(lái),人工智能當然能夠超越人類(lèi)并為我們完成很多工作。但作為一名心理學(xué)家,我真正感興趣的是情感因素在其中發(fā)揮的重大作用——人工智能將如何改變我們的社交生活,以及我們彼此之間的日?;?dòng)?
這里,我們以服務(wù)業(yè)為例。當我們突然意識到對方并不是人類(lèi)時(shí),會(huì )對我們自身產(chǎn)生怎樣的影響?過(guò)去十分鐘,我們的交流對象原來(lái)只是聊天機器人——大家是否會(huì )因此感到受騙、受辱或者自尊受挫?我們是否會(huì )因此產(chǎn)生抵觸情緒?
要回答這個(gè)問(wèn)題,我們需要思考機器人在社交網(wǎng)絡(luò )中的作用。在我帶的一位學(xué)生的論文當中,她嘗試分析Instagram上點(diǎn)贊對于用戶(hù)自尊的影響。這里引發(fā)的相關(guān)問(wèn)題,就是點(diǎn)贊操作的來(lái)源——真人抑或是聊天機器人,是否會(huì )對結果產(chǎn)生影響。在另一個(gè)關(guān)于養老院的項目中,我們也在嘗試從另一個(gè)角度研究社交機器人的作用。在陪伴老人的過(guò)程中,機器人應該表現出怎樣的「個(gè)性」?它們應該像是個(gè)溫馴的仆人那樣表現出尊重與謙遜嗎?或者說(shuō)在這樣的情況下,應該讓機器人表現得更真實(shí)一些——粗枝大葉與情緒化等典型的個(gè)性化行為,是否反而可能讓老人們感覺(jué)更加舒服處在?”
機器是否有可能在不久的將來(lái)取代記者?
慕尼黑路德維希馬克西米利安大學(xué)媒體與傳播系教授Neil Thurman:
“新聞業(yè)能否實(shí)現自動(dòng)化,即極少甚至根本不需要任何直接性的人為控制?目前還不行,至少還不存在一種能夠涵蓋所有模式及方法的解決方案。我們仍然需要將任務(wù)分解為常規的、可重復的例程,這是自動(dòng)化算法編寫(xiě)者的工作。機器學(xué)習技術(shù)仍然高度依賴(lài)于以往樣本中的「訓練數據」,這意味著(zhù)其還沒(méi)有能力在復雜、極具創(chuàng )造性而且最重要的新聞任務(wù)當中表現出能夠與優(yōu)秀記者相匹敵的職業(yè)素養?!?/p>
然而,盡管存在這些限制,自動(dòng)化工具仍然開(kāi)始在一部分任務(wù)當中取代人類(lèi)記者——包括故事線(xiàn)索的篩選、新聞文本的編寫(xiě),以及應該將哪些故事發(fā)布給哪些讀者、又該怎樣進(jìn)行優(yōu)先級排序等等。
有人曾說(shuō),“機器人寫(xiě)作”等技術(shù)的進(jìn)步有可能改善新聞業(yè)財務(wù)狀況不穩定的困境,甚至有望幫助新聞業(yè)騰出更多資源進(jìn)行實(shí)地調查。然而,人們也擔心計算機過(guò)度敏感的新聞嗅覺(jué)可能給隱私帶來(lái)負面影響,或者是打著(zhù)新聞個(gè)性化的旗號帶來(lái)無(wú)形的內容過(guò)濾。
“隨著(zhù)算法與AI技術(shù)的持續發(fā)展,我們必須確保整個(gè)新聞行業(yè)能夠繼續以可持續、透明且負責任的方式為公眾提供服務(wù)?!?/p>
AI能否為我們做出經(jīng)濟決策?
比較經(jīng)濟學(xué)學(xué)會(huì )主席Monika Schnitzer教授:
“人工智能可以從數據集當中整理出「最佳估算」結論。例如,根據可用的統計數據,信用卡公司能夠計算出剛剛辦理的卡片遭到辦卡人濫用的概率。而根據數據,風(fēng)險能夠按照相對比例進(jìn)行量化,并視情況決定拒絕支付或者允許支付?!?/p>
“這種評估已經(jīng)成為多種商業(yè)模式的重要基礎。對人工智能技術(shù)的應用能夠大大降低此類(lèi)估算的成本,因為其能夠以極快的速度分析與以往類(lèi)似情況相關(guān)的大量數據。目前,AI尚不能實(shí)現的是獨立評估行動(dòng)的后果。我們需要考慮有哪些響應方法可供選擇,以及如何在評估當中建立合適的安全界線(xiàn)以避免令人討厭的意外。在未來(lái),這些仍然需要由人類(lèi)做出判斷,而機器只能執行人們分配的某些特定任務(wù)?!?/p>
算法會(huì )在招聘領(lǐng)域發(fā)揮作用嗎?
心理學(xué)方法與診斷學(xué)學(xué)會(huì )主席Markus Bühner:
“算法目前已經(jīng)被用于進(jìn)行人員篩選。雖然可能在決策流程當中發(fā)揮一定作用,但其仍然無(wú)法完全取代人力資源從業(yè)者。在我看來(lái),很多面向現有市場(chǎng)問(wèn)題提出的所謂AI改進(jìn)意見(jiàn)根本不切實(shí)際。在大多數情況下,我看不到這些算法能夠帶來(lái)哪些具體的收益。當然,考慮到在理論層面上,引入數百萬(wàn)個(gè)變量的算法對候選人的評估確實(shí)有可能更準確。但最重要的是評估到底關(guān)注哪些人才素養,如果候選人聲音不好聽(tīng),比如說(shuō)碰巧感冒了或者面試語(yǔ)言并非其母語(yǔ),那么結果會(huì )受到哪些影響?
根據DIN工作相關(guān)能力評估規范,在上下文當中收集信息的評估人員必須確保這一切與工作內容直接相關(guān)。作為人類(lèi),我們不可能事無(wú)巨細地收集并分析候選人的每一項特征與對應數據。因此,我也期待看到算法的應用與我們的數據保護立法條款如何協(xié)調統一,畢竟這些條款對于受試人的數據透明度做出了約束要求。另外,即使是在那些毫無(wú)爭議的倫理與法律問(wèn)題上,算法的有效性也仍然存在問(wèn)題。如果要對掌握某些新技能的候選人做出準確的可靠性預測,其必須不斷重建自身以適應崗位的要求?!?/p>
“我們永遠不會(huì )制造出真正的合作伙伴”
哲學(xué)與政治理論教授Julian Nida- Rümelin:
“目前,人工智能領(lǐng)域仍然主要處于搜索模式,基本上可以這么斷言。機器人技術(shù)的設計目標在于提供能夠模仿人類(lèi)能力的方案,以人臉識別為代表的實(shí)際成果已經(jīng)體現出這種明顯的趨勢。然而,這類(lèi)應用不太可能決定AI領(lǐng)域的未來(lái)發(fā)展方向。
換言之,試圖將利用非生命事物作為自我預測的動(dòng)機是種不明智的行為。我們永遠不會(huì )制造出真正的合作伙伴或者談話(huà)對象。相反,我們應該集中精力于經(jīng)濟生產(chǎn)這一核心。如果實(shí)現工業(yè)4.0的努力主要集中在對工具以及技術(shù)能力的推動(dòng)方面,那么數字化無(wú)疑有望為全世界的經(jīng)濟發(fā)展做出巨大貢獻?!?/p>
評論