人力資源從業(yè)人員:使用“算法裁員”可撫平愧疚感
2月21日消息,在谷歌大規模裁員1.2萬(wàn)人幾天后,數百名離職員工涌入一個(gè)在線(xiàn)聊天室,對他們突然被裁員的冷酷方式表達不滿(mǎn),同時(shí)就管理層是如何決定裁員的問(wèn)題交換了看法。有人發(fā)帖問(wèn)道:是不是有個(gè)精心設計、不違反任何法律的“無(wú)腦算法”選擇了誰(shuí)該被裁?
本文引用地址:http://dyxdggzs.com/article/202302/443528.htm谷歌對此表示,他們的裁員決定“沒(méi)有涉及任何算法”。但隨著(zhù)越來(lái)越多的AI工具被應用于職場(chǎng),這些谷歌被裁員工的懷疑似乎并無(wú)道理。如今,許多人力資源經(jīng)理使用機器學(xué)習軟件分析數百萬(wàn)個(gè)與就業(yè)相關(guān)的數據點(diǎn),從而得出哪些人可以參加面試、收到offer、晉升或應該被留住的建議。
但據人力資源分析師和勞動(dòng)力專(zhuān)家稱(chēng),隨著(zhù)硅谷的命運發(fā)生轉變,這些AI工具可能會(huì )幫助處理一項更艱巨的任務(wù),即幫助決定誰(shuí)將被裁掉。
今年1月份,針對300名美國公司人力資源主管的調查顯示,98%的人認為,軟件和算法將幫助他們在今年做出裁員決定。隨著(zhù)公司大量裁員,單靠人類(lèi)很難完成如此繁復的任務(wù)。自年初以來(lái),美國大公司的裁員人數已經(jīng)悄悄達到五位數。
哈佛商學(xué)院教授約瑟夫·富勒(Joseph Fuller)表示,從科技巨頭到家庭用品公司,大公司經(jīng)常使用AI軟件為“正確的項目”尋找“合適的人”。 這些產(chǎn)品幫助建立了一份“技能清單”,這是一個(gè)關(guān)于員工的強大數據庫,可以幫助經(jīng)理們確定擁有何種工作經(jīng)驗、證書(shū)和技能的人選與不同的崗位匹配。同理,這些工具也可以幫助裁員。
軟件評測網(wǎng)站Capterra的高級人力資源分析師Brian Westfall說(shuō),自2008年經(jīng)濟衰退以來(lái),人力資源部門(mén)變得“越來(lái)越依賴(lài)數據”。他補充說(shuō),在做出裁員等棘手決定時(shí),求助于算法可能會(huì )幫助經(jīng)理人們撫平愧疚感。
許多公司都在使用分析員工績(jì)效數據的軟件。在Capterra的調查中,70%的人力資源經(jīng)理表示,在評估裁員時(shí),績(jì)效是最重要的考核因素。Westfall也表示,用于裁員的其他指標可能不那么明確。例如,人力資源算法可以計算出哪些因素會(huì )導致某人有“跳槽風(fēng)險”,以及更有可能離開(kāi)公司。
Westfall聲稱(chēng),AI的介入也引發(fā)了許多問(wèn)題。例如,如果某家公司存在歧視問(wèn)題,有色人種員工離開(kāi)的比例可能會(huì )更高。但如果算法沒(méi)有接受過(guò)類(lèi)似的培訓,并不了解這種情況,它可能會(huì )認為非白人員工的“逃跑風(fēng)險”更高,并建議裁掉更多有色人種員工?!霸谀撤N程度上,你可以看到滾雪球效應出現。你不知道數據是如何創(chuàng )建的,或者數據是如何受到影響的,而這些因素突然導致了糟糕的決策?!盬estfall說(shuō)。
使用AI工具的人力資源軟件公司Gloat的副總裁杰夫·施瓦茨(Jeff Schwartz)說(shuō),Gloat的客戶(hù)沒(méi)在使用該公司的軟件創(chuàng )建裁員名單。但他承認,人力資源主管們在如何做出此類(lèi)決策方面必須保持透明,包括算法的使用范圍有多廣。他說(shuō):“對我們來(lái)說(shuō),這是一個(gè)學(xué)習時(shí)刻,我們需要揭開(kāi)黑匣子的秘密。我們需要了解哪些算法在以哪些方式發(fā)揮作用,我們需要弄清楚人們和算法是如何協(xié)同工作的?!?/p>
勞動(dòng)力專(zhuān)家表示,對軟件的依賴(lài)引發(fā)了一場(chǎng)辯論,爭論的焦點(diǎn)是算法在裁員過(guò)程中應該扮演什么角色,以及雇主應該在多大程度上公開(kāi)裁員背后的原因。Westfall說(shuō):“風(fēng)險在于使用了錯誤的數據,以及根據算法所說(shuō)的東西做出決定,然后盲目地跟隨它?!?/p>
但勞工和就業(yè)律師、追蹤人力資源領(lǐng)域進(jìn)步的組織Disrupt HR的成員扎克·邦巴奇(Zack Bombatch)表示,自疫情暴發(fā)以來(lái),人力資源組織已經(jīng)不堪重負,他們將繼續使用軟件來(lái)幫助減輕工作量。
有鑒于此,公司在做裁員決定時(shí),不該讓算法單獨給出名單,而是需要人類(lèi)審查其建議,以確保不會(huì )對有色人種、女性或老年員工產(chǎn)生偏見(jiàn),這些行為都會(huì )引發(fā)訴訟。邦巴奇警告稱(chēng):”不要試圖把責任都推給軟件?!?/p>
評論