作者:余曉
近年來,利用算法進(jìn)行AI招聘已成為職場中的一大新熱點(diǎn)。不少年輕人趕到招聘現(xiàn)場或參加線上招聘時(shí)都意外地發(fā)現(xiàn),坐在對面的不再是HR,而是AI。這一求職市場上的新趨勢引發(fā)了公眾的高度關(guān)注,也帶來了一系列問題。對求職者而言,AI招聘的到來,到底是喜是憂?
毋庸諱言,廣大企業(yè)對AI招聘情有獨(dú)鐘,是因?yàn)槠涓憬?、更高效,也更能?jié)省招聘過程中的人力物力成本。誰的匹配度最高,從高往低排序,排名最靠前的幾個(gè)人,基本不需要業(yè)務(wù)部門復(fù)篩,可以直接約面試。AI招聘還自帶算法,會(huì)將每位應(yīng)聘者的亮點(diǎn)和潛在風(fēng)險(xiǎn)都附在排序下面,說明哪些緯度會(huì)影響這個(gè)人的未來績效??傊ぷ髂芰?qiáng)大。
更重要的是,AI招聘更透明。HR在面試任何一位求職者時(shí),免不了帶有自己的主觀判斷。對方的一舉一動(dòng)、一言一行,都可能影響HR的評價(jià),甚至不能排除以下可能:某些HR會(huì)對某個(gè)地域或某種性格的求職者存有根深蒂固的偏見,而這樣的偏見未必能被外界發(fā)現(xiàn),這樣一來,求職者或在不知不覺間就被莫名其妙地淘汰了。與之相比,AI招聘只要有明確標(biāo)準(zhǔn),就能不折不扣地執(zhí)行。
但是,AI招聘帶來的擔(dān)憂也是實(shí)實(shí)在在的。最突出的問題就是,如何保證AI招聘中的算法不存在歧視?事實(shí)上,如果說HR的歧視可能存在于主觀表現(xiàn),那么AI的算法歧視可能更隱蔽,更不容易被求職者發(fā)現(xiàn),因?yàn)樗惴l件并不需要公之于眾。
同時(shí),任何一項(xiàng)工作畢竟是要由有血有肉、有愛有恨的“人”來完成的。這也意味著,熱情、理想、專注等許多條件不可能用數(shù)字和算法來衡量,就像我們了解一個(gè)人,不可能只看一份簡歷。如果過度依賴算法,企業(yè)篩選出的可能是符合條件的“產(chǎn)品”,卻未必是企業(yè)發(fā)展急需的“人才”。
對此,已經(jīng)有專家提出,針對AI算法可能導(dǎo)致歧視以及算法權(quán)力濫用的問題,需要通過算法治理工具予以規(guī)制。比如,應(yīng)強(qiáng)化工會(huì)的專業(yè)化賦能及與第三方專業(yè)機(jī)構(gòu)的制度化協(xié)作,積極參與算法設(shè)計(jì)、算法公開等監(jiān)管程序。
讓勞動(dòng)者參與算法治理,這是保障AI招聘公正公平的題中應(yīng)有之義。但也應(yīng)該看到,大多數(shù)勞動(dòng)者并非AI領(lǐng)域的專家和學(xué)者,他們可以提出一些建議和看法,但具體到執(zhí)行和操作,他們顯然是力有不逮的。因此,也要防止AI招聘成為專業(yè)領(lǐng)域內(nèi)的暗箱操作,如何讓整個(gè)過程都在陽光下進(jìn)行,或許才應(yīng)該是治理的核心問題。
無論公眾接受與否,AI招聘將成為當(dāng)下市場中的大勢所趨,這也是不爭的事實(shí)。學(xué)會(huì)與AI共生,對廣大企業(yè)和求職者而言,已經(jīng)不是一個(gè)選項(xiàng),而是整個(gè)社會(huì)的必由之路。隨著AI的深度介入,求職的模式和路徑必然會(huì)發(fā)生巨大的轉(zhuǎn)變,在這個(gè)過程中還會(huì)帶來哪些新問題,恐怕目前沒有人能夠預(yù)言。也正因此,在未雨綢繆的同時(shí),更需要加強(qiáng)觀察和監(jiān)督,千萬別讓AI招聘跑偏了。(余曉)
聯(lián)系客服