分享

求職遇到AI面試官,是否會遭遇算法歧視?

法律幫助 2024-08-26 17:25:29

數(shù)智化管理時代,考慮到成本和效率,AI面試將是行業(yè)的大勢所趨。然而,其公正性和透明度問題也引起了廣泛關注。

畢業(yè)求職,面試官很“特殊”

周曉敏今年大學畢業(yè),站在人生的新起點上。在這個數(shù)字化時代,她的首次職場闖關竟是與AI面試官的一場“較量”。無需直面審視的目光,無需擔心現(xiàn)場的緊張氛圍,只需在小程序中輕輕一點,驗證身份后,一場自我能力與認知的考驗便開啟。這種面試方式,讓性格內向、缺乏實戰(zhàn)經驗的周曉敏在虛擬空間里得以更加自如地發(fā)揮。

這一新興的招聘趨勢,正逐步滲透至各大企業(yè)的招聘流程之中。《2023年中國網(wǎng)絡招聘市場發(fā)展研究報告》的統(tǒng)計顯示,AI視頻面試的應用場景已達到31.8%。專業(yè)招聘平臺大力推動人工智能招聘系統(tǒng)研發(fā)和應用的背后,是龐大的市場需求。

從自我介紹到情景模擬,從問題解決到才藝展示,每一個環(huán)節(jié)都被精心設計,旨在全方位、多角度地評估求職者的綜合素質。求職者提交錄音及視頻,AI招聘系統(tǒng)通過對面試者進行面部表情、情緒語氣、邏輯表達、簡歷信息問答等方式進行綜合性評判。大部分企業(yè)將其用于初面,后由真人面試官進行二面。

有些AI面試官,不僅能夠根據(jù)求職者的回答實時生成深度問題,進行精準追問,還能夠在追問過程中展現(xiàn)出超乎尋常的理解力與洞察力。

求職者劉飛分享道,AI面試時,視頻面試與測評選擇題交替進行,安排科學合理,有效緩解了他的緊張情緒。AI面試官不僅細致聆聽了他的陳述,還巧妙地引導他深入挖掘項目細節(jié)、分享思考過程。他認為,AI面試官的臨場反應能力及追問能力,甚至不遜色于一些真人面試官,讓人不得不感嘆其“聰明”之處。

然而,也有一些求職者提出質疑,認為AI面試的決策過程可能涉及道德和倫理問題。AI面試有失公正,且缺乏透明度。求職者對于被AI系統(tǒng)淘汰的原因常感困惑,也無從得知是否涉及算法歧視或隱含偏見。

求職者無法從AI面試官處了解更多的企業(yè)信息,從而也被剝奪了一次“雙向選擇”的權利,客觀上使得原本的“雙向選擇”變成了單方面等待被“算法審判”,也有求職者擔憂面試過程中有泄露個人隱私的風險。

法律風險與倫理挑戰(zhàn)并存

AI招聘作為一種新興趨勢,在帶來科技紅利的同時,其發(fā)展與應用必須在法律軌道上穩(wěn)健前行。
如何判斷AI面試是否存在算法歧視?遇到AI面試,求職者如何維護自己的合法權益?企業(yè)強制使用AI面試是否合法?企業(yè)應如何在保障求職者合法權益的同時,確保AI面試過程與結果的公正性與準確性?北京市中倫律師事務所權益合伙人蔡鵬作出解答。

蔡鵬北京市中倫律師事務所權益合伙人
Q:如何判斷AI招聘系統(tǒng)算法存在地域、性別、年齡等就業(yè)歧視問題?
A:面對To C(to Customer)的算法在我國必須要經過備案。算法備案作為我國算法治理體系的重要監(jiān)管內容,旨在保護用戶權益,維護產品安全和信息安全。

自《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》(下稱《算法推薦管理規(guī)定》)、《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》提出算法備案要求以來,國家網(wǎng)信辦已連續(xù)發(fā)布了四批境內互聯(lián)網(wǎng)信息服務算法備案清單和首批境內深度合成服務算法備案清單。

所以,對于求職者而言,判斷一款算法是否合法合規(guī),是否有不當?shù)钠缫暎钪苯拥姆绞骄褪遣殚喸撍惴ㄊ欠窠涍^監(jiān)管部門的備案。未經備案的,算法的透明度沒有被監(jiān)管部門所審核,很難證明其不含有歧視內容。

Q:遇到AI面試,求職者怎樣維護自己的合法權益?在面試過程中,如何防止個人隱私泄露?

A:算法為一種計算機程序,屬于法律上的“自動化決策”方式。個人信息保護法規(guī)定,通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。
因此,建議用人單位在使用AI招聘系統(tǒng)時,需要依法進行個人信息保護影響評估和倫理評估,且應當在AI面試中設置退出機制(opt-out)。當求職者對AI面試感到不適,其有權利拒絕使用AI面試工具。

在面試中防止隱私泄露的主要責任在于數(shù)據(jù)處理者,即用人單位。由于AI面試不可避免地要處理大量敏感個人信息,包括身份證信息、人臉、語音等生物特征信息等,因此對于聘用方而言,如何確保這些敏感數(shù)據(jù)不會被泄露和濫用,是其第一安全要務。

對于求職者而言,可以在面試前的告知同意環(huán)節(jié),查閱有關隱私政策中數(shù)據(jù)處理和流轉的內容,如覺得存在安全問題,可以與聘用方溝通調整面試方式。

Q:企業(yè)強制使用AI面試是否合法?應該如何保障勞動者的合法權益,確保人工智能面試過程與結果的公正性、準確性并使決策過程符合道德和倫理標準?

A:企業(yè)不能強制使用AI面試,而是需要做好做全合規(guī)動作,賦予求職者法定的拒絕權和選擇權等相關權利。事前告知與披露是企業(yè)履行合規(guī)義務以及保護用戶隱私的合規(guī)表現(xiàn)之一。

在《信息安全技術 基于個人信息的自動化決策安全要求(草案)》中,要求數(shù)據(jù)處理者利用自動化決策進行績效管理、人事管理時,應當在算法設計層面引入勞動者權益保護考量。

企業(yè)如果想要確保人工智能面試過程與結果的公正性、準確性并使決策過程符合道德和倫理標準,首先,必須做到法律所規(guī)定的合規(guī)要求,有效評估數(shù)據(jù)處理方式的風險,確保處理個人信息全生命周期的合法性。
其次,對于AI招聘系統(tǒng)的應用,企業(yè)需要以審慎的態(tài)度對待。若AI僅作為輔助評估工具,為用人單位提供決策參考,這在一定程度上可以減少偏見/歧視風險。然而,如果AI系統(tǒng)直接參與決策過程,例如根據(jù)AI系統(tǒng)打分高低錄取候選人,其潛在的歧視問題則不容忽視。

考慮到AI系統(tǒng)學習的數(shù)據(jù)樣本可能帶有歷史偏見,例如某些崗位傾向于選擇特定性別或年齡的候選人,這可能導致AI系統(tǒng)在招聘過程中復制甚至放大這些偏見。因此,在這種情況下,應考慮引入選擇進入機制(opt-in),允許求職者主動選擇是否愿意接受AI的評估。

再次,確保透明度是關鍵。求職者應被充分告知面試流程中AI技術的運用,明確哪些面試環(huán)節(jié)是由算法驅動,這是尊重其知情權的體現(xiàn),也是構建信任與公平的重要步驟。

最后,在考慮AI面試技術的實際應用時,還應正視其技術成熟度的問題。當前,不同AI系統(tǒng)因設計參數(shù)與訓練數(shù)據(jù)的差異,很可能對相同求職者的面試表現(xiàn)給出相異的評估結果。這種不一致性不僅可能導致優(yōu)秀候選人錯失機會,也可能無意中放大了系統(tǒng)性偏見,對個體職業(yè)生涯產生深遠影響。

因此,建議用人單位在使用數(shù)字化招聘的同時,應審慎甄選AI面試工具,優(yōu)先考量那些透明度高、具備科學驗證基礎及能夠提供詳盡評估邏輯的系統(tǒng),確保技術應用既促進效率,又兼顧公平與合法性,避免因技術局限性給求職者帶來不必要的困擾與不公。

Q:對AI面試的未來發(fā)展有何看法及期待?

A:作為人類計算技術的重要成果,AI工具帶來的效率提升和模式迭代是具有顯著意義的,但安全性、透明度、可靠性、保障性等原則仍然是衡量該技術是否可控可依賴的重要指標。在AI技術突飛猛進的背景下,AI技術在勞動用工場景下所帶來的隱私挑戰(zhàn)將會愈發(fā)明顯。

未來,要避免AI技術成為勞動者和用人單位之間不信任的鴻溝,AI必須成為提高效率且有溫度的勞動管理智能伙伴。這有賴于社會各界共同推動有關實踐經驗,并形成出臺法案,讓各方能夠依法行使權利和履行義務。