有沒有想過你在面試時是否顯得緊張,是否說話太快,是否有人會發現你在簡歷上虛報了經驗?
所有文章都來自我們的網站和應用程序
讓直接到你的收件箱互動填字游戲,數獨和瑣事的所有文章從其他在你的地區
在未來,生成式人工智能技術將能夠告訴……但它會首先提醒你的潛在雇主。
人工智能工具正越來越多地應用于招聘和人力資源領域,一家澳大利亞初創公司已經根據人工智能軟件主持的預篩選面試,對潛在的求職者進行排名。
但在聯邦政府關于為人工智能設置強制性護欄的磋商中,這些用途已被確定為潛在的高風險,技術專家表示,人工智能的部署可能會“令人不安”。
他們警告說,如果在沒有適當的人為監督的情況下使用這項技術來糾正偏見,就像海外的一些案例一樣,訴訟將隨之而來。
多年來,人力資源一直是技術的熱門目標,但隨著生成式人工智能的發展,它的使用也在增加。
布里斯班的初創公司Zeligate在發現了這項技術在幫助澳大利亞和海外招聘過程中的潛力后,推出了這項技術。
“我們認為招聘助理具有全球應用能力,因為很明顯,簡歷、面試,所有這些都是你在世界各地的標準流程,”主管羅布·奧利弗說。
“有很多高素質的求職者申請工作,但企業沒有足夠的資源或時間來回應每個人,所以很多人就退出了招聘過程。”
該公司已經籌集了550萬美元的種子基金,利用其人工智能招聘助手Zeli根據求職者的簡歷以及他們在人工智能主持的視頻面試中的表現對求職者進行評分。
在人工智能面試之后,求職者的分數(滿分為100分)和成績單會被送到招聘人員手中,候選人不僅會根據他們的經驗,還會根據他們的舉止進行評判。
他說:“我們會做一些情緒分析,評估他們的聲音是否自信,他們是否說話太快,以及他們的總體舉止。”
“隨著技術的進一步發展,我們將開始引入邁爾斯-布里格斯和候選人可以通過的其他(性格)評估工具。”
Zeligate首席執行官丹佛?奈杜(Denver Naidoo)表示,人工智能評估并不能最終決定一個人是否被聘用,因為招聘人員可以閱讀面試記錄或觀看面試錄音,以尋找“某種無法衡量的個人魅力或明星品質”。
但他表示,人工智能工具最大的好處之一是它更注重事實,而不是感覺。
“真正的好處是它沒有偏見——它是基于數學的,”奈杜先生告訴AAP。
“它只在事實上起作用,所以如果你想雇傭一個有五年市場營銷經驗的人,而他們只有三年,很明顯他們不完全符合要求,這就是澤利會談論的事實?!?/p>
但在其他國家,人工智能在就業中的使用被認為是有風險的,在政府的《安全與負責任的人工智能咨詢文件》中,人工智能被標記為強制性護欄的潛在目標。
這份報告將于10月4日前接受提交。報告稱,企業在使用人工智能進行招聘評估之前,應仔細考慮存在偏見的風險。
咨詢文件稱:“例如,確定個人是否適合某項工作的自動簡歷掃描服務將被視為高風險系統?!?/p>
“這是因為它有可能影響一個人的工作機會,以及對某些群體的歧視。”
論文中引用的一個例子是亞馬遜使用的一種人工智能工具,直到它發現該軟件歧視女性候選人。
皇家墨爾本理工大學人類-人工智能信息環境中心主任麗莎·吉文表示,人工智能工具在從該公司以前的招聘模式中學習后產生了偏見。
她說:“如果一個數據集有一種內在的偏見——在這種情況下,申請人中男性的比例很高——當系統開始過濾未來的申請時,它只是在復制這種偏見?!?/p>
“它必須經過有效的訓練,才能忽略性別?!?/p>
吉文教授表示,基于技術的歧視也可能適用于候選人的地點、種族、文化背景或年齡,如果人工智能工具被用于其他人力資源領域,可能會影響晉升機會或培訓。
她表示,在部署人工智能工具之前,企業需要確保它們不僅僅是由軟件開發人員創建和監督的。
“這是可以安全做到的,”吉文教授說。
“我們需要一個由IT人員、人力資源人員和了解公平問題的人員組成的團隊?!?/p>
新南威爾士大學人工智能研究所首席科學家托比·沃爾什表示,由于人工智能系統做出錯誤決策的“嚴重后果”,就業是一個應該被列為高風險的領域。
他說:“人工智能在人力資源領域的應用讓我感到困擾,我認為它應該讓更多的人感到困擾。”
雖然現有法律應防止歧視,但他表示,考慮使用人工智能就業工具的公司應僅將其用于協助人類工人,并確保人們最終對自己的決定負責。
他說:“我確實擔心,在接下來的一兩年里,我們會看到一些非常重大、嚴重的集體訴訟,指控那些利用人力資源系統進行招聘的人?!?/p>
“每當我們做出影響人們生活的重要決定時,無論是人力資源、移民、福利還是醫藥,我們最終都需要一個人參與其中。”
澳大利亞聯合通訊社