五十路一区二区三区视频,久久免费Av播放,综合欧美亚洲日本少妇,国产高清精品aaa

  1. <td id="auzpv"></td>
    <td id="auzpv"><dfn id="auzpv"></dfn></td>
    您的位置:首頁>AI>

    使用AI可以消除招聘中的偏見

    像任何新技術(shù)一樣,人工智能能夠產(chǎn)生巨大的好壞。公眾似乎越來越關(guān)注壞處,尤其是在談到AI的潛在偏見時(shí)。這種擔(dān)憂是有充分根據(jù)的,也是有據(jù)可查的。但是什么是AI?它是機(jī)器對(duì)人類過程的模擬。這種對(duì)有偏見的AI的恐懼忽略了一個(gè)關(guān)鍵事實(shí):AI產(chǎn)生偏見的最深層次原因是它正在模擬的人類行為。它是用于訓(xùn)練算法的有偏見的數(shù)據(jù)集。如果您不喜歡AI所做的事情,那么您肯定會(huì)不喜歡人類的所作所為,因?yàn)锳I純粹是在向人類學(xué)習(xí)。

    讓我們專注于招聘。招聘的現(xiàn)狀存在嚴(yán)重缺陷,坦率地說,反烏托邦主義的原因主要有三個(gè)。

    無意識(shí)的人為偏見使招聘變得不公平。在面試之前對(duì)申請(qǐng)人進(jìn)行審查的典型方法是通過招聘人員對(duì)簡歷進(jìn)行審查。大量研究表明,這一過程導(dǎo)致對(duì)婦女,少數(shù)民族和老年工人的重大無意識(shí)偏見。

    申請(qǐng)人大池被忽略。LinkedIn和其他采購平臺(tái)非常成功,平均有250名申請(qǐng)人申請(qǐng)任何公開職位。這轉(zhuǎn)化為數(shù)以千計(jì)的公開職位申請(qǐng)者。顯然,此過程無法手動(dòng)處理。因此,招聘人員將他們對(duì)申請(qǐng)人池的審查限制在他們認(rèn)為將顯示出最大希望的10%到20%:來自常春藤盟校區(qū)的人才,尋求填補(bǔ)職位的公司競(jìng)爭對(duì)手的被動(dòng)應(yīng)聘者或員工推薦計(jì)劃。但猜猜怎么了?與提交簡歷的申請(qǐng)人數(shù)量相比,頂尖的大學(xué)和員工推薦計(jì)劃的多樣性要少得多。

    傳統(tǒng)的招聘工具已經(jīng)偏向。這是由美國法律的一個(gè)漏洞允許的:聯(lián)邦法律聲明,如果是與工作相關(guān)的租用工具可以偏頗。“與工作相關(guān)”是指成功完成某個(gè)角色的人具有某些特征。但是,如果所有“成功的員工”都是白人,由于人類在聘用習(xí)慣上的偏見,那么幾乎可以肯定的是,與工作相關(guān)的聘用評(píng)估將偏向于白人,而不是白人和白人。來自非常春藤盟校的一名非洲裔美國婦女很幸運(yùn)地成為了人才的一部分,其簡歷得到了審查,并且通過了招募人員評(píng)估她的簡歷的候選人,然后可能會(huì)被要求進(jìn)行有偏見的評(píng)估。

    難怪我們要雇用多樣化的勞動(dòng)力嗎?導(dǎo)致當(dāng)今長期缺乏多樣性的因素以及將繼續(xù)阻礙多樣性的因素是當(dāng)今存在的人類范式,而不是人工智能。

    人工智能最大的希望是消除招聘偏見,其主要原因有兩個(gè):

    1.人工智能可以消除無意識(shí)的人類偏見。當(dāng)前許多用于招聘的AI工具都有缺陷,但是可以解決。AI的優(yōu)點(diǎn)在于我們可以設(shè)計(jì)它以滿足某些有益的規(guī)范。像OpenAI和未來人生研究院這樣的AI從業(yè)者之間的運(yùn)動(dòng)已經(jīng)提出了一套設(shè)計(jì)原則,以使AI符合道德規(guī)范和公平(即,對(duì)所有人有利)。一個(gè)關(guān)鍵原則是應(yīng)設(shè)計(jì)AI,以便對(duì)其進(jìn)行審核并消除其中的偏見。AI審核的功能應(yīng)與新車開車前的安全測(cè)試一樣。如果不符合標(biāo)準(zhǔn),則必須先修復(fù)有缺陷的技術(shù),然后才能將其投入生產(chǎn)。

    2. AI可以評(píng)估候選人的整個(gè)流程,而不是強(qiáng)迫時(shí)間緊迫的人員實(shí)施有偏見的流程以從一開始就縮小流程。只有使用真正的自動(dòng)化漏斗處理程序,我們才能消除因收縮初始管道而造成的偏差,因此手動(dòng)招聘人員的能力可以處理它。令人震驚的是,如今的公司毫不掩飾地承認(rèn),數(shù)以百萬計(jì)的申請(qǐng)者中只有一小部分受到審查。技術(shù)人員和立法者應(yīng)共同努力,創(chuàng)建工具和政策,使對(duì)整個(gè)管道的審查成為可能和強(qiáng)制性。

    此外,對(duì)AI公平性的關(guān)注應(yīng)該使我們以相同的標(biāo)準(zhǔn)評(píng)估現(xiàn)有的聘前評(píng)估。美國平等就業(yè)機(jī)會(huì)委員會(huì)(EEOC)于1970年代制定了現(xiàn)行的公平招聘條例,當(dāng)時(shí)公共互聯(lián)網(wǎng)問世,而申請(qǐng)每種工作的人數(shù)激增。EEOC沒想到現(xiàn)代算法比人類更容易偏見,但也能夠評(píng)估更大,更多樣化的管道。我們需要更新和闡明這些規(guī)定,以真正鼓勵(lì)招聘中的機(jī)會(huì)均等,并允許使用符合明確標(biāo)準(zhǔn)的算法招聘系統(tǒng)。標(biāo)準(zhǔn)的一些先例已經(jīng)出現(xiàn)。加利福尼亞州議會(huì)通過決議為了使用公正的技術(shù)來促進(jìn)招聘的多樣性,舊金山DA在刑事司法程序中使用了“盲判”人工智能。

    相同的標(biāo)準(zhǔn)應(yīng)適用于現(xiàn)有的招聘工具。亞馬遜因其男性偏見的招聘算法而在全國范圍內(nèi)受到了沉重的打擊。然而在當(dāng)今的美國,法律上允許雇主使用歧視婦女或少數(shù)族裔的傳統(tǒng)偏見評(píng)估。怎么會(huì)這樣?可能是因?yàn)榇蠖鄶?shù)人不知道偏見的評(píng)估被廣泛使用(和合法)。如果我們要呼吁無偏的AI(我們絕對(duì)應(yīng)該這樣做),我們還應(yīng)該呼吁消除所有有偏見的傳統(tǒng)評(píng)估。

    免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!