人工智能(AI)不斷改變著企業(yè)和社會,幾乎迫使每個行業(yè)的公司都在快速發(fā)展的空間中進行投資。隨著AI對我們生活的影響越來越大,對負責任的AI的需求也在增長。負責任的AI可能已經(jīng)是廣泛討論的話題,但是實際上有幾家公司將其原則付諸實踐?
在有關2021年預測的五個部分系列的第一部分中,我們關注負責任的AI的未來。負責任的人工智能可能意味著很多事情;這可能意味著減少模型偏差,增強數(shù)據(jù)隱私性,為AI供應鏈成員提供合理的報酬等等。無論如何,負責任的人工智能有望在2021年成為許多公司的重點,并在未來五年內(nèi)變得越來越重要。推動這一趨勢的原因是越來越多的高管進行監(jiān)督,而高管越來越參與道德討論,并要求擁有非歧視性待遇和數(shù)據(jù)隱私權的客戶擁有所有權,在某些情況下,還需要公司董事會避免短期和長期的監(jiān)管。長期損害品牌。
風險不接近AI負責將在未來幾年內(nèi)有可能在安裝,如發(fā)生故障的價格上升。
我們現(xiàn)在在哪?
有關負責任的AI的數(shù)據(jù)表明,該領域的進展緩慢。根據(jù)2020年AI和機器學習狀況報告,雖然越來越多的公司將負責任的AI視為業(yè)務成功的組成部分,但只有25%的接受調(diào)查的公司表示無偏AI是關鍵任務。在全球范圍內(nèi)進行AI擴展的公司更有可能說他們是從道德的角度考慮AI的,這可能是由于最高管理層施加的壓力以及外部因素的影響。
如果您收到的反饋是負責任的AI仍未獲得應有的關注,這應該引起關注。負責任地構建的AI的偏見更少,更有效,并且對更多人而言更好地工作。在構建AI解決方案時不使用道德準則可能會給品牌的聲譽和客戶體驗帶來可怕的后果。我們已經(jīng)看到公司犯錯了,甚至是精通技術的大公司,也對他們所服務的人員和底線產(chǎn)生了不利影響。例如,如果一家在多個國家/地區(qū)銷售配備語音識別功能的汽車的公司僅以每種語言講母語的人來訓練產(chǎn)品,那么該系統(tǒng)可能就難以理解女性或任何有口音的人。
可能是由于缺乏清晰或一致的最佳實踐,導致圍繞該主題產(chǎn)生歧義或誤解。最近,各種權威機構和組織共同努力彌合差距,并嘗試創(chuàng)建更可靠的框架來負責任地構建AI。例如,在2016年,一群公司成立了人工智能合作伙伴計劃,以造福人類和社會。它包括Amazon,F(xiàn)acebook,Google,Microsoft和IBM之類的名稱,并在負責任的AI領域記錄了最佳實踐。