人工智能開發(fā)過程中有很多步驟,但可以歸結(jié)為三個主要部分:學習,推理和自我糾正。在這些點上的每一個都涉及算法。在學習方面,用于AI模型的編程算法需要數(shù)據(jù)采集和標記。推理需要AI為特定情況選擇最佳算法,然后進行自我糾正,并不斷進行改進,直到達到其目的為止。
在這些階段的每一個階段(從計劃數(shù)據(jù)收集的早期階段到對AI的進一步改進),都有可能會潛伏到最終產(chǎn)品中。這些偏差通常是由于行業(yè)內(nèi)缺乏多樣性而引起的,并且經(jīng)常導致錯誤,而這些錯誤在所謂的“功能齊全”的機器中是無法接受的。
如果我們希望將道德規(guī)范整合到AI開發(fā)中,那么我們必須在流程的每個步驟中引入多樣性-從數(shù)據(jù)收集一直到產(chǎn)品測試。
在數(shù)據(jù)收集階段,考慮是非常重要的是如何將數(shù)據(jù)收集,處理和標記。收集數(shù)據(jù)時是否考慮了文化偏見等問題?數(shù)據(jù)可靠嗎?如何處理數(shù)據(jù),使其代表機器可能遇到的所有情況?
在收集和處理培訓數(shù)據(jù)時,重要的是讓數(shù)據(jù)科學家意識到可能存在的偏差。解決此問題的一些方法是確保從各種樣本中收集足夠的數(shù)據(jù)。這本身是一個漫長的過程,需要正念。
從一開始,負責該過程的人員就必須提出以下問題:我們是否有足夠的數(shù)據(jù),是否存在可以使用的現(xiàn)有數(shù)據(jù)集,以及如何生成可以使用的數(shù)據(jù)?如果有足夠的數(shù)據(jù),我們是否需要改進現(xiàn)有模型?還是我們需要更多的標簽數(shù)據(jù)來更好地進行機器學習?
在數(shù)據(jù)標記階段,擁有一支多樣化的標記團隊可以幫助消除訓練數(shù)據(jù)集的偏見,從而使數(shù)據(jù)集真正準確,高質(zhì)量。提倡多樣性時,大多數(shù)人通常會想到性別,但是它比這更廣泛。種族,年齡,宗教,文化甚至收入可能是可能影響AI應用方式的因素。