微軟用人工智能代替人類編輯人員面臨著其第一個大尷尬。
5月下旬,Microsoft決定解雇MSN News的許多人工編輯器,并用AI代替它們。
本周早些時候,出現(xiàn)了一個有關Little Mix樂隊成員Jade Thirlwall面對種族主義的經(jīng)歷的新聞報道。這個故事看起來足夠純真,直到您意識到Microsoft的AI混淆了兩名混血樂隊成員。Thirlwall迅速指出了該錯誤。
在Instagram故事中,瑟爾沃爾(Thirlwall)寫道:“ @ MSN如果您要從其他準確的媒體渠道復制和粘貼文章,則可能需要確保使用的是該組中正確的混血兒形象。”
她補充說:“這種事發(fā)生在@leighannepinnock上,我一直都在開玩笑。。。這讓我感到惱火,因為你無法在一個小組的四個成員中區(qū)分兩個有色女人……做得更好!”
據(jù)報道,微軟的人工編輯被告知要注意,人工智能隨后可能會針對自己的種族主義錯誤發(fā)布故事,并手動刪除它們。
MSN的工作人員還被告知要等待此《衛(wèi)報》文章的發(fā)布,并嘗試從網(wǎng)站上手動刪除它,因為Microsoft機器人編輯器接任他們的工作很可能會引起MSN讀者的興趣。https://t.co/KkKDZqpHWu
-吉姆·沃特森(@jimwaterson)2020年6月9日
微軟新聞應用程序最終充斥著有關該事件的故事。顯然,其余的人工編輯器無法與自動編輯器相對快速地移動。
有關新聞反烏托邦線程的最終更新:Microsoft的人工智能新聞應用程序現(xiàn)在被新聞機器人選擇的有關新聞機器人回火的故事所淹沒。pic.twitter.com/X0LwfVxw8e
-吉姆·沃特森(@jimwaterson)2020年6月9日
根據(jù)沃特森的說法,最近被解雇的MSN人員被告知停止向他報告AI的工作。
這不是微軟首次以種族為基礎而采用人工智能技術的解決方案。
微軟開發(fā)的一個臭名昭著的Twitter聊天機器人Tay最終在2016年大肆宣揚種族主義和厭惡性的硫酸鹽。顯然,聊天機器人的設計原本并不是那么令人討厭的角色,但出于某種原因,微軟認為允許互聯(lián)網(wǎng)是一個好主意。居民來訓練它。
在我們這個日益嚴酷的世界中,最緊迫的問題之一是大規(guī)模監(jiān)視和面部識別。盡管IBM本周宣布它不希望與這項技術有任何關系,但微軟仍然是主要參與者。
去年算法正義聯(lián)盟的一項實驗發(fā)現(xiàn),基于性別和膚色的面部識別算法的性能之間存在嚴重差異。
微軟的算法實際上在測試中表現(xiàn)最好,在檢測膚色較淺的男性時,其準確性達到了100%。但是,在深色皮膚的女性身上使用該算法時,準確率僅為79.2%。
如果使用該版本的Microsoft面部識別系統(tǒng)進行監(jiān)視-十分之九的女性中有深色皮膚風險的人中有近兩個被錯誤地標記。在繁忙的地區(qū),這可能意味著每天有數(shù)百甚至數(shù)千人面臨自動配置文件。
雖然理想情況下算法不會有任何偏見或問題,但所有事件都表明了為什么很多人幾乎總是應該參與最終決策的原因。這樣,當出現(xiàn)問題時,至少要對特定人員負責,而不僅僅是怪AI錯誤。