神經網絡產生的證據直接捕捉了模型對其預測的信心,并包括了輸入數據以及模型最終決策中存在的任何不確定性。
已經開發(fā)出一種新方法來快速評估神經網絡的確定性。該模型可以提高依賴于AI輔助決策的現實系統(tǒng)中的效率。
麻省理工學院(MIT)和哈佛大學的一組研究人員開發(fā)了該方法,并在題為“深度證據回歸”的論文中對其進行了詳細說明。
研究人員訓練了他們的神經網絡來分析圖像并估計距相機鏡頭的距離,這類似于自動駕駛汽車用來評估與行人或另一輛汽車的接近程度。
麻省理工學院在一份新聞稿中指出,他們還用稍有變化的圖像對網絡進行了測試,但是,它能夠發(fā)現變化,這可以幫助檢測諸如Deepfake的操縱。
麻省理工學院計算機科學與人工智能實驗室(CSAIL)主任Daniela Rus表示:“通過估算學習模型的不確定性,我們還可以了解模型會有多少錯誤,以及哪些缺失數據可以改善模型。”發(fā)布。
部署了神經網絡來識別大型復雜數據集中的模式,以幫助做出決策。
該團隊設計了一種新的方法來生成“匯總輸出”,這意味著,除了做出決策外,它還將提供證據來支持來自單次神經網絡運行的決策。
麻省理工學院的一個版本解釋說,由神經網絡產生的證據直接捕獲了模型對其預測的信心,并包括了輸入數據以及模型最終決定中存在的任何不確定性。