如果我們希望機器人能夠像我們一樣思考,我們就必須停止給他們所有答案。好奇心和探索是深度學習根本無法提供的人類智力的兩個關(guān)鍵組成部分。
在《Quanta》雜志的最近一篇文章中,作家Matthew Hutson描述了計算機科學家Kenneth Stanley的工作,他目前在Uber的AI實驗室工作。斯坦利在“神經(jīng)進化”領(lǐng)域的開拓性工作為新的人工智能范式鋪平了道路,該范式避開了傳統(tǒng)的基于目標的訓練模型,而轉(zhuǎn)向了僅具有探索和創(chuàng)造力的AI模型。
哈特森寫道:
生物進化也是產(chǎn)生人類智能的唯一系統(tǒng),這是許多AI研究人員的終極夢想。由于生物學的歷史記錄,Stanley和其他人開始相信,如果我們希望使用能夠盡可能輕松地(甚至更好)導航物理和社交世界的算法!-我們需要模仿自然的策略。
他們認為,與其硬編碼推理規(guī)則,要么讓計算機學會在特定的性能指標上獲得高分,我們必須讓大量的解決方案蓬勃發(fā)展。讓他們優(yōu)先考慮新穎性或趣味性,而不是走路或說話的能力。他們可能會發(fā)現(xiàn)一條間接的道路,一系列的墊腳石,并且比起直接尋求這些技能的人來說,走路和說話要好得多。
標準深度學習模型使用黑匣子(一組權(quán)重和參數(shù),最終使它們變得過于復雜,以至于開發(fā)人員無法單獨描述)來“精簡”機器學習算法并對其進行調(diào)整,直到它們輸出正確的數(shù)據(jù)為止。這不是智慧,是指望。
如果AI能夠發(fā)展自己的解決方案并將這些參數(shù)與深度學習結(jié)合起來,那么它將更接近于模仿人類層面的問題解決方案。至少,斯坦利(Stanley)認為。
他的研究涉及構(gòu)建可與深度學習系統(tǒng)協(xié)同工作的進化算法。從本質(zhì)上講,他沒有教AI解決問題,而是開發(fā)了一些曲折的算法,以了解它們的功能。這些系統(tǒng)無法解決像正常AI范例這樣的問題。他們只是一直走到發(fā)生某件事為止。值得注意的是,與傳統(tǒng)的深度學習模型相比,他們無需解決任何問題,仍然可以有效地解決許多問題。