AI腦科學
深度學習
人工智慧的原理非常多樣化,其中一種主要形式為「類神經網路」,顧名思義即是模仿生物神經系統運作原理的一種運算方法。近年來類神經網路逐漸進化到深度神經網路,也就是參與運算的網路層數從過往的三五層增加到幾十層。另外,加上深度網路學習機制的改進,讓類神經網路的能力在過去十多年大幅爆發。其中最有名的例子就是下圍棋的Alapha Go,在長期的訓練之下,Alapha Go也漸漸成為無人能敵的強者。

然而,此種人工智慧仍然面臨了兩個大瓶頸。第一是對硬體運算能力要求甚高,第二是需要大量的訓練資料,學習效率不高。為了突破此瓶頸,科學家再度借鑒腦科學,希望能夠發展出新的計算原理,其中一個重點領域即是硬體架構。目前大多數深度神經網路還是在傳統的電腦上以軟體模擬的方式運算,然而傳統電腦中的記憶單元與運算單元是分開的,與神經系統中記憶即運算單元的結構截然不同。因此有科學家開始發展仿神經晶片,直接把神經網路的結構設計到硬體中,這樣不但可以顯著加速類神經網路運算的速度,也可大幅降低所需的功耗。

另外,大多數動物大腦中的神經之間有高度的互相連結,稱作回饋式網路,與深度神經網路嚴格分層的結構截然不同。分層網路的優點是每一層的輸入、運算與輸出可以清楚的區分,所以易於工程上的設計與組合。回饋式網路模糊了輸入輸出的界線,與傳統工程設計的思維大不同,因此如何把更真實的大腦神經網路結構運用在類神經網路中是個亟待解決的問題。 最後,深度神經網路的學習機制以反向傳播法為主,與目前已知的生物神經網路的學習方式截然不同。反向傳播法在明確分層的深度網路有其優點,但難以應用在仿生的回饋式網路,因為這種網路中的訊號傳遞沒有明顯的 “正向” 與 “反向”。生物神經網路使用的學習方式相當的複雜與多樣化,如能從生物的機制啟發出新的學習演算法,或許可以解決類神經網路學習效率不高的問題,讓人工智慧裝置如自駕車能夠更可靠且有效率地為人類服務。
文/羅中泉教授