親眼看見機器學習

即使已經做過不少 #神經網路 的案例,親眼看見神經網路的 #學習過程 還是讓人感到震撼。 這個網頁真的很酷,你可以模擬各種不同的神經網路網路架構,詳細看見神經網路的完整學習過程;也可以調整模型參數,看各參數對模型的準確性和收斂速度有什麼影響。對想要認識 #人工智慧、 #深度學習 的同學,或是要教這些內容的老師,都是很棒的工具。它同時也讓我們再次體會到 #資料視覺化 對於學習的重要性。

A Neural Network Playground

A Neural Network Playground

從詮釋性的角度,我們可以把這個模型看成是一個只有少數幾個神經元的低等生物,這個生物生活在一個正方形的平面上,這個平面裡面有些地方它已經去過(樣本點就代表它去過的地方), 為了生存,它需要從這些已知的點去推論整個平面的狀況,也就是說它要用這一些樣本點去建一個可以推論整個平面的神經網路模型。

這個網頁讓我們非常自由的調整環境的複雜度、樣本點的數量、神經網路的架構(神經元的層次跟每一層裡面神經元的個數)、學習速度和學習函數, 也可以讓我們加入雜訊來模擬擾動和測量誤差;設好環境和方法參數之後,透過左上方的的撥放按鈕,我們就可以觀察、比較不同的神經網路結構在不一樣的環境條件之下的學習過程;它甚至可以讓我們在學習進行之間改變模型參數,來即時觀察各參數對模型的準確性和收斂速度的效果。透過親自操做,大家很快就可以體驗到神經網路的威力,只要不到10個神經元,就可以在相當複雜的環境裡面做出很好的推論。

除了技術性的演練之外,我們也可以透過這一個工具來討論一些跟人工智慧有關的重要概念,好比說:

  • 學習的速度越快越好嗎?

  • 學習的過程中,模型的正確率總是越來越高嗎?

  • 我們一直需要新的資料才能持續學習嗎?

  • 學習的結果是儲存在個別神經元裏面嗎?

透過親自操作,同學們可以親眼看見、並親身體驗到:

  • 學習速度太快容易造成錯誤的觀念;

  • 我們常常需要將既有的模型打散,才能繼續進步;

  • 即使沒有新的資料我們還是可以不停的學習;

  • 學習到的知識其實是存在於神經元之間而不是存在個別的神經元裡面 ;

網頁左側的 Feature Engineeriing Tool 可以進一步引導我們討論 「理性主義 vs. 實證主義」這個知識論的核心議題。我們可以設想:假如這個生物只有X、Y座標和狀況好壞三種感覺,它在複雜的環境裡面的學習能力就會大打折扣;我想 Feature Engineeriing 好比是康德說的 Syntheic A Priori Knowledge,

Concepts without percepts are empty;

percepts without concepts are blind.

 
   – Immanuel Kant.

機器的學習和人類的學習其實是一樣的,理論和實證總是要整合在一起,才會有完整的知識。

 

中山大學 管理學院 商業大數據分析

‧管理學術研究中心.

這裏是中山大學管理學院的商業大數據平台,我們從商業應用的角度,為商管背景的老師、同學們收集、整理各種與大數據應用相關的知識;歡迎大家瀏覽我們的網站內容,也歡迎大家來我們的部落格討論區,請在底下留下您的姓名、電郵,參加我們的討論。

Comments (1)

Leave a comment

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *