|
 |
機器學習仰賴專家給予訓練資料的正確標註,而深度學習則是讓模擬多層生物神經系統的數學函數模型進行多次運算與資料萃取、分析特徵,進而找出最佳化模型。進入深度學習領域後,機器透過層層運算,取代人工,進行高強度的特徵工程(feature engineering),而人類僅需進行訓練資料與參數的微調就可調校出結 |
|
 |
 |
 |
果,因此許多研究者轉而探究深度學習的複雜運算過程要如何理解並優化。其中,大規模視覺辨識競賽(ILSVRC)為全球電腦視覺領域菁英團隊提供舞台,2012 年AlexNet引入深度學習架構使錯誤率大幅下降,2015 年奪冠的ResNet錯誤率更低於人類,也因此該比賽在2017年暫告一段落。
本期課程另針對過擬合問題的緩解方式、前一期機器學習所述的優化演算法如何應用於深度學習、自編碼機(AutoEncoder)演算法深入說明。
|
 |
深度學習1:
深度學習技術及其優缺、深度神經網路(deep neural network)、通用近似定理(Universal Approximation Theorem)、大規模視覺辨識競賽(ImageNet Large Scale Visual Recognition Competition, ILSVRC)、AlexNet架構、ZFNet架構
|
 |
深度學習2:
ZFNet架構、VGGNet架構、GoogLeNet架構、ResNet架構與殘差網路(Residual Nets)、R-CNN(Region-based CNN)、圖像描述生成(Generating Image Descriptions)、Softmax邏輯迴歸、正則化(Regularization:Data Augmentation、Early Stopping、Dropout)
|
 |
深度學習3:
梯度裁剪(Clipping Gradient)、參數(Parameters)與超參數(Hyperparameters)、優化器(Optimizer:SGD、ADAM)、自編碼機(AutoEncoder)、降噪自編碼器(Denoising AutoEncoder, DAE)
|
 |
|
|