序言╱本書的目的╱本書的架構
【第1章 深度學習與機器學習】
Lesson 1-1│深度學習的基礎:深階層的類神經網路
Lesson 1-2│深度學習的歷史:從人工智慧的進化來看深度學習
Lesson 1-3│機器學習的基礎知識:監督式學習與非監督式學習╱強化學習╱規則庫、知識庫╱統計機器學習╱預處理與特徵提取╱批量學習與線上學習╱效能評估╱泛化能力
Lesson 1-4│機器學習所需的數學:數值與表示式╱變數與常數╱等式與代入式╱向量與上下標╱求和記號╱最小值、最大值╱絕對值╱距離與範數╱微分與偏微分╱合成函數的微分╱指數與對數
COLUMN 1│什麼是人工智慧?
【第2章 Python的準備與基本語法】
Lesson 2-1│Python的安裝~Windows篇~:安裝至Windows
Lesson 2-2│Python的安裝~Mac篇~:在Mac可直接使用Python 2系列╱Homebrew的安裝╱pyenv的安裝╱安裝Python 3系列
Lesson 2-3│函式庫的安裝~Windows篇~:Windows版Anaconda的安裝
Lesson 2-4│函式庫的安裝~Mac篇~:Mac版Anaconda的安裝
Lesson 2-5│Python的基本語法:Hello, Python!!╱變數╱常數╱資料型別╱運算╱List型別與Tuple型別╱Set型別╱Dict型別╱字串的連結與反覆╱字串格式╱Sequence運算╱函式╱if陳述╱反覆陳述╱模組的匯入
COLUMN 2│使用Java的實作
【第3章 深度學習的體驗】
Lesson 3-1│TensorFlow與Keras的安裝:Windows篇:安裝TensorFlow╱Windows篇:安裝Keras╱Mac篇:安裝TensorFlow╱Mac篇:安裝Keras
Lesson 3-2│使用Jupyter Notebook:Jupyter Notebook的準備╱Jupyter Notebook的使用方法╱POINT:於Mac執行時
Lesson 3-3│數值運算函式庫NumPy的使用方法:基本的使用方式
Lesson 3-4│資料繪製函式庫Matplotlib的使用方法:基本的使用方式
Lesson 3-5│以Keras體驗深度學習:從Kaggle下載影像╱製作影像辨識的程式
COLUMN 3│什麼是TensorFlow?
【第4章 類神經網路的基礎】
Lesson 4-1│神經元與感知器:神經元╱感知器
Lesson 4-2│激勵函數:各式各樣的激勵函數
Lesson 4-3│赫布理論與差量規則:權重的學習規則
Lesson 4-4│類神經網路的學習:區別狗與貓╱XOR問題╱多層感知器(類神經網路)╱OR問題╱AND問題╱NAND問題╱以類神經網路識別
Lesson 4-5│學習方法的差異與損失函數:類神經網路的學習方法╱從學習過程看損失函數╱關於損失函數
Lesson 4-6│梯度法:如何調整參數?╱類神經網路誤差的梯度求法
Lesson 4-7│反向傳播算法:什麼是反向傳播算法?╱鏈鎖律
Lesson 4-8│MNIST:Step 1. 以Jupyter Notebook新增檔案╱Step 2. 準備手繪影像資料╱Step 3. 製作模型╱Step 4. 類神經網路的學習
COLUMN 4│維度的詛咒與過適
【第5章 卷積神經網路】
Lesson 5-1│卷積神經網路的基礎:影像分類與視覺神經元╱讓1個神經元學習全部的輸入影像
Lesson 5-2│卷積運算:讓感受野滑動╱聚焦區域的移動
Lesson 5-3│卷積層:為了使其認識不同樣式╱POINT:Windows上務必安裝Graphviz
Lesson 5-4│深層卷積神經網路:使其能接受3維資料
Lesson 5-5│以補零卷積:收縮輸出的形狀╱輸入資料之周圍資訊的損失╱補零
Lesson 5-6│增廣範圍的卷積:什麼是步幅?╱使用補零
Lesson 5-7│卷積ReLU層:以非線性變換增進辨識
Lesson 5-8│池化層:以池化層處理╱池化層的優點與注意點
Lesson 5-9│全連結層:全連結層的處理╱修正全連結層╱想進行更複雜的判斷時
Lesson 5-10│深層卷積神經網路的學習:模型學習與訓練╱Step 1. 定義損失E╱Step 2. 初始化權重值w╱Step 3. 反覆修正權重值w
Lesson 5-11│過適與丟棄:過適的例子╱丟棄以防止過適╱丟棄的優點
Lesson 5-12│卷積的進一步詳細資訊:卷積層 vs. 全連結層╱深而小的區域感受野 vs. 淺而廣的感受野
COLUMN 5│使用GPU學習
【第6章 深度學習的應用】
Lesson 6-1│遞迴神經網路(RNN):RNN的特徵
Lesson 6-2│LSTM類神經網路:LSTM的特徵
Lesson 6-3│門閘遞迴單元(GRU):GRU的特徵╱能更有效率地記憶
Lesson 6-4│RNN語言模型:使其推測接下來將出現的單字
Lesson 6-5│Sequence-To-Sequence模型:Sequence-To-Sequence模型的特徵
Lesson 6-6│Attention:Attention的特徵
COLUMN 6│由上而下與由下而上
結語╱謝辭
參考文獻