10746| 33
|
[『編程語言』] 小象學院《深度學習》第三期 |
小象學院《深度學習》第三期
主講老師: 李偉, 美國紐約城市大學博士 研究領域包括深度學習,計算機視覺,人臉計算以及人機交互,即將畢業(yè)加入美國頂級云計算平臺人工智能研究組。在CVPR,ECCV等頂級會議上發(fā)表了多篇學術文章,同時他還是WACV,ACCV,ECCV等重要視覺會議以及MVA,CVIU等期刊的審稿人。 課程簡介: 本次的深度學習課程主要包括三大部分: 1) 深度學習核心原理。了解深度學習運行的最核心數(shù)學原理,從而對后續(xù)的知識點擴展,模型設計與優(yōu)化技能打下基礎。 2) 深度學習知識點連接。會涵蓋主流的深度學習研究工程應用中碰到的大部分知識點,與大部分學習資料孤立進行知識點介紹不同,會結合主講人自身總結找到所有知識點之間的聯(lián)系,便于系統(tǒng)掌握。 3) 介紹不同知識點的代表應用。結合所學的原理以及知識點,介紹比較重要的圖像和語言方面的應用,如增強學習,遷移學習,GAN等, 方便學員針對自身興趣的目標進行強化訓練。 面向人群: 1. 想了解和學習深度學習的學習者 2. 想學習深度學習的相關從業(yè)人員 3. 想轉行從事深度的學習者 學習收益: 通過本課程的學習,學員將會收獲: 1. 幫助學員系統(tǒng)性的掌握深度學習的基本原理,以及從基本概念到各個先進模型的轉化思路 2. 了解研究過程中定義問題設計模型的思路 3. 培養(yǎng)學員面對工程及學術問題的思考解決能力 4. 快速積累深度學習項目經驗 課程大綱: 第一課 深度學習總體介紹 1. 神經網絡:傳統(tǒng)到現(xiàn)代 2. 深度學習應用特點 3. 深度學習發(fā)展方向 4. 深度學習框架比較:用Tensorflow進行課程學習 第二課 傳統(tǒng)神經網絡 1. 線性回歸 2. 非線性激勵函數(shù) 3. loss 函數(shù),常見問題:過擬合,正則化,dropout 實例:傳統(tǒng)神經網絡絡實現(xiàn) 第三課 反向反饋:深度學習模型優(yōu)化基礎 1. SGD 梯度下降介紹 2. 神經網絡的梯度優(yōu)化 3. 神經網絡訓練 實例:反向梯度優(yōu)化對比 第四課 卷積神經網絡 1. 卷積核以及卷積層 2. AlexNet 最早的現(xiàn)代神經網絡 3. VGG,GoogleNet,,ResNet. 近期的高級網絡 實例:利用已有模型進行物體分類/特征提取 第五課 遷移學習 1. 理論分析 2. 遷移模型&原始訓練模型 3. 如何設計新的的網絡 實例:表情識別/人臉識別/動物識別 第六課 與時域信息相關的深度學習 1. RNN 2. LSTM 3. 圖片標題生成 4. 視頻處理 實例:LSTM用于圖片標題生成 第七課 自然語言處理 1. 處理之前:speech to text 2. 詞語表達,word2vect 3. 語句生成LSTM 實例:根據(jù)上下文回答問題 第八課 給予深度學習的目標檢測 1. 傳統(tǒng)的目標檢測方法 2. 初代算法: Region CNN 3. 升級: SPP Net, Fast RCNN, Faster RCNN 4. 深度學習另辟蹊徑: YoLo 和SSD 實例: 自動駕駛的核心:實時目標檢測 第九課 深度卷積神經偶的重要應用 1. 圖片問答 2. 圖像模式轉換 3. 圖像高清化 4. 圍棋程序, Alpha go 5. 自動游戲機器人,DeepMind Atari 實例: 圖片藝術風格轉化 第十課 無監(jiān)督學習:對抗網絡GAN 1. 傳統(tǒng)無監(jiān)督學習 Autoencode,K Means,Sparse Coding 2. RBM 限制博斯曼機,深度學習的另一支 3. 生成對抗網絡 GAN 實例: 機器生成圖片,以假亂真
購買主題
本主題需向作者支付 666 資源幣 才能瀏覽
| |
| ||
| ||
| ||
| ||
| ||
| ||
| ||
| ||
| ||
小黑屋|資源共享吧 ( 瓊ICP備2023000410號-1 )
GMT+8, 2025-1-10 09:48 , Processed in 0.074666 second(s), 16 queries , MemCached On.