39141| 176
|
[『編程語(yǔ)言』] 深度學(xué)習(xí)與PyTorch入門實(shí)戰(zhàn)教程 |
深度學(xué)習(xí)與PyTorch入門實(shí)戰(zhàn)教程
完整版價(jià)值 399 本課程適合于深度學(xué)習(xí)和人工智能方向新手,需要零基礎(chǔ)、快速、深入學(xué)習(xí)人工智能的朋友。 課程概述 前新加坡國(guó)立大學(xué)(亞洲排名第一)的助理研究員龍龍老師主講,幫助人工智能、深度學(xué)習(xí)初學(xué)者快速、深刻理解深度學(xué)習(xí)算法原理與實(shí)踐。 【莫煩老師】權(quán)威推薦:在教學(xué)中,龍龍老師以簡(jiǎn)短高效的方式,從深度學(xué)習(xí)的多個(gè)角度向我們展開了論述,非常適合想對(duì)深度學(xué)習(xí)有全方位了解的朋友。 【PyTorch中文網(wǎng)】:講解簡(jiǎn)單易懂、由淺入深,是一門值得推薦的課程。 課程特色: 1. 通俗易懂,快速入門 對(duì)深度學(xué)習(xí)算法追本溯源、循序漸進(jìn)式講解,學(xué)員不需要任何機(jī)器學(xué)習(xí)基礎(chǔ),只需要寫過(guò)代碼即可輕松上手。 2. 實(shí)用主導(dǎo),簡(jiǎn)單高效 使用新手最容易掌握的深度學(xué)習(xí)框架PyTorch實(shí)戰(zhàn),比起使用TensorFlow的課程難度降低了約50%,而且PyTorch是業(yè)界最靈活,最受好評(píng)的框架。 3. 案例為師,實(shí)戰(zhàn)護(hù)航 基于計(jì)算機(jī)視覺和NLP領(lǐng)域的經(jīng)典數(shù)據(jù)集,從零開始結(jié)合PyTorch與深度學(xué)習(xí)算法完成多個(gè)案例實(shí)戰(zhàn)。 目錄 章節(jié)1:深度學(xué)習(xí)初見 課時(shí)1深度學(xué)習(xí)框架簡(jiǎn)介09:07 課時(shí)2PyTorch功能演示11:09 章節(jié)2:開發(fā)環(huán)境安裝 課時(shí)3開發(fā)環(huán)境安裝(簡(jiǎn)介)12:40 章節(jié)3:回歸問(wèn)題 課時(shí)4簡(jiǎn)單回歸問(wèn)題-109:09 課時(shí)5簡(jiǎn)單回歸問(wèn)題-214:44 課時(shí)6回歸問(wèn)題實(shí)戰(zhàn)08:43 課時(shí)7分類問(wèn)題引入-107:16 課時(shí)8分類問(wèn)題引入-209:19 課時(shí)9手寫數(shù)字識(shí)別初體驗(yàn)-106:09 課時(shí)10手寫數(shù)字識(shí)別初體驗(yàn)-206:35 課時(shí)11手寫數(shù)字識(shí)別初體驗(yàn)-307:02 課時(shí)12手寫數(shù)字識(shí)別初體驗(yàn)-408:05 課時(shí)13手寫數(shù)字識(shí)別初體驗(yàn)-508:16 章節(jié)4yTorch基礎(chǔ)教程 課時(shí)14張量數(shù)據(jù)類型-109:56 課時(shí)15張量數(shù)據(jù)類型-214:07 課時(shí)16創(chuàng)建Tensor-110:46 課時(shí)17創(chuàng)建Tensor-212:59 課時(shí)18索引與切片-112:10 課時(shí)19索引與切片-211:30 課時(shí)20維度變換-107:37 課時(shí)21維度變換-210:01 課時(shí)22維度變換-307:52 課時(shí)23維度變換-410:23 章節(jié)5yTorch進(jìn)階教程 課時(shí)24Broadcasting-108:46 課時(shí)25Broadcasting-211:35 課時(shí)26Broadcasting-306:11 課時(shí)27合并與分割-110:43 課時(shí)28合并與分割-206:36 課時(shí)29數(shù)學(xué)運(yùn)算-107:39 課時(shí)30數(shù)學(xué)運(yùn)算-208:54 課時(shí)31屬性統(tǒng)計(jì)-110:41 課時(shí)32屬性統(tǒng)計(jì)-211:34 課時(shí)33高階操作16:05 章節(jié)6:隨機(jī)梯度下降 課時(shí)34什么是梯度-110:19 課時(shí)35什么是梯度-214:16 課時(shí)36常見函數(shù)的梯度07:18 課時(shí)37激活函數(shù)與Loss的梯度-113:52 課時(shí)38激活函數(shù)與Loss的梯度-208:52 課時(shí)39激活函數(shù)與Loss的梯度-306:46 課時(shí)40激活函數(shù)與Loss的梯度-411:57 課時(shí)41感知機(jī)的梯度推導(dǎo)-113:35 課時(shí)42感知機(jī)的梯度推導(dǎo)-213:16 課時(shí)43鏈?zhǔn)椒▌t11:31 課時(shí)44反向傳播算法-112:44 課時(shí)45反向傳播算法-207:01 課時(shí)46優(yōu)化問(wèn)題實(shí)戰(zhàn)08:54 章節(jié)7:神經(jīng)網(wǎng)絡(luò)與全連接層 課時(shí)47Logistic Regression14:12 課時(shí)48交叉熵-106:42 課時(shí)49交叉熵-209:08 課時(shí)50交叉熵-304:51 課時(shí)51多分類問(wèn)題實(shí)戰(zhàn)08:26 課時(shí)52全連接層13:59 課時(shí)53激活函數(shù)與GPU加速11:37 課時(shí)54MNIST測(cè)試實(shí)戰(zhàn)12:01 課時(shí)55Visdom可視化13:08 章節(jié)8:過(guò)擬合 課時(shí)56過(guò)擬合與欠擬合14:24 課時(shí)57交叉驗(yàn)證-111:46 課時(shí)58交叉驗(yàn)證-207:38 課時(shí)59Regularization11:21 課時(shí)60動(dòng)量與學(xué)習(xí)率衰減13:57 課時(shí)61Early stopping, dropout等14:20 章節(jié)9:卷積神經(jīng)網(wǎng)絡(luò)CNN 課時(shí)62什么是卷積-112:58 課時(shí)63什么是卷積-208:47 課時(shí)64卷積神經(jīng)網(wǎng)絡(luò)-111:19 課時(shí)65卷積神經(jīng)網(wǎng)絡(luò)-211:11 課時(shí)66卷積神經(jīng)網(wǎng)絡(luò)-308:43 課時(shí)67池化層與采樣10:53 課時(shí)68BatchNorm-105:40 課時(shí)69BatchNorm-212:32 課時(shí)70BatchNorm-307:33 課時(shí)71經(jīng)典卷積網(wǎng)絡(luò) LeNet5,AlexNet, VGG, GoogLeNet-109:18 課時(shí)72經(jīng)典卷積網(wǎng)絡(luò) LeNet5,AlexNet, VGG, GoogLeNet-209:43 課時(shí)73ResNet與DenseNet-112:03 課時(shí)74ResNet與DenseNet-210:21 課時(shí)75nn.Module模塊-110:17 課時(shí)76nn.Module模塊-208:56 課時(shí)77數(shù)據(jù)增強(qiáng)12:53 章節(jié)10:CIFAR10與ResNet實(shí)戰(zhàn) 課時(shí)78CIFAR10數(shù)據(jù)集介紹10:07 課時(shí)79卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)-110:07 課時(shí)80卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)-210:04 課時(shí)81卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練10:04 課時(shí)82ResNet實(shí)戰(zhàn)-110:11 課時(shí)83ResNet實(shí)戰(zhàn)-210:11 課時(shí)84ResNet實(shí)戰(zhàn)-307:31 課時(shí)85ResNet實(shí)戰(zhàn)-410:07 課時(shí)86實(shí)戰(zhàn)小結(jié)12:49 章節(jié)11:循環(huán)神經(jīng)網(wǎng)絡(luò)RNN&LSTM 課時(shí)87時(shí)間序列表示方法14:57 課時(shí)88RNN原理-109:55 課時(shí)89RNN原理-209:39 課時(shí)90RNN Layer使用-109:42 課時(shí)91RNN Layer使用-209:01 課時(shí)92時(shí)間序列預(yù)測(cè)實(shí)戰(zhàn)13:27 課時(shí)93梯度彌散與梯度爆炸12:50 課時(shí)94LSTM原理-109:01 課時(shí)95LSTM原理-210:53 課時(shí)96LSTM Layer使用08:44 課時(shí)97情感分類問(wèn)題實(shí)戰(zhàn)15:15 章節(jié)12:遷移學(xué)習(xí)-實(shí)戰(zhàn)寶可夢(mèng)精靈 課時(shí)98Pokemon數(shù)據(jù)集12:30 課時(shí)99數(shù)據(jù)預(yù)處理12:20 課時(shí)100自定義數(shù)據(jù)集實(shí)戰(zhàn)-106:49 課時(shí)101自定義數(shù)據(jù)集實(shí)戰(zhàn)-208:42 課時(shí)102自定義數(shù)據(jù)集實(shí)戰(zhàn)-311:04 課時(shí)103自定義數(shù)據(jù)集實(shí)戰(zhàn)-409:58 課時(shí)104自定義數(shù)據(jù)集實(shí)戰(zhàn)-511:28 課時(shí)105自定義網(wǎng)絡(luò)09:45 課時(shí)106自定義網(wǎng)絡(luò)訓(xùn)練與測(cè)試07:37 課時(shí)107自定義網(wǎng)絡(luò)實(shí)戰(zhàn)07:39 課時(shí)108遷移學(xué)習(xí)05:35 課時(shí)109遷移學(xué)習(xí)實(shí)戰(zhàn)10:09 章節(jié)13:自編碼器Auto-Encoders 課時(shí)110無(wú)監(jiān)督學(xué)習(xí)10:02 課時(shí)111Auto-Encoder原理10:12 課時(shí)112Auto-Encoder變種09:59 課時(shí)113Adversarial Auto-Encoder10:08 課時(shí)114變分Auto-Encoder引入10:12 課時(shí)115Reparameterization trick10:05 課時(shí)116變分自編碼器VAE11:03 課時(shí)117Auto-Encoder實(shí)戰(zhàn)-110:01 課時(shí)118Auto-Encoder實(shí)戰(zhàn)-210:10 課時(shí)119變分Auto-Encoder實(shí)戰(zhàn)-105:55 課時(shí)120變分Auto-Encoder實(shí)戰(zhàn)-206:37 章節(jié)14:對(duì)抗生成網(wǎng)絡(luò)GAN 課時(shí)121數(shù)據(jù)的分布09:11 課時(shí)122畫家的成長(zhǎng)歷程13:04 課時(shí)123GAN原理10:01 課時(shí)124納什均衡-D09:57 課時(shí)125納什均衡-G13:42 課時(shí)126JS散度的缺陷16:36 課時(shí)127EM距離09:57 課時(shí)128WGAN與WGAN-GP15:43 課時(shí)129GAN實(shí)戰(zhàn)-GD實(shí)現(xiàn)09:58 課時(shí)130GAN實(shí)戰(zhàn)-網(wǎng)絡(luò)訓(xùn)練17:24 課時(shí)131GAN實(shí)戰(zhàn)-網(wǎng)絡(luò)訓(xùn)練魯棒性09:46 課時(shí)132WGAN-GP實(shí)戰(zhàn)16:17 章節(jié)15:選看:Ubuntu開發(fā)環(huán)境安裝 課時(shí)133Ubuntu系統(tǒng)安裝10:01 課時(shí)134Anaconda安裝10:10 課時(shí)135CUDA 10安裝10:10 課時(shí)136環(huán)境變量配置10:05 課時(shí)137cudnn安裝10:14 課時(shí)138PyCharm安裝與配置10:59 章節(jié)16:選看:人工智能發(fā)展簡(jiǎn)史 課時(shí)139生物神經(jīng)元結(jié)構(gòu)04:06 課時(shí)140感知機(jī)的提出10:07 課時(shí)141BP神經(jīng)網(wǎng)絡(luò)10:07 課時(shí)142CNN和LSTM的發(fā)明10:19 課時(shí)143人工智能的低潮10:07 課時(shí)144深度學(xué)習(xí)的誕生10:13 課時(shí)145深度學(xué)習(xí)的繁榮12:13 章節(jié)17:選看:Numpy實(shí)戰(zhàn)BP神經(jīng)網(wǎng)絡(luò) 課時(shí)146權(quán)值的表示10:05 課時(shí)147多層感知機(jī)的實(shí)現(xiàn)10:18 課時(shí)148多層感知機(jī)前向傳播10:06 課時(shí)149多層感知機(jī)反向傳播10:10 課時(shí)150多層感知機(jī)反向傳播-210:06 課時(shí)151多層感知機(jī)反向傳播-310:18 課時(shí)152多層感知機(jī)的訓(xùn)練10:24 課時(shí)153多層感知機(jī)的測(cè)試12:06 課時(shí)154實(shí)戰(zhàn)小結(jié)
購(gòu)買主題
本主題需向作者支付 666 資源幣 才能瀏覽
| |
相關(guān)帖子
|
|
| ||
| ||
| ||
| ||
| ||
| ||
| ||
| ||
| ||
小黑屋|資源共享吧 ( 瓊ICP備2023000410號(hào)-1 )
GMT+8, 2024-12-22 14:41 , Processed in 0.075916 second(s), 27 queries , MemCached On.