1316| 14
|
百戰(zhàn)人工智能訓練營視頻課程 |
百戰(zhàn)人工智能訓練營視頻課程
人工智能訓練營 ├──人工智能5天入門訓練營 └──視頻 ├──01_人工智能就業(yè)前景與薪資 .mp449.38M ├──02_人工智能適合人群與必備技能 .mkv47.37M ├──03_人工智能時代是發(fā)展的必然 .mp425.61M ├──04_人工智能在各領(lǐng)域的應(yīng)用 .mp461.77M ├──05_人工智能常見流程 .mkv83.88M ├──06_機器學習不同的學習方式 .mkv72.54M ├──07_深度學習比傳統(tǒng)機器學習有優(yōu)勢 .mkv75.32M ├──08_有監(jiān)督機器學習任務(wù)與本質(zhì) .mp437.24M ├──09_無監(jiān)督機器學習任務(wù)與本質(zhì) .mp448.91M ├──10_理解簡單線性回歸 .mp427.98M ├──11_最優(yōu)解_損失函數(shù)_MSE .mp434.83M ├──12_擴展到多元線性回歸 .mp426.65M ├──13_理解多元線性回歸表達式幾種寫法的原因 .mp437.58M ├──14_理解維度這個概念 .mp437.11M ├──15_理解回歸一詞_中心極限定理_正太分布和做預(yù)測 .mp461.53M ├──16_假設(shè)誤差服從正太分布_最大似然估計MLE .mp442.35M ├──17_引入正太分布的概率密度函數(shù) .mp426.36M ├──18_明確目標通過最大總似然求解θ .mp425.88M ├──19_對數(shù)似然函數(shù)_推導出損失函數(shù)MSE .mp439.75M ├──20_把目標函數(shù)按照線性代數(shù)的方式去表達 .mp422.09M ├──21_推導出目標函數(shù)的導函數(shù)形式 .mp439.83M ├──22_θ解析解的公式_是否要考慮損失函數(shù)是凸函數(shù) .mp458.01M ├──23_Python開發(fā)環(huán)境版本的選擇及下載 .mp446.00M ├──24_Anaconda環(huán)境安裝_Pycharm環(huán)境安裝 .mp464.55M ├──25_Pycharm創(chuàng)建腳本并測試python開發(fā)環(huán)境 .mp426.27M ├──26_解析解的方式求解多元線性回歸_數(shù)據(jù)Xy .mp430.66M ├──27_解析解的方式求解多元線性回歸_求解模型_使用模型_繪制圖形 .mp439.16M ├──28_解析解的方式求解多元線性回歸_擴展隨機種子概念_增加維度代碼的變換 .mp430.05M ├──29_Scikit-learn模塊的介紹 .mp429.99M ├──30_調(diào)用Scikit-learn中的多元線性回歸求解模型(上) .mp424.35M ├──31_調(diào)用Scikit-learn中的多元線性回歸求解模型(下) .mp434.52M ├──32_梯度下降法產(chǎn)生的目的和原因以及思想 .mp453.73M ├──33_梯度下降法公式 .mp450.85M ├──34_學習率設(shè)置的學問_全局最優(yōu)解 .mp447.99M ├──35_梯度下降法迭代流程總結(jié) .mp424.60M ├──36_多元線性回歸下的梯度下降法 .mp438.45M ├──37_全量梯度下降 .mp459.04M ├──38_隨機梯度下降_小批量梯度下降 .mp443.98M ├──39_對應(yīng)梯度下降法的問題和挑戰(zhàn) .mp442.22M ├──40_輪次和批次 .mp450.90M ├──41_代碼實現(xiàn)全量梯度下降第1步和第2步 .mp420.15M ├──42_代碼實現(xiàn)全量梯度下降第3步和第4步 .mp426.11M ├──43_代碼實現(xiàn)隨機梯度下降 .mp421.62M ├──44_代碼實現(xiàn)小批量梯度下降 .mp422.83M ├──45_代碼改進保證訓練數(shù)據(jù)全都能被隨機取到 .mp423.94M └──46_代碼改進實現(xiàn)隨著迭代增加動態(tài)調(diào)整學習率 .mp434.35M ├──人工智能之快速入門與線性回歸 └──視頻 ├──01_五天實訓的內(nèi)容_人工智能應(yīng)用 .mp4181.00M ├──02_AI的流程_ML和DL關(guān)系_回歸、分類、聚類、降維的本質(zhì) .mp4164.27M ├──03_線性回歸的表達式_損失函數(shù)MSE .mp4127.19M ├──04_推導出多元線性回歸的損失函數(shù) .mp4203.15M ├──05_從MSE到θ的解析解形式 .mp483.50M ├──06_安裝Anaconda和PyCharm運行和開發(fā)軟件 .mp470.53M ├──07_python代碼實現(xiàn)多元線性回歸解析解的求解方法 .mp477.19M ├──08_梯度下降法的步驟_公式 .mp4119.11M └──09_根據(jù)損失函數(shù)MSE推導梯度的公式 .mp470.57M ├──人工智能之人臉識別與目標檢測、語義分割 └──視頻 ├──01_作業(yè)的講解_知識的回顧 .mp465.84M ├──02_人臉識別的架構(gòu)流程分析 .mp4120.48M ├──03_FaceNet論文_架構(gòu)_三元組損失 .mp4258.24M ├──04_MTCNN論文_架構(gòu)_損失函數(shù) .mp4130.11M ├──05_facenet-master項目的下載和導入 .mp476.42M ├──06_人臉識別項目代碼_實操作業(yè)要求 .mp4372.07M ├──07_FasterRCNN目標檢測口罩項目展示_圖片標注工具labelimg的使用 .mp4178.23M ├──08_FasterRCNN論文_架構(gòu)_思想 .mp4353.63M └──09_MaskRCNN的架構(gòu)_思想_蒙版彈幕項目效果 .mp4163.40M ├──人工智能之神經(jīng)網(wǎng)絡(luò)與TensorFlow └──視頻 ├──01_作業(yè)講解_回顧昨日知識 .mp488.83M ├──02_打雞血_聊一下圖像算法工程師就業(yè)薪資水平 .mp4154.82M ├──03_NN神經(jīng)元_常用的3種激活函數(shù)_NN理解LR做多分類 .mp4103.06M ├──04_講解Softmax回歸算法 .mp4111.03M ├──05_多層神經(jīng)網(wǎng)絡(luò)的好處_隱藏層的激活函數(shù)必須是非線性的原因 .mp490.54M ├──06_TensorFlow對于CPU版本的安裝 .mp462.85M ├──07_TensorFlow對于GPU版本的安裝 .mp4109.37M ├──08_TensorFlow實現(xiàn)多元線性回歸預(yù)測房價 .mp4198.36M └──09_TensorFlow實現(xiàn)Softmax回歸分類MNIST手寫數(shù)字識別 .mp4123.55M ├──人工智能之圖像識別與圖像分割 └──視頻 ├──01_TensorFlow實現(xiàn)DNN分類MNIST手寫數(shù)字識別 .mp4223.46M ├──02_卷積神經(jīng)網(wǎng)絡(luò)卷積層_卷積的計算 .mp4112.61M ├──03_池化的計算_SAME和VALID模式_經(jīng)典CNN結(jié)構(gòu) .mp478.50M ├──04_TensorFlow實訓CNN分類MNIST手寫數(shù)字識別 .mp4179.12M ├──05_VGG16網(wǎng)絡(luò)模型_數(shù)據(jù)增強_COVID19醫(yī)療圖片的識別 .mp4224.21M ├──06_U-Net網(wǎng)絡(luò)模型_細胞核數(shù)據(jù)的讀取 .mp4206.51M └──07_U-Net網(wǎng)絡(luò)進行細胞核切分的訓練代碼 .mp497.14M └──人工智能之線性回歸優(yōu)化與邏輯回歸 └──視頻 ├──01_利用GD來求解多元線性回歸的最優(yōu)解 .mp4106.63M ├──02_歸一化 .mp4219.45M ├──03_正則化 .mp4137.35M ├──04_ScikitLearn介紹_嶺回歸的本質(zhì)_Lasso回歸的本質(zhì) .mp4104.90M ├──05_多項式回歸_保險花銷預(yù)測案例 .mp4250.14M ├──06_基于保險案例進行更多的數(shù)據(jù)的EDA .mp480.69M ├──07_邏輯回歸表達式的推導_邏輯回歸損失函數(shù)的推導 .mp4116.54M └──08_邏輯回歸代碼實戰(zhàn)Iris二分類和多分類任務(wù) .mp492.65M
購買主題
本主題需向作者支付 7 資源幣 才能瀏覽
| |
| ||
| ||
| ||
| ||
| ||
| ||
| ||
| ||
| ||
小黑屋|資源共享吧 ( 瓊ICP備2023000410號-1 )
GMT+8, 2024-12-22 00:54 , Processed in 0.071500 second(s), 17 queries , MemCached On.