深度學(xué)習(xí)必修課進(jìn)擊算法工程師資源簡(jiǎn)介
課程目錄
001.1-1 課程內(nèi)容和理念.mp4
002.1-2 初識(shí)深度學(xué)習(xí).mp4
003.1-3 課程使用的技術(shù)棧.mp4
004.2-1 線性代數(shù).mp4
005.2-2 微積分.mp4
006.2-3 概率.mp4
007.3-1 CUDA+Anaconda深度學(xué)習(xí)環(huán)境搭建.mp4
008.3-2 conda實(shí)用命令.mp4
009.3-3 Jupyter Notebook快速上手.mp4
010.3-4 深度學(xué)習(xí)庫(kù)PyTorch安裝.mp4
011.4-1 神經(jīng)網(wǎng)絡(luò)原理.mp4
012.4-2 多層感知機(jī).mp4
013.4-3 前向傳播和反向傳播.mp4
014.4-4 多層感知機(jī)代碼實(shí)現(xiàn).mp4
015.4-5 回歸問題.mp4
016.4-6 線性回歸代碼實(shí)現(xiàn).mp4
017.4-7 分類問題.mp4
018.4-8 多分類問題代碼實(shí)現(xiàn).mp4
019.5-1 訓(xùn)練的常見問題.mp4
020.5-2 過擬合欠擬合應(yīng)對(duì)策略.mp4
021.5-3 過擬合和欠擬合示例.mp4
022.5-4 正則化.mp4
023.5-5 Dropout.mp4
024.5-6 Dropout代碼實(shí)現(xiàn).mp4
025.5-7 梯度消失和梯度爆炸.mp4
026.5-8 模型文件的讀寫.mp4
027.6-1 最優(yōu)化與深度學(xué)習(xí).mp4
028.6-2 損失函數(shù).mp4
029.6-3 損失函數(shù)性質(zhì).mp4
030.6-4 梯度下降.mp4
031.6-5 隨機(jī)梯度下降法.mp4
032.6-6 小批量梯度下降法.mp4
033.6-7 動(dòng)量法.mp4
034.6-8 AdaGrad算法.mp4
035.6-9 RMSProp_Adadelta算法.mp4
036.6-10 Adam算法.mp4
037.6-11 梯度下降代碼實(shí)現(xiàn).mp4
038.6-12 學(xué)習(xí)率調(diào)節(jié)器.mp4
039.7-1 全連接層問題.mp4
040.7-2 圖像卷積.mp4
041.7-3 卷積層.mp4
042.7-4 卷積層常見操作.mp4
043.7-5 池化層Pooling.mp4
044.7-6 卷積神經(jīng)網(wǎng)絡(luò)代碼實(shí)現(xiàn)(LeNet).mp4
045.8-1 AlexNet.mp4
046.8-2 VGGNet.mp4
047.8-3 批量規(guī)范化.mp4
048.8-4 GoogLeNet.mp4
049.8-5 ResNet.mp4
050.8-6 DenseNet.mp4
051.9-1 序列建模.mp4
052.9-2 文本數(shù)據(jù)預(yù)處理.mp4
053.9-3 循環(huán)神經(jīng)網(wǎng)絡(luò).mp4
054.9-4 隨時(shí)間反向傳播算法.mp4
055.9-5 循環(huán)神經(jīng)網(wǎng)絡(luò)代碼實(shí)現(xiàn).mp4
056.9-6 RNN的長(zhǎng)期依賴問題.mp4
057.10-1 深度循環(huán)神經(jīng)網(wǎng)絡(luò).mp4
058.10-2 雙向循環(huán)神經(jīng)網(wǎng)絡(luò).mp4
059.10-3 門控循環(huán)單元.mp4
060.10-4 長(zhǎng)短期記憶網(wǎng)絡(luò).mp4
061.10-5 復(fù)雜循環(huán)神經(jīng)網(wǎng)絡(luò)代碼實(shí)現(xiàn).mp4
062.10-6 編碼器-解碼器網(wǎng)絡(luò).mp4
063.10-7 序列到序列模型代碼實(shí)現(xiàn).mp4
064.10-8 束搜索算法.mp4
065.10-9 機(jī)器翻譯簡(jiǎn)單代碼實(shí)現(xiàn).mp4
066.11-1 什么是注意力機(jī)制.mp4
067.11-2 注意力的計(jì)算.mp4
068.11-3 鍵值對(duì)注意力和多頭注意力.mp4
069.11-4 自注意力機(jī)制.mp4
070.11-5 注意力池化及代碼實(shí)現(xiàn).mp4
071.11-6 Transformer模型.mp4
072.11-7 Transformer代碼實(shí)現(xiàn).mp4
073.12-1BERT模型.mp4
074.12-2 GPT系列模型.mp4
075.12-3 T5模型.mp4
076.12-4 ViT模型.mp4
077.12-5 Swin Transformer模型.mp4
078.12-6 GPT模型代碼實(shí)現(xiàn).mp4
079.13-1 蒙特卡洛方法.mp4
080.13-2 變分推斷.mp4
081.13-3 變分自編碼器.mp4
082.13-4 生成對(duì)抗網(wǎng)絡(luò).mp4
083.13-5 Diffusion擴(kuò)散模型.mp4
084.13-6 圖像生成.mp4
085.14-1 自定義數(shù)據(jù)加載.mp4
086.14-2 圖像數(shù)據(jù)增強(qiáng).mp4
087.14-3 遷移學(xué)習(xí).mp4
088.14-4 經(jīng)典視覺數(shù)據(jù)集.mp4
089.14-5 項(xiàng)目實(shí)戰(zhàn)貓狗大戰(zhàn).mp4
090.15-1 詞嵌入和word2vec.mp4
091.15-2 詞義搜索和句意表示.mp4
092.15-3 預(yù)訓(xùn)練模型.mp4
093.15-4 Hugging Face庫(kù)介紹.mp4
094.15-5 經(jīng)典NLP數(shù)據(jù)集.mp4
095.15-6 項(xiàng)目實(shí)戰(zhàn)電影評(píng)論情感分析.mp4
096.16-1 InstructGPT模型.mp4
097.16-2 CLIP模型.mp4
098.16-3 DALL-E模型.mp4
099.16-4 深度學(xué)習(xí)最新發(fā)展趨勢(shì)分析.mp4
100.16-5 下一步學(xué)習(xí)的建議.mp4