深度學(xué)習(xí)必修課進(jìn)擊算法工程師資源簡(jiǎn)介

課程目錄

001.1-1 課程內(nèi)容和理念.mp4

002.1-2 初識(shí)深度學(xué)習(xí).mp4

003.1-3 課程使用的技術(shù)棧.mp4

004.2-1 線性代數(shù).mp4

005.2-2 微積分.mp4

006.2-3 概率.mp4

007.3-1 CUDA+Anaconda深度學(xué)習(xí)環(huán)境搭建.mp4

008.3-2 conda實(shí)用命令.mp4

009.3-3 Jupyter Notebook快速上手.mp4

010.3-4 深度學(xué)習(xí)庫(kù)PyTorch安裝.mp4

011.4-1 神經(jīng)網(wǎng)絡(luò)原理.mp4

012.4-2 多層感知機(jī).mp4

013.4-3 前向傳播和反向傳播.mp4

014.4-4 多層感知機(jī)代碼實(shí)現(xiàn).mp4

015.4-5 回歸問題.mp4

016.4-6 線性回歸代碼實(shí)現(xiàn).mp4

017.4-7 分類問題.mp4

018.4-8 多分類問題代碼實(shí)現(xiàn).mp4

019.5-1 訓(xùn)練的常見問題.mp4

020.5-2 過擬合欠擬合應(yīng)對(duì)策略.mp4

021.5-3 過擬合和欠擬合示例.mp4

022.5-4 正則化.mp4

023.5-5 Dropout.mp4

024.5-6 Dropout代碼實(shí)現(xiàn).mp4

025.5-7 梯度消失和梯度爆炸.mp4

026.5-8 模型文件的讀寫.mp4

027.6-1 最優(yōu)化與深度學(xué)習(xí).mp4

028.6-2 損失函數(shù).mp4

029.6-3 損失函數(shù)性質(zhì).mp4

030.6-4 梯度下降.mp4

031.6-5 隨機(jī)梯度下降法.mp4

032.6-6 小批量梯度下降法.mp4

033.6-7 動(dòng)量法.mp4

034.6-8 AdaGrad算法.mp4

035.6-9 RMSProp_Adadelta算法.mp4

036.6-10 Adam算法.mp4

037.6-11 梯度下降代碼實(shí)現(xiàn).mp4

038.6-12 學(xué)習(xí)率調(diào)節(jié)器.mp4

039.7-1 全連接層問題.mp4

040.7-2 圖像卷積.mp4

041.7-3 卷積層.mp4

042.7-4 卷積層常見操作.mp4

043.7-5 池化層Pooling.mp4

044.7-6 卷積神經(jīng)網(wǎng)絡(luò)代碼實(shí)現(xiàn)(LeNet).mp4

045.8-1 AlexNet.mp4

046.8-2 VGGNet.mp4

047.8-3 批量規(guī)范化.mp4

048.8-4 GoogLeNet.mp4

049.8-5 ResNet.mp4

050.8-6 DenseNet.mp4

051.9-1 序列建模.mp4

052.9-2 文本數(shù)據(jù)預(yù)處理.mp4

053.9-3 循環(huán)神經(jīng)網(wǎng)絡(luò).mp4

054.9-4 隨時(shí)間反向傳播算法.mp4

055.9-5 循環(huán)神經(jīng)網(wǎng)絡(luò)代碼實(shí)現(xiàn).mp4

056.9-6 RNN的長(zhǎng)期依賴問題.mp4

057.10-1 深度循環(huán)神經(jīng)網(wǎng)絡(luò).mp4

058.10-2 雙向循環(huán)神經(jīng)網(wǎng)絡(luò).mp4

059.10-3 門控循環(huán)單元.mp4

060.10-4 長(zhǎng)短期記憶網(wǎng)絡(luò).mp4

061.10-5 復(fù)雜循環(huán)神經(jīng)網(wǎng)絡(luò)代碼實(shí)現(xiàn).mp4

062.10-6 編碼器-解碼器網(wǎng)絡(luò).mp4

063.10-7 序列到序列模型代碼實(shí)現(xiàn).mp4

064.10-8 束搜索算法.mp4

065.10-9 機(jī)器翻譯簡(jiǎn)單代碼實(shí)現(xiàn).mp4

066.11-1 什么是注意力機(jī)制.mp4

067.11-2 注意力的計(jì)算.mp4

068.11-3 鍵值對(duì)注意力和多頭注意力.mp4

069.11-4 自注意力機(jī)制.mp4

070.11-5 注意力池化及代碼實(shí)現(xiàn).mp4

071.11-6 Transformer模型.mp4

072.11-7 Transformer代碼實(shí)現(xiàn).mp4

073.12-1BERT模型.mp4

074.12-2 GPT系列模型.mp4

075.12-3 T5模型.mp4

076.12-4 ViT模型.mp4

077.12-5 Swin Transformer模型.mp4

078.12-6 GPT模型代碼實(shí)現(xiàn).mp4

079.13-1 蒙特卡洛方法.mp4

080.13-2 變分推斷.mp4

081.13-3 變分自編碼器.mp4

082.13-4 生成對(duì)抗網(wǎng)絡(luò).mp4

083.13-5 Diffusion擴(kuò)散模型.mp4

084.13-6 圖像生成.mp4

085.14-1 自定義數(shù)據(jù)加載.mp4

086.14-2 圖像數(shù)據(jù)增強(qiáng).mp4

087.14-3 遷移學(xué)習(xí).mp4

088.14-4 經(jīng)典視覺數(shù)據(jù)集.mp4

089.14-5 項(xiàng)目實(shí)戰(zhàn)貓狗大戰(zhàn).mp4

090.15-1 詞嵌入和word2vec.mp4

091.15-2 詞義搜索和句意表示.mp4

092.15-3 預(yù)訓(xùn)練模型.mp4

093.15-4 Hugging Face庫(kù)介紹.mp4

094.15-5 經(jīng)典NLP數(shù)據(jù)集.mp4

095.15-6 項(xiàng)目實(shí)戰(zhàn)電影評(píng)論情感分析.mp4

096.16-1 InstructGPT模型.mp4

097.16-2 CLIP模型.mp4

098.16-3 DALL-E模型.mp4

099.16-4 深度學(xué)習(xí)最新發(fā)展趨勢(shì)分析.mp4

100.16-5 下一步學(xué)習(xí)的建議.mp4

本站所有資源版權(quán)均屬于原作者所有,這里所提供資源均只能用于參考學(xué)習(xí)用,請(qǐng)勿直接商用。若由于商用引起版權(quán)糾紛,一切責(zé)任均由使用者承擔(dān)。

最常見的情況是下載不完整: 可對(duì)比下載完壓縮包的與網(wǎng)盤上的容量,若小于網(wǎng)盤提示的容量則是這個(gè)原因。這是瀏覽器下載的bug,建議用百度網(wǎng)盤軟件或迅雷下載。 若排除這種情況可聯(lián)絡(luò)站長(zhǎng)QQ:824986618。

如果您已經(jīng)成功付款但是網(wǎng)站沒有彈出成功提示,請(qǐng)聯(lián)系站長(zhǎng)提供付款信息為您處理

教程資源屬于虛擬商品,具有可復(fù)制性,可傳播性,一旦授予,不接受任何形式的退款、換貨要求,請(qǐng)您在購(gòu)買獲取之前確認(rèn)好是您所需要的資源。充值也好,購(gòu)買會(huì)員也一樣,最終解釋權(quán)歸本站所有。