
人工智能實踐:Tensorflow培訓
第一講 神經網絡(luo)計算
1.7神經網絡實現鳶尾(wei)花(hua)分類
1.5TF2常用函數2
1.6鳶尾花數據集讀入
1.8Tensorflow2安裝
1.4TF2常用函數1
1.2神經網(wang)絡設計(ji)過程(cheng)
1.1人工(gong)智能(neng)三學派
TensorFlow筆記:第一講神經(jing)網絡計算(suan)
第一講 神經(jing)網(wang)絡計(ji)算
1.3張量生成
PPT:第一講神經網絡計算
第二講(jiang) 神經網絡優化(hua)
TensorFlow筆記:第二講(jiang)神經網絡優化(hua)
2.4損失函數
2.5緩解過擬合
PPT:第二(er)講神經網絡優化(hua)
2.6優化器
2.1預備知識
2.3激活函數
第(di)二講 神經網絡優化
2.2復雜度學習率
第三(san)講 神經網絡八股
3.1搭(da)建(jian)網絡八股sequential
3.2搭建(jian)網絡八(ba)股class
第三講 神(shen)經網(wang)絡(luo)八股
TensorFlow筆記:第三講(jiang)神經網絡八股
3.3MNIST數據集
3.4FASHION數據集
PPT:第三講神經(jing)網絡(luo)八股(gu)
第四講 網絡八股擴展
4.5參數提取
4.7給圖識物
4.1搭建網絡八股總覽
PPT:第四(si)講(jiang)網(wang)絡八(ba)股擴展
4.6acc&loss可視化
4.4斷點續訓
TensorFlow筆記(ji):第(di)四(si)講(jiang)網絡八股擴展
4.2自制數據集
第四講 網絡八股擴展
4.3數據增強
第五講(jiang) 卷(juan)積神經網絡
5.1卷積計算過程
5.16經典卷及網絡小結(jie)
5.12AlexNet
5.9CIFAR0數據集
PPT:第五講卷(juan)積神經網絡
第五講 卷積神(shen)經網絡(luo)
5.14InceptionNet
5.10卷積神經網絡搭建示(shi)例
5.13VGGNet
5.4TF描述(shu)卷(juan)積計算(suan)層
5.8卷積神經網絡
5.2感受野
5.15ResNet
5.11LeNet
5.7舍棄
5.3全零填充
5.5批標準化
5.6池化
TensorFlow筆記:第五講(jiang)卷積神經網絡
第六講 循環神經網絡(luo)
6.7循環(huan)計算過程II
6.10字母預(yu)測Embedding_1pre1
6.9Embedding編碼
6.3循環計算層
TensorFlow筆(bi)記:第(di)六講(jiang)循環(huan)神經網絡
6.4TF描(miao)述循(xun)環計算層
6.8字母預(yu)測onehot_4pre1
6.2循環核(he)時間步展(zhan)開
6.6字母(mu)預測(ce)onehot_1pre1
6.14GRU實現股票預測(GRU計算過(guo)程_TF描(miao)述GRU層)
6.1循環核
6.11字母預測Embedding_4pre1
6.13LSTM實現(xian)股票預測(ce)(LSTM計算(suan)過程_TF描述LSTM層)
第六(liu)講(jiang) 循環神經網絡(luo)
PPT:第六(liu)講循環神(shen)經網絡(luo)
6.5循環計(ji)算(suan)過程I
6.12RNN實(shi)現股票預測