SlideShare uma empresa Scribd logo
1 de 80
卷積神經網路
教師:陳志華博士
大綱-卷積神經網路
卷積神經網路介紹
卷積層最佳化原理
卷積神經網路實作
卷積神經網路其他型態
卷積神經網路不適用情境
手寫影像辨識範例
2
卷積神經網路介紹
網路結構
在卷積層經由過濾
器擷取出資料特徵
經由過濾器計算後
的特徵圖
在池層進行資料降
維,節省計算量
經由神經網路對
應目標學習結果
3
卷積神經網路介紹
卷積層計算─特徵擷取
假設過濾器為3x3大小
取出原始資料左上角的3x3
區塊與過濾器做矩陣相乘
先往右移動,並進行矩陣相乘
整列完成後,再往下一列移動
移動到最右下角之
3x3區塊計算完成後
即結束卷積層計算
卷積層適用於分析
空間相依
4
卷積神經網路介紹
池層計算─資料降維
每2x2大小矩陣取
最大值進行降維
5
卷積神經網路介紹
神經網路計算─資料估計(分類)
神經網路
A
B
經由神經網路對
應目標學習結果
6
卷積神經網路介紹
深度意涵? 原始資料 卷積層1
過濾器 分析結果
直線
橫線
正斜線
反斜線
弧線
曲線
有/無
直線
有/無
橫線
有/無
正斜線
有/無
反斜線
有/無
弧線
有/無
曲線
卷積層2
過濾器 分析結果
直線
橫線
正斜線
反斜線
弧線
曲線
有/無
正方形
有/無
長方形
有/無
三角形
有/無
菱形
有/無
圓形
有/無
橢圓形
卷積層3
過濾器 分析結果
直線
橫線
正斜線
反斜線
弧線
曲線
有/無
立方體
有/無
長方體
有/無
錐體
有/無
菱面體
有/無
球體
有/無
橢球體
神經網路
是否為
拱橋
是否為
湖泊
是否為
彩虹
是否為
中華電
Logo
第1層可找出
線條特徵
第2層可找出
平面特徵
第3層可找出
立體特徵 7
卷積神經網路介紹
為什麼傳統神經網路較難解決空間相依性問題?
◦ 直接把像素值攤開,不易取得特徵
◦ 直接從像素值對應到分類結果,不易學習
卷積神經網路的優勢
◦ 運用過濾器分析空間特徵
如:直線、橫線、斜線、曲線
◦ 運用多層卷積層拆解不同維度空間特徵
如:線段、平面、立體、外觀
◦ 最後再依拆解出特徵對應到分類結果
神經網路
A
B
…
輸入層 隱藏層 輸出層
傳統神經網路不易
分析出神經元3和
神經元8是斜線關聯
傳統神經網路把每
個像素值攤開來看,
不易分析特徵模仿人類辨識物件的方式,先拆解出外觀特徵,再從
外觀特徵來評估目標物件的類別
8
卷積神經網路介紹
卷積層示意圖 w1
w2
w4
w3
隱藏層神經元計算
h1 = x1 x w1 +
x2 x w2 +
x3 x w3 +
x4 x w4
9
卷積神經網路介紹
卷積層示意圖
w1
w2
w4
w3
隱藏層神經元計算
h2 = x2 x w1 +
x3 x w2 +
x5 x w3 +
x6 x w4
10
卷積神經網路介紹
卷積層示意圖
w1
w2
w4
w3 隱藏層神經元計算
h3 = x4 x w1 +
x5 x w2 +
x7 x w3 +
x8 x w4
11
卷積神經網路介紹
卷積層示意圖
w1
w2
w4
w3
隱藏層神經元計算
h4 = x5 x w1 +
x6 x w2 +
x8 x w3 +
x9 x w4
12
卷積神經網路介紹
卷積神經網路 傳統神經網路
 卷 積 神 經 網
路 為 部 分 連
線 , 建 立 空
間 相 鄰 因 子
的 連 線 , 分
析其相依性
 傳統神經網路
為全部連線,
故不存在直接
相依的因子,
反而形成干擾,
增加誤差
卷積神經網路和傳統神經網路的
每一條連線之權重值,皆可運用
梯度下降法(Gradient Descent)計
算其最佳值
13
卷積層最佳化原理
輸入層
過濾器
14
卷積神經網路結構 卷積神經網路模型
最佳化目標函式
w1
w2
w4
w3
bxwy
i
ii 





 
4
1
ˆ
yˆ
   2
ˆ
2
1
, yybWF 
此卷積神經網路模型採用下列設定:
核心函式:線性函式
目標函式:最小平方誤差
輸入層:2x2大小矩陣
過濾器:2x2大小矩陣
卷積層最佳化原理
梯度下降法應用於卷積層之權重和誤差項
15
卷積神經網路
模型
函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)
目標函式
iw b
修正方式 修正方式b
 ii
i
ii xw
w
F
ww 


   


 b
b
F
bb
i
i
ii
x
x
w
y
y
F
w
F















1
ˆ
ˆ
   
2
2
2
1
ˆ
2
1
,

 yybWF
bxwy
i
ii 





 
4
1
ˆ
iw















11
ˆ
ˆ b
y
y
F
b
F
訓練資料,共3張圖片
Mini-batch大小為1,即逐筆修正權重
卷積層最佳化原理
16
y = 0 y = 0 y = 1
主要想找斜線
過濾器初始值
1 1
1 1
1
1 1
1 1
卷積層最佳化原理
輸入層
過濾器
17
卷積神經網路結構 權重修正
w1
w2
w4
w3
303ˆ  yy
3
    5.0135.01111  xww 
    5.0135.01222  xww 
    1035.01333  xww 
    1035.01444  xww 
5.035.01  bb
第1回合,第1筆資料
輸入層
過濾器
-0.5
-0.5 -0.5
1 1
卷積層最佳化原理
18
卷積神經網路結構 權重修正
w1
w2
w4
w3
5.105.1ˆ  yy
1.5
      5.005.15.05.0111  xww 
      5.005.15.05.0222  xww 
    25.015.15.01333  xww 
    25.015.15.01444  xww 
  25.15.15.05.0  bb
第1回合,第2筆資料
輸入層
過濾器
-1.25
-0.5 -0.5
0.25 0.25
卷積層最佳化原理
19
卷積神經網路結構 權重修正
w1
w2
w4
w3
  5.215.1ˆ  yy
-1.5
       75.015.25.05.0111  xww 
       5.005.25.05.0222  xww 
     25.005.25.025.0333  xww 
     5.115.25.025.0444  xww 
    05.25.025.1  bb
第1回合,第3筆資料
0
0.75 -0.5
0.25 1.5
卷積層最佳化原理
輸入層
過濾器
20
卷積神經網路結構 權重修正
w1
w2
w4
w3
0.25
第2回合,第1筆資料
25.0025.0ˆ  yy
    625.0125.05.075.0111  xww 
      625.0125.05.05.0222  xww 
    25.0025.05.025.0333  xww 
    5.1025.05.05.1444  xww 
125.025.05.00  bb
輸入層
過濾器
-0.125
0.625 -0.625
0.25 1.5
卷積層最佳化原理
21
卷積神經網路結構 權重修正
w1
w2
w4
w3
1.625
第2回合,第2筆資料
625.10625.1ˆ  yy
    625.00625.15.0625.0111  xww 
      625.00625.15.0625.0222  xww 
    5625.01625.15.025.0333  xww 
    6875.01625.15.05.1444  xww 
  9375.0625.15.0125.0  bb
輸入層
過濾器
-0.9375
0.625 -0.625
-0.5625 0.6875
卷積層最佳化原理
22
卷積神經網路結構 權重修正
w1
w2
w4
w3
0.375
第2回合,第3筆資料
625.01375.0ˆ  yy
     9375.01625.05.0625.0111  xww 
       625.00625.05.0625.0222  xww 
       5625.00625.05.05625.0333  xww 
     11625.05.06875.0444  xww 
    625.0625.05.09375.0  bb
輸入層
過濾器
-0.5
0.75 -0.25
-0.25 0.75
卷積層最佳化原理
23
卷積神經網路結構 權重修正
w1
w2
w4
w3
1
依此類推,經過67回合
第67回合,第3筆資料
011ˆ  yy
    75.0105.075.0111  xww 
      25.0005.025.0222  xww 
      25.0005.025.0333  xww 
    75.0105.075.0444  xww 
  5.005.05.0  bb
收斂時,過濾器為斜線特徵
卷積神經網路實作
輸入層
過濾器
24
卷積神經網路結構
w1
w2
w4
w3
此卷積神經網路模型採用下列設定:
核心函式:線性函式
目標函式:最小平方誤差
輸入層:2x2大小矩陣
過濾器:2x2大小矩陣
yˆh
2b1b
卷積神經網路實作
#引用tensorflow函式庫
import tensorflow
#引用keras函式庫
import keras
#引用csv函式庫
import csv
#引用numpy函式庫
import numpy
#引用pyplot函式庫
import matplotlib.pyplot as plot
25
使用深度學習套件
「tensorflow」和
「keras」訓練模型
卷積神經網路實作
#讀取訓練資料
X = numpy.loadtxt("../資料集/X_
斜線案例.csv", delimiter=",")
Y = numpy.loadtxt("../資料集/Y_
斜線案例.csv", delimiter=",")
#轉換為2x2矩陣大小
X = X.reshape(X.shape[0], 2, 2,
1).astype('float32')
26
圖片長度為2
圖片寬度為2
卷積神經網路實作
#設定亂數種子
numpy.random.seed(0)
#設定神經網路結構
model =
keras.models.Sequential()
model.add(keras.layers.Conv2D(
filters = 1, kernel_size = (2, 2),
activation = 'linear', input_shape
= (2, 2, 1)))
model.add(keras.layers.Flatten())
model.add(keras.layers.Dense(1,
activation = 'linear'))
27
設定固定的亂數種子,
讓權重初始值可以一致
卷積層: 輸入參數: 2x2圖片, 線性函式
輸出層: 輸入參數: 1個, 輸出參數: 1個, 線性函式
只有1個過濾器,
過濾器為2x2大小
呼叫Conv2D函式
卷積神經網路實作
#設定神經網路學習目標
model.compile(
loss='mean_squared_error',
optimizer = 'sgd',
metrics = ['mae'])
28
學習目標為最小平方誤差
最佳化方法為梯度下降法
評量指標為平均絕對誤差
卷積神經網路實作
#宣告繪製結果圖形之函式
def show_train_history(train_history,
x1, x2):
plot.plot(train_history.history[x1])
plot.plot(train_history.history[x2])
plot.title('Train History')
plot.ylabel('train')
plot.xlabel('Epoch')
plot.legend([x1, x2], loc = 'upper
right')
plot.show()
29
後續可呼叫
show_train_history函式
輸出訓練結果圖形
卷積神經網路實作
#訓練神經網路
train_history =
model.fit(
X, #輸入參數
Y, #輸出參數
epochs = 1000, #訓練回合數
batch_size = 1) #逐筆修正權重
30
設定輸入參數為X
設定輸出參數為Y
訓練回合數為1000
採用逐筆修正權重的方式
卷積神經網路實作
#顯示訓練過程
show_train_history(train_history,
'loss', 'mean_absolute_error')
#顯示訓練錯誤率
scores = model.evaluate(X, Y)
print("n%s: %.2f%%" %
(model.metrics_names[1],
scores[1]*100))
#顯示神經網路權重值
print(model.get_weights())
31
權重組合
卷積神經網路實作
#將測試資料代入模型進行預測,
並取得預測結果
predictions = model.predict(X)
print(predictions)
32
輸入資料進行估計
估計結果
權重組合
卷積神經網路實作
33
權重組合
0.885
-0.401
0.666
-0.182 yˆh
0.208-0.260-
0.936
執行程式,並取得估計結果
卷積神經網路其他型態
S型函式(Sigmoid)
線性整流函式(Rectified Linear Unit, ReLU)
圖片及過濾器組合(3x3圖片及2x2過濾器)
分類最佳化(交叉熵Cross-Entropy)
動量(Momentum)最佳化
34
卷積神經網路其他型態-S型函式
輸入層
過濾器
35
卷積神經網路結構 卷積神經網路模型
最佳化目標函式
w1
w2
w4
w3
    z
i
ii
e
zszsy
bxwz










 
1
1
where,ˆ
4
1
yˆ
   2
ˆ
2
1
, yybWF 
此卷積神經網路模型採用下列設定:
核心函式:S型函式(sigmoid)
目標函式:最小平方誤差
輸入層:2x2大小矩陣
過濾器:2x2大小矩陣
卷積神經網路其他型態-S型函式
梯度下降法應用於卷積層之權重和誤差項
36
卷積神經網路
模型
函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)
目標函式
iw b
修正方式 修正方式b
  ii
i
ii xzsw
w
F
ww 


 '   'zsb
b
F
bb 


 
     
  i
i
ii
xzs
xzszs
w
z
z
y
y
F
w
F













'
11
ˆ
ˆ




   
2
2
2
1
ˆ
2
1
,

 yybWF
  z
i
ii
e
zsy
bxwz










 
1
1
ˆ
4
1
iw
     
 '
111
ˆ
ˆ
zs
zszs
b
z
z
y
y
F
b
F

















卷積神經網路其他型態-S型函式
#設定亂數種子
numpy.random.seed(0)
#設定神經網路結構
model =
keras.models.Sequential()
model.add(keras.layers.Conv2D(
filters = 1, kernel_size = (2, 2),
activation = 'sigmoid',
input_shape = (2, 2, 1)))
model.add(keras.layers.Flatten())
model.add(keras.layers.Dense(1,
activation = 'linear'))
37
設定固定的亂數種子,
讓權重初始值可以一致
卷積層: 輸入參數: 2x2圖片, S型函式
輸出層: 輸入參數: 1個, 輸出參數: 1個, 線性函式
只有1個過濾器,
過濾器為2x2大小
修改activation為sigmoid
執行程式,並取得估計結果
卷積神經網路其他型態-S型函式
38
權重組合
1.125
-1.164
0.905
-0.944 yˆh
0.646-0.784-
2.119
卷積神經網路其他型態-線性整流函式
輸入層
過濾器
39
卷積神經網路結構 卷積神經網路模型
最佳化目標函式
w1
w2
w4
w3
   


 







 
otherwise,0
0if,
where,ˆ
4
1
zz
zrzry
bxwz
i
ii
yˆ
   2
ˆ
2
1
, yybWF 
此卷積神經網路模型採用下列設定:
核心函式:線性整流函式(ReLU)
目標函式:最小平方誤差
輸入層:2x2大小矩陣
過濾器:2x2大小矩陣
卷積神經網路其他型態-線性整流函式
梯度下降法應用於卷積層之權重和誤差項
40
卷積神經網路
模型
函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)
目標函式
iw b
修正方式 修正方式b
 


 




otherwise,
0if,
i
ii
i
ii
w
zxw
w
F
ww




 




otherwise,
0if,
b
zb
b
F
bb


 


 













otherwise,0
0if,
'1
ˆ
ˆ
zx
xzr
w
z
z
y
y
F
w
F
i
i
ii




   
2
2
2
1
ˆ
2
1
,

 yybWF
   


 







 
otherwise,0
0if,
where,ˆ
4
1
zz
zrzry
bxwz
i
ii
iw
 


 













otherwise,0
0if,
1'1
ˆ
ˆ
z
zr
b
z
z
y
y
F
b
F




卷積神經網路其他型態-線性整流函式
#設定亂數種子
numpy.random.seed(0)
#設定神經網路結構
model =
keras.models.Sequential()
model.add(keras.layers.Conv2D(
filters = 1, kernel_size = (2, 2),
activation = 'relu', input_shape =
(2, 2, 1)))
model.add(keras.layers.Flatten())
model.add(keras.layers.Dense(1,
activation = 'linear'))
41
設定固定的亂數種子,
讓權重初始值可以一致
卷積層: 輸入參數: 2x2圖片, 線性整流函式
輸出層: 輸入參數: 1個, 輸出參數: 1個, 線性函式
只有1個過濾器,
過濾器為2x2大小
修改activation為relu
執行程式,並取得估計結果
卷積神經網路其他型態-線性整流函式
42
權重組合
0.886
-0.401
0.666
-0.182 yˆh
0.209-0.260-
0.936
卷積神經網路其他型態-圖片及過濾器組合
輸入層
過濾器
43
卷積神經網路結構 卷積神經網路模型
最佳化目標函式
1,2
4
1
,2
ˆ bhwy
i
ii 





 
   2
ˆ
2
1
, yyBWF 
此卷積神經網路模型採用下列設定:
核心函式:線性函式
目標函式:最小平方誤差
輸入層:3x3大小矩陣
過濾器:2x2大小矩陣
1,154,143,122,111,11 bxwxwxwxwh 
2,164,153,132,121,12 bxwxwxwxwh 
3,184,173,152,141,13 bxwxwxwxwh 
4,194,183,162,151,14 bxwxwxwxwh 
w2,1
yˆw2,2
w2,3
w2,4
w1,1
w1,2
w1,3
w1,4
梯度下降法應用於卷積層之權重和誤差項
44
卷積神經網路模型 函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)
目標函式
iw ,2 1,2b
修正方式 修正方式
 ii
i
ii hw
w
F
ww 


  ,2
,2
,2,2  


 1,2
1,2
1,21,2 b
b
F
bb
i
i
ii
h
h
w
y
y
F
w
F















1
ˆ
ˆ ,2,2
    22
2
1
ˆ
2
1
,  yyBWF















11
ˆ
ˆ 1,21,2 b
y
y
F
b
F
1,2
4
1
,2
ˆ bhwy
i
ii 





 
1,154,143,122,111,11 bxwxwxwxwh 
2,164,153,132,121,12 bxwxwxwxwh 
3,184,173,152,141,13 bxwxwxwxwh 
4,194,183,162,151,14 bxwxwxwxwh 
1,2biw ,2
卷積神經網路其他型態-圖片及過濾器組合
梯度下降法應用於卷積層之權重和誤差項
45
卷積神經網路模型 函式切線斜率(對 偏微分)
目標函式
1,1w
修正方式
  54,243,222,211,21,1
1,1
1,11,1
xwxwxwxww
w
F
ww






 54,243,222,211,2
4
1 1,1
,2
1,1
4
1
,2
4
1
,2
1,1
11
ˆ
ˆ
xwxwxwxw
w
h
w
w
hw
hw
y
y
F
w
F
i
i
i
i
ii
i
ii













































    22
2
1
ˆ
2
1
,  yyBWF
1,2
4
1
,2
ˆ bhwy
i
ii 





 
1,154,143,122,111,11 bxwxwxwxwh 
2,164,153,132,121,12 bxwxwxwxwh 
3,184,173,152,141,13 bxwxwxwxwh 
4,194,183,162,151,14 bxwxwxwxwh 
1,1w
卷積神經網路其他型態-圖片及過濾器組合
函式切線斜率(對 偏微分)2,1w
修正方式
 64,253,232,221,2
4
1 2,1
,2
2,1
4
1
,2
4
1
,2
2,1
11
ˆ
ˆ
xwxwxwxw
w
h
w
w
hw
hw
y
y
F
w
F
i
i
i
i
ii
i
ii













































2,1w
  64,253,232,221,22,1
2,1
2,12,1
xwxwxwxww
w
F
ww






梯度下降法應用於卷積層之權重和誤差項
46
卷積神經網路模型 函式切線斜率(對 偏微分)
目標函式
3,1w
修正方式
  84,273,252,241,23,1
3,1
3,13,1
xwxwxwxww
w
F
ww






 84,273,252,241,2
4
1 3,1
,2
3,1
4
1
,2
4
1
,2
3,1
11
ˆ
ˆ
xwxwxwxw
w
h
w
w
hw
hw
y
y
F
w
F
i
i
i
i
ii
i
ii













































    22
2
1
ˆ
2
1
,  yyBWF
1,2
4
1
,2
ˆ bhwy
i
ii 





 
1,154,143,122,111,11 bxwxwxwxwh 
2,164,153,132,121,12 bxwxwxwxwh 
3,184,173,152,141,13 bxwxwxwxwh 
4,194,183,162,151,14 bxwxwxwxwh 
3,1w
卷積神經網路其他型態-圖片及過濾器組合
函式切線斜率(對 偏微分)4,1w
修正方式
 94,283,262,251,2
4
1 4,1
,2
4,1
4
1
,2
4
1
,2
4,1
11
ˆ
ˆ
xwxwxwxw
w
h
w
w
hw
hw
y
y
F
w
F
i
i
i
i
ii
i
ii













































4,1w
  94,283,262,251,24,1
4,1
4,14,1
xwxwxwxww
w
F
ww






梯度下降法應用於卷積層之權重和誤差項
47
卷積神經網路模型 函式切線斜率(對 偏微分)
目標函式
1,1b
修正方式
 1,21,1
1,1
1,11,1
wb
b
F
bb






1,2
4
1 1,1
,2
1,1
4
1
,2
4
1
,2
1,1
11
ˆ
ˆ
w
b
h
w
b
hw
hw
y
y
F
b
F
i
i
i
i
ii
i
ii













































    22
2
1
ˆ
2
1
,  yyBWF
1,2
4
1
,2
ˆ bhwy
i
ii 





 
1,154,143,122,111,11 bxwxwxwxwh 
2,164,153,132,121,12 bxwxwxwxwh 
3,184,173,152,141,13 bxwxwxwxwh 
4,194,183,162,151,14 bxwxwxwxwh 
1,1b
卷積神經網路其他型態-圖片及過濾器組合
函式切線斜率(對 偏微分)2,1b
修正方式
2,2
4
1 2,1
,2
2,1
4
1
,2
4
1
,2
2,1
11
ˆ
ˆ
w
b
h
w
b
hw
hw
y
y
F
b
F
i
i
i
i
ii
i
ii













































2,1b
 2,22,1
2,1
2,12,1
wb
b
F
bb






梯度下降法應用於卷積層之權重和誤差項
48
卷積神經網路模型 函式切線斜率(對 偏微分)
目標函式
3,1b
修正方式
 3,23,1
3,1
3,13,1
wb
b
F
bb






3,2
4
1 3,1
,2
3,1
4
1
,2
4
1
,2
3,1
11
ˆ
ˆ
w
b
h
w
b
hw
hw
y
y
F
b
F
i
i
i
i
ii
i
ii













































    22
2
1
ˆ
2
1
,  yyBWF
1,2
4
1
,2
ˆ bhwy
i
ii 





 
1,154,143,122,111,11 bxwxwxwxwh 
2,164,153,132,121,12 bxwxwxwxwh 
3,184,173,152,141,13 bxwxwxwxwh 
4,194,183,162,151,14 bxwxwxwxwh 
3,1b
卷積神經網路其他型態-圖片及過濾器組合
函式切線斜率(對 偏微分)2,1b
修正方式
4,2
4
1 4,1
,2
4,1
4
1
,2
4
1
,2
4,1
11
ˆ
ˆ
w
b
h
w
b
hw
hw
y
y
F
b
F
i
i
i
i
ii
i
ii













































2,1b
 4,24,1
4,1
4,14,1
wb
b
F
bb






#設定亂數種子
numpy.random.seed(0)
#設定神經網路結構
model =
keras.models.Sequential()
model.add(keras.layers.Conv2D(
filters = 1, kernel_size = (2, 2),
activation = 'linear', input_shape
= (3, 3, 1)))
model.add(keras.layers.Flatten())
model.add(keras.layers.Dense(1,
activation = 'linear'))
49
設定固定的亂數種子,
讓權重初始值可以一致
卷積層: 輸入參數: 3x3圖片, 線性函式
輸出層: 輸入參數: 1個, 輸出參數: 1個, 線性函式
只有1個過濾器,
過濾器為2x2大小
修改3x3
卷積神經網路其他型態-圖片及過濾器組合
50
權重組合
卷積神經網路其他型態-圖片及過濾器組合
執行程式,並取得估計結果
-0.035
yˆ0.035
-0.690
0.690
0.728
-0.246
0.289
0.522
卷積神經網路其他型態-分類最佳化
輸入層
過濾器
51
卷積神經網路結構 卷積神經網路模型
最佳化目標函式
w1
w2
w4
w3
bxwy
i
ii 





 
4
1
ˆ
yˆ
          yyyybWF ˆ1ln1ˆln, 
此卷積神經網路模型採用下列設定:
核心函式:線性函式
目標函式:交叉熵(Cross-Entropy)
輸入層:2x2大小矩陣
過濾器:2x2大小矩陣
運用交叉熵評估分類結果
卷積神經網路其他型態-分類最佳化
梯度下降法應用於卷積層之權重和誤差項
52
卷積神經網路模型 函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)
目標函式
iw b
修正方式 修正方式bˆ
  











 ii
i
ii x
yy
yy
w
w
F
ww
ˆ1ˆ
ˆ

 yy
yy
b
b
F
bb
ˆ1ˆ
ˆ





 
  ii
ii
x
yy
yy
x
y
y
y
y
w
y
y
F
w
F



















ˆ1ˆ
ˆ
ˆ1
1
ˆ
ˆ
ˆ
bxwy
i
ii 





 
4
1
ˆ
iw
          yyyybWF ˆ1ln1ˆln, 
 yy
yy
y
y
y
y
b
y
y
F
b
F
ˆ1ˆ
ˆ
1
ˆ1
1
ˆ
ˆ
ˆ


















卷積神經網路其他型態-分類最佳化
#設定亂數種子
numpy.random.seed(0)
#設定神經網路結構
model =
keras.models.Sequential()
model.add(keras.layers.Conv2D(
filters = 1, kernel_size = (2, 2),
activation = 'linear', input_shape
= (2, 2, 1)))
model.add(keras.layers.Flatten())
model.add(keras.layers.Dense(2,
activation = 'softmax'))
53
設定固定的亂數種子,
讓權重初始值可以一致
卷積層: 輸入參數: 2x2圖片, 線性函式
輸出層: 輸入參數: 2個, 輸出參數: 1個, softmax函式
只有1個過濾器,
過濾器為2x2大小
修改activation為softmax
卷積神經網路其他型態-分類最佳化
54
#設定神經網路學習目標
model.compile(
loss='categorical_crossentropy',
optimizer = 'sgd',
metrics = ['acc'])
學習目標為最小交叉熵
最佳化方法為梯度下降法
評量指標為正確率
loss函式為交叉熵categorical_crossentropy
卷積神經網路其他型態-分類最佳化
55
權重組合
執行程式,並取得估計結果
1.013
-1.795
0.535
-1.335 h
0.512-
0.140-
0.952
0.512
1
ˆy
-2.388
2
ˆy
卷積神經網路其他型態-分類最佳化
輸入層
過濾器
56
卷積神經網路結構 卷積神經網路模型
最佳化目標函式
w1
w2
w4
w3
  z
i
ii
e
zsy
bxwz










 
1
1
ˆ
4
1
yˆ
          yyyybWF ˆ1ln1ˆln, 
此卷積神經網路模型採用下列設定:
核心函式:S型函式
目標函式:交叉熵(Cross-Entropy)
輸入層:2x2大小矩陣
過濾器:2x2大小矩陣
運用交叉熵評估分類結果
卷積神經網路其他型態-分類最佳化
梯度下降法應用於卷積層之權重和誤差項
57
卷積神經網路模型 函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)
目標函式
iw b
修正方式 修正方式bˆ
  ii
i
ii xyyw
w
F
ww 


 ˆ  yyb
b
F
bb 


 ˆ
  
 
     ii
i
ii
xyyxyy
yy
yy
xyy
y
y
y
y
w
z
z
y
y
F
w
F






















ˆˆ1ˆ
ˆ1ˆ
ˆ
ˆ1ˆ
ˆ1
1
ˆ
ˆ
ˆ
iw
          yyyybWF ˆ1ln1ˆln, 
  z
i
ii
e
zsy
bxwz










 
1
1
ˆ
4
1
  
 
   yyyy
yy
yy
yy
y
y
y
y
b
z
z
y
y
F
b
F






















ˆˆ1ˆ
ˆ1ˆ
ˆ
1ˆ1ˆ
ˆ1
1
ˆ
ˆ
ˆ
卷積神經網路其他型態-分類最佳化
#設定亂數種子
numpy.random.seed(0)
#設定神經網路結構
model =
keras.models.Sequential()
model.add(keras.layers.Conv2D(
filters = 1, kernel_size = (2, 2),
activation = 'sigmoid',
input_shape = (2, 2, 1)))
model.add(keras.layers.Flatten())
model.add(keras.layers.Dense(2,
activation = 'softmax'))
58
設定固定的亂數種子,
讓權重初始值可以一致
卷積層: 輸入參數: 2x2圖片, S型函式
輸出層: 輸入參數: 2個, 輸出參數: 1個, softmax函式
只有1個過濾器,
過濾器為2x2大小
修改activation為softmax
修改activation為sigmoid
卷積神經網路其他型態-分類最佳化
59
#設定神經網路學習目標
model.compile(
loss='categorical_crossentropy',
optimizer = 'sgd',
metrics = ['acc'])
學習目標為最小交叉熵
最佳化方法為梯度下降法
評量指標為正確率
loss函式為交叉熵categorical_crossentropy
卷積神經網路其他型態-分類最佳化
60
權重組合
執行程式,並取得估計結果
-1.805
2.502
-2.278
2.967 h
1.667
1.344
-4.816
1.667-
1
ˆy
-3.380
2
ˆy
卷積神經網路其他型態-動量最佳化
輸入層
過濾器
61
卷積神經網路結構 卷積神經網路模型
最佳化目標函式
w1
w2
w4
w3
bxwy
i
ii 





 
4
1
ˆ
yˆ
   2
ˆ
2
1
, yybWF 
此卷積神經網路模型採用下列設定:
核心函式:線性函式
目標函式:最小平方誤差
輸入層:2x2大小矩陣
過濾器:2x2大小矩陣
採用動量Momentum
網路結構不變
核心函式不變
目標函式不變
卷積神經網路其他型態-動量最佳化
梯度下降法應用於卷積層之權重和誤差項
62
卷積神經網路
模型
函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)
目標函式
iw b
修正方式 修正方式b
   
   
     
   
   
i
tt
w
t
i
t
w
t
i
t
i
t
i
t
w
t
w
xvw
vww
w
F
vv
i
i
ii










1
1
11
1
1
i
i
ii
x
x
w
y
y
F
w
F















1
ˆ
ˆ
   
2
2
2
1
ˆ
2
1
,

 yybWF
bxwy
i
ii 





 
4
1
ˆ
iw















11
ˆ
ˆ b
y
y
F
b
F
   
   
     
   
   tt
b
t
i
t
b
t
i
t
i
t
t
b
t
b
vw
vww
b
F
vv










1
1
11
1
1
第t個時間點之修正方式,主要多參考第t-1時間點之修正值
採用動量Momentum
網路結構不變
核心函式不變
目標函式不變
卷積神經網路其他型態-動量最佳化
#設定亂數種子
numpy.random.seed(0)
#設定神經網路結構
model =
keras.models.Sequential()
model.add(keras.layers.Conv2D(
filters = 1, kernel_size = (2, 2),
activation = 'linear', input_shape
= (2, 2, 1)))
model.add(keras.layers.Flatten())
model.add(keras.layers.Dense(1,
activation = 'linear'))
63
設定固定的亂數種子,
讓權重初始值可以一致
卷積層: 輸入參數: 2x2圖片, 線性函式
輸出層: 輸入參數: 1個, 輸出參數: 1個, 線性函式
只有1個過濾器,
過濾器為2x2大小
卷積神經網路其他型態-動量最佳化
64
#設定神經網路學習目標
model.compile(
loss='mean_squared_error',
optimizer =
keras.optimizers.SGD(lr = 0.01,
momentum = 0.5),
metrics = ['mae'])
學習目標為最小平方誤差
最佳化方法為梯度下降法
評量指標為平均絕對誤差
loss函式為交叉熵categorical_crossentropy
學習率(lr)為0.01
動量(momentum)為0.5
卷積神經網路其他型態-動量最佳化
65
權重組合
執行程式,並取得估計結果
0.883
-0.402
0.663
-0.183 yˆh
0.202-0.264-
0.937
卷積神經網路不適用情境
卷積神經網路並非萬靈丹
無法解決XOR (互斥或)計算
66
X1 X2 Y 估計值
0 0 0 0.5
0 1 1 0.5
1 0 1 0.5
1 1 0 0.5
-0.095
-0.095 yˆh
0.3580.900-
-0.145
卷積神經網路結構
機器學習無法學會
XOR,全部猜0.5
此卷積神經網路模型採用下列設定:
核心函式:線性函式
目標函式:最小平方誤差
輸入層:2x1大小矩陣
過濾器:2x1大小矩陣
bxwy
i
ii 





 
2
1
ˆ
卷積神經網路模型
卷積神經網路不適用情境
#設定亂數種子
numpy.random.seed(0)
#設定神經網路結構
model =
keras.models.Sequential()
model.add(keras.layers.Conv2D(
filters = 1, kernel_size = (2, 1),
activation = 'linear', input_shape
= (2, 1, 1)))
model.add(keras.layers.Flatten())
model.add(keras.layers.Dense(1,
activation = 'linear'))
67
設定固定的亂數種子,
讓權重初始值可以一致
卷積層: 輸入參數: 2x1圖片, 線性函式
輸出層: 輸入參數: 1個, 輸出參數: 1個, 線性函式
只有1個過濾器,
過濾器為2x1大小
卷積神經網路不適用情境
68
權重組合
執行程式,並取得估計結果
0.644
0.069 yˆh
0.4990.099-
-0.001
手寫影像辨識範例
手寫影像辨識資料集(MNIST)
◦ 影像大小:28 x 28 (即輸入共784個參數)
◦ 類別數量:10 (即0~9,輸出共10個類別)
◦ 取得方式:mnist <- dataset_mnist()
訓練資料
◦ 共60000萬筆
◦ 輸入參數:mnist$train$x
◦ 輸出參數:mnist$train$y
測試資料
◦ 共10000萬筆
◦ 輸入參數:mnist$test$x
◦ 輸出參數:mnist$test$y
69
訓練資料第1筆x資料
該筆資料的y資料為5
手寫影像辨識範例
70
輸入層(共有28x28 = 764個x變數) 卷積神經網路結構
此卷積神經網路模型採用下列設定:
核心函式:線性整流函式(ReLU)
目標函式:交叉熵(Cross-Entropy)
輸入層:28x28大小矩陣
過濾器:3x3大小矩陣
過濾器(共有3x3 = 9個w變數)
w1,1
w1,2
手寫影像辨識範例
#引用tensorflow函式庫
import tensorflow
#引用keras函式庫
import keras
#引用csv函式庫
import csv
#引用numpy函式庫
import numpy
#引用pyplot函式庫
import matplotlib.pyplot as plot
71
使用深度學習套件
「tensorflow」和
「keras」訓練模型
此卷積神經網路模型採用下列設定:
核心函式:線性整流函式(ReLU)
目標函式:交叉熵(Cross-Entropy)
輸入層:28x28大小矩陣
過濾器:3x3大小矩陣
手寫影像辨識範例
#類別數量
num_classes = 10
#圖片長寬
img_rows = 28
img_cols = 28
72
圖片長度為28
圖片寬度為28
此卷積神經網路模型採用下列設定:
核心函式:線性整流函式(ReLU)
目標函式:交叉熵(Cross-Entropy)
輸入層:28x28大小矩陣
過濾器:3x3大小矩陣
手寫影像辨識範例
#讀取訓練資料
(X_train, y_train), (X_test, y_test)
= keras.datasets.mnist.load_data()
#正規化
X = X / 255
#轉換為2x2矩陣大小
X =
X_train.reshape(X_train.shape[0],
img_rows, img_cols, 1)
Y =
keras.utils.to_categorical(y_train,
num_classes)
73
此卷積神經網路模型採用下列設定:
核心函式:線性整流函式(ReLU)
目標函式:交叉熵(Cross-Entropy)
輸入層:28x28大小矩陣
過濾器:3x3大小矩陣
手寫影像辨識範例
#設定亂數種子
numpy.random.seed(0)
#設定神經網路結構
model =
keras.models.Sequential()
model.add(keras.layers.Conv2D(
filters = 1, kernel_size = (3, 3),
activation = 'relu', input_shape =
(img_rows, img_cols, 1)))
model.add(keras.layers.Flatten())
model.add(keras.layers.Dense(2,
activation = 'softmax'))
74
設定固定的亂數種子,
讓權重初始值可以一致
卷積層: 輸入參數: 28x28圖片, 線性整流函式
輸出層: 輸入參數: 2個, 輸出參數: 1個, softmax函式
只有1個過濾器,
過濾器為3x3大小
此卷積神經網路模型採用下列設定:
核心函式:線性整流函式(ReLU)
目標函式:交叉熵(Cross-Entropy)
輸入層:28x28大小矩陣
過濾器:3x3大小矩陣
修改activation為softmax
手寫影像辨識範例
75
此卷積神經網路模型採用下列設定:
核心函式:線性整流函式(ReLU)
目標函式:交叉熵(Cross-Entropy)
輸入層:28x28大小矩陣
過濾器:3x3大小矩陣
#設定神經網路學習目標
model.compile(
loss='categorical_crossentropy',
optimizer = 'sgd',
metrics = ['acc'])
學習目標為最小交叉熵
最佳化方法為梯度下降法
評量指標為正確率
手寫影像辨識範例
#宣告繪製結果圖形之函式
def show_train_history(train_history,
x1, x2):
plot.plot(train_history.history[x1])
plot.plot(train_history.history[x2])
plot.title('Train History')
plot.ylabel('train')
plot.xlabel('Epoch')
plot.legend([x1, x2], loc = 'upper
right')
plot.show()
76
後續可呼叫
show_train_history函式
輸出訓練結果圖形
此卷積神經網路模型採用下列設定:
核心函式:線性整流函式(ReLU)
目標函式:交叉熵(Cross-Entropy)
輸入層:28x28大小矩陣
過濾器:3x3大小矩陣
手寫影像辨識範例
#訓練神經網路
train_history =
model.fit(
X, #輸入參數
Y, #輸出參數
epochs = 300, #訓練回合數
batch_size = 60000) #逐筆修正
權重
77
設定輸入參數為X
設定輸出參數為Y
訓練回合數為300
採用每6萬筆修正權重的方式
此卷積神經網路模型採用下列設定:
核心函式:線性整流函式(ReLU)
目標函式:交叉熵(Cross-Entropy)
輸入層:28x28大小矩陣
過濾器:3x3大小矩陣
手寫影像辨識範例
#顯示訓練過程
show_train_history(train_history,
'loss', 'mean_absolute_error')
#顯示訓練錯誤率
scores = model.evaluate(X, Y)
print("n%s: %.2f%%" %
(model.metrics_names[1],
scores[1]*100))
#顯示神經網路權重值
print(model.get_weights())
78
此卷積神經網路模型採用下列設定:
核心函式:線性整流函式(ReLU)
目標函式:交叉熵(Cross-Entropy)
輸入層:28x28大小矩陣
過濾器:3x3大小矩陣
手寫影像辨識範例
#將測試資料代入模型進行預測,
並取得預測結果
predictions = model.predict(X)
print(predictions)
79
輸入資料進行估計
估計結果
正確率
此卷積神經網路模型採用下列設定:
核心函式:線性整流函式(ReLU)
目標函式:交叉熵(Cross-Entropy)
輸入層:28x28大小矩陣
過濾器:3x3大小矩陣
手寫影像辨識範例
Loss和正確率
80
此卷積神經網路模型採用下列設定:
核心函式:線性整流函式(ReLU)
目標函式:交叉熵(Cross-Entropy)
輸入層:28x28大小矩陣
過濾器:3x3大小矩陣

Mais conteúdo relacionado

Mais procurados

Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生Jason Tsai
 
以深度學習加速語音及影像辨識應用發展
以深度學習加速語音及影像辨識應用發展以深度學習加速語音及影像辨識應用發展
以深度學習加速語音及影像辨識應用發展NVIDIA Taiwan
 
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生Jason Tsai
 
OI算法竞赛中树形数据结构
OI算法竞赛中树形数据结构OI算法竞赛中树形数据结构
OI算法竞赛中树形数据结构Ray Song
 
神經網路(Python+TensorFlow+Keras)
神經網路(Python+TensorFlow+Keras)神經網路(Python+TensorFlow+Keras)
神經網路(Python+TensorFlow+Keras)Fuzhou University
 
Hands-on tutorial of deep learning (Keras)
Hands-on tutorial of deep learning (Keras)Hands-on tutorial of deep learning (Keras)
Hands-on tutorial of deep learning (Keras)Chun-Min Chang
 
基于Innodb开发的最佳实践
基于Innodb开发的最佳实践基于Innodb开发的最佳实践
基于Innodb开发的最佳实践wubx
 
Neural Turing Machine Tutorial
Neural Turing Machine TutorialNeural Turing Machine Tutorial
Neural Turing Machine TutorialMark Chang
 
我对后端优化的一点想法.pptx
我对后端优化的一点想法.pptx我对后端优化的一点想法.pptx
我对后端优化的一点想法.pptxjames tong
 
Mining the Parkinson's Telemonitoring Data Set
Mining the Parkinson's Telemonitoring Data SetMining the Parkinson's Telemonitoring Data Set
Mining the Parkinson's Telemonitoring Data SetJimmy Lu
 
我对后端优化的一点想法 (2012)
我对后端优化的一点想法 (2012)我对后端优化的一点想法 (2012)
我对后端优化的一点想法 (2012)james tong
 
Equalization in digital communication
Equalization in digital communicationEqualization in digital communication
Equalization in digital communicationPei-Che Chang
 
C2 discrete time signals and systems in the frequency-domain
C2 discrete time signals and systems in the frequency-domainC2 discrete time signals and systems in the frequency-domain
C2 discrete time signals and systems in the frequency-domainPei-Che Chang
 
初探深度學習技術與應用
初探深度學習技術與應用初探深度學習技術與應用
初探深度學習技術與應用Fuzhou University
 
NTC_Tensor flow 深度學習快速上手班_Part2 -深度學習
NTC_Tensor flow 深度學習快速上手班_Part2 -深度學習NTC_Tensor flow 深度學習快速上手班_Part2 -深度學習
NTC_Tensor flow 深度學習快速上手班_Part2 -深度學習NTC.im(Notch Training Center)
 

Mais procurados (20)

深度學習方法與實作
深度學習方法與實作深度學習方法與實作
深度學習方法與實作
 
人工智慧08_神經網路
人工智慧08_神經網路人工智慧08_神經網路
人工智慧08_神經網路
 
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
 
以深度學習加速語音及影像辨識應用發展
以深度學習加速語音及影像辨識應用發展以深度學習加速語音及影像辨識應用發展
以深度學習加速語音及影像辨識應用發展
 
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
 
OI算法竞赛中树形数据结构
OI算法竞赛中树形数据结构OI算法竞赛中树形数据结构
OI算法竞赛中树形数据结构
 
神經網路(Python+TensorFlow+Keras)
神經網路(Python+TensorFlow+Keras)神經網路(Python+TensorFlow+Keras)
神經網路(Python+TensorFlow+Keras)
 
Hands-on tutorial of deep learning (Keras)
Hands-on tutorial of deep learning (Keras)Hands-on tutorial of deep learning (Keras)
Hands-on tutorial of deep learning (Keras)
 
基于Innodb开发的最佳实践
基于Innodb开发的最佳实践基于Innodb开发的最佳实践
基于Innodb开发的最佳实践
 
Neural Turing Machine Tutorial
Neural Turing Machine TutorialNeural Turing Machine Tutorial
Neural Turing Machine Tutorial
 
香港六合彩
香港六合彩香港六合彩
香港六合彩
 
我对后端优化的一点想法.pptx
我对后端优化的一点想法.pptx我对后端优化的一点想法.pptx
我对后端优化的一点想法.pptx
 
Mining the Parkinson's Telemonitoring Data Set
Mining the Parkinson's Telemonitoring Data SetMining the Parkinson's Telemonitoring Data Set
Mining the Parkinson's Telemonitoring Data Set
 
我对后端优化的一点想法 (2012)
我对后端优化的一点想法 (2012)我对后端优化的一点想法 (2012)
我对后端优化的一点想法 (2012)
 
Random Process
Random ProcessRandom Process
Random Process
 
Equalization in digital communication
Equalization in digital communicationEqualization in digital communication
Equalization in digital communication
 
Optimzing mysql
Optimzing mysqlOptimzing mysql
Optimzing mysql
 
C2 discrete time signals and systems in the frequency-domain
C2 discrete time signals and systems in the frequency-domainC2 discrete time signals and systems in the frequency-domain
C2 discrete time signals and systems in the frequency-domain
 
初探深度學習技術與應用
初探深度學習技術與應用初探深度學習技術與應用
初探深度學習技術與應用
 
NTC_Tensor flow 深度學習快速上手班_Part2 -深度學習
NTC_Tensor flow 深度學習快速上手班_Part2 -深度學習NTC_Tensor flow 深度學習快速上手班_Part2 -深度學習
NTC_Tensor flow 深度學習快速上手班_Part2 -深度學習
 

Semelhante a 卷積神經網路(Python+TensorFlow+Keras)

Tutorial of cnn 赵子健9.16
Tutorial of cnn 赵子健9.16Tutorial of cnn 赵子健9.16
Tutorial of cnn 赵子健9.16Zijian Zhao
 
CPU平行粒子群最佳化應用於平面桁架結構最佳化設計
CPU平行粒子群最佳化應用於平面桁架結構最佳化設計CPU平行粒子群最佳化應用於平面桁架結構最佳化設計
CPU平行粒子群最佳化應用於平面桁架結構最佳化設計Jay Hung
 
机器学习V10baochang svm
机器学习V10baochang svm机器学习V10baochang svm
机器学习V10baochang svmShocky1
 
淘宝前端优化
淘宝前端优化淘宝前端优化
淘宝前端优化锐 张
 
淘宝前台系统优化实践“吞吐量优化”-Qcon2011
淘宝前台系统优化实践“吞吐量优化”-Qcon2011淘宝前台系统优化实践“吞吐量优化”-Qcon2011
淘宝前台系统优化实践“吞吐量优化”-Qcon2011Yiwei Ma
 
第03章 串(java版)
第03章  串(java版)第03章  串(java版)
第03章 串(java版)Yan Li
 
Pytorch cnn netowork introduction 20240318
Pytorch cnn netowork introduction 20240318Pytorch cnn netowork introduction 20240318
Pytorch cnn netowork introduction 20240318FEG
 
Deep learning wiki on data encodingi
Deep learning  wiki on data encodingiDeep learning  wiki on data encodingi
Deep learning wiki on data encodingiwang meng
 
Avm2虚拟机浅析与as3性能优化(陈士凯)
Avm2虚拟机浅析与as3性能优化(陈士凯)Avm2虚拟机浅析与as3性能优化(陈士凯)
Avm2虚拟机浅析与as3性能优化(陈士凯)FLASH开发者交流会
 
[Flash开发者交流][2010.05.30]avm2虚拟机浅析与as3性能优化(陈士凯)
[Flash开发者交流][2010.05.30]avm2虚拟机浅析与as3性能优化(陈士凯)[Flash开发者交流][2010.05.30]avm2虚拟机浅析与as3性能优化(陈士凯)
[Flash开发者交流][2010.05.30]avm2虚拟机浅析与as3性能优化(陈士凯)Shanda innovation institute
 
7神经网络建模与控制.ppt神经网络健康开会哦加哦窘境哦加哦就i破剖噢批u哦评价哦
7神经网络建模与控制.ppt神经网络健康开会哦加哦窘境哦加哦就i破剖噢批u哦评价哦7神经网络建模与控制.ppt神经网络健康开会哦加哦窘境哦加哦就i破剖噢批u哦评价哦
7神经网络建模与控制.ppt神经网络健康开会哦加哦窘境哦加哦就i破剖噢批u哦评价哦XingWang49
 
手勢以及身體骨架辨識
手勢以及身體骨架辨識手勢以及身體骨架辨識
手勢以及身體骨架辨識CHENHuiMei
 
游戏的实时辐射度光能传递架构
游戏的实时辐射度光能传递架构游戏的实时辐射度光能传递架构
游戏的实时辐射度光能传递架构zXr0
 
Mahout資料分析基礎入門
Mahout資料分析基礎入門Mahout資料分析基礎入門
Mahout資料分析基礎入門Jhang Raymond
 
MySQL 6.0 下的cluster + replicate - 20080220
MySQL 6.0 下的cluster + replicate - 20080220MySQL 6.0 下的cluster + replicate - 20080220
MySQL 6.0 下的cluster + replicate - 20080220Jinrong Ye
 
品管七大手法1
品管七大手法1品管七大手法1
品管七大手法15045033
 
張逸 - 研究所 / 轉學考計算機概論 、公職計算機概要 - 基本計概 - 試閱版
張逸 - 研究所 / 轉學考計算機概論 、公職計算機概要 - 基本計概 - 試閱版張逸 - 研究所 / 轉學考計算機概論 、公職計算機概要 - 基本計概 - 試閱版
張逸 - 研究所 / 轉學考計算機概論 、公職計算機概要 - 基本計概 - 試閱版逸 張
 

Semelhante a 卷積神經網路(Python+TensorFlow+Keras) (20)

Tutorial of cnn 赵子健9.16
Tutorial of cnn 赵子健9.16Tutorial of cnn 赵子健9.16
Tutorial of cnn 赵子健9.16
 
CPU平行粒子群最佳化應用於平面桁架結構最佳化設計
CPU平行粒子群最佳化應用於平面桁架結構最佳化設計CPU平行粒子群最佳化應用於平面桁架結構最佳化設計
CPU平行粒子群最佳化應用於平面桁架結構最佳化設計
 
机器学习V10baochang svm
机器学习V10baochang svm机器学习V10baochang svm
机器学习V10baochang svm
 
淘宝前端优化
淘宝前端优化淘宝前端优化
淘宝前端优化
 
淘宝前台系统优化实践“吞吐量优化”-Qcon2011
淘宝前台系统优化实践“吞吐量优化”-Qcon2011淘宝前台系统优化实践“吞吐量优化”-Qcon2011
淘宝前台系统优化实践“吞吐量优化”-Qcon2011
 
第03章 串(java版)
第03章  串(java版)第03章  串(java版)
第03章 串(java版)
 
Pytorch cnn netowork introduction 20240318
Pytorch cnn netowork introduction 20240318Pytorch cnn netowork introduction 20240318
Pytorch cnn netowork introduction 20240318
 
Deep learning wiki on data encodingi
Deep learning  wiki on data encodingiDeep learning  wiki on data encodingi
Deep learning wiki on data encodingi
 
Avm2虚拟机浅析与as3性能优化(陈士凯)
Avm2虚拟机浅析与as3性能优化(陈士凯)Avm2虚拟机浅析与as3性能优化(陈士凯)
Avm2虚拟机浅析与as3性能优化(陈士凯)
 
[Flash开发者交流][2010.05.30]avm2虚拟机浅析与as3性能优化(陈士凯)
[Flash开发者交流][2010.05.30]avm2虚拟机浅析与as3性能优化(陈士凯)[Flash开发者交流][2010.05.30]avm2虚拟机浅析与as3性能优化(陈士凯)
[Flash开发者交流][2010.05.30]avm2虚拟机浅析与as3性能优化(陈士凯)
 
7神经网络建模与控制.ppt神经网络健康开会哦加哦窘境哦加哦就i破剖噢批u哦评价哦
7神经网络建模与控制.ppt神经网络健康开会哦加哦窘境哦加哦就i破剖噢批u哦评价哦7神经网络建模与控制.ppt神经网络健康开会哦加哦窘境哦加哦就i破剖噢批u哦评价哦
7神经网络建模与控制.ppt神经网络健康开会哦加哦窘境哦加哦就i破剖噢批u哦评价哦
 
Manifold
ManifoldManifold
Manifold
 
手勢以及身體骨架辨識
手勢以及身體骨架辨識手勢以及身體骨架辨識
手勢以及身體骨架辨識
 
Lab2
Lab2Lab2
Lab2
 
游戏的实时辐射度光能传递架构
游戏的实时辐射度光能传递架构游戏的实时辐射度光能传递架构
游戏的实时辐射度光能传递架构
 
Mahout資料分析基礎入門
Mahout資料分析基礎入門Mahout資料分析基礎入門
Mahout資料分析基礎入門
 
Slide
SlideSlide
Slide
 
MySQL 6.0 下的cluster + replicate - 20080220
MySQL 6.0 下的cluster + replicate - 20080220MySQL 6.0 下的cluster + replicate - 20080220
MySQL 6.0 下的cluster + replicate - 20080220
 
品管七大手法1
品管七大手法1品管七大手法1
品管七大手法1
 
張逸 - 研究所 / 轉學考計算機概論 、公職計算機概要 - 基本計概 - 試閱版
張逸 - 研究所 / 轉學考計算機概論 、公職計算機概要 - 基本計概 - 試閱版張逸 - 研究所 / 轉學考計算機概論 、公職計算機概要 - 基本計概 - 試閱版
張逸 - 研究所 / 轉學考計算機概論 、公職計算機概要 - 基本計概 - 試閱版
 

Mais de Fuzhou University

多媒體系統10_3D繪圖軟體Blender
多媒體系統10_3D繪圖軟體Blender多媒體系統10_3D繪圖軟體Blender
多媒體系統10_3D繪圖軟體BlenderFuzhou University
 
多媒體系統09_3D互動擴增實境
多媒體系統09_3D互動擴增實境多媒體系統09_3D互動擴增實境
多媒體系統09_3D互動擴增實境Fuzhou University
 
多媒體系統08_Inkscape繪製圖形與漸層
多媒體系統08_Inkscape繪製圖形與漸層多媒體系統08_Inkscape繪製圖形與漸層
多媒體系統08_Inkscape繪製圖形與漸層Fuzhou University
 
機器學習工具_微軟Azure Machine Learning Studio
機器學習工具_微軟Azure Machine Learning Studio機器學習工具_微軟Azure Machine Learning Studio
機器學習工具_微軟Azure Machine Learning StudioFuzhou University
 
論文導讀01_k個最近鄰居(行動定位)
論文導讀01_k個最近鄰居(行動定位)論文導讀01_k個最近鄰居(行動定位)
論文導讀01_k個最近鄰居(行動定位)Fuzhou University
 
多媒體系統02_影像處理原理與技術
多媒體系統02_影像處理原理與技術多媒體系統02_影像處理原理與技術
多媒體系統02_影像處理原理與技術Fuzhou University
 
多媒體系統07_Android App影音互動擴增實境
多媒體系統07_Android App影音互動擴增實境多媒體系統07_Android App影音互動擴增實境
多媒體系統07_Android App影音互動擴增實境Fuzhou University
 
多媒體系統06_影音編輯軟體Movie Maker
多媒體系統06_影音編輯軟體Movie Maker多媒體系統06_影音編輯軟體Movie Maker
多媒體系統06_影音編輯軟體Movie MakerFuzhou University
 
多媒體系統05_Android App圖形元件
多媒體系統05_Android App圖形元件多媒體系統05_Android App圖形元件
多媒體系統05_Android App圖形元件Fuzhou University
 
多媒體系統04_GIMP繪圖、特效、動畫
多媒體系統04_GIMP繪圖、特效、動畫多媒體系統04_GIMP繪圖、特效、動畫
多媒體系統04_GIMP繪圖、特效、動畫Fuzhou University
 
多媒體系統03_GIMP影像合成與圖層應用
多媒體系統03_GIMP影像合成與圖層應用多媒體系統03_GIMP影像合成與圖層應用
多媒體系統03_GIMP影像合成與圖層應用Fuzhou University
 
多媒體系統01_安裝開發環境
多媒體系統01_安裝開發環境多媒體系統01_安裝開發環境
多媒體系統01_安裝開發環境Fuzhou University
 
人工智慧02_大數據分析與機器學習概論
人工智慧02_大數據分析與機器學習概論人工智慧02_大數據分析與機器學習概論
人工智慧02_大數據分析與機器學習概論Fuzhou University
 
人工智慧04_貝氏分類和貝氏網路
人工智慧04_貝氏分類和貝氏網路人工智慧04_貝氏分類和貝氏網路
人工智慧04_貝氏分類和貝氏網路Fuzhou University
 
人工智慧01_安裝機器學習開發環境
人工智慧01_安裝機器學習開發環境人工智慧01_安裝機器學習開發環境
人工智慧01_安裝機器學習開發環境Fuzhou University
 

Mais de Fuzhou University (17)

多媒體系統10_3D繪圖軟體Blender
多媒體系統10_3D繪圖軟體Blender多媒體系統10_3D繪圖軟體Blender
多媒體系統10_3D繪圖軟體Blender
 
多媒體系統09_3D互動擴增實境
多媒體系統09_3D互動擴增實境多媒體系統09_3D互動擴增實境
多媒體系統09_3D互動擴增實境
 
多媒體系統08_Inkscape繪製圖形與漸層
多媒體系統08_Inkscape繪製圖形與漸層多媒體系統08_Inkscape繪製圖形與漸層
多媒體系統08_Inkscape繪製圖形與漸層
 
機器學習工具_微軟Azure Machine Learning Studio
機器學習工具_微軟Azure Machine Learning Studio機器學習工具_微軟Azure Machine Learning Studio
機器學習工具_微軟Azure Machine Learning Studio
 
論文導讀01_k個最近鄰居(行動定位)
論文導讀01_k個最近鄰居(行動定位)論文導讀01_k個最近鄰居(行動定位)
論文導讀01_k個最近鄰居(行動定位)
 
多媒體系統02_影像處理原理與技術
多媒體系統02_影像處理原理與技術多媒體系統02_影像處理原理與技術
多媒體系統02_影像處理原理與技術
 
多媒體系統07_Android App影音互動擴增實境
多媒體系統07_Android App影音互動擴增實境多媒體系統07_Android App影音互動擴增實境
多媒體系統07_Android App影音互動擴增實境
 
多媒體系統06_影音編輯軟體Movie Maker
多媒體系統06_影音編輯軟體Movie Maker多媒體系統06_影音編輯軟體Movie Maker
多媒體系統06_影音編輯軟體Movie Maker
 
多媒體系統05_Android App圖形元件
多媒體系統05_Android App圖形元件多媒體系統05_Android App圖形元件
多媒體系統05_Android App圖形元件
 
多媒體系統04_GIMP繪圖、特效、動畫
多媒體系統04_GIMP繪圖、特效、動畫多媒體系統04_GIMP繪圖、特效、動畫
多媒體系統04_GIMP繪圖、特效、動畫
 
多媒體系統03_GIMP影像合成與圖層應用
多媒體系統03_GIMP影像合成與圖層應用多媒體系統03_GIMP影像合成與圖層應用
多媒體系統03_GIMP影像合成與圖層應用
 
多媒體系統01_安裝開發環境
多媒體系統01_安裝開發環境多媒體系統01_安裝開發環境
多媒體系統01_安裝開發環境
 
人工智慧02_大數據分析與機器學習概論
人工智慧02_大數據分析與機器學習概論人工智慧02_大數據分析與機器學習概論
人工智慧02_大數據分析與機器學習概論
 
人工智慧06_決策樹
人工智慧06_決策樹人工智慧06_決策樹
人工智慧06_決策樹
 
人工智慧04_貝氏分類和貝氏網路
人工智慧04_貝氏分類和貝氏網路人工智慧04_貝氏分類和貝氏網路
人工智慧04_貝氏分類和貝氏網路
 
人工智慧03_關聯規則
人工智慧03_關聯規則人工智慧03_關聯規則
人工智慧03_關聯規則
 
人工智慧01_安裝機器學習開發環境
人工智慧01_安裝機器學習開發環境人工智慧01_安裝機器學習開發環境
人工智慧01_安裝機器學習開發環境
 

卷積神經網路(Python+TensorFlow+Keras)