SlideShare uma empresa Scribd logo
1 de 51
Baixar para ler offline
「内積」を知っていればわかる(?):
深層学習の非常に簡単な説明
九州大学システム情報科学研究院 情報知能工学部門 内田誠一
uchida@ait.kyushu-u.ac.jp
1
はじめに:ビギナーの方へ (1/2)
深層学習の基本を極力平易に説明したつもりです
ちょっと普通の入門書とは違った角度から攻めてます
 (Back Propagationなどの)「学習法」は説明していません
 (学習後に)「どういう風に動作するものなのか」を中心にしています
 (学習後の)動作がわかった後に,学習原理を学ぶとよいと思います
前半は,深層学習以前の(30年ぐらいまえの)多層ニュー
ラルネットワークの解説です
それを踏まえたほうが,多層化の意味も分かりやすいんじゃないかと
2
はじめに:ビギナーの方へ (2/2)
例に使っているニューラルネットは,画像認識用の「畳み込
み深層ニューラルネットワーク」とは,ほんのちょっと違います
ただし,慣れてくると,本質的には同じものだとお分かりいただける
と思います(畳み込みも結局は内積だから)
学部低年次の皆さん,高校生の皆さん
皆さんが習っている「ベクトル」とか「内積」とかが,実は昨今のAIの
基本になっているんです
高々,足し算と掛け算ぐらいの話ですので,恐れず行きましょう!
3
はじめに:専門家の方へ
本資料は学部低年次程度の知識でも理解できることを
目指しています.
なので,専門家には「?」なところもあるかもしれません
イロイロご容赦ください
4
じゃぁ,はじめましょう!
まずは「パターン認識」の基本
パターン認識をよく知っている人は
「ところで,特徴もイロイロある」のスライドへジャンプしてOK
5
計算機に「これは何か」を
答えさせる技術
計算機による「パターン認識」の基本原理
入力パターン
みかん!
「豚肉」「牛肉」
「みかん」
「すいか」
「パイン」 「鯛」
計算機が覚えていること
単に,「自分が覚えているものの中で
入力に最も似てるもの」を答えるだけ!
こんな単純なのに,業界では「最近傍
識別」というイカツイ名前で呼ぶ...
この基本原理を座標空間で見ると...(1/8)
色特徴
テクスチャ
(模様)特徴
豚肉=(色,形,模様)
=(10, 2.5, 4.3)
※これらの数字はテキトーです
こんな感じで,それぞれは何かしらの
数字の組で表されているとします
この基本原理を座標空間で見ると...(2/8)
色特徴
テクスチャ
(模様)特徴
豚肉=(色,形,模様)
=(10, 2.5, 4.3)
※これらの数字はテキトーです
こんな感じで,それぞれは何かしらの
数字の組で表されているとします
各数字のことを「特徴」と呼びます
この基本原理を座標空間で見ると...(3/8)
色特徴
テクスチャ
(模様)特徴
豚肉=(色,形,模様)
=(10, 2.5, 4.3)
※これらの数字はテキトーです
こんな感じで,それぞれは何かしらの
数字の組で表されているとします
数字の組=ベクトル,ですよね(次ページ→※)
この基本原理を座標空間で見ると...(4/8)
色特徴
テクスチャ
(模様)特徴
豚肉=(色,形,模様,..., なんちゃら)
=(10, 2.5, 4.3,..., 5.9)
※これらの数字はテキトーです
3つ以上の特徴で表されると,その分だけ
座標軸が要りますが,まぁ気にしない
なんちゃら
特徴
※高校だと3数字の組=3次元ベクトルまでしか習わないでしょうね.でもd(>3)個の数字の組にしたってOK. d次元ベクトル.
この基本原理を座標空間で見ると...(5/8)
色特徴
テクスチャ
(模様)特徴
牛肉=(色,形,模様,..., なんちゃら)
=(8, 2.6, 0.9,..., 7.2)
※これらの数字はテキトーです
違うものは,違う値を持つから
この座標空間の中でも違う位置
豚肉=(色,形,模様,..., なんちゃら)
=(10, 2.5, 4.3,..., 5.9)
※これらの数字はテキトーです
なんちゃら
特徴
この基本原理を座標空間で見ると...(6/8)
色特徴
テクスチャ
(模様)特徴
計算機が覚えているものは
こんな感じで分布
この基本原理を座標空間で見ると...(7/8)
色特徴
テクスチャ
(模様)特徴
これが何であるかを知りたい!
なんちゃら
特徴
入力パターン x
この基本原理を座標空間で見ると...(8/8)
最近傍パターン
入力パターン x
色特徴
テクスチャ
(模様)特徴
これが一番近いので,
「入力パターン=みかん」と答える
なんちゃら
特徴
ところで,特徴もイロイロある
(ここ,ちょっと重要)
パターン自身の性質
 オレンジの画素数→多い
 青の画素数→小
 円形度→高い
 線対称度→高い
 模様→細かい
….
他のパターンとの関係
 「車」との類似度→低
 「リンゴ」との類似度→高
 「猿」との類似度→低
 「柿」との類似度→高
…
他者との類似度も
特徴になる!
ところで,特徴もイロイロある
(ここ,ちょっと重要)
パターン自身の性質
 オレンジの画素数→多い
 青の画素数→小
 円形度→高い
 線対称度→高い
 模様→細かい
….
他のパターンとの関係
 「車」との類似度→低
 「リンゴ」との類似度→高
 「猿」との類似度→低
 「柿」との類似度→高
…
僕って,
身長が170cm,
体重が62km,
100m走が12.4秒,
ラーメン替玉が3杯...
自分自身に
関する量で
自分を特徴づけ
僕って,
俳優Aに「やや似」,
俳優Bに「激似」
俳優Cに「全然似てない」,
俳優Dも「全然似てない」...
他者との
関係で
自分を特徴づけ
どっちがイイとか悪いとかじゃなく,
単に特徴づけには色々あるってこと
従って,他のパターンとの関係(類似度)でも
最近傍識別は可能
柿との
類似度
車との類似度
先程の状況
難しく言えば,
一種の「空間変換」となっているわけです
1w
元のd次元空間
新たなK次元空間
入力パターン
'x
(Dis)similarity
space embedding
とも呼ばれる
1w
2w
Kw
との類似度
との類似度
さて,ニューロンが
「内積」と関係あるという話
専門家の皆さん,色々言いたいことはあると思いますが...
19
神経細胞(ニューロン)
https://commons.wikimedia.org/
樹状突起
軸索
軸索末端
出力
次のニューロンへ
刺激
(入力)
何らかの
処理
ちょっとした余談:脳に関する素朴な疑問
脳はニューロンの集合体
どこのニューロンを見ても機能は(ほぼ)同じ
なんで同じものを寄せ集めているだけなのに,
脳はこれだけ多様な機能を実現できるのか?
認識機能の実現だけでも,特徴抽出と識別が必要なのに…
ニューロンの計算モデル
https://commons.wikimedia.org/
入力 g  xgx 出力
1x
jx
dx
1w
jw
dw
g
 xg
重み
関数
ニューロンの計算モデル:
もうちょっとキチッと
Σ  xg
1x
jx
dx
1
……
b
 bf
bxwfg
T
d
j
jj









 
xw
x
   
1
)(
x 1w
jw
dw
f
f: 非線形関数
入力
出力
重み
キチッとしたいけど,
面倒くさそうなものは考えたくない
Σ  xg
1x
jx
dx
1
……
b
x 1w
jw
dw
f
f: 非線形関数
OK,
忘れよう
 bf
bxwfg
T
d
j
jj









 
xw
x
   
1
)(
結構簡単になった.
でもまだ面倒そうなものが…
Σ  xg
1x
jx
dx
1
……
b
x 1w
jw
dwOK,
忘れよう


d
j
jj bxwg
1
)(x
ずいぶん簡単になった.
あれ,これ見たことある?
Σ
1x
jx
dx
……
xwT
おお,これは2つの
ベクトルの内積じゃん
(d次元ベクトルwとxのd個の要素それぞれを
掛け合わせていき,最後に全部足す.
ちなみにそれを一気に表したものが 𝐰 𝑇
𝐱)
x
1w
jw
dw
w
xw
x
T
d
j
jj xwg

 
   
1
)(
入力 重み
さて,この辺から
ニューラルネットワークの話に
まずは30年ぐらいのニューラルネットの話
27
なるほど,ニューロンは内積らしい.
ところで内積って何だっけ?
xwT
Σ
1x
jx
dx
……
1w
jw
dw
内積値0.9なら
似てる!
内積値0.02なら
似てない似たベクトルの内積値は大きくなる
→内積は入力x と重みwの類似度を表現
入力 重み
ということは,K個のニューロンが
あれば K個の類似度が…
29
x
1x
jx
dx
ということは,K個のニューロンが
あれば K個の類似度が…
30
x
1x
jx
dx
1w
2w
Kw 













xw
xw
xw
T
K
T
T

2
1














xw
xw
xw
T
K
T
T

2
1
ということは,K個のニューロンが
あれば K個の類似度が…
31
x
1x
jx
dx
1w
2w
Kw
との類似度
0.9
との類似度
0.75
との類似度
0.05
そう,K個のニューロンがあれば
K次元の(類似度)特徴が出せる
1w
0.9
0.05
0.75
との類似度(内積)
入力
等価
Kw との
類似度
実は内積には別の機能も!
xvT
Σ
1x
jx
dx
……
1v
jv
dv
内積=類似度なので
最近傍識別のための類似度にも使える
v
x
ニューラルネットワーク,これで完成!
…
特徴抽出のための内積
1w
Kw
1x
jx
dx
……
2w
識別のための内積
AV
CV
BV
Aらしさ
Bらしさ
Cらしさ
最大値を
とれば
OK!
ニューラルネットワーク,これで完成!
…
特徴抽出のための内積
1w
Kw
1x
jx
dx
……
2w
識別のための内積
AV
CV
BV
Aらしさ
Bらしさ
Cらしさ
最大値を
とれば
OK!
内積だけで特徴抽出と識別の両方を実現!
→ニューロンだけで脳が多機能性を実現するのと似ている
いよいよディープに
なぜ「深層」である必要があるのか?
36
ディープニューラルネットワークへ!
ディープニューラルネットワーク,
簡単に言えば
1x
jx
dx
…
何度も特徴抽出しているだけ
識別
……
…
f
f
f
f
f
f
なぜ何度も特徴抽出?
「今使ってる特徴=類似度」を思い出そう
A
D
C
B
E
F
パターンの分布
(青と緑,なんかグチャグチャしてて分けにくい)
なぜ何度も特徴抽出?
「今使ってる特徴=類似度」を思い出そう
A
D
C
B
E
F
例えば,
みかんと柿の認識問題:
ゴチャゴチャ混ざっていて,
誤認識が起きそう
なぜ何度も特徴抽出?
「今使ってる特徴=類似度」を思い出そう
A
D
C
B
E
F
1w2w
なぜ何度も特徴抽出?
「今使ってる特徴=類似度」を思い出そう
A
D
C
B
E
F
1w2w
F
1w との類似度
2w
との
類似度
A
B
C
D
E
※ここにほんのちょっとゴマカシがあります.気づかない人は
気づかなくて全然OK. 一応白状しておくと,仕組みの理解を
容易にするために,上から下に空間変換する際との類似度と
して,厳密な内積値は使っていません.図上では,(距離
的に)近ければ類似度は大きい,という感じで空間変換してます.
このゴマカシは本質的理解を妨げるものではないと信じてます.
𝐰1との類似度大
𝐰2との類似度小
なぜ何度も特徴抽出?
「今使ってる特徴=類似度」を思い出そう
A
D
C
B
E
F
1w2w
F
1w との類似度
2w
との
類似度
A
B
C
D
E
上の状況より,
よりゴチャゴチャ度は減ったが
もうちょっとキレイに分けたい
(専門的には「まだ線形分離不能」)
なぜ何度も特徴抽出?
「今使ってる特徴=類似度」を思い出そう
A
D
C
B
E
F
1w2w
F
1w との類似度
2w
との
類似度
A
B
C
D
E3w
4w
なぜ何度も特徴抽出?
「今使ってる特徴=類似度」を思い出そう
A
D
C
B
E
F
1w2w
F
1w との類似度
2w
との
類似度
A
B
C
D
E3w
4w
3w
4w
A
D
E
B
C
F
との類似度
との
類似度
なぜ何度も特徴抽出?
「今使ってる特徴=類似度」を思い出そう
A
D
C
B
E
F
1w2w
F
1w との類似度
2w
との
類似度
A
B
C
D
E3w
4w
3w
4w
A
D
E
B
C
F
との類似度
との
類似度
簡単に識別できそう
なぜ何度も特徴抽出?
「今使ってる特徴=類似度」を思い出そう
A
D
C
B
E
F
1w2w
F
1w との類似度
2w
との
類似度
A
B
C
D
E3w
4w
3w
4w
A
D
E
B
C
F
との類似度
との
類似度
3w
4w
A
D
E
B
C
F
との類似度
との
類似度
実際,こんな風に𝒗1, 𝒗2を
置けば,完全に識別可能
2v
1v
なぜ何度も特徴抽出?
「今使ってる特徴=類似度」を思い出そう
要するに,各層で空間変換(線形変換)をやって,なるべ
く分離識別しやすいようにしている
それを何度も繰り返す(=多層を通す)ことで,どんどん
分離識別しやすくできると期待できる
ただし,空間変換時に,ちょっとだけ非線形処理が入る
必要ならば,以下のスライドを参照
おまけ:非線形関数の効果の
直感的理解
49
入力パターン
d次元空間
x
1w
2w
Kw
ある程度以上
遠くても
(負の)一定値
ある程度以上
近ければ一定値
ある程度以上
近ければ一定値
f: 非線形関数
関数前の
内積値
関数後の
内積値
一定値に
飽和させる
おまけ:非線形関数の効果の
直感的理解
内積による「類似度」を特徴とした
空間で,効果を見ると...
f: 非線形関数
xwT
1
xwT
K
1
1
1
x
w
T
2
f
f
f
f
おまけ:非線形関数の効果の
直感的理解
内積による「類似度」を特徴とした
空間で,効果を見ると...
f: ReLU
xwT
1
xwT
K
x
w
T
2
f
変わらず
変わらず
f
内積値がマイナスになったもの(=類似度が低くなったもの)を,
(見捨てずに)第一象限に戻してやっているだけ
関数前の
内積値
関数後の
内積値
内積値が正なら
関数前=関数後
(要は何もしない)
内積値が負なら
強制的にゼロにする

Mais conteúdo relacionado

Mais procurados

【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion ModelsDeep Learning JP
 
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)Satoshi Hara
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理Taiji Suzuki
 
Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究Fumihiko Takahashi
 
NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~Takuya Ono
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAGIRobots
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化Yusuke Uchida
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
 
2019年度チュートリアルBPE
2019年度チュートリアルBPE2019年度チュートリアルBPE
2019年度チュートリアルBPE広樹 本間
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
 
機械学習研究の現状とこれから
機械学習研究の現状とこれから機械学習研究の現状とこれから
機械学習研究の現状とこれからMLSE
 
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)Deep Learning JP
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision TransformerYusuke Uchida
 
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic DatasetsDeep Learning JP
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)Tatsuya Yokota
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Preferred Networks
 

Mais procurados (20)

【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究
 
NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
2019年度チュートリアルBPE
2019年度チュートリアルBPE2019年度チュートリアルBPE
2019年度チュートリアルBPE
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
機械学習研究の現状とこれから
機械学習研究の現状とこれから機械学習研究の現状とこれから
機械学習研究の現状とこれから
 
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
 
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
 

Destaque

文字認識はCNNで終わるのか?
文字認識はCNNで終わるのか?文字認識はCNNで終わるのか?
文字認識はCNNで終わるのか?Seiichi Uchida
 
Games for Health分野の研究開発事例
Games for Health分野の研究開発事例Games for Health分野の研究開発事例
Games for Health分野の研究開発事例Toru Fujimoto
 
TensorFlow White Paperを読む
TensorFlow White Paperを読むTensorFlow White Paperを読む
TensorFlow White Paperを読むYuta Kashino
 
ゲームAIの中の数学(上)
ゲームAIの中の数学(上)ゲームAIの中の数学(上)
ゲームAIの中の数学(上)Youichiro Miyake
 
Introduction to Chainer: A Flexible Framework for Deep Learning
Introduction to Chainer: A Flexible Framework for Deep LearningIntroduction to Chainer: A Flexible Framework for Deep Learning
Introduction to Chainer: A Flexible Framework for Deep LearningSeiya Tokui
 
強化学習を利用した自律型GameAIの取り組み ~高速自動プレイによるステージ設計支援~ #denatechcon
強化学習を利用した自律型GameAIの取り組み ~高速自動プレイによるステージ設計支援~ #denatechcon強化学習を利用した自律型GameAIの取り組み ~高速自動プレイによるステージ設計支援~ #denatechcon
強化学習を利用した自律型GameAIの取り組み ~高速自動プレイによるステージ設計支援~ #denatechconDeNA
 
強化学習その1
強化学習その1強化学習その1
強化学習その1nishio
 
強化学習による 「Montezuma's Revenge」への挑戦
強化学習による 「Montezuma's Revenge」への挑戦強化学習による 「Montezuma's Revenge」への挑戦
強化学習による 「Montezuma's Revenge」への挑戦孝好 飯塚
 
【B dash】token salesプレゼン
【B dash】token salesプレゼン【B dash】token salesプレゼン
【B dash】token salesプレゼンMasakazu Masujima
 
20170830 cmc meetup_at_backstage_公開
20170830 cmc meetup_at_backstage_公開20170830 cmc meetup_at_backstage_公開
20170830 cmc meetup_at_backstage_公開Hideki Ojima
 
物体認識 IoT サービスを支える技術 〜クラウドアーキテクチャから組込み深層学習まで〜
物体認識 IoT サービスを支える技術 〜クラウドアーキテクチャから組込み深層学習まで〜物体認識 IoT サービスを支える技術 〜クラウドアーキテクチャから組込み深層学習まで〜
物体認識 IoT サービスを支える技術 〜クラウドアーキテクチャから組込み深層学習まで〜Takashi Kaneda
 
大企業と技術開発型ベンチャーの連携
大企業と技術開発型ベンチャーの連携大企業と技術開発型ベンチャーの連携
大企業と技術開発型ベンチャーの連携Masakazu Masujima
 
20170728 デブサミ夏 ojima_公開
20170728 デブサミ夏 ojima_公開20170728 デブサミ夏 ojima_公開
20170728 デブサミ夏 ojima_公開Hideki Ojima
 
Japan's virtual currency regulation and its recent developments
Japan's virtual currency regulation and its recent developmentsJapan's virtual currency regulation and its recent developments
Japan's virtual currency regulation and its recent developmentsMasakazu Masujima
 
デジタルエコノミーに向けた法制度のあり方について
デジタルエコノミーに向けた法制度のあり方についてデジタルエコノミーに向けた法制度のあり方について
デジタルエコノミーに向けた法制度のあり方についてMasakazu Masujima
 
AWS Black Belt Tech シリーズ 2015 - re:Invent 2015 最新アップデート速報
AWS Black Belt Tech シリーズ 2015 - re:Invent 2015 最新アップデート速報AWS Black Belt Tech シリーズ 2015 - re:Invent 2015 最新アップデート速報
AWS Black Belt Tech シリーズ 2015 - re:Invent 2015 最新アップデート速報Amazon Web Services Japan
 
グローバル戦略におけるクラウド活用のポイント - AWS Summit Tokyo 2014 Day 1 : Keynote
グローバル戦略におけるクラウド活用のポイント - AWS Summit Tokyo 2014 Day 1 : Keynoteグローバル戦略におけるクラウド活用のポイント - AWS Summit Tokyo 2014 Day 1 : Keynote
グローバル戦略におけるクラウド活用のポイント - AWS Summit Tokyo 2014 Day 1 : KeynoteTakayuki Enomoto
 
Icoトークンセールスの最新事情
Icoトークンセールスの最新事情Icoトークンセールスの最新事情
Icoトークンセールスの最新事情Masakazu Masujima
 

Destaque (20)

文字認識はCNNで終わるのか?
文字認識はCNNで終わるのか?文字認識はCNNで終わるのか?
文字認識はCNNで終わるのか?
 
Games for Health分野の研究開発事例
Games for Health分野の研究開発事例Games for Health分野の研究開発事例
Games for Health分野の研究開発事例
 
TensorFlow White Paperを読む
TensorFlow White Paperを読むTensorFlow White Paperを読む
TensorFlow White Paperを読む
 
ゲームAIの中の数学(上)
ゲームAIの中の数学(上)ゲームAIの中の数学(上)
ゲームAIの中の数学(上)
 
OCRは古い技術
OCRは古い技術OCRは古い技術
OCRは古い技術
 
Introduction to Chainer: A Flexible Framework for Deep Learning
Introduction to Chainer: A Flexible Framework for Deep LearningIntroduction to Chainer: A Flexible Framework for Deep Learning
Introduction to Chainer: A Flexible Framework for Deep Learning
 
強化学習を利用した自律型GameAIの取り組み ~高速自動プレイによるステージ設計支援~ #denatechcon
強化学習を利用した自律型GameAIの取り組み ~高速自動プレイによるステージ設計支援~ #denatechcon強化学習を利用した自律型GameAIの取り組み ~高速自動プレイによるステージ設計支援~ #denatechcon
強化学習を利用した自律型GameAIの取り組み ~高速自動プレイによるステージ設計支援~ #denatechcon
 
強化学習その1
強化学習その1強化学習その1
強化学習その1
 
強化学習による 「Montezuma's Revenge」への挑戦
強化学習による 「Montezuma's Revenge」への挑戦強化学習による 「Montezuma's Revenge」への挑戦
強化学習による 「Montezuma's Revenge」への挑戦
 
【B dash】token salesプレゼン
【B dash】token salesプレゼン【B dash】token salesプレゼン
【B dash】token salesプレゼン
 
20170830 cmc meetup_at_backstage_公開
20170830 cmc meetup_at_backstage_公開20170830 cmc meetup_at_backstage_公開
20170830 cmc meetup_at_backstage_公開
 
物体認識 IoT サービスを支える技術 〜クラウドアーキテクチャから組込み深層学習まで〜
物体認識 IoT サービスを支える技術 〜クラウドアーキテクチャから組込み深層学習まで〜物体認識 IoT サービスを支える技術 〜クラウドアーキテクチャから組込み深層学習まで〜
物体認識 IoT サービスを支える技術 〜クラウドアーキテクチャから組込み深層学習まで〜
 
大企業と技術開発型ベンチャーの連携
大企業と技術開発型ベンチャーの連携大企業と技術開発型ベンチャーの連携
大企業と技術開発型ベンチャーの連携
 
20170728 デブサミ夏 ojima_公開
20170728 デブサミ夏 ojima_公開20170728 デブサミ夏 ojima_公開
20170728 デブサミ夏 ojima_公開
 
Japan's virtual currency regulation and its recent developments
Japan's virtual currency regulation and its recent developmentsJapan's virtual currency regulation and its recent developments
Japan's virtual currency regulation and its recent developments
 
Oracle
OracleOracle
Oracle
 
デジタルエコノミーに向けた法制度のあり方について
デジタルエコノミーに向けた法制度のあり方についてデジタルエコノミーに向けた法制度のあり方について
デジタルエコノミーに向けた法制度のあり方について
 
AWS Black Belt Tech シリーズ 2015 - re:Invent 2015 最新アップデート速報
AWS Black Belt Tech シリーズ 2015 - re:Invent 2015 最新アップデート速報AWS Black Belt Tech シリーズ 2015 - re:Invent 2015 最新アップデート速報
AWS Black Belt Tech シリーズ 2015 - re:Invent 2015 最新アップデート速報
 
グローバル戦略におけるクラウド活用のポイント - AWS Summit Tokyo 2014 Day 1 : Keynote
グローバル戦略におけるクラウド活用のポイント - AWS Summit Tokyo 2014 Day 1 : Keynoteグローバル戦略におけるクラウド活用のポイント - AWS Summit Tokyo 2014 Day 1 : Keynote
グローバル戦略におけるクラウド活用のポイント - AWS Summit Tokyo 2014 Day 1 : Keynote
 
Icoトークンセールスの最新事情
Icoトークンセールスの最新事情Icoトークンセールスの最新事情
Icoトークンセールスの最新事情
 

Mais de Seiichi Uchida

1 データとデータ分析
1 データとデータ分析1 データとデータ分析
1 データとデータ分析Seiichi Uchida
 
13 分類とパターン認識
13 分類とパターン認識13 分類とパターン認識
13 分類とパターン認識Seiichi Uchida
 
12 非構造化データ解析
12 非構造化データ解析12 非構造化データ解析
12 非構造化データ解析Seiichi Uchida
 
0 データサイエンス概論まえがき
0 データサイエンス概論まえがき0 データサイエンス概論まえがき
0 データサイエンス概論まえがきSeiichi Uchida
 
14 データ収集とバイアス
14 データ収集とバイアス14 データ収集とバイアス
14 データ収集とバイアスSeiichi Uchida
 
10 確率と確率分布
10 確率と確率分布10 確率と確率分布
10 確率と確率分布Seiichi Uchida
 
8 予測と回帰分析
8 予測と回帰分析8 予測と回帰分析
8 予測と回帰分析Seiichi Uchida
 
6 線形代数に基づくデータ解析の基礎
6 線形代数に基づくデータ解析の基礎6 線形代数に基づくデータ解析の基礎
6 線形代数に基づくデータ解析の基礎Seiichi Uchida
 
5 クラスタリングと異常検出
5 クラスタリングと異常検出5 クラスタリングと異常検出
5 クラスタリングと異常検出Seiichi Uchida
 
4 データ間の距離と類似度
4 データ間の距離と類似度4 データ間の距離と類似度
4 データ間の距離と類似度Seiichi Uchida
 
3 平均・分散・相関
3 平均・分散・相関3 平均・分散・相関
3 平均・分散・相関Seiichi Uchida
 
2 データのベクトル表現と集合
2 データのベクトル表現と集合2 データのベクトル表現と集合
2 データのベクトル表現と集合Seiichi Uchida
 
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれからSeiichi Uchida
 
Machine learning for document analysis and understanding
Machine learning for document analysis and understandingMachine learning for document analysis and understanding
Machine learning for document analysis and understandingSeiichi Uchida
 
データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習Seiichi Uchida
 
データサイエンス概論第一=7 画像処理
データサイエンス概論第一=7 画像処理データサイエンス概論第一=7 画像処理
データサイエンス概論第一=7 画像処理Seiichi Uchida
 
An opening talk at ICDAR2017 Future Workshop - Beyond 100%
An opening talk at ICDAR2017 Future Workshop - Beyond 100%An opening talk at ICDAR2017 Future Workshop - Beyond 100%
An opening talk at ICDAR2017 Future Workshop - Beyond 100%Seiichi Uchida
 

Mais de Seiichi Uchida (20)

1 データとデータ分析
1 データとデータ分析1 データとデータ分析
1 データとデータ分析
 
9 可視化
9 可視化9 可視化
9 可視化
 
13 分類とパターン認識
13 分類とパターン認識13 分類とパターン認識
13 分類とパターン認識
 
12 非構造化データ解析
12 非構造化データ解析12 非構造化データ解析
12 非構造化データ解析
 
0 データサイエンス概論まえがき
0 データサイエンス概論まえがき0 データサイエンス概論まえがき
0 データサイエンス概論まえがき
 
15 人工知能入門
15 人工知能入門15 人工知能入門
15 人工知能入門
 
14 データ収集とバイアス
14 データ収集とバイアス14 データ収集とバイアス
14 データ収集とバイアス
 
10 確率と確率分布
10 確率と確率分布10 確率と確率分布
10 確率と確率分布
 
8 予測と回帰分析
8 予測と回帰分析8 予測と回帰分析
8 予測と回帰分析
 
7 主成分分析
7 主成分分析7 主成分分析
7 主成分分析
 
6 線形代数に基づくデータ解析の基礎
6 線形代数に基づくデータ解析の基礎6 線形代数に基づくデータ解析の基礎
6 線形代数に基づくデータ解析の基礎
 
5 クラスタリングと異常検出
5 クラスタリングと異常検出5 クラスタリングと異常検出
5 クラスタリングと異常検出
 
4 データ間の距離と類似度
4 データ間の距離と類似度4 データ間の距離と類似度
4 データ間の距離と類似度
 
3 平均・分散・相関
3 平均・分散・相関3 平均・分散・相関
3 平均・分散・相関
 
2 データのベクトル表現と集合
2 データのベクトル表現と集合2 データのベクトル表現と集合
2 データのベクトル表現と集合
 
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
 
Machine learning for document analysis and understanding
Machine learning for document analysis and understandingMachine learning for document analysis and understanding
Machine learning for document analysis and understanding
 
データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習
 
データサイエンス概論第一=7 画像処理
データサイエンス概論第一=7 画像処理データサイエンス概論第一=7 画像処理
データサイエンス概論第一=7 画像処理
 
An opening talk at ICDAR2017 Future Workshop - Beyond 100%
An opening talk at ICDAR2017 Future Workshop - Beyond 100%An opening talk at ICDAR2017 Future Workshop - Beyond 100%
An opening talk at ICDAR2017 Future Workshop - Beyond 100%
 

深層学習の非常に簡単な説明