SlideShare a Scribd company logo
1 of 67
機械学習のための
ベイズ最適化⼊⾨
2017/07/01
牧⼭ 幸史
db analytic showcase 2017
1
⾃⼰紹介
•  ヤフー株式会社
データサイエンティスト
•  SBイノベンチャー (株)
AI エンジニア
•  株式会社ホクソエム
代表取締役 CEO
2
本⽇の内容
•  ベイズ最適化 (Bayesian Optimization)
を機械学習のハイパーパラメータ探索に
利⽤
•  効率的な探索を実現
•  実⾏⽅法まで
•  詳しくはこの本で →
3
⽬次
1.  はじめに
2.  ハイパーパラメータ探索
3.  グリッドサーチ
4.  ベイズ最適化
5.  獲得関数
6.  ガウス過程
7.  実⾏ツール
4
1. はじめに
•  ベイズ最適化が注⽬を集めている
•  ベイズ最適化:
形状の分からない関数(ブラックボックス関数)の
最⼤値または最⼩値を求める⼿法
•  機械学習のハイパーパラメータ探索に利⽤
•  効率的に精度の良い学習モデルを発⾒
5
ベイズ最適化
•  ベイズ最適化とは
– ⼤域的最適化問題 (Global Optimization)
– 逐次最適化⼿法 (Sequential Optimization)
•  適⽤対象
– ブラックボックス関数 (関数の形が不明)
– 計算コストが⼤きい (時間、お⾦)
•  要求: 少ない評価回数で最適値を求めたい
6
⼤域的最適化問題
•  局所解に陥らずに最適値を求めたい
7
局所解 ⼤域解
逐次最適化法
•  これまでの結果をもとに次の観測点を決
める
8
ここら辺
良さそう
良くない
逐次最適化の⾃動化
•  これまでの結果を⾒て次にどこを観測し
たらいいかは⼈間にはなんとなくわかる
➡︎ これを⾃動化したい
•  ベイズ最適化
– ⼈間の直観的な判断を再現している
9
1. まとめ
•  ベイズ最適化は⾼コストなブラックボッ
クス関数の最適点を効率良く求める⼿法
•  何に使いたいか?
➡︎ 機械学習のハイパーパラメータ探索
10
⽬次
1.  はじめに
2.  ハイパーパラメータ探索
3.  グリッドサーチ
4.  ベイズ最適化
5.  獲得関数
6.  ガウス過程
7.  実⾏ツール
11
2. ハイパーパラメータ探索
•  ほとんどの機械学習⼿法には、ハイパー
パラメータが存在
•  ハイパーパラメータ:
–  データの学習では決定されないパラメータ
–  学習の前にあらかじめ決めておく
12
例: RBF SVM
•  RBF カーネルでデータを⾼次元空間へ
•  マージン最⼤化
•  判別境界
13出典: 1.4. Support Vector Machines ー scikit-learn documentation
例: RBF SVM
•  ハイパーパラメータ 2つ
•  gamma:
–  1つのサポートベクタが影響を及ぼす範囲
–  ⼤きいほど影響範囲が⼩さく過学習
•  cost:
–  判別境界の単純さと誤分類のトレードオフ
–  ⼤きいほど誤分類が少ないが過学習
14
例: RBF SVM
15出典: RBF SVM parameters — scikit-learn documentation
cost:
⼤
gamma: ⼤
ベスト
ハイパーパラメータ探索
•  ハイパーパラメータの選び⽅によって 
精度が劇的に変わる
•  意味を考えて慎重に選択する必要
•  データと学習モデルに対する深い理解
•  職⼈芸
16
2. まとめ
•  ハイパーパラメータは学習前に決める
•  決め⽅で精度が劇的に変わる
•  チューニングは職⼈芸
•  もっと簡単にできないか?
➡︎ グリッドサーチ
17
⽬次
1.  はじめに
2.  ハイパーパラメータ探索
3.  グリッドサーチ
4.  ベイズ最適化
5.  獲得関数
6.  ガウス過程
7.  実⾏ツール
18
3. グリッドサーチ
•  ハイパーパラメータの選択は職⼈芸
•  もっと簡単にやる⽅法としてグリッド
サーチがある
19
グリッドサーチ
•  探索範囲を格⼦状(グリッド)にする
20
グリッドサーチ
•  ハイパーパラメータの格⼦を作る
•  gamma = (10-5, 10-4, … , 102, 103)
•  cost = (10-4, 10-3, … , 103, 104)
•  それぞれの組み合わせでモデルを学習
•  例:
•  cost = 10-4, gamma = 10-5 ➡︎ 正答率
•  cost = 10-4, gamma = 103 ➡︎ 正答率
21
グリッドサーチ
•  すべての格⼦点で正答率を求める
22
グリッドサーチ
•  すべての組み合わせに対して正答率を求
め、最も良いものを選択する
※正答率はクロスバリデーションで求めた
•  シンプルでわかりやすい
•  しかし、グリッドのすべての組み合わせ
(今回は10 ✖ 10 = 100) に対して正答率を
計算するのは時間がかかる
23
3. まとめ
•  グリッドサーチはハイパーパラメータの
すべての組み合わせに対して正答率を計
算し最良のものを選ぶ
•  データが多い場合、1回のモデルの学習に
多⼤な時間がかかる
•  効率的に探索したい
➡︎ ベイズ最適化
24
⽬次
1.  はじめに
2.  ハイパーパラメータ探索
3.  グリッドサーチ
4.  ベイズ最適化
5.  獲得関数
6.  ガウス過程
7.  実⾏ツール
25
4. ベイズ最適化
•  グリッドサーチは、すべての組み合わせ
についてモデルを学習
➡︎ 時間がかかる
•  ベイズ最適化により効率的な探索が可能
26
ベイズ最適化
•  次の4点の正答率が求まっているとする
27
ベイズ最適化
•  次にどこを観測するか?
–  右下が良さそう
–  真ん中がスカスカ
•  ベイズ最適化
–  正答率が良さそうなエリアを優先的に観測
–  局所解に陥らないようにスカスカのエリアも
たまに観測
28
観測数 = 15
•  右下を重点的に観測、スカスカエリアも観測
29
観測数 = 30
•  評価値の良さそうなエリアが⼤体⾒える
30
観測数 = 50
•  良さそうなエリアが埋まり、最適解が求まる
31
4. まとめ
•  ベイズ最適化を使って、効率的に最適解
に到達
•  100個の格⼦点に対して 50回
•  これまでの評価値に基づいて次の観測点
を⾃動的に判断
•  どうやって判断しているか?
➡︎ 獲得関数
32
⽬次
1.  はじめに
2.  ハイパーパラメータ探索
3.  グリッドサーチ
4.  ベイズ最適化
5.  獲得関数
6.  ガウス過程
7.  実⾏ツール
33
5. 獲得関数
•  ベイズ最適化は次の観測点を⾃動で判断
•  様々な戦略が提案されている
①  PI 戦略
②  EI 戦略
③  UCB 戦略
•  獲得関数は、それぞれの戦略で最⼤化さ
れる関数
34
① PI 戦略
•  PI 戦略
–  Probability of Improvement (改善確率)
–  現在の最⼤値 ybest
–  ybest を超える確率が最も⾼い点を次に観測
•  シンプルで分かりやすいが局所解に陥る
ことも
35
② EI 戦略
•  PI 戦略は改善確率のみを考えた
•  確率が⾼くても改善量が⼩さいと⾮効率
•  EI 戦略
–  Expected Improvement (期待改善量)
–  評価値とベストの差 y – ybest の期待値が最も
⾼くなる点を次に観測
•  最も⼀般的に使われている
36
③ UCB 戦略
•  UCB 戦略
–  Upper Confidence Bound (上側信頼限界)
–  評価値の信頼区間の上限が最も⾼い点を次に
観測
•  最適解にたどり着く理論的保証がある
37
獲得関数
•  それぞれの戦略は何らかの関数を最⼤化
する点を次に観測する
–  PI(x) : y が ybest を超える確率
–  EI(x) : y – ybest の期待値
–  UCB(x): y の信頼区間の上限
•  このような関数を獲得関数と呼ぶ
38
5. まとめ
•  ベイズ最適化では獲得関数を最⼤化する
点を次に選ぶ
•  獲得関数は確率、期待値、信頼区間など
を使⽤
•  どうやって計算するか?
➡︎ ガウス過程
39
⽬次
1.  はじめに
2.  ハイパーパラメータ探索
3.  グリッドサーチ
4.  ベイズ最適化
5.  獲得関数
6.  ガウス過程
7.  実⾏ツール
40
6. ガウス過程
•  ベイズ最適化では獲得関数を最⼤化する
点を次に観測
•  獲得関数には確率や期待値が使われる
•  これらを計算するために、最適化したい
関数がガウス過程に従うと仮定する
41
ガウス過程
•  関数がガウス過程に従う?
•  例: 形状の分からない関数 y = f(x)
•  次の5点を観測
42
x y
0.1 0.08
0.4 −0.30
0.5 −0.48
0.7 0.46
0.9 0.37
ガウス過程
•  観測点から関数のだいたいの形を予想
43
ガウス過程
•  未観測点の期待値 µ と分散 σ2 を算出可能
44
σ
µ
ガウス過程
•  未観測点の期待値 µ と分散 σ2 を算出可能
•  µ が⼤きい: 周囲の観測点が⼤きい
•  σ が⼤きい: 周囲が観測されていない
•  µ が⼤きい点を次の観測点に選べば、⼤き
い値が期待できる
•  しかし、そればかりでは局所解に陥る
•  適度に σ の⼤きい点を探索する必要あり
45
ガウス過程
•  ガウス過程を仮定することで獲得関数が
計算可能に
•  カーネル関数の選択が必要
–  Squared Exponential:
–  Matern:
46
カーネル関数
•  観測点同⼠がどれぐらい影響し合うか
•  例: Squared Exponential
•  距離 d が遠いほど影響は⼩さくなる
➡︎「近い観測点は同じぐらいの値」を表現
47
6. まとめ
•  獲得関数を計算するためにガウス過程を
仮定する
•  未評価点は近隣の評価点と近い値を取る
•  どれぐらい近くの評価点が影響するかは
カーネル関数で決まる
48
⽬次
1.  はじめに
2.  ハイパーパラメータ探索
3.  グリッドサーチ
4.  ベイズ最適化
5.  獲得関数
6.  ガウス過程
7.  実⾏ツール
49
7. 実⾏ツール
•  ベイズ最適化を⾏うツールはたくさん
–  SMAC
–  Spearmint (Python; ⾮商⽤)
–  COMBO (Python; 東京⼤学 津⽥研)
–  GPyOpt (Python)
–  bayesian-optimization (Python)
–  rBayesianOptimization (R)
50
bayesian-optimization
51
rBayesianOptimization
52
7. まとめ
•  ベイズ最適化の実⾏ツールはたくさん
•  特に Python ライブラリが多い
•  簡単に実⾏できる
–  グリッド範囲の指定
–  獲得関数の指定
–  カーネル関数の指定
•  ぜひ実⾏してみて下さい!
53
本⽇のまとめ
•  ベイズ最適化は⾼コストなブラックボッ
クス関数の最適点を効率良く求める⼿法
•  ガウス過程を⽤いて⽬的関数を表現
•  獲得関数が最⼤となる点を次の観測点に
選ぶ
•  ツールがたくさんあり簡単に実⾏できる
54
おまけ
55
ランダムサーチ
•  Bergstra & Bengio (JMLR 2012)
•  ⼀部の機械学習⼿法において、ハイパー
パラメータ探索はランダムサーチが有効
である
•  これは、機械学習の精度を左右するハイ
パーパラメータは少数だからである
56
ランダムサーチ
•  Bergstra & Bengio (JMLR 2012)
57
58
SMAC:
 ベイズ最適化ツール
TPE:
 Tree Parzen Estimator
 (Bergstra+ NIPS 2011)
Random:
 ランダムサーチ
Random_2x:
 2並列ランダムサーチ
Li+ (arXiv 2016) Hyperband
獲得関数 MI (Contal+ 2014)
•  Mutual Information (相互情報量)
•  次の探索点として、獲得関数
MI(x) = µ(x) + K Φt(x)
が最も⼤きい点 x を選ぶ
•  γt^ は f(xt) を観測したときに得られる
相互情報量の下限を表す
59
相互情報量
•  ガウス過程の相互情報量(f と観測値):
•  γT を相互情報量の最⼤値と定義する
60
(Srinivas+2012)
GP-MI の獲得関数
•  相互情報量は最低限これだけ増加する
•  情報量の増加が⼤きい点を次に選ぶ戦略
61
これまでの
情報量の下限
もし点 x を観測したら
得られる情報量の下限
テスト関数
62
(図1) 混合ガウス分布 (図2) Himmelblau
63
アルゴリズムの評価
•  アルゴリズムの評価に Regret (後悔) を使
う。
•  Regret とは、探索点における f(xt) と最適
値 f(x★) の差
•  累積 Regret が⼩さいと良いアルゴリズム
64
Regret (後悔)
65
求めたいのは
ココ!
この点を観測した
ときの後悔の⼤きさ
Regret 上限
「UCBは最適値へ収束する理論的保証あり」
正確には
•  累積 Regret RT が Regret 上限 G(T)√α
以下になる確率が⼤きい
Pr[RT ≦ G(T)√α] ≧ 1 – δ
α = log(2/δ)
•  δ を⼩さくすると上限が緩くなる
66
おしまい
67

More Related Content

What's hot

Hyperoptとその周辺について
Hyperoptとその周辺についてHyperoptとその周辺について
Hyperoptとその周辺についてKeisuke Hosaka
 
探索と活用の戦略 ベイズ最適化と多腕バンディット
探索と活用の戦略 ベイズ最適化と多腕バンディット探索と活用の戦略 ベイズ最適化と多腕バンディット
探索と活用の戦略 ベイズ最適化と多腕バンディットH Okazaki
 
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健Preferred Networks
 
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)Preferred Networks
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習Hidekazu Tanaka
 
Kaggleのテクニック
KaggleのテクニックKaggleのテクニック
KaggleのテクニックYasunori Ozaki
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究Fumihiko Takahashi
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習Eiji Uchibe
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情Yuta Kikuchi
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Preferred Networks
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化gree_tech
 
ベイズ最適化によるハイパラーパラメータ探索
ベイズ最適化によるハイパラーパラメータ探索ベイズ最適化によるハイパラーパラメータ探索
ベイズ最適化によるハイパラーパラメータ探索西岡 賢一郎
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -tmtm otm
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門Takuji Tahara
 
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII
 

What's hot (20)

Hyperoptとその周辺について
Hyperoptとその周辺についてHyperoptとその周辺について
Hyperoptとその周辺について
 
探索と活用の戦略 ベイズ最適化と多腕バンディット
探索と活用の戦略 ベイズ最適化と多腕バンディット探索と活用の戦略 ベイズ最適化と多腕バンディット
探索と活用の戦略 ベイズ最適化と多腕バンディット
 
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
 
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習
 
Kaggleのテクニック
KaggleのテクニックKaggleのテクニック
Kaggleのテクニック
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
 
ベイズ最適化によるハイパラーパラメータ探索
ベイズ最適化によるハイパラーパラメータ探索ベイズ最適化によるハイパラーパラメータ探索
ベイズ最適化によるハイパラーパラメータ探索
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門
 
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
 

Viewers also liked

NIPS2015読み会: Ladder Networks
NIPS2015読み会: Ladder NetworksNIPS2015読み会: Ladder Networks
NIPS2015読み会: Ladder NetworksEiichi Matsumoto
 
Prophet入門【理論編】Facebookの時系列予測ツール
Prophet入門【理論編】Facebookの時系列予測ツールProphet入門【理論編】Facebookの時系列予測ツール
Prophet入門【理論編】Facebookの時系列予測ツールhoxo_m
 
闇と向き合う
闇と向き合う闇と向き合う
闇と向き合うNagi Teramo
 
Prophet入門【R編】Facebookの時系列予測ツール
Prophet入門【R編】Facebookの時系列予測ツールProphet入門【R編】Facebookの時系列予測ツール
Prophet入門【R編】Facebookの時系列予測ツールhoxo_m
 
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだことnishio
 
Prophet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツールProphet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツールhoxo_m
 
Kaggle meetup #3 instacart 2nd place solution
Kaggle meetup #3 instacart 2nd place solutionKaggle meetup #3 instacart 2nd place solution
Kaggle meetup #3 instacart 2nd place solutionKazuki Onodera
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep LearningSeiya Tokui
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話Ryota Kamoshida
 
「深層学習」の本に出てきたデータセット達
「深層学習」の本に出てきたデータセット達「深層学習」の本に出てきたデータセット達
「深層学習」の本に出てきたデータセット達Hiromasa Ohashi
 
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜Takeshi Arabiki
 
ベアメタルクラウドの運用をJupyter NotebookとAnsibleで機械化してみた
ベアメタルクラウドの運用をJupyter NotebookとAnsibleで機械化してみたベアメタルクラウドの運用をJupyter NotebookとAnsibleで機械化してみた
ベアメタルクラウドの運用をJupyter NotebookとAnsibleで機械化してみたSatoshi Yazawa
 
Deep learning with C++ - an introduction to tiny-dnn
Deep learning with C++  - an introduction to tiny-dnnDeep learning with C++  - an introduction to tiny-dnn
Deep learning with C++ - an introduction to tiny-dnnTaiga Nomi
 
D3.jsと学ぶVisualization(可視化)の世界
D3.jsと学ぶVisualization(可視化)の世界D3.jsと学ぶVisualization(可視化)の世界
D3.jsと学ぶVisualization(可視化)の世界AdvancedTechNight
 
xtsパッケージで時系列解析
xtsパッケージで時系列解析xtsパッケージで時系列解析
xtsパッケージで時系列解析Nagi Teramo
 
岩波データサイエンス_Vol.5_勉強会資料02
岩波データサイエンス_Vol.5_勉強会資料02岩波データサイエンス_Vol.5_勉強会資料02
岩波データサイエンス_Vol.5_勉強会資料02goony0101
 
岩波データサイエンス_Vol.5_勉強会資料00
岩波データサイエンス_Vol.5_勉強会資料00岩波データサイエンス_Vol.5_勉強会資料00
岩波データサイエンス_Vol.5_勉強会資料00goony0101
 
Replica exchange MCMC
Replica exchange MCMCReplica exchange MCMC
Replica exchange MCMC. .
 
岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01goony0101
 

Viewers also liked (20)

NIPS2015読み会: Ladder Networks
NIPS2015読み会: Ladder NetworksNIPS2015読み会: Ladder Networks
NIPS2015読み会: Ladder Networks
 
Prophet入門【理論編】Facebookの時系列予測ツール
Prophet入門【理論編】Facebookの時系列予測ツールProphet入門【理論編】Facebookの時系列予測ツール
Prophet入門【理論編】Facebookの時系列予測ツール
 
闇と向き合う
闇と向き合う闇と向き合う
闇と向き合う
 
Prophet入門【R編】Facebookの時系列予測ツール
Prophet入門【R編】Facebookの時系列予測ツールProphet入門【R編】Facebookの時系列予測ツール
Prophet入門【R編】Facebookの時系列予測ツール
 
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
 
Prophet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツールProphet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツール
 
Kaggle meetup #3 instacart 2nd place solution
Kaggle meetup #3 instacart 2nd place solutionKaggle meetup #3 instacart 2nd place solution
Kaggle meetup #3 instacart 2nd place solution
 
Pycon2017
Pycon2017Pycon2017
Pycon2017
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
 
「深層学習」の本に出てきたデータセット達
「深層学習」の本に出てきたデータセット達「深層学習」の本に出てきたデータセット達
「深層学習」の本に出てきたデータセット達
 
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
 
ベアメタルクラウドの運用をJupyter NotebookとAnsibleで機械化してみた
ベアメタルクラウドの運用をJupyter NotebookとAnsibleで機械化してみたベアメタルクラウドの運用をJupyter NotebookとAnsibleで機械化してみた
ベアメタルクラウドの運用をJupyter NotebookとAnsibleで機械化してみた
 
Deep learning with C++ - an introduction to tiny-dnn
Deep learning with C++  - an introduction to tiny-dnnDeep learning with C++  - an introduction to tiny-dnn
Deep learning with C++ - an introduction to tiny-dnn
 
D3.jsと学ぶVisualization(可視化)の世界
D3.jsと学ぶVisualization(可視化)の世界D3.jsと学ぶVisualization(可視化)の世界
D3.jsと学ぶVisualization(可視化)の世界
 
xtsパッケージで時系列解析
xtsパッケージで時系列解析xtsパッケージで時系列解析
xtsパッケージで時系列解析
 
岩波データサイエンス_Vol.5_勉強会資料02
岩波データサイエンス_Vol.5_勉強会資料02岩波データサイエンス_Vol.5_勉強会資料02
岩波データサイエンス_Vol.5_勉強会資料02
 
岩波データサイエンス_Vol.5_勉強会資料00
岩波データサイエンス_Vol.5_勉強会資料00岩波データサイエンス_Vol.5_勉強会資料00
岩波データサイエンス_Vol.5_勉強会資料00
 
Replica exchange MCMC
Replica exchange MCMCReplica exchange MCMC
Replica exchange MCMC
 
岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01岩波データサイエンス_Vol.5_勉強会資料01
岩波データサイエンス_Vol.5_勉強会資料01
 

Similar to 機械学習のためのベイズ最適化入門

RL_chapter1_to_chapter4
RL_chapter1_to_chapter4RL_chapter1_to_chapter4
RL_chapter1_to_chapter4hiroki yamaoka
 
20190512 bayes hands-on
20190512 bayes hands-on20190512 bayes hands-on
20190512 bayes hands-onYoichi Tokita
 
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集​ 〜 精度向上のための仕組み・倫理や社会性バイアス 〜
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集​ 〜 精度向上のための仕組み・倫理や社会性バイアス 〜SSII2021 [TS3] 機械学習のアノテーションにおける データ収集​ 〜 精度向上のための仕組み・倫理や社会性バイアス 〜
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集​ 〜 精度向上のための仕組み・倫理や社会性バイアス 〜SSII
 
Tech-Circle #18 Pythonではじめる強化学習 OpenAI Gym 体験ハンズオン
Tech-Circle #18 Pythonではじめる強化学習 OpenAI Gym 体験ハンズオンTech-Circle #18 Pythonではじめる強化学習 OpenAI Gym 体験ハンズオン
Tech-Circle #18 Pythonではじめる強化学習 OpenAI Gym 体験ハンズオンTakahiro Kubo
 
Optimization and simulation with DataRobot
Optimization and simulation with DataRobotOptimization and simulation with DataRobot
Optimization and simulation with DataRobotYuya Yamamoto
 
資格学校のトライアル申込者数
資格学校のトライアル申込者数資格学校のトライアル申込者数
資格学校のトライアル申込者数XICA
 
20190721 gaussian process
20190721 gaussian process20190721 gaussian process
20190721 gaussian processYoichi Tokita
 
マーケティング視点で捉えるアクセス解析 株式会社真摯
マーケティング視点で捉えるアクセス解析 株式会社真摯マーケティング視点で捉えるアクセス解析 株式会社真摯
マーケティング視点で捉えるアクセス解析 株式会社真摯Yasuki Ichishima
 
[DL輪読会]Hyper parameter agnostic methods in reinforcement learning
[DL輪読会]Hyper parameter agnostic methods in reinforcement learning[DL輪読会]Hyper parameter agnostic methods in reinforcement learning
[DL輪読会]Hyper parameter agnostic methods in reinforcement learningDeep Learning JP
 
前年比300%達成! CS組織におけるExpansion戦略.pdf
前年比300%達成! CS組織におけるExpansion戦略.pdf前年比300%達成! CS組織におけるExpansion戦略.pdf
前年比300%達成! CS組織におけるExpansion戦略.pdfssuser0c7b0c
 
最速で価値を提供する
最速で価値を提供する最速で価値を提供する
最速で価値を提供するLIFULL Co., Ltd.
 
一人三役!一気通貫でデータ活用するエンジニアリング
一人三役!一気通貫でデータ活用するエンジニアリング一人三役!一気通貫でデータ活用するエンジニアリング
一人三役!一気通貫でデータ活用するエンジニアリングRecruit Lifestyle Co., Ltd.
 
QCon Tokyo 2014 - Virtuous Cycles of Velocity: What I Learned About Going Fas...
QCon Tokyo 2014 - Virtuous Cycles of Velocity: What I Learned About Going Fas...QCon Tokyo 2014 - Virtuous Cycles of Velocity: What I Learned About Going Fas...
QCon Tokyo 2014 - Virtuous Cycles of Velocity: What I Learned About Going Fas...Randy Shoup
 
2018/8/6 トレLABO2 AI案件のよくある落とし穴と人材育成
2018/8/6 トレLABO2 AI案件のよくある落とし穴と人材育成2018/8/6 トレLABO2 AI案件のよくある落とし穴と人材育成
2018/8/6 トレLABO2 AI案件のよくある落とし穴と人材育成Trainocate Japan, Ltd.
 

Similar to 機械学習のためのベイズ最適化入門 (16)

RL_chapter1_to_chapter4
RL_chapter1_to_chapter4RL_chapter1_to_chapter4
RL_chapter1_to_chapter4
 
20190512 bayes hands-on
20190512 bayes hands-on20190512 bayes hands-on
20190512 bayes hands-on
 
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集​ 〜 精度向上のための仕組み・倫理や社会性バイアス 〜
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集​ 〜 精度向上のための仕組み・倫理や社会性バイアス 〜SSII2021 [TS3] 機械学習のアノテーションにおける データ収集​ 〜 精度向上のための仕組み・倫理や社会性バイアス 〜
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集​ 〜 精度向上のための仕組み・倫理や社会性バイアス 〜
 
Tech-Circle #18 Pythonではじめる強化学習 OpenAI Gym 体験ハンズオン
Tech-Circle #18 Pythonではじめる強化学習 OpenAI Gym 体験ハンズオンTech-Circle #18 Pythonではじめる強化学習 OpenAI Gym 体験ハンズオン
Tech-Circle #18 Pythonではじめる強化学習 OpenAI Gym 体験ハンズオン
 
Provisioning & Deploy on AWS
Provisioning & Deploy on AWSProvisioning & Deploy on AWS
Provisioning & Deploy on AWS
 
Optimization and simulation with DataRobot
Optimization and simulation with DataRobotOptimization and simulation with DataRobot
Optimization and simulation with DataRobot
 
資格学校のトライアル申込者数
資格学校のトライアル申込者数資格学校のトライアル申込者数
資格学校のトライアル申込者数
 
20190721 gaussian process
20190721 gaussian process20190721 gaussian process
20190721 gaussian process
 
市場で勝ち続けるための品質とテストの技術②
市場で勝ち続けるための品質とテストの技術②市場で勝ち続けるための品質とテストの技術②
市場で勝ち続けるための品質とテストの技術②
 
マーケティング視点で捉えるアクセス解析 株式会社真摯
マーケティング視点で捉えるアクセス解析 株式会社真摯マーケティング視点で捉えるアクセス解析 株式会社真摯
マーケティング視点で捉えるアクセス解析 株式会社真摯
 
[DL輪読会]Hyper parameter agnostic methods in reinforcement learning
[DL輪読会]Hyper parameter agnostic methods in reinforcement learning[DL輪読会]Hyper parameter agnostic methods in reinforcement learning
[DL輪読会]Hyper parameter agnostic methods in reinforcement learning
 
前年比300%達成! CS組織におけるExpansion戦略.pdf
前年比300%達成! CS組織におけるExpansion戦略.pdf前年比300%達成! CS組織におけるExpansion戦略.pdf
前年比300%達成! CS組織におけるExpansion戦略.pdf
 
最速で価値を提供する
最速で価値を提供する最速で価値を提供する
最速で価値を提供する
 
一人三役!一気通貫でデータ活用するエンジニアリング
一人三役!一気通貫でデータ活用するエンジニアリング一人三役!一気通貫でデータ活用するエンジニアリング
一人三役!一気通貫でデータ活用するエンジニアリング
 
QCon Tokyo 2014 - Virtuous Cycles of Velocity: What I Learned About Going Fas...
QCon Tokyo 2014 - Virtuous Cycles of Velocity: What I Learned About Going Fas...QCon Tokyo 2014 - Virtuous Cycles of Velocity: What I Learned About Going Fas...
QCon Tokyo 2014 - Virtuous Cycles of Velocity: What I Learned About Going Fas...
 
2018/8/6 トレLABO2 AI案件のよくある落とし穴と人材育成
2018/8/6 トレLABO2 AI案件のよくある落とし穴と人材育成2018/8/6 トレLABO2 AI案件のよくある落とし穴と人材育成
2018/8/6 トレLABO2 AI案件のよくある落とし穴と人材育成
 

More from hoxo_m

Shinyユーザのための非同期プログラミング入門
Shinyユーザのための非同期プログラミング入門Shinyユーザのための非同期プログラミング入門
Shinyユーザのための非同期プログラミング入門hoxo_m
 
学習係数
学習係数学習係数
学習係数hoxo_m
 
AJAXサイトの情報をWebスクレイピング
AJAXサイトの情報をWebスクレイピングAJAXサイトの情報をWebスクレイピング
AJAXサイトの情報をWebスクレイピングhoxo_m
 
高速なガンマ分布の最尤推定法について
高速なガンマ分布の最尤推定法について高速なガンマ分布の最尤推定法について
高速なガンマ分布の最尤推定法についてhoxo_m
 
経験過程
経験過程経験過程
経験過程hoxo_m
 
確率論基礎
確率論基礎確率論基礎
確率論基礎hoxo_m
 
シンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るなシンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るなhoxo_m
 
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出hoxo_m
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?hoxo_m
 
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布についてhoxo_m
 
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本hoxo_m
 
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本hoxo_m
 
協調フィルタリング入門
協調フィルタリング入門協調フィルタリング入門
協調フィルタリング入門hoxo_m
 
データの不備を統計的に見抜く (Gelman’s secret weapon)
データの不備を統計的に見抜く (Gelman’s secret weapon)データの不備を統計的に見抜く (Gelman’s secret weapon)
データの不備を統計的に見抜く (Gelman’s secret weapon)hoxo_m
 
カップルが一緒にお風呂に入る割合をベイズ推定してみた
カップルが一緒にお風呂に入る割合をベイズ推定してみたカップルが一緒にお風呂に入る割合をベイズ推定してみた
カップルが一緒にお風呂に入る割合をベイズ推定してみたhoxo_m
 
Stan で欠測データの相関係数を推定してみた
Stan で欠測データの相関係数を推定してみたStan で欠測データの相関係数を推定してみた
Stan で欠測データの相関係数を推定してみたhoxo_m
 
チェビシェフの不等式
チェビシェフの不等式チェビシェフの不等式
チェビシェフの不等式hoxo_m
 
swirl パッケージでインタラクティブ学習
swirl パッケージでインタラクティブ学習swirl パッケージでインタラクティブ学習
swirl パッケージでインタラクティブ学習hoxo_m
 
RPubs とその Bot たち
RPubs とその Bot たちRPubs とその Bot たち
RPubs とその Bot たちhoxo_m
 
5分でわかるベイズ確率
5分でわかるベイズ確率5分でわかるベイズ確率
5分でわかるベイズ確率hoxo_m
 

More from hoxo_m (20)

Shinyユーザのための非同期プログラミング入門
Shinyユーザのための非同期プログラミング入門Shinyユーザのための非同期プログラミング入門
Shinyユーザのための非同期プログラミング入門
 
学習係数
学習係数学習係数
学習係数
 
AJAXサイトの情報をWebスクレイピング
AJAXサイトの情報をWebスクレイピングAJAXサイトの情報をWebスクレイピング
AJAXサイトの情報をWebスクレイピング
 
高速なガンマ分布の最尤推定法について
高速なガンマ分布の最尤推定法について高速なガンマ分布の最尤推定法について
高速なガンマ分布の最尤推定法について
 
経験過程
経験過程経験過程
経験過程
 
確率論基礎
確率論基礎確率論基礎
確率論基礎
 
シンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るなシンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るな
 
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
 
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について
 
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
 
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
 
協調フィルタリング入門
協調フィルタリング入門協調フィルタリング入門
協調フィルタリング入門
 
データの不備を統計的に見抜く (Gelman’s secret weapon)
データの不備を統計的に見抜く (Gelman’s secret weapon)データの不備を統計的に見抜く (Gelman’s secret weapon)
データの不備を統計的に見抜く (Gelman’s secret weapon)
 
カップルが一緒にお風呂に入る割合をベイズ推定してみた
カップルが一緒にお風呂に入る割合をベイズ推定してみたカップルが一緒にお風呂に入る割合をベイズ推定してみた
カップルが一緒にお風呂に入る割合をベイズ推定してみた
 
Stan で欠測データの相関係数を推定してみた
Stan で欠測データの相関係数を推定してみたStan で欠測データの相関係数を推定してみた
Stan で欠測データの相関係数を推定してみた
 
チェビシェフの不等式
チェビシェフの不等式チェビシェフの不等式
チェビシェフの不等式
 
swirl パッケージでインタラクティブ学習
swirl パッケージでインタラクティブ学習swirl パッケージでインタラクティブ学習
swirl パッケージでインタラクティブ学習
 
RPubs とその Bot たち
RPubs とその Bot たちRPubs とその Bot たち
RPubs とその Bot たち
 
5分でわかるベイズ確率
5分でわかるベイズ確率5分でわかるベイズ確率
5分でわかるベイズ確率
 

機械学習のためのベイズ最適化入門