SlideShare uma empresa Scribd logo
1 de 33
Learning Deep Architectures
           for AI

 Journal of Foundations and Trends in
       Machine Learning, 2009
 Yoshua Bengio (U. Montreal, Canada)
松尾まとめ:広義のDeep Learning
        もしくはDeep Architecture
• [勝ち組1] DBN: Deep Belief Network
   – Restricted Boltzman Machine(RBM)で層ごとに訓練
       • その方法 CD: Contrastive Divergence
   – Deep Boltzman Machine (DBM)に変換できる
   – Hintonさんら(トロント大)                                   狭義のDeep Learning
• [勝ち組2] Stacked Auto-Encoders
   – Auto-Encoders
   – Bengioさんら(モントリオール大)                                 たぶんこれがいい
• [惜しい]
   – Convolutional Network:特に視覚。2次元の制約を使う。LeCunさんたちのグ
     ループ(ニューヨーク大)
   – Self-taught Learning:1段でunsupervised + supervised。Ngさんたちのグループ
     (スタンフォード大)
   – Multi-task learning, transfer learning:目の付けどころはいいが、ちょっと違う概
     念
• [負け組]
   – Deep Neural Network, Multi-layer Neural Network(昔からある)
   – Deep Graphical Model(昔からある)
東西横綱
                                                            決め技:
                                                            寄り切り
決め技:
上手投げ

                                 Auto-Encoder




       Deep Belief Network           Stacked Auto-Encoder
       (Deep Boltzman Machine)
RBM                                               Auto-Encoder
Min Energy(x,h) = -b’x – c’x – h’Wx – x’Ux – h’Vh      Min RE = -log(x|c(x))
                                                       c(x): coding
周辺の概念




•   (1) 帰納転移学習 (inductive transfer learning)
•   (2) トランスダクティブ転移学習 (transductive transfer learning)
•   (3) 自己教示学習 (self-taught learning)
•   (4) 教師なし転移学習 (unsupervised transfer learning)

      神嶌 敏弘 “転移学習” 人工知能学会誌, vol.25, no.4, pp.572-580 (2010) より
はじめに
          (1. Introduction)
• AIを作るには、世界の知識を入れないといけない。画像や文
  章を理解できるコンピュータは作れるのか?
• 難しい。
• 現状では小さい問題にわけて
  低いレベルから作っていくしかない
 – たとえばエッジを検出するとか、
   輪郭を検出するとか、
   目を検知するとか。
学習するとは何か?
• 機械(machine)が理解するとは?
  – 3Dの物体では、位置、向き、光など:factor of variationとよぶ
  – もし機械がこれらのfactorを見つけて、データの統計的な変種やその相
    互作用を説明できれば、機械はその世界を「理解した」と言えるであろう。
• 抽象化とは?
  – カテゴリ(例えばMANカテゴリ)、もしくは
  – 素性(センサーデータの関数。実数でも離散でも構わない)
  を作ることである
• 抽象化された概念である「MAN」を検知する「MAN検知器」を作る
  には、たくさんの中間レベルの概念が必要
• 深いアーキテクチャ(deep architecture)の学習の焦点は、そういっ
  た抽象化を、いかに自動的に行うかである。
脳と深いアーキテクチャ
    (1.1 How do We Train Deep Architecture?)
•   ここでいうアーキテクチャの深さとは、非線形な関数のレベルの数である。
•   現在の学習アルゴリズムのほとんどは、浅いアーキテクチャ(1, 2もしくは3)である。
•   哺乳類の脳は、深いアーキテクチャで、入力が複数の抽象化のレベルで表現される。
•   研究者達は、長年、深い多層のニューラルネットワークを訓練しようとして来たが、
    2006年までは成功しなかった。2、3層でよい結果はでても、それ以上になると結果は
    悪くなった。
•   2006年にHintonらは、Deep Belief Network (DBN)を提案した。
•   2006年以来、多くの学習問題、回帰問題、次元削減、textureやmotionのモデル化、
    情報検索やロボット、自然言語処理、協調フィルタリング等でよい結果を示した。

•   脳の各レベルでの抽象化は、たくさんの数の素性の小さい集合の活性化で起こる。
     – その素性は互いに排他的でなく、素性は分散的な表現となる。
     – つまり、どれかひとつのニューロンに情報が局在化するのではない。
     – さらに、脳はsparseな表現を使う。同時に1-4%のニューロンしか活性化しない。
•   したがって、疎な表現というのが大事そうだ。
重要そうなもの
    (1.3 Desiderata for Learning AI)
• AIの学習のために欲しいものリスト
 – 複雑で変化する関数を学習する能力
 – 人間の入力がほとんどなくとも、AIタスクに必要な低次、
   中間、高次の抽象化を学習する
 – 大量の例から学習する:学習の計算時間が線形に近い
 – ほとんどラベルのないデータから学習する
 – たくさんのタスクにあるシナジーを活用する(マルチタスク
   学習)
 – 強力な教師なし学習をもつ
深いアーキテクチャが重要な理由
    (2. Theoretical Advantages of Deep Architecture)
• 浅すぎる階層では表現できない関数もある。




•   線形回帰は1レベル
•   カーネルマシンや決定木は2レベル:カーネルマシンの場合、K(x,x’)を計算するのが第一レ
    ベル、b+ΣαK(x,xi)を計算するのが第二レベル
•   BoostingやStackingは1レベル加えるもの
AIの古典的な論理で言うと
      (2.1 Computational Complexity)
• 理論的には、kの深さで表される関数は、k-1の深さで表そう
  とすると、指数的な数の要素が必要になることもある。
• 論理回路
 – すべてのBoolean Functionは、2階層で表現できる。ANDのORか、OR
   のANDか。
 – disjunctive normal form, conjunctive normal form
 – (x1∧x2∧¬x3)∨(¬x1∧x2∧x3)∨(x1∧¬x2∧x3)
 – (¬x1∨¬x2∨¬x3)∧ (¬x1∨x2∨x3)∧ (x1∨¬x2∨x3)∧…
(深いアーキテクチャでない)
         ローカルな推定器の限界
        (3. Local vs Non-local Generalization)
• ローカルなestimatorは、入力空間上で、入力xに近い訓練データをさがす。
• ローカルなestimatorは、入力空間を領域に分割する。たくさんの領域が
  必要な場合には、パラメータが多くなり、たくさんの訓練データが必要で
  ある。←→次元の呪い
• 違う表現をすると、学習したい関数の”variations”の数が問題である。
• Gaussian Kernel (RBF Kernel)のカーネルマシンの場合、”bump”の数と比
  例するだけの数の訓練データが必要
同じものの違う表現
• 高次元の複雑なタスクの場合、decision surface(決定表面)の複雑さは、
  ローカルな方法の限界をすぐに越えてしまう。
• 言い方を変えれば、決定表面のカーブがたくさんの亜種をもち、かつ、背
  後にある規則で関係づけることができないのであれば、ローカルな方法
  を越えることはできない。
• いろいろなアルゴリズムに使われるneighborhood graph
歴史的には
   (4. Neural Networks for Deep Architectures)
• 多層ニューラルネットワーク
  – 普通のニューラルネットワーク。多層。(Rumelhart 1986)
  – 訓練ができない。精度が悪い。
  – ランダムな初期値からの勾配法は、局所解に陥る。1, 2階層のほうが
    いい。
• 2007年にLeCunらのConvolutional Neural Network
• 2006年にHintonは、1階層ずつ教師なし学習で事前訓練をし
  ておけばよい結果が得られることを示した
• 重要なのは、layer-local unsupervised criteria
[Loosli, Canu, & Bottou, 2007]
Denoising auto encodersを使っている
参考:Convolutional Neural Networks
     (4.5 Convolutional Neural Networks)
• LeCun 1989-
• 畳み込みレイヤーとサブサンプルレイヤー
• それぞれのレイヤーは2次元の位置があり、下のレ
  イヤーのパッチから重みつきで足し合わされる。
• 仮説:視覚の場合には、領域の制限が非常に強い
  から、階層的に局所的につながることが、よいprior
  になっている?
主役のAuto-Encoder
•    Auto-encoder framework [Lecaum 1987][Bourland 1988][Hinton 1994] : unsupervised feature construction
     method の一つ。
                  • auto-: 「自己の」 auto-encoder を直訳すると自己符号器
                  • encoder, decoder, reconstruction error の 3 つの要素から構成。
                  • encoder と decoder の合成写像が入力値を再現するような学習を行う。
                  • 学習は入力値と出力値の誤差(reconstruction error)を最小化することで行われる。
                  • この操作によって、入力値をより適切な表現に写像する auto-encoder が得られる。

                                                                                     𝑇
                                                                                                𝑡                𝑡
                                                     𝜃 = argmin 𝒥DAE (𝜃) = argmin         𝐿 𝑥       , 𝑔 𝜃 𝑓𝜃 𝑥
                                                            𝜃                  𝜃
                                                                                    𝑡=1
    t-th Input Reconstruction                                                                              Output
    Vector         (Auto-)encoder Representation VectorDecoder                                             Vector
        𝑥 (𝑡)            𝑓𝜃              𝑕(𝑡)              𝑔𝜃                                              𝑟 (𝑡)



                                             Reconstruction Error
                                                    𝐿



     17                                                                 前回の大澤君資料より
Auto-Encoders
             4.6 Auto-encoders
• 出力は入力と同じ。
• 2乗平均誤差を使って、k個の線形な隠れ層を作ると、主成
  分分析の最初のk個の主成分と同じ。
• 隠れ層が多い場合には、identity functionになりそうだが、実
  際にはよい表現を作る。早期停止つき確率的勾配法は、l2
  正則化と同じ効果だから。
RBM




      前々回の大知君資料より
RBM
        (5.3 Restricted Boltzmann Machines)
• 以下を最小化




• RBMの場合、U=0, V=0
• いくつかの分布はコンパクトに表現できないこともあるが、十分な数の隠
  れユニットがあればどんな離散分布も表現できる
RBMの訓練方法
         (5.4 Contrastive Divergence)
• RBMを訓練する際に、反復的に対数尤度勾配を求める近
  似法




x1
↓
h1
↓
x2
↓
h2
• k-step CD: MCMCのステップをk回に限る
Deep Architectureの作り方:RBMを使う
(6.1 Layer-Wise Training of Deep Belief Networks)
サンプル



割り当て



RBM
Deep Architectureの作り方:Auto-Encoderを使う
        (6.2 Training Stacked Auto-Encoders)

• DBNと同じ。
• しかし、RBMやDBNのような生成モデルではないので、何を
  学んだかを出力してみることができない
Auto-Encoderの疎なもの
  (7.1 Sparse Representations in Auto-Encoders and RBMs)

• 疎な表現は、情報理論的な意味においてより効率的であ
  る。
• Sparse Auto-Encoders




• L1ノルムはl0ノルムのよいproxyで、疎な結果をもたらす
• Explaining away: 複数あるうちのひとつのコード化を選ぶ
• 良い点:最も重要なのだけ選ぶ。悪い点:結果が安定しな
  い(RBMには関係ない)
Auto-Encoderのロバストなもの
      (7.2 Denoising Auto-Encoders)

• ノイズを加えても、それを除去するようなエン
  コードを見つける
• 例えば、半分の値をゼロにするとか。見えな
  いものから見えるものを観測する
• Vincent 2008。昔からあったが、deep
  architectureの前訓練としてよいことが分かっ
  た。
時系列
    (7.4 Conditional RBMs and Temporal RBMs)

• Conditional RBM
  – いくつかのパラメータが自由ではなく、条件付き
    確率変数によってパラメタライズされているもの。
  – 例えば、隠れユニットのオフセットが、文脈変数z
    の線形関数になっているとか。
• Temporal RBM
  – P(x_t | x_t-1, x_t-2, …)を考えると、時系列のモデ
    ル化になる。
今後の課題
        (9.1 Global Optimization Strategies)
•   層ごとのローカルな教師なし学習が、よりよい汎化性能につながる理由のひとつ
    は、入力に近い、低レベルの層を最適化するから。
•   既存の研究と、continuation modelに基づく難しい最適化の方法をつなげる。
    – 簡単な問題から難しい問題に連続的に変化させる方法。Greedyな層ごとの学習も、
      continuation methodの近似と考えられる。
•   これによって、グローバルな最適化も可能かもしれない。
    – 教師なしから教師ありにスムーズに変化させる
    – 温度を導入する
    – カリキュラムに沿った学習
•   カリキュラムに沿った学習
    – 人間は20年も学習が必要。その学習は構造化されており、教育システムによって異な
      る概念を異なる時期に学ぶように、特に前に学習した概念を使って新しい抽象化を学
      ぶようにできている。
    – Elman(1993)にもある概念だが、コンピュータの学習にもカリキュラムがあると学習を効
      率的に導けるのではないか。(動物の訓練ではShapingと呼ばれる)
要するに何が良いかの振り返り
  (9.2 Why Unsupervised Learning is Important)
• 本稿では、強力な教師なし学習は、深いアーキテクチャーに
  必須の要素であるということを言ってきた。その理由を簡単
  にまとめる。
 – ラベルデータはそもそも尐ない。ラベルなしのデータは多い。
 – 未来のタスクは分からない。とすると、いまの世界の学習をできるだ
   け保存する学習をしておくほうがいい。
 – いったん、高レベルの表現が得られると、他の学習タスクはずっと簡
   単になる。
 – 層ごとの教師なし学習。ローカルな情報だけで可能である。
 – つまり教師なし学習は、教師あり学習のパラメータを、よりよい解のあ
   る方向に動かす。
 – 入力と出力の関係だけでなく、入力の分布の統計的な規則を使うこと
   で局所解に陥るのをさける。
研究課題リスト(1/4)
                  9.3 Open Questions
1.   回路における深さの役割は、論理回路と線形な素子を越えて一般化で
     きるか
2.   AIのタスクを人間のパフォーマンスのレベルに近づけるのに十分な深さ
     があるのか?
3.   再帰的な計算を含む動的な回路に拡張できるのか
4.   なぜランダムな初期値からのDeep Neural Networkの勾配法はうまくい
     かないのか
5.   CDによって訓練されたRBMは、入力の情報を保存するのに役に立つか、
     そうでないならどう改善できるか
     –   Auto-encoderは明示的に保存するので。
6.   深いアーキテクチャのための教師あり学習は、悪い局所最適のために
     難しいのか、それとも最適化問題が複雑すぎるのか。
7.   RBMを訓練する際に局所解の存在は重要な問題なのか
研究課題リスト(2/4)
8. RBMやauto-encoderを、よい表現を取り出すことができてより簡単な最適
     化問題(おそらく凸の問題)で置き換えることができるか?
9. 現在の深いアーキテクチャの訓練アルゴリズムは、多くのフェーズがある
     が、これはオンラインの設定では現実的ではない。(局所解に陥るか
     ら)。深いアーキテクチャを訓練するオンラインの方法があるか?
10. CDのGibbsステップの回数は訓練時に適応的にできるか
11. 計算時間を考慮に入れてCDを大きく改善することができるか?
12. 再構成エラーのほかに、RBMやDBNの訓練をモニターする適切な方法が
     あるか?
13. RBMとauto-encoderは、学習する表現に、何らかの疎な制約をかけるこ
     とで改善するか。どういった方法がベストか。
14. 隠れ層の数が増えるに従って、エネルギー関数のノンパラメトリックな形
     を使って、RBMのキャパシティは増えるか???
研究課題リスト(3/4)
•   15. 生成モデルは、単一のDenoising auto-encoderに関してしかないが、Stacked
    auto-encoderやStacked Denoising Auto-encoderで学習されたモデルの確率的な
    解釈はあるか
•   16. DBNの訓練の際には、層ごとの貪欲なアルゴリズムは効率的か?貪欲すぎ
    ないか?
•   17. DBNと関連する生成モデルの対数尤度勾配の低いvarianceとbiasの推定器は
    ないか??
•   18. 教師なしの層ごとの訓練の手続きは深いアーキテクチャを作るが、局所解に
    陥って、大規模なデータの全部の情報を使えない。より強力な最適化アルゴリズ
    ムはないか
•   19. continuation法による最適化の戦略は、深いアーキテクチャの学習に大きな
    改善をもたらすか??
•   20. DBNやStacked Auto-encoders、DBM以外に、訓練可能な深い構造があるか
•   21. 人間が何年も何十年も学習するのにかかるような、高いレベルの抽象化を学
    習するには、カリキュラムが必要か
研究課題リスト(3/4)
• 22. 深いアーキテクチャを学習するのに発見された方法は、リカレントネッ
  トワークやdynamical belief networkを学習するのにも使えるか??
• 23. 深いアーキテクチャは、例えばベクトルで表せないような情報を表現
  するのにどこまで一般化できるか?
• 24. DBNは半教師あり学習やself-taught learningでは適しているが、現在
  のdeep learningのアルゴリズムをこれらの設定に用いる最もよい方法
  は?
• 25. ラベル付き例があるとき、どのように教師ありと教師なしの基準をあ
  わせて、入力の表現を学習すればよいか。
• 26. CDやDBNと同じような計算を脳に見つけることができるか。
• 27. 大脳は、フィードフォワードではなく、フィードバックのループがたくさん
  ある。学習だけでなく、視覚証拠からの状況的なpriorを統合するのにも
  使われる。どのようなモデルが、深いアーキテクチャでのこのようなインタ
  ラクションにつながるのか?

Mais conteúdo relacionado

Mais procurados

GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてGPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてYuya Unno
 
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」Naonori Nagano
 
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会Shotaro Sano
 
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開Seiya Tokui
 
ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装Ryosuke Okuta
 
Deep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlowDeep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlowTadaichiro Nakano
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Seiya Tokui
 
Deep Learning技術の今
Deep Learning技術の今Deep Learning技術の今
Deep Learning技術の今Seiya Tokui
 
現在のDNNにおける未解決問題
現在のDNNにおける未解決問題現在のDNNにおける未解決問題
現在のDNNにおける未解決問題Daisuke Okanohara
 
Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章孝好 飯塚
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Seiya Tokui
 
「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"Ken'ichi Matsui
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較YumaMatsuoka
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理Ryo Nakamura
 
はじぱた7章F5up
はじぱた7章F5upはじぱた7章F5up
はじぱた7章F5upTyee Z
 

Mais procurados (20)

GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてGPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装について
 
bigdata2012ml okanohara
bigdata2012ml okanoharabigdata2012ml okanohara
bigdata2012ml okanohara
 
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
 
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
 
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
 
ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装
 
Deep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlowDeep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlow
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
 
More modern gpu
More modern gpuMore modern gpu
More modern gpu
 
Deep Learning技術の今
Deep Learning技術の今Deep Learning技術の今
Deep Learning技術の今
 
Deep learning入門
Deep learning入門Deep learning入門
Deep learning入門
 
現在のDNNにおける未解決問題
現在のDNNにおける未解決問題現在のDNNにおける未解決問題
現在のDNNにおける未解決問題
 
Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章
 
音声認識と深層学習
音声認識と深層学習音声認識と深層学習
音声認識と深層学習
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
 
「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
 
はじぱた7章F5up
はじぱた7章F5upはじぱた7章F5up
はじぱた7章F5up
 

Destaque

Semi-Supervised Autoencoders for Predicting Sentiment Distributions(第 5 回 De...
 Semi-Supervised Autoencoders for Predicting Sentiment Distributions(第 5 回 De... Semi-Supervised Autoencoders for Predicting Sentiment Distributions(第 5 回 De...
Semi-Supervised Autoencoders for Predicting Sentiment Distributions(第 5 回 De...Ohsawa Goodfellow
 
論文輪読資料「Why regularized Auto-Encoders learn Sparse Representation?」DL Hacks
論文輪読資料「Why regularized Auto-Encoders learn Sparse Representation?」DL Hacks論文輪読資料「Why regularized Auto-Encoders learn Sparse Representation?」DL Hacks
論文輪読資料「Why regularized Auto-Encoders learn Sparse Representation?」DL Hackskurotaki_weblab
 
論文輪読資料「Gated Feedback Recurrent Neural Networks」
論文輪読資料「Gated Feedback Recurrent Neural Networks」論文輪読資料「Gated Feedback Recurrent Neural Networks」
論文輪読資料「Gated Feedback Recurrent Neural Networks」kurotaki_weblab
 
JSAI's AI Tool Introduction - Deep Learning, Pylearn2 and Torch7
JSAI's AI Tool Introduction - Deep Learning, Pylearn2 and Torch7JSAI's AI Tool Introduction - Deep Learning, Pylearn2 and Torch7
JSAI's AI Tool Introduction - Deep Learning, Pylearn2 and Torch7Kotaro Nakayama
 
論文輪読資料「A review of unsupervised feature learning and deep learning for time-s...
論文輪読資料「A review of unsupervised feature learning and deep learning for time-s...論文輪読資料「A review of unsupervised feature learning and deep learning for time-s...
論文輪読資料「A review of unsupervised feature learning and deep learning for time-s...Kaoru Nasuno
 
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)Takuma Yagi
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話Ryota Kamoshida
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual TalksYuya Unno
 
[DL輪読会]Semi supervised qa with generative domain-adaptive nets
[DL輪読会]Semi supervised qa with generative domain-adaptive nets[DL輪読会]Semi supervised qa with generative domain-adaptive nets
[DL輪読会]Semi supervised qa with generative domain-adaptive netsDeep Learning JP
 
[DL輪読会]Unsupervised Cross-Domain Image Generation
[DL輪読会]Unsupervised Cross-Domain Image Generation[DL輪読会]Unsupervised Cross-Domain Image Generation
[DL輪読会]Unsupervised Cross-Domain Image GenerationDeep Learning JP
 
[DL輪読会]Understanding deep learning requires rethinking generalization
[DL輪読会]Understanding deep learning requires rethinking generalization[DL輪読会]Understanding deep learning requires rethinking generalization
[DL輪読会]Understanding deep learning requires rethinking generalizationDeep Learning JP
 
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習Preferred Networks
 
Deep Learning技術の最近の動向とPreferred Networksの取り組み
Deep Learning技術の最近の動向とPreferred Networksの取り組みDeep Learning技術の最近の動向とPreferred Networksの取り組み
Deep Learning技術の最近の動向とPreferred Networksの取り組みKenta Oono
 
TensorFlowで会話AIを作ってみた。
TensorFlowで会話AIを作ってみた。TensorFlowで会話AIを作ってみた。
TensorFlowで会話AIを作ってみた。tak9029
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~nlab_utokyo
 
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural NetworksMasahiro Suzuki
 
(DL hacks輪読) Variational Inference with Rényi Divergence
(DL hacks輪読) Variational Inference with Rényi Divergence(DL hacks輪読) Variational Inference with Rényi Divergence
(DL hacks輪読) Variational Inference with Rényi DivergenceMasahiro Suzuki
 
[Dl輪読会]dl hacks輪読
[Dl輪読会]dl hacks輪読[Dl輪読会]dl hacks輪読
[Dl輪読会]dl hacks輪読Deep Learning JP
 
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...Masahiro Suzuki
 

Destaque (20)

Semi-Supervised Autoencoders for Predicting Sentiment Distributions(第 5 回 De...
 Semi-Supervised Autoencoders for Predicting Sentiment Distributions(第 5 回 De... Semi-Supervised Autoencoders for Predicting Sentiment Distributions(第 5 回 De...
Semi-Supervised Autoencoders for Predicting Sentiment Distributions(第 5 回 De...
 
論文輪読資料「Why regularized Auto-Encoders learn Sparse Representation?」DL Hacks
論文輪読資料「Why regularized Auto-Encoders learn Sparse Representation?」DL Hacks論文輪読資料「Why regularized Auto-Encoders learn Sparse Representation?」DL Hacks
論文輪読資料「Why regularized Auto-Encoders learn Sparse Representation?」DL Hacks
 
論文輪読資料「Gated Feedback Recurrent Neural Networks」
論文輪読資料「Gated Feedback Recurrent Neural Networks」論文輪読資料「Gated Feedback Recurrent Neural Networks」
論文輪読資料「Gated Feedback Recurrent Neural Networks」
 
JSAI's AI Tool Introduction - Deep Learning, Pylearn2 and Torch7
JSAI's AI Tool Introduction - Deep Learning, Pylearn2 and Torch7JSAI's AI Tool Introduction - Deep Learning, Pylearn2 and Torch7
JSAI's AI Tool Introduction - Deep Learning, Pylearn2 and Torch7
 
論文輪読資料「A review of unsupervised feature learning and deep learning for time-s...
論文輪読資料「A review of unsupervised feature learning and deep learning for time-s...論文輪読資料「A review of unsupervised feature learning and deep learning for time-s...
論文輪読資料「A review of unsupervised feature learning and deep learning for time-s...
 
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
RBM、Deep Learningと学習(全脳アーキテクチャ若手の会 第3回DL勉強会発表資料)
 
一般向けのDeep Learning
一般向けのDeep Learning一般向けのDeep Learning
一般向けのDeep Learning
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
 
[DL輪読会]Semi supervised qa with generative domain-adaptive nets
[DL輪読会]Semi supervised qa with generative domain-adaptive nets[DL輪読会]Semi supervised qa with generative domain-adaptive nets
[DL輪読会]Semi supervised qa with generative domain-adaptive nets
 
[DL輪読会]Unsupervised Cross-Domain Image Generation
[DL輪読会]Unsupervised Cross-Domain Image Generation[DL輪読会]Unsupervised Cross-Domain Image Generation
[DL輪読会]Unsupervised Cross-Domain Image Generation
 
[DL輪読会]Understanding deep learning requires rethinking generalization
[DL輪読会]Understanding deep learning requires rethinking generalization[DL輪読会]Understanding deep learning requires rethinking generalization
[DL輪読会]Understanding deep learning requires rethinking generalization
 
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
 
Deep Learning技術の最近の動向とPreferred Networksの取り組み
Deep Learning技術の最近の動向とPreferred Networksの取り組みDeep Learning技術の最近の動向とPreferred Networksの取り組み
Deep Learning技術の最近の動向とPreferred Networksの取り組み
 
TensorFlowで会話AIを作ってみた。
TensorFlowで会話AIを作ってみた。TensorFlowで会話AIを作ってみた。
TensorFlowで会話AIを作ってみた。
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
 
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
 
(DL hacks輪読) Variational Inference with Rényi Divergence
(DL hacks輪読) Variational Inference with Rényi Divergence(DL hacks輪読) Variational Inference with Rényi Divergence
(DL hacks輪読) Variational Inference with Rényi Divergence
 
[Dl輪読会]dl hacks輪読
[Dl輪読会]dl hacks輪読[Dl輪読会]dl hacks輪読
[Dl輪読会]dl hacks輪読
 
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
 

Semelhante a Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)

Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用Seiya Tokui
 
Deep Learningについて(改訂版)
Deep Learningについて(改訂版)Deep Learningについて(改訂版)
Deep Learningについて(改訂版)Brains Consulting, Inc.
 
attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介Masayoshi Kondo
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksShingo Horiuchi
 
Learning structured embeddings of knowledge bases 文献講読
Learning structured embeddings of knowledge bases 文献講読Learning structured embeddings of knowledge bases 文献講読
Learning structured embeddings of knowledge bases 文献講読poppyuri
 
ICCV2019読み会「Learning Meshes for Dense Visual SLAM」
ICCV2019読み会「Learning Meshes for Dense Visual SLAM」ICCV2019読み会「Learning Meshes for Dense Visual SLAM」
ICCV2019読み会「Learning Meshes for Dense Visual SLAM」Sho Kagami
 
教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)
教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)
教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)STAIR Lab, Chiba Institute of Technology
 
文献紹介:An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
文献紹介:An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale文献紹介:An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
文献紹介:An Image is Worth 16x16 Words: Transformers for Image Recognition at ScaleToru Tamaki
 
2012-03-08 MSS研究会
2012-03-08 MSS研究会2012-03-08 MSS研究会
2012-03-08 MSS研究会Kimikazu Kato
 
点群深層学習 Meta-study
点群深層学習 Meta-study点群深層学習 Meta-study
点群深層学習 Meta-studyNaoya Chiba
 
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTURE Project
 
PyTorch, PixyzによるGenerative Query Networkの実装
PyTorch, PixyzによるGenerative Query Networkの実装PyTorch, PixyzによるGenerative Query Networkの実装
PyTorch, PixyzによるGenerative Query Networkの実装Shohei Taniguchi
 
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object DetectionDeep Learning JP
 
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化marsee101
 
Deep learning for acoustic modeling in parametric speech generation
Deep learning for acoustic modeling in parametric speech generationDeep learning for acoustic modeling in parametric speech generation
Deep learning for acoustic modeling in parametric speech generationYuki Saito
 
Ordered neurons integrating tree structures into recurrent neural networks
Ordered neurons integrating tree structures into recurrent neural networksOrdered neurons integrating tree structures into recurrent neural networks
Ordered neurons integrating tree structures into recurrent neural networksKazuki Fujikawa
 
BERTに関して
BERTに関してBERTに関して
BERTに関してSaitama Uni
 

Semelhante a Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾) (20)

Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用
 
Deep Learningについて(改訂版)
Deep Learningについて(改訂版)Deep Learningについて(改訂版)
Deep Learningについて(改訂版)
 
attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
 
Learning structured embeddings of knowledge bases 文献講読
Learning structured embeddings of knowledge bases 文献講読Learning structured embeddings of knowledge bases 文献講読
Learning structured embeddings of knowledge bases 文献講読
 
ICCV2019読み会「Learning Meshes for Dense Visual SLAM」
ICCV2019読み会「Learning Meshes for Dense Visual SLAM」ICCV2019読み会「Learning Meshes for Dense Visual SLAM」
ICCV2019読み会「Learning Meshes for Dense Visual SLAM」
 
Extract and edit
Extract and editExtract and edit
Extract and edit
 
教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)
教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)
教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)
 
文献紹介:An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
文献紹介:An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale文献紹介:An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
文献紹介:An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
 
MIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearningMIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearning
 
2012-03-08 MSS研究会
2012-03-08 MSS研究会2012-03-08 MSS研究会
2012-03-08 MSS研究会
 
点群深層学習 Meta-study
点群深層学習 Meta-study点群深層学習 Meta-study
点群深層学習 Meta-study
 
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介
 
PyTorch, PixyzによるGenerative Query Networkの実装
PyTorch, PixyzによるGenerative Query Networkの実装PyTorch, PixyzによるGenerative Query Networkの実装
PyTorch, PixyzによるGenerative Query Networkの実装
 
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
 
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
 
深層学習入門
深層学習入門深層学習入門
深層学習入門
 
Deep learning for acoustic modeling in parametric speech generation
Deep learning for acoustic modeling in parametric speech generationDeep learning for acoustic modeling in parametric speech generation
Deep learning for acoustic modeling in parametric speech generation
 
Ordered neurons integrating tree structures into recurrent neural networks
Ordered neurons integrating tree structures into recurrent neural networksOrdered neurons integrating tree structures into recurrent neural networks
Ordered neurons integrating tree structures into recurrent neural networks
 
BERTに関して
BERTに関してBERTに関して
BERTに関して
 

Mais de Ohsawa Goodfellow

Open-ended Learning in Symmetric Zero-sum Games @ ICML19
Open-ended Learning in Symmetric Zero-sum Games @ ICML19 Open-ended Learning in Symmetric Zero-sum Games @ ICML19
Open-ended Learning in Symmetric Zero-sum Games @ ICML19 Ohsawa Goodfellow
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半Ohsawa Goodfellow
 
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半Ohsawa Goodfellow
 
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)Ohsawa Goodfellow
 
Deep Learning via Semi-Supervised Embedding (第 7 回 Deep Learning 勉強会資料; 大澤)
Deep Learning via Semi-Supervised Embedding (第 7 回 Deep Learning 勉強会資料; 大澤)Deep Learning via Semi-Supervised Embedding (第 7 回 Deep Learning 勉強会資料; 大澤)
Deep Learning via Semi-Supervised Embedding (第 7 回 Deep Learning 勉強会資料; 大澤)Ohsawa Goodfellow
 
Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...
Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...
Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...Ohsawa Goodfellow
 
第9章 ネットワーク上の他の確率過程
第9章 ネットワーク上の他の確率過程第9章 ネットワーク上の他の確率過程
第9章 ネットワーク上の他の確率過程Ohsawa Goodfellow
 
XLWrapについてのご紹介
XLWrapについてのご紹介XLWrapについてのご紹介
XLWrapについてのご紹介Ohsawa Goodfellow
 
XLWrapについてのご紹介
XLWrapについてのご紹介XLWrapについてのご紹介
XLWrapについてのご紹介Ohsawa Goodfellow
 

Mais de Ohsawa Goodfellow (9)

Open-ended Learning in Symmetric Zero-sum Games @ ICML19
Open-ended Learning in Symmetric Zero-sum Games @ ICML19 Open-ended Learning in Symmetric Zero-sum Games @ ICML19
Open-ended Learning in Symmetric Zero-sum Games @ ICML19
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
 
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
 
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
 
Deep Learning via Semi-Supervised Embedding (第 7 回 Deep Learning 勉強会資料; 大澤)
Deep Learning via Semi-Supervised Embedding (第 7 回 Deep Learning 勉強会資料; 大澤)Deep Learning via Semi-Supervised Embedding (第 7 回 Deep Learning 勉強会資料; 大澤)
Deep Learning via Semi-Supervised Embedding (第 7 回 Deep Learning 勉強会資料; 大澤)
 
Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...
Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...
Deep Auto-Encoder Neural Networks in Reiforcement Learnning (第 9 回 Deep Learn...
 
第9章 ネットワーク上の他の確率過程
第9章 ネットワーク上の他の確率過程第9章 ネットワーク上の他の確率過程
第9章 ネットワーク上の他の確率過程
 
XLWrapについてのご紹介
XLWrapについてのご紹介XLWrapについてのご紹介
XLWrapについてのご紹介
 
XLWrapについてのご紹介
XLWrapについてのご紹介XLWrapについてのご紹介
XLWrapについてのご紹介
 

Último

論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略Ryo Sasaki
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 

Último (10)

論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 

Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)

  • 1. Learning Deep Architectures for AI Journal of Foundations and Trends in Machine Learning, 2009 Yoshua Bengio (U. Montreal, Canada)
  • 2. 松尾まとめ:広義のDeep Learning もしくはDeep Architecture • [勝ち組1] DBN: Deep Belief Network – Restricted Boltzman Machine(RBM)で層ごとに訓練 • その方法 CD: Contrastive Divergence – Deep Boltzman Machine (DBM)に変換できる – Hintonさんら(トロント大) 狭義のDeep Learning • [勝ち組2] Stacked Auto-Encoders – Auto-Encoders – Bengioさんら(モントリオール大) たぶんこれがいい • [惜しい] – Convolutional Network:特に視覚。2次元の制約を使う。LeCunさんたちのグ ループ(ニューヨーク大) – Self-taught Learning:1段でunsupervised + supervised。Ngさんたちのグループ (スタンフォード大) – Multi-task learning, transfer learning:目の付けどころはいいが、ちょっと違う概 念 • [負け組] – Deep Neural Network, Multi-layer Neural Network(昔からある) – Deep Graphical Model(昔からある)
  • 3. 東西横綱 決め技: 寄り切り 決め技: 上手投げ Auto-Encoder Deep Belief Network Stacked Auto-Encoder (Deep Boltzman Machine)
  • 4. RBM Auto-Encoder Min Energy(x,h) = -b’x – c’x – h’Wx – x’Ux – h’Vh Min RE = -log(x|c(x)) c(x): coding
  • 5. 周辺の概念 • (1) 帰納転移学習 (inductive transfer learning) • (2) トランスダクティブ転移学習 (transductive transfer learning) • (3) 自己教示学習 (self-taught learning) • (4) 教師なし転移学習 (unsupervised transfer learning) 神嶌 敏弘 “転移学習” 人工知能学会誌, vol.25, no.4, pp.572-580 (2010) より
  • 6. はじめに (1. Introduction) • AIを作るには、世界の知識を入れないといけない。画像や文 章を理解できるコンピュータは作れるのか? • 難しい。 • 現状では小さい問題にわけて 低いレベルから作っていくしかない – たとえばエッジを検出するとか、 輪郭を検出するとか、 目を検知するとか。
  • 7. 学習するとは何か? • 機械(machine)が理解するとは? – 3Dの物体では、位置、向き、光など:factor of variationとよぶ – もし機械がこれらのfactorを見つけて、データの統計的な変種やその相 互作用を説明できれば、機械はその世界を「理解した」と言えるであろう。 • 抽象化とは? – カテゴリ(例えばMANカテゴリ)、もしくは – 素性(センサーデータの関数。実数でも離散でも構わない) を作ることである • 抽象化された概念である「MAN」を検知する「MAN検知器」を作る には、たくさんの中間レベルの概念が必要 • 深いアーキテクチャ(deep architecture)の学習の焦点は、そういっ た抽象化を、いかに自動的に行うかである。
  • 8. 脳と深いアーキテクチャ (1.1 How do We Train Deep Architecture?) • ここでいうアーキテクチャの深さとは、非線形な関数のレベルの数である。 • 現在の学習アルゴリズムのほとんどは、浅いアーキテクチャ(1, 2もしくは3)である。 • 哺乳類の脳は、深いアーキテクチャで、入力が複数の抽象化のレベルで表現される。 • 研究者達は、長年、深い多層のニューラルネットワークを訓練しようとして来たが、 2006年までは成功しなかった。2、3層でよい結果はでても、それ以上になると結果は 悪くなった。 • 2006年にHintonらは、Deep Belief Network (DBN)を提案した。 • 2006年以来、多くの学習問題、回帰問題、次元削減、textureやmotionのモデル化、 情報検索やロボット、自然言語処理、協調フィルタリング等でよい結果を示した。 • 脳の各レベルでの抽象化は、たくさんの数の素性の小さい集合の活性化で起こる。 – その素性は互いに排他的でなく、素性は分散的な表現となる。 – つまり、どれかひとつのニューロンに情報が局在化するのではない。 – さらに、脳はsparseな表現を使う。同時に1-4%のニューロンしか活性化しない。 • したがって、疎な表現というのが大事そうだ。
  • 9. 重要そうなもの (1.3 Desiderata for Learning AI) • AIの学習のために欲しいものリスト – 複雑で変化する関数を学習する能力 – 人間の入力がほとんどなくとも、AIタスクに必要な低次、 中間、高次の抽象化を学習する – 大量の例から学習する:学習の計算時間が線形に近い – ほとんどラベルのないデータから学習する – たくさんのタスクにあるシナジーを活用する(マルチタスク 学習) – 強力な教師なし学習をもつ
  • 10. 深いアーキテクチャが重要な理由 (2. Theoretical Advantages of Deep Architecture) • 浅すぎる階層では表現できない関数もある。 • 線形回帰は1レベル • カーネルマシンや決定木は2レベル:カーネルマシンの場合、K(x,x’)を計算するのが第一レ ベル、b+ΣαK(x,xi)を計算するのが第二レベル • BoostingやStackingは1レベル加えるもの
  • 11. AIの古典的な論理で言うと (2.1 Computational Complexity) • 理論的には、kの深さで表される関数は、k-1の深さで表そう とすると、指数的な数の要素が必要になることもある。 • 論理回路 – すべてのBoolean Functionは、2階層で表現できる。ANDのORか、OR のANDか。 – disjunctive normal form, conjunctive normal form – (x1∧x2∧¬x3)∨(¬x1∧x2∧x3)∨(x1∧¬x2∧x3) – (¬x1∨¬x2∨¬x3)∧ (¬x1∨x2∨x3)∧ (x1∨¬x2∨x3)∧…
  • 12. (深いアーキテクチャでない) ローカルな推定器の限界 (3. Local vs Non-local Generalization) • ローカルなestimatorは、入力空間上で、入力xに近い訓練データをさがす。 • ローカルなestimatorは、入力空間を領域に分割する。たくさんの領域が 必要な場合には、パラメータが多くなり、たくさんの訓練データが必要で ある。←→次元の呪い • 違う表現をすると、学習したい関数の”variations”の数が問題である。 • Gaussian Kernel (RBF Kernel)のカーネルマシンの場合、”bump”の数と比 例するだけの数の訓練データが必要
  • 13. 同じものの違う表現 • 高次元の複雑なタスクの場合、decision surface(決定表面)の複雑さは、 ローカルな方法の限界をすぐに越えてしまう。 • 言い方を変えれば、決定表面のカーブがたくさんの亜種をもち、かつ、背 後にある規則で関係づけることができないのであれば、ローカルな方法 を越えることはできない。 • いろいろなアルゴリズムに使われるneighborhood graph
  • 14. 歴史的には (4. Neural Networks for Deep Architectures) • 多層ニューラルネットワーク – 普通のニューラルネットワーク。多層。(Rumelhart 1986) – 訓練ができない。精度が悪い。 – ランダムな初期値からの勾配法は、局所解に陥る。1, 2階層のほうが いい。 • 2007年にLeCunらのConvolutional Neural Network • 2006年にHintonは、1階層ずつ教師なし学習で事前訓練をし ておけばよい結果が得られることを示した • 重要なのは、layer-local unsupervised criteria
  • 15. [Loosli, Canu, & Bottou, 2007] Denoising auto encodersを使っている
  • 16. 参考:Convolutional Neural Networks (4.5 Convolutional Neural Networks) • LeCun 1989- • 畳み込みレイヤーとサブサンプルレイヤー • それぞれのレイヤーは2次元の位置があり、下のレ イヤーのパッチから重みつきで足し合わされる。 • 仮説:視覚の場合には、領域の制限が非常に強い から、階層的に局所的につながることが、よいprior になっている?
  • 17. 主役のAuto-Encoder • Auto-encoder framework [Lecaum 1987][Bourland 1988][Hinton 1994] : unsupervised feature construction method の一つ。 • auto-: 「自己の」 auto-encoder を直訳すると自己符号器 • encoder, decoder, reconstruction error の 3 つの要素から構成。 • encoder と decoder の合成写像が入力値を再現するような学習を行う。 • 学習は入力値と出力値の誤差(reconstruction error)を最小化することで行われる。 • この操作によって、入力値をより適切な表現に写像する auto-encoder が得られる。 𝑇 𝑡 𝑡 𝜃 = argmin 𝒥DAE (𝜃) = argmin 𝐿 𝑥 , 𝑔 𝜃 𝑓𝜃 𝑥 𝜃 𝜃 𝑡=1 t-th Input Reconstruction Output Vector (Auto-)encoder Representation VectorDecoder Vector 𝑥 (𝑡) 𝑓𝜃 𝑕(𝑡) 𝑔𝜃 𝑟 (𝑡) Reconstruction Error 𝐿 17 前回の大澤君資料より
  • 18. Auto-Encoders 4.6 Auto-encoders • 出力は入力と同じ。 • 2乗平均誤差を使って、k個の線形な隠れ層を作ると、主成 分分析の最初のk個の主成分と同じ。 • 隠れ層が多い場合には、identity functionになりそうだが、実 際にはよい表現を作る。早期停止つき確率的勾配法は、l2 正則化と同じ効果だから。
  • 19. RBM 前々回の大知君資料より
  • 20. RBM (5.3 Restricted Boltzmann Machines) • 以下を最小化 • RBMの場合、U=0, V=0 • いくつかの分布はコンパクトに表現できないこともあるが、十分な数の隠 れユニットがあればどんな離散分布も表現できる
  • 21. RBMの訓練方法 (5.4 Contrastive Divergence) • RBMを訓練する際に、反復的に対数尤度勾配を求める近 似法 x1 ↓ h1 ↓ x2 ↓ h2 • k-step CD: MCMCのステップをk回に限る
  • 24. Deep Architectureの作り方:Auto-Encoderを使う (6.2 Training Stacked Auto-Encoders) • DBNと同じ。 • しかし、RBMやDBNのような生成モデルではないので、何を 学んだかを出力してみることができない
  • 25. Auto-Encoderの疎なもの (7.1 Sparse Representations in Auto-Encoders and RBMs) • 疎な表現は、情報理論的な意味においてより効率的であ る。 • Sparse Auto-Encoders • L1ノルムはl0ノルムのよいproxyで、疎な結果をもたらす • Explaining away: 複数あるうちのひとつのコード化を選ぶ • 良い点:最も重要なのだけ選ぶ。悪い点:結果が安定しな い(RBMには関係ない)
  • 26. Auto-Encoderのロバストなもの (7.2 Denoising Auto-Encoders) • ノイズを加えても、それを除去するようなエン コードを見つける • 例えば、半分の値をゼロにするとか。見えな いものから見えるものを観測する • Vincent 2008。昔からあったが、deep architectureの前訓練としてよいことが分かっ た。
  • 27. 時系列 (7.4 Conditional RBMs and Temporal RBMs) • Conditional RBM – いくつかのパラメータが自由ではなく、条件付き 確率変数によってパラメタライズされているもの。 – 例えば、隠れユニットのオフセットが、文脈変数z の線形関数になっているとか。 • Temporal RBM – P(x_t | x_t-1, x_t-2, …)を考えると、時系列のモデ ル化になる。
  • 28. 今後の課題 (9.1 Global Optimization Strategies) • 層ごとのローカルな教師なし学習が、よりよい汎化性能につながる理由のひとつ は、入力に近い、低レベルの層を最適化するから。 • 既存の研究と、continuation modelに基づく難しい最適化の方法をつなげる。 – 簡単な問題から難しい問題に連続的に変化させる方法。Greedyな層ごとの学習も、 continuation methodの近似と考えられる。 • これによって、グローバルな最適化も可能かもしれない。 – 教師なしから教師ありにスムーズに変化させる – 温度を導入する – カリキュラムに沿った学習 • カリキュラムに沿った学習 – 人間は20年も学習が必要。その学習は構造化されており、教育システムによって異な る概念を異なる時期に学ぶように、特に前に学習した概念を使って新しい抽象化を学 ぶようにできている。 – Elman(1993)にもある概念だが、コンピュータの学習にもカリキュラムがあると学習を効 率的に導けるのではないか。(動物の訓練ではShapingと呼ばれる)
  • 29. 要するに何が良いかの振り返り (9.2 Why Unsupervised Learning is Important) • 本稿では、強力な教師なし学習は、深いアーキテクチャーに 必須の要素であるということを言ってきた。その理由を簡単 にまとめる。 – ラベルデータはそもそも尐ない。ラベルなしのデータは多い。 – 未来のタスクは分からない。とすると、いまの世界の学習をできるだ け保存する学習をしておくほうがいい。 – いったん、高レベルの表現が得られると、他の学習タスクはずっと簡 単になる。 – 層ごとの教師なし学習。ローカルな情報だけで可能である。 – つまり教師なし学習は、教師あり学習のパラメータを、よりよい解のあ る方向に動かす。 – 入力と出力の関係だけでなく、入力の分布の統計的な規則を使うこと で局所解に陥るのをさける。
  • 30. 研究課題リスト(1/4) 9.3 Open Questions 1. 回路における深さの役割は、論理回路と線形な素子を越えて一般化で きるか 2. AIのタスクを人間のパフォーマンスのレベルに近づけるのに十分な深さ があるのか? 3. 再帰的な計算を含む動的な回路に拡張できるのか 4. なぜランダムな初期値からのDeep Neural Networkの勾配法はうまくい かないのか 5. CDによって訓練されたRBMは、入力の情報を保存するのに役に立つか、 そうでないならどう改善できるか – Auto-encoderは明示的に保存するので。 6. 深いアーキテクチャのための教師あり学習は、悪い局所最適のために 難しいのか、それとも最適化問題が複雑すぎるのか。 7. RBMを訓練する際に局所解の存在は重要な問題なのか
  • 31. 研究課題リスト(2/4) 8. RBMやauto-encoderを、よい表現を取り出すことができてより簡単な最適 化問題(おそらく凸の問題)で置き換えることができるか? 9. 現在の深いアーキテクチャの訓練アルゴリズムは、多くのフェーズがある が、これはオンラインの設定では現実的ではない。(局所解に陥るか ら)。深いアーキテクチャを訓練するオンラインの方法があるか? 10. CDのGibbsステップの回数は訓練時に適応的にできるか 11. 計算時間を考慮に入れてCDを大きく改善することができるか? 12. 再構成エラーのほかに、RBMやDBNの訓練をモニターする適切な方法が あるか? 13. RBMとauto-encoderは、学習する表現に、何らかの疎な制約をかけるこ とで改善するか。どういった方法がベストか。 14. 隠れ層の数が増えるに従って、エネルギー関数のノンパラメトリックな形 を使って、RBMのキャパシティは増えるか???
  • 32. 研究課題リスト(3/4) • 15. 生成モデルは、単一のDenoising auto-encoderに関してしかないが、Stacked auto-encoderやStacked Denoising Auto-encoderで学習されたモデルの確率的な 解釈はあるか • 16. DBNの訓練の際には、層ごとの貪欲なアルゴリズムは効率的か?貪欲すぎ ないか? • 17. DBNと関連する生成モデルの対数尤度勾配の低いvarianceとbiasの推定器は ないか?? • 18. 教師なしの層ごとの訓練の手続きは深いアーキテクチャを作るが、局所解に 陥って、大規模なデータの全部の情報を使えない。より強力な最適化アルゴリズ ムはないか • 19. continuation法による最適化の戦略は、深いアーキテクチャの学習に大きな 改善をもたらすか?? • 20. DBNやStacked Auto-encoders、DBM以外に、訓練可能な深い構造があるか • 21. 人間が何年も何十年も学習するのにかかるような、高いレベルの抽象化を学 習するには、カリキュラムが必要か
  • 33. 研究課題リスト(3/4) • 22. 深いアーキテクチャを学習するのに発見された方法は、リカレントネッ トワークやdynamical belief networkを学習するのにも使えるか?? • 23. 深いアーキテクチャは、例えばベクトルで表せないような情報を表現 するのにどこまで一般化できるか? • 24. DBNは半教師あり学習やself-taught learningでは適しているが、現在 のdeep learningのアルゴリズムをこれらの設定に用いる最もよい方法 は? • 25. ラベル付き例があるとき、どのように教師ありと教師なしの基準をあ わせて、入力の表現を学習すればよいか。 • 26. CDやDBNと同じような計算を脳に見つけることができるか。 • 27. 大脳は、フィードフォワードではなく、フィードバックのループがたくさん ある。学習だけでなく、視覚証拠からの状況的なpriorを統合するのにも 使われる。どのようなモデルが、深いアーキテクチャでのこのようなインタ ラクションにつながるのか?