SlideShare uma empresa Scribd logo
1 de 31
Baixar para ler offline
法入門
@ksmzn
第 17 回 Zansa
27 Novenber 2013
1 / 31
誰
Twiiter : @ksmzn
専門 : 計算機統計
2 / 31
本日 !
3 / 31
4 / 31
!
5 / 31
法!!
6 / 31
法 ?
法(Bootstrap Method) 、
n 個 標本 x1, x2, ..., xn
繰 返 許 n 個
標本 B 組選 、平均 分散
推定値 繰 返 求 、 分布
確率分布 誤差 推定 方法
7 / 31
法
!!
8 / 31
前提
、統計量 標本分布!
定義
F : 未知 確率分布
θ : F 関 興味
θ = T(F) 表
Fn : 既知 経験分布関数
F 抽出 n 個 標本 X 構成
θn : θ 推定値 用 統計量
θn = T(FN ) 表
θn 変動 、
θn 分布 Gn 持 。(θn ∼ Gn)
9 / 31
例 考 !
10 / 31
簡単 例
平均 求 場合
F : 未知 確率分布
µ : F 平均 知 。µ = T(F) = EF [X]
x = {12, 15, 16, 17, 19, 20, 22, 23, 25, 28}
F 抽出 10 個 標本
Fn : 既知 経験分布関数
10 個 標本 x 構成
µn : µ 推定値 用 統計量
µn = T(Fn) = 1
n
∑n
i=1 xi = 19.7
µn 変動 、
µn 分布 Gn 持 。(µn ∼ Gn)
11 / 31
経験分布関数Fn
n 個 標本 x1, x2, ..., xn
大 順 x(1), x(2), ..., x(n) 並 替 、
各点 等確率 1
n 与 分布
赤:真 分布関数 黒:経験分布関数(n = 40)
12 / 31
経験分布関数Fn
!
→ x 復元抽出 !
13 / 31
標本 例
n = 10 標本
x = {12, 15, 16, 17, 19, 20, 22, 23, 25, 28}
10 個 復元抽出
x∗
(1) = {20, 19, 20, 23, 19, 28, 23, 28, 17, 25}
一度 10 個 復元抽出
x∗
(2) = {15, 23, 12, 17, 23, 25, 16, 22, 25, 25}
14 / 31
標本
経験分布関数 Fn
標本 。
x1, x2, ..., xn n 個 復元抽出 得
x∗
= {x∗
1, x∗
2, ..., x∗
n}
構成 経験分布関数 F∗
n
15 / 31
標本 平均
標本 平均
x = {12, 15, 16, 17, 19, 20, 22, 23, 25, 28}
→ µn = 1
n
∑n
i=1 xi = 19.7
x∗
(1) = {20, 19, 20, 23, 19, 28, 23, 28, 17, 25}
→ µ∗
1 = 1
n
∑n
i=1 x∗
i (1) = 22.2
x∗
(2) = {15, 23, 12, 17, 23, 25, 16, 22, 25, 25}
→ µ∗
2 = 1
n
∑n
i=1 x∗
i (2) = 20.3
16 / 31
推定量 分布
µ∗
1 = 22.2, µ∗
2 = 20.3, µ∗
3 = 19.5, ...
標本 取 平均値
変 、
推定量 µ∗
分布 G∗
n 。
↓
標本 平均 B = 2000 回
作 、
作 !!
17 / 31
Mathematica code
bootstrap[func_ , dat_ , num_] :=
Table[func[ RandomChoice [dat , Length[dat ]]], {i, num }]
data = {12, 15, 16, 17, 19, 20, 22, 23, 25, 28};
boot = bootstrap[Mean , data , 2000];
Histogram[boot , Automatic]
In [289]:= N[Mean[boot ]]
Out [289]= 19.6897
16 18 20 22 24 26
50
100
150
200
250
300
18 / 31
法 流
1 母集団 F 大 n 標本 抽出
2 標本 興味 θn 求
3 標本 復元抽出 B 回繰 返
標本
4 推定値 求 、
信頼区間 求
19 / 31
法 考 方
法 以下 置 換
未知 確率分布 F ⇒ 経験分布関数 Fn
F 関 θ = T(F) ⇒ Fn 関 θn = T(Fn)
推定量 θn = T(Fn) ⇒ 推定量
分布 Gn θ∗
n = T(F∗
n ) 分布 G∗
n
未知 F 標本 何度 抽出 、
既知 Fn 。
20 / 31
適用例
分布Γ(α, β)
推定 !
21 / 31
分布
分布 Γ(5, 2) 標本 抽出 、 推定
5 10 15 20 25 30
0.02
0.04
0.06
0.08
22 / 31
標本 抽出
Γ(5, 2) 標本 30 個抽出 、
最尤推定
In [304]:= dat = RandomReal[ GammaDistribution [5, 2], 30];
edist = FindDistributionParameters [dat ,
GammaDistribution [α, β]]
Out [305]= {α -> 7.05494 , β -> 1.41704}
_人人人人人人人人_
>  違  <
 ̄Y^Y^Y^Y^Y^Y^Y ̄
23 / 31
最尤推定値 分布
試 、30 個 標本 1000 組取 出 、
最尤推定値 分布 見
4 6 8 10 12 14
50
100
150
α : 平均 5.46133
分散 2.05054
1.0 1.5 2.0 2.5 3.0 3.5 4.0
50
100
150
β : 平均 1.94222
分散 0.247136
24 / 31
母集団 何度
、
現実的 難 。
↓
標本 !
25 / 31
推定量
標本 2000 組抽出 、
推定 。
In [432]:=
Fgamma[dat_] :=
FindDistributionParameters [dat ,
GammaDistribution [α, β]]
boot = bootstrap[Fgamma , dat , 2000];
Mean[boot [[All , All , 2]]]
Out [434]={7.95611 , 1.34972}
↑ 2000 組 推定値 α, β 平均
26 / 31
計算
推定 誤差 捉 、 計算
推定量 θn
b(Fn) = EFn (θ∗
n) − θn
≈
1
B
B∑
b=1
θ∗
n(b) − θn
In [443]:= nvalue = Fgamma[dat]
bias = Mean[boot [[All , All , 2]]] - nvalue [[All , 2]]
Out [443]= {0.901169 , -0.067321}
α 0.901169, β −0.067321
27 / 31
推定量 修正
偏 修正済推定量
˜θ = θn − b(Fn)
= 2θn − EFn (θ∗
n)
In [443]:= nvalue [[All , 2]] - bias
Out [444]= {6.15377 , 1.48436}
偏 修正済推定量 、(α, β) = (6.15377, 1.48436)
28 / 31
偏 修正済推定量 分布
偏 修正済推定量
temp = Table[dat = RandomReal[ GammaDistribution [5, 2], 30];
boot = bootstrap[Fgamma , dat , 100];
nvalue = Fgamma[dat];
bias = Mean[boot [[All , All , 2]]] - nvalue [[All , 2]];
nvalue [[All , 2]] - bias , {i, 100}];
3 4 5 6 7 8 9 10
10
20
30
40
α : 平均 4.98765
分散 1.38136
1.0 1.5 2.0 2.5 3.0
10
20
30
40
β : 平均 1.96953
分散 0.203531
29 / 31
法 、標本 多数回
行 推定
未知 確率分布 既知 経験分布 置 換
母集団 場合 、
計算機
統計量 偏 ( 分散、 対
信頼区間) 構成
30 / 31
。
31 / 31

Mais conteúdo relacionado

Mais procurados

ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
Miyoshi Yuya
 
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
 

Mais procurados (20)

Rで実験計画法 後編
Rで実験計画法 後編Rで実験計画法 後編
Rで実験計画法 後編
 
関数データ解析の概要とその方法
関数データ解析の概要とその方法関数データ解析の概要とその方法
関数データ解析の概要とその方法
 
PRML8章
PRML8章PRML8章
PRML8章
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
 
相互情報量を用いた独立性の検定
相互情報量を用いた独立性の検定相互情報量を用いた独立性の検定
相互情報量を用いた独立性の検定
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
 
心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズ心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズ
 
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM) 一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章
 
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
 
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
 
因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"
 
Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-
 
因果推論を用いた 群衆移動の誘導における介入効果推定
因果推論を用いた 群衆移動の誘導における介入効果推定因果推論を用いた 群衆移動の誘導における介入効果推定
因果推論を用いた 群衆移動の誘導における介入効果推定
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 

Semelhante a 【Zansa】第17回 ブートストラップ法入門

070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
t2tarumi
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
t2tarumi
 
K070k80 点推定 区間推定
K070k80 点推定 区間推定K070k80 点推定 区間推定
K070k80 点推定 区間推定
t2tarumi
 
K060 中心極限定理clt
K060 中心極限定理cltK060 中心極限定理clt
K060 中心極限定理clt
t2tarumi
 

Semelhante a 【Zansa】第17回 ブートストラップ法入門 (14)

070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
 
データ解析4 確率の復習
データ解析4 確率の復習データ解析4 確率の復習
データ解析4 確率の復習
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
 
PRML 第14章
PRML 第14章PRML 第14章
PRML 第14章
 
PRML 2.3節
PRML 2.3節PRML 2.3節
PRML 2.3節
 
K070k80 点推定 区間推定
K070k80 点推定 区間推定K070k80 点推定 区間推定
K070k80 点推定 区間推定
 
MLaPP 9章 「一般化線形モデルと指数型分布族」
MLaPP 9章 「一般化線形モデルと指数型分布族」MLaPP 9章 「一般化線形モデルと指数型分布族」
MLaPP 9章 「一般化線形モデルと指数型分布族」
 
第5回Zansa勉強会
第5回Zansa勉強会第5回Zansa勉強会
第5回Zansa勉強会
 
PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布
 
K060 中心極限定理clt
K060 中心極限定理cltK060 中心極限定理clt
K060 中心極限定理clt
 
ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学
 
Introduction to Statistical Estimation (統計的推定入門)
Introduction to Statistical Estimation (統計的推定入門)Introduction to Statistical Estimation (統計的推定入門)
Introduction to Statistical Estimation (統計的推定入門)
 

Mais de Zansa

Zansa アト テクノロシ-ー業界の分析という仕事について http://zansa.info/materials-11.html
Zansa アト テクノロシ-ー業界の分析という仕事について http://zansa.info/materials-11.htmlZansa アト テクノロシ-ー業界の分析という仕事について http://zansa.info/materials-11.html
Zansa アト テクノロシ-ー業界の分析という仕事について http://zansa.info/materials-11.html
Zansa
 
第8回Zansa 俺の人生ランダムウォーク
第8回Zansa 俺の人生ランダムウォーク第8回Zansa 俺の人生ランダムウォーク
第8回Zansa 俺の人生ランダムウォーク
Zansa
 
Zansa0130presentation
Zansa0130presentationZansa0130presentation
Zansa0130presentation
Zansa
 

Mais de Zansa (11)

121218 zansa13 for web
121218 zansa13 for web121218 zansa13 for web
121218 zansa13 for web
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
 
Zansa アト テクノロシ-ー業界の分析という仕事について http://zansa.info/materials-11.html
Zansa アト テクノロシ-ー業界の分析という仕事について http://zansa.info/materials-11.htmlZansa アト テクノロシ-ー業界の分析という仕事について http://zansa.info/materials-11.html
Zansa アト テクノロシ-ー業界の分析という仕事について http://zansa.info/materials-11.html
 
【Zansa】物理学はWebデータ分析に使えるか
【Zansa】物理学はWebデータ分析に使えるか【Zansa】物理学はWebデータ分析に使えるか
【Zansa】物理学はWebデータ分析に使えるか
 
第8回Zansa 俺の人生ランダムウォーク
第8回Zansa 俺の人生ランダムウォーク第8回Zansa 俺の人生ランダムウォーク
第8回Zansa 俺の人生ランダムウォーク
 
【Zansa】 人工社会-複雑系とマルチエージェントシミュレーションの紹介-
【Zansa】 人工社会-複雑系とマルチエージェントシミュレーションの紹介-【Zansa】 人工社会-複雑系とマルチエージェントシミュレーションの紹介-
【Zansa】 人工社会-複雑系とマルチエージェントシミュレーションの紹介-
 
ベイズ入門
ベイズ入門ベイズ入門
ベイズ入門
 
Zansa第4回勉強会 重回帰分析
Zansa第4回勉強会 重回帰分析Zansa第4回勉強会 重回帰分析
Zansa第4回勉強会 重回帰分析
 
Text classification zansa
Text classification zansaText classification zansa
Text classification zansa
 
Zansa第二回11 28 発表資料 植木
Zansa第二回11 28 発表資料 植木Zansa第二回11 28 発表資料 植木
Zansa第二回11 28 発表資料 植木
 
Zansa0130presentation
Zansa0130presentationZansa0130presentation
Zansa0130presentation
 

Último

Último (11)

LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 

【Zansa】第17回 ブートストラップ法入門

  • 1. 法入門 @ksmzn 第 17 回 Zansa 27 Novenber 2013 1 / 31
  • 2. 誰 Twiiter : @ksmzn 専門 : 計算機統計 2 / 31
  • 7. 法 ? 法(Bootstrap Method) 、 n 個 標本 x1, x2, ..., xn 繰 返 許 n 個 標本 B 組選 、平均 分散 推定値 繰 返 求 、 分布 確率分布 誤差 推定 方法 7 / 31
  • 9. 前提 、統計量 標本分布! 定義 F : 未知 確率分布 θ : F 関 興味 θ = T(F) 表 Fn : 既知 経験分布関数 F 抽出 n 個 標本 X 構成 θn : θ 推定値 用 統計量 θn = T(FN ) 表 θn 変動 、 θn 分布 Gn 持 。(θn ∼ Gn) 9 / 31
  • 11. 簡単 例 平均 求 場合 F : 未知 確率分布 µ : F 平均 知 。µ = T(F) = EF [X] x = {12, 15, 16, 17, 19, 20, 22, 23, 25, 28} F 抽出 10 個 標本 Fn : 既知 経験分布関数 10 個 標本 x 構成 µn : µ 推定値 用 統計量 µn = T(Fn) = 1 n ∑n i=1 xi = 19.7 µn 変動 、 µn 分布 Gn 持 。(µn ∼ Gn) 11 / 31
  • 12. 経験分布関数Fn n 個 標本 x1, x2, ..., xn 大 順 x(1), x(2), ..., x(n) 並 替 、 各点 等確率 1 n 与 分布 赤:真 分布関数 黒:経験分布関数(n = 40) 12 / 31
  • 14. 標本 例 n = 10 標本 x = {12, 15, 16, 17, 19, 20, 22, 23, 25, 28} 10 個 復元抽出 x∗ (1) = {20, 19, 20, 23, 19, 28, 23, 28, 17, 25} 一度 10 個 復元抽出 x∗ (2) = {15, 23, 12, 17, 23, 25, 16, 22, 25, 25} 14 / 31
  • 15. 標本 経験分布関数 Fn 標本 。 x1, x2, ..., xn n 個 復元抽出 得 x∗ = {x∗ 1, x∗ 2, ..., x∗ n} 構成 経験分布関数 F∗ n 15 / 31
  • 16. 標本 平均 標本 平均 x = {12, 15, 16, 17, 19, 20, 22, 23, 25, 28} → µn = 1 n ∑n i=1 xi = 19.7 x∗ (1) = {20, 19, 20, 23, 19, 28, 23, 28, 17, 25} → µ∗ 1 = 1 n ∑n i=1 x∗ i (1) = 22.2 x∗ (2) = {15, 23, 12, 17, 23, 25, 16, 22, 25, 25} → µ∗ 2 = 1 n ∑n i=1 x∗ i (2) = 20.3 16 / 31
  • 17. 推定量 分布 µ∗ 1 = 22.2, µ∗ 2 = 20.3, µ∗ 3 = 19.5, ... 標本 取 平均値 変 、 推定量 µ∗ 分布 G∗ n 。 ↓ 標本 平均 B = 2000 回 作 、 作 !! 17 / 31
  • 18. Mathematica code bootstrap[func_ , dat_ , num_] := Table[func[ RandomChoice [dat , Length[dat ]]], {i, num }] data = {12, 15, 16, 17, 19, 20, 22, 23, 25, 28}; boot = bootstrap[Mean , data , 2000]; Histogram[boot , Automatic] In [289]:= N[Mean[boot ]] Out [289]= 19.6897 16 18 20 22 24 26 50 100 150 200 250 300 18 / 31
  • 19. 法 流 1 母集団 F 大 n 標本 抽出 2 標本 興味 θn 求 3 標本 復元抽出 B 回繰 返 標本 4 推定値 求 、 信頼区間 求 19 / 31
  • 20. 法 考 方 法 以下 置 換 未知 確率分布 F ⇒ 経験分布関数 Fn F 関 θ = T(F) ⇒ Fn 関 θn = T(Fn) 推定量 θn = T(Fn) ⇒ 推定量 分布 Gn θ∗ n = T(F∗ n ) 分布 G∗ n 未知 F 標本 何度 抽出 、 既知 Fn 。 20 / 31
  • 22. 分布 分布 Γ(5, 2) 標本 抽出 、 推定 5 10 15 20 25 30 0.02 0.04 0.06 0.08 22 / 31
  • 23. 標本 抽出 Γ(5, 2) 標本 30 個抽出 、 最尤推定 In [304]:= dat = RandomReal[ GammaDistribution [5, 2], 30]; edist = FindDistributionParameters [dat , GammaDistribution [α, β]] Out [305]= {α -> 7.05494 , β -> 1.41704} _人人人人人人人人_ >  違  <  ̄Y^Y^Y^Y^Y^Y^Y ̄ 23 / 31
  • 24. 最尤推定値 分布 試 、30 個 標本 1000 組取 出 、 最尤推定値 分布 見 4 6 8 10 12 14 50 100 150 α : 平均 5.46133 分散 2.05054 1.0 1.5 2.0 2.5 3.0 3.5 4.0 50 100 150 β : 平均 1.94222 分散 0.247136 24 / 31
  • 25. 母集団 何度 、 現実的 難 。 ↓ 標本 ! 25 / 31
  • 26. 推定量 標本 2000 組抽出 、 推定 。 In [432]:= Fgamma[dat_] := FindDistributionParameters [dat , GammaDistribution [α, β]] boot = bootstrap[Fgamma , dat , 2000]; Mean[boot [[All , All , 2]]] Out [434]={7.95611 , 1.34972} ↑ 2000 組 推定値 α, β 平均 26 / 31
  • 27. 計算 推定 誤差 捉 、 計算 推定量 θn b(Fn) = EFn (θ∗ n) − θn ≈ 1 B B∑ b=1 θ∗ n(b) − θn In [443]:= nvalue = Fgamma[dat] bias = Mean[boot [[All , All , 2]]] - nvalue [[All , 2]] Out [443]= {0.901169 , -0.067321} α 0.901169, β −0.067321 27 / 31
  • 28. 推定量 修正 偏 修正済推定量 ˜θ = θn − b(Fn) = 2θn − EFn (θ∗ n) In [443]:= nvalue [[All , 2]] - bias Out [444]= {6.15377 , 1.48436} 偏 修正済推定量 、(α, β) = (6.15377, 1.48436) 28 / 31
  • 29. 偏 修正済推定量 分布 偏 修正済推定量 temp = Table[dat = RandomReal[ GammaDistribution [5, 2], 30]; boot = bootstrap[Fgamma , dat , 100]; nvalue = Fgamma[dat]; bias = Mean[boot [[All , All , 2]]] - nvalue [[All , 2]]; nvalue [[All , 2]] - bias , {i, 100}]; 3 4 5 6 7 8 9 10 10 20 30 40 α : 平均 4.98765 分散 1.38136 1.0 1.5 2.0 2.5 3.0 10 20 30 40 β : 平均 1.96953 分散 0.203531 29 / 31
  • 30. 法 、標本 多数回 行 推定 未知 確率分布 既知 経験分布 置 換 母集団 場合 、 計算機 統計量 偏 ( 分散、 対 信頼区間) 構成 30 / 31