SlideShare a Scribd company logo
15.06.17
変分ベイズ法の説明
尾崎 遼
http://research.microsoft.com/en-us/um/people/cmbishop/outreach.htm
目次
概要
点推定とベイズ推定
最尤推定とEMアルゴリズム
変分ベイズ推定とVB-EMアルゴリズム
変分ベイズ推定の性質
生物学への応用
2
概要
変分ベイズ法
• 確率モデルの潜在変数およびパラメータの事後分布を求
める手法の一種
• 事後分布を近似することで計算を簡単にしている
• 因子分解可能という仮定を置く
• 決定論的な手法
• MCMCなどのサンプリング法は確率的
3
点推定とベイズ推定
例えば、 というモデルで予測分布を求めるには?
• 点推定
• 特定のパラメータの値 ( というモデル) による推定
4
• ベイズ推定
• パラメータの事後分布 を用いて周辺化
最尤推定やMAP推定で
点推定したパラメータの値
xの新しい予測値
推定に用いたデータ
最尤推定とEMアルゴリズム
観測変数 X と潜在変数 Z があるとき、
5
を最大にするパラメータ θ を求めるのが最尤推定
この最尤推定を行うための2段階の繰り返し最適化が
EMアルゴリズム
最尤推定とEMアルゴリズム: 下界
方針: 対数尤度 の下界 を最大化する
6
ln p(X|θ)の下界
(Lower bound)
Jensenの不等式より
E step
M step
最尤推定とEMアルゴリズム: E step
7
のとき、下限 が最大となる
KLダイバージェンス
なので 0以上
qが含まれて
いないので定数
はθの現在の値とする
最尤推定とEMアルゴリズム: M step
8
エントロピー
(θがはいっていないので定数)
Q関数
(完全データ対数尤度の
qに関する期待値)
の解を新しいθにする
は現在のZの事後分布とする
Q関数を最大化するために
点推定の欠点
点推定では分布がなだらかな場合や単峰でない場合に
偏った推定になる
隠れ変数が1層だけのときしか適用できない
過学習
→ ベイズ推定
9
バイオインフォマティクスと推定問題
解空間が巨大・各解の尤度は微小
• 例: RNA二次構造、系統樹
→点推定がよい予測につながらない
10Hamada, Briefings in Bioinformatics, 2013
変分ベイズの目的と手段
最尤法
• 目的: 尤度 を最大にするパラメータを求める
• 実現手段: EMアルゴリズム(二段階の繰り返し最適化)
変分ベイズ
• 目的: 周辺尤度 (モデルエビデンス) を最大にするパラ
メータの事後分布を求める
• 手段: VB-EMアルゴリズム(二段階の繰り返し最適化)
11
変分ベイズとVB-EMアルゴリズム: 下限
12
Jensenの不等式より
ln p(X)の下限
最尤法の時と異なり、この下限はそのままでは最大化できない(と
する)
そこで因子分解可能という仮定を置き、計算しやすい形に近似する
変分ベイズとVB-EMアルゴリズム: 因子分解
因子分解可能 (factorization) な分布によって、真の事
後分布を近似します
• Z を独立な因子に分解し、潜在変数およびパラメ
ータの同時事後分布を各因子の事後分布の積で近
似する
13
「事後分布を求める」問題から
「因子分解可能な近似分布の中でできるだけ真の事後
分布に近い分布を求める」問題に変換
変分ベイズとVB-EMアルゴリズム: 変分下限
14
方針: 対数周辺尤度の変分下限 を最大化する
各因子について
ln p(X)の変分下限
変分ベイズとVB-EMアルゴリズム: 更新式
15
qi はZiの確率分布だから
j以外の因子に関する対数同時分布の期待値
のexp()と q_j の間のKLダイバージェンス → これをゼロにすることが最大化につながる
変分下限 L(q) をq_j = q_j(Z_j) について整理する
変分ベイズとVB-EMアルゴリズム: 更新式
16
PRML下巻の式(10.9)
前頁の結果から、KLダイバージェンスをゼロにするのは以下のとき:
この式を各因子の現在の事後分布を用いて順番に計算する
j以外の因子の現在の事後分布に関して
XとZの対数同時分布の期待値をとることに相当
変分ベイズとVB-EMアルゴリズム: 具体的なモデル
17
XZπ
因子分解可能という仮定により、潜在変数とパラメータの事後分布は以下のようになる
変分ベイズとVB-EMアルゴリズム: 具体的なモデル
18
変分下限(最大化する対象)を計算していく
πの事後分布が事前分布と離れないようにする制約項とみなせる
→過学習を防いでいる
πの事前分布を導入せずにπの点推定を
行えば、最尤推定(EMアルゴリズム)
と同じになる(あるθの値でのみ分布関
数のクラスを仮定すると考えてもよい)
変分ベイズとVB-EMアルゴリズム
19
変分E step
変分M step
潜在変数の現在の事後分布を用いてパラメータの事後分布を改良する
パラメータの現在の事後分布を用いて潜在変数の事後分布を改良する
この式
or
変分下限を具体的に計算し
パラメータおよび潜在変数
について最適化する
を解く
更新式の導出方法
まとめ
20
最尤法 変分ベイズ
与えられているも
の
同時分布 p(X,Z|θ) 同時分布 p(X,Z)
目的
対数尤度 ln p(X|θ)を最大にする パラメー
タを求める
対数周辺尤度(=モデルエビデンス) ln p(X)
を最大にする パラメータの事後分布を求
める
目的関数の分解 ln(X|θ)= L(q, θ) + KL(q||p) ln(X) = L(q) + KL(q||p)
目的の再定義 下界 L(q, θ)の q(Z)とθに関する最大化 変分下限 L(q) の q(Z) に関する最大化
手続き EMアルゴリズムによる繰り返し最適化 VB-EMアルゴリズムによる繰り返し最適化
潜在変数に関する
最適化
パラメータの現在の値を用いて 潜在変数
の事後分布を改良する
パラメータの現在の事後分布を用いて 潜
在変数の事後分布を改良する
パラメータに関す
る最適化
潜在変数の現在の事後分布を用いて パラ
メタを更新する
潜在変数の現在の事後分布を用いて パラ
メータの事後分布を改良する
注目した因子以外の因子に関して同時分布の期待値を計算したものを新しい値 or 分布にする
参考文献
C. M. ビショップ「パターン認識と機械学習 下」 9-10章
渡辺澄夫「ベイズ統計の理論と方法」 5章
• 平均場近似から自己無矛盾条件を導く形で説明している
佐藤一誠「トピックモデルによる統計的潜在意味解析」自然言語処理シリー
ズ 8 コロナ社
Daichi Mochihashi “自然言語処理のための変分ベイズ法”
• http://www.ism.ac.jp/~daichi/paper/vb-nlp-tutorial.pdf
21
生物学への応用
個々の遺伝子発現の状態がいくつあるか問題
• Nikaido et al., PLOS One, 2011
• 混合ガウスのKの数も推定
22
RNA-seqによる転写産物量推定問題
• Nariai et al., Bioinformatics, 2013
• 複雑な生成モデルの計算を容易にした
DNA断片からのハプロタイプ推定問題
• Matsumoto et al., BMC Genomics, 2013
• 複雑な生成モデルの計算を容易にした
余談
下界の導出方法には2通りある
• Jensen の不等式を使う
• 対数周辺尤度をKL divergence との和の形にする
具体的な更新式の導出方法には2通りある
• 一般的な最適解の式にモデルの式を代入する
• ラグランジュの未定乗数法で各パラメータについて変分
下限を最大化する
23
「事後分布を探すのが難しい」から始まる説明
(1)
ベイズ推定の問題の一つは事後分布の計算が困難であるという
ことだ
代わりに、事後分布を因子分解可能という仮定を置いて近似し
た近似事後分布を考える
この近似事後分布 (q) をなるべく真の事後分布 (p) に近づける
ために、qとpのKLダイバージェンスを考える
24
「事後分布を探すのが難しい」から始まる説明
(2)
しかし、目的関数に計算が困難であるpが含まれているため、この最適
化問題は計算が困難である
一方、対数周辺尤度は以下のように分解できる
左辺はqに関して一定なので、KLの最小化問題は変分下限 L の最大化問
題と同じである。そこで、変分下限の最大化を考える。
25
余談
EMアルゴリズムで下界、変分ベイズで下限と呼ぶ理
由はよくわかりませんでした
• 原著ではどちらも lower bound となっていた
26
余談
「10.4 指数分布族」の変分Eステップと変分Mステッ
プの記述(p. 206)はEとMが逆な気がする
27

More Related Content

What's hot (20)

ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
 
変分推論と Normalizing Flow
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing Flow
Akihiro Nitta
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
KCS Keio Computer Society
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
AGIRobots
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
 
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
Deep Learning JP
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
 
強化学習その3
強化学習その3強化学習その3
強化学習その3
nishio
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
Yoshitake Takebayashi
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
 
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
Deep Learning JP
 
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ssuserca2822
 
条件付き確率場の推論と学習
条件付き確率場の推論と学習条件付き確率場の推論と学習
条件付き確率場の推論と学習
Masaki Saito
 
数式からみるWord2Vec
数式からみるWord2Vec数式からみるWord2Vec
数式からみるWord2Vec
Okamoto Laboratory, The University of Electro-Communications
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
Deep Learning JP
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
ohken
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
 
変分推論と Normalizing Flow
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing Flow
Akihiro Nitta
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
AGIRobots
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
 
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
Deep Learning JP
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
 
強化学習その3
強化学習その3強化学習その3
強化学習その3
nishio
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
Yoshitake Takebayashi
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
 
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
Deep Learning JP
 
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ssuserca2822
 
条件付き確率場の推論と学習
条件付き確率場の推論と学習条件付き確率場の推論と学習
条件付き確率場の推論と学習
Masaki Saito
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
Deep Learning JP
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
ohken
 

Viewers also liked (12)

Deformable Part Modelとその発展
Deformable Part Modelとその発展Deformable Part Modelとその発展
Deformable Part Modelとその発展
Takao Yamanaka
 
数理工学専攻の入試案内
数理工学専攻の入試案内数理工学専攻の入試案内
数理工学専攻の入試案内
京都大学大学院情報学研究科数理工学専攻
 
混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム
貴之 八木
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
sleipnir002
 
Objectnessとその周辺技術
Objectnessとその周辺技術Objectnessとその周辺技術
Objectnessとその周辺技術
Takao Yamanaka
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
京都大学大学院情報学研究科数理工学専攻
 
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight MapsFisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight Maps
Takao Yamanaka
 
高速な物体候補領域提案手法 (Fast Object Proposal Methods)
高速な物体候補領域提案手法 (Fast Object Proposal Methods)高速な物体候補領域提案手法 (Fast Object Proposal Methods)
高速な物体候補領域提案手法 (Fast Object Proposal Methods)
Takao Yamanaka
 
Pythonではじめる OpenAI Gymトレーニング
Pythonではじめる OpenAI GymトレーニングPythonではじめる OpenAI Gymトレーニング
Pythonではじめる OpenAI Gymトレーニング
Takahiro Kubo
 
Stanコードの書き方 中級編
Stanコードの書き方 中級編Stanコードの書き方 中級編
Stanコードの書き方 中級編
Hiroshi Shimizu
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
Takao Yamanaka
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
 
Deformable Part Modelとその発展
Deformable Part Modelとその発展Deformable Part Modelとその発展
Deformable Part Modelとその発展
Takao Yamanaka
 
混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム
貴之 八木
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
sleipnir002
 
Objectnessとその周辺技術
Objectnessとその周辺技術Objectnessとその周辺技術
Objectnessとその周辺技術
Takao Yamanaka
 
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight MapsFisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight Maps
Takao Yamanaka
 
高速な物体候補領域提案手法 (Fast Object Proposal Methods)
高速な物体候補領域提案手法 (Fast Object Proposal Methods)高速な物体候補領域提案手法 (Fast Object Proposal Methods)
高速な物体候補領域提案手法 (Fast Object Proposal Methods)
Takao Yamanaka
 
Pythonではじめる OpenAI Gymトレーニング
Pythonではじめる OpenAI GymトレーニングPythonではじめる OpenAI Gymトレーニング
Pythonではじめる OpenAI Gymトレーニング
Takahiro Kubo
 
Stanコードの書き方 中級編
Stanコードの書き方 中級編Stanコードの書き方 中級編
Stanコードの書き方 中級編
Hiroshi Shimizu
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
Takao Yamanaka
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
 

Similar to 変分ベイズ法の説明 (20)

自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
Taku Yoshioka
 
いいからベイズ推定してみる
いいからベイズ推定してみるいいからベイズ推定してみる
いいからベイズ推定してみる
Makoto Hirakawa
 
3.3節 変分近似法(前半)
3.3節 変分近似法(前半)3.3節 変分近似法(前半)
3.3節 変分近似法(前半)
tn1031
 
0726
07260726
0726
RIKEN Center for Integrative Medical Science Center (IMS-RCAI)
 
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知  #ml-professional単純ベイズ法による異常検知  #ml-professional
単純ベイズ法による異常検知 #ml-professional
Ai Makabi
 
多項式あてはめで眺めるベイズ推定 ~今日からきみもベイジアン~
多項式あてはめで眺めるベイズ推定~今日からきみもベイジアン~多項式あてはめで眺めるベイズ推定~今日からきみもベイジアン~
多項式あてはめで眺めるベイズ推定 ~今日からきみもベイジアン~
tanutarou
 
Rでベイズをやってみよう!(コワい本1章)@BCM勉強会
Rでベイズをやってみよう!(コワい本1章)@BCM勉強会Rでベイズをやってみよう!(コワい本1章)@BCM勉強会
Rでベイズをやってみよう!(コワい本1章)@BCM勉強会
Shushi Namba
 
Casual learning machine learning with_excel_no3
Casual learning machine learning with_excel_no3Casual learning machine learning with_excel_no3
Casual learning machine learning with_excel_no3
KazuhiroSato8
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
Miyoshi Yuya
 
PRML第3章_3.3-3.4
PRML第3章_3.3-3.4PRML第3章_3.3-3.4
PRML第3章_3.3-3.4
Takashi Tamura
 
ITエンジニアのための機械学習理論入門8.1ベイズ推定
ITエンジニアのための機械学習理論入門8.1ベイズ推定ITエンジニアのための機械学習理論入門8.1ベイズ推定
ITエンジニアのための機械学習理論入門8.1ベイズ推定
Daisuke Shimada
 
PRML 1.2.3 ベイズ確率
PRML 1.2.3 ベイズ確率PRML 1.2.3 ベイズ確率
PRML 1.2.3 ベイズ確率
KokiTakamiya
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
Zansa
 
ベイズ入門
ベイズ入門ベイズ入門
ベイズ入門
Zansa
 
20190512 bayes hands-on
20190512 bayes hands-on20190512 bayes hands-on
20190512 bayes hands-on
Yoichi Tokita
 
bayesian inference
bayesian inferencebayesian inference
bayesian inference
Asako Yanuki
 
大森ゼミ新歓
大森ゼミ新歓大森ゼミ新歓
大森ゼミ新歓
T Nakagawa
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
matsuolab
 
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
Masahiro Suzuki
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
Taku Yoshioka
 
いいからベイズ推定してみる
いいからベイズ推定してみるいいからベイズ推定してみる
いいからベイズ推定してみる
Makoto Hirakawa
 
3.3節 変分近似法(前半)
3.3節 変分近似法(前半)3.3節 変分近似法(前半)
3.3節 変分近似法(前半)
tn1031
 
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知  #ml-professional単純ベイズ法による異常検知  #ml-professional
単純ベイズ法による異常検知 #ml-professional
Ai Makabi
 
多項式あてはめで眺めるベイズ推定 ~今日からきみもベイジアン~
多項式あてはめで眺めるベイズ推定~今日からきみもベイジアン~多項式あてはめで眺めるベイズ推定~今日からきみもベイジアン~
多項式あてはめで眺めるベイズ推定 ~今日からきみもベイジアン~
tanutarou
 
Rでベイズをやってみよう!(コワい本1章)@BCM勉強会
Rでベイズをやってみよう!(コワい本1章)@BCM勉強会Rでベイズをやってみよう!(コワい本1章)@BCM勉強会
Rでベイズをやってみよう!(コワい本1章)@BCM勉強会
Shushi Namba
 
Casual learning machine learning with_excel_no3
Casual learning machine learning with_excel_no3Casual learning machine learning with_excel_no3
Casual learning machine learning with_excel_no3
KazuhiroSato8
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
Miyoshi Yuya
 
ITエンジニアのための機械学習理論入門8.1ベイズ推定
ITエンジニアのための機械学習理論入門8.1ベイズ推定ITエンジニアのための機械学習理論入門8.1ベイズ推定
ITエンジニアのための機械学習理論入門8.1ベイズ推定
Daisuke Shimada
 
PRML 1.2.3 ベイズ確率
PRML 1.2.3 ベイズ確率PRML 1.2.3 ベイズ確率
PRML 1.2.3 ベイズ確率
KokiTakamiya
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
Zansa
 
ベイズ入門
ベイズ入門ベイズ入門
ベイズ入門
Zansa
 
20190512 bayes hands-on
20190512 bayes hands-on20190512 bayes hands-on
20190512 bayes hands-on
Yoichi Tokita
 
bayesian inference
bayesian inferencebayesian inference
bayesian inference
Asako Yanuki
 
大森ゼミ新歓
大森ゼミ新歓大森ゼミ新歓
大森ゼミ新歓
T Nakagawa
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
matsuolab
 
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
Masahiro Suzuki
 

More from Haruka Ozaki (11)

160817 ISMB2016読み会
160817 ISMB2016読み会160817 ISMB2016読み会
160817 ISMB2016読み会
Haruka Ozaki
 
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)
Haruka Ozaki
 
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet Allocationトピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
Haruka Ozaki
 
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomes
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomesISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomes
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomes
Haruka Ozaki
 
巨大な表を高速に扱うData.table について
巨大な表を高速に扱うData.table について巨大な表を高速に扱うData.table について
巨大な表を高速に扱うData.table について
Haruka Ozaki
 
Excelによる遺伝子名の誤変換 -傾向と対策-
Excelによる遺伝子名の誤変換 -傾向と対策-Excelによる遺伝子名の誤変換 -傾向と対策-
Excelによる遺伝子名の誤変換 -傾向と対策-
Haruka Ozaki
 
Kashiwa.R#9 Rでゲノム解析
Kashiwa.R#9 Rでゲノム解析Kashiwa.R#9 Rでゲノム解析
Kashiwa.R#9 Rでゲノム解析
Haruka Ozaki
 
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと 12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
Haruka Ozaki
 
Rで塩基配列を扱う方法
Rで塩基配列を扱う方法Rで塩基配列を扱う方法
Rで塩基配列を扱う方法
Haruka Ozaki
 
FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)
Haruka Ozaki
 
距離まとめられませんでした
距離まとめられませんでした距離まとめられませんでした
距離まとめられませんでした
Haruka Ozaki
 
160817 ISMB2016読み会
160817 ISMB2016読み会160817 ISMB2016読み会
160817 ISMB2016読み会
Haruka Ozaki
 
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)
Rでゲノム上の区間データを扱う話 (15.09.05 WACODE 2nd)
Haruka Ozaki
 
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet Allocationトピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
Haruka Ozaki
 
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomes
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomesISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomes
ISMB2014読み会 Ragout—a reference-assisted assembly tool for bacterial genomes
Haruka Ozaki
 
巨大な表を高速に扱うData.table について
巨大な表を高速に扱うData.table について巨大な表を高速に扱うData.table について
巨大な表を高速に扱うData.table について
Haruka Ozaki
 
Excelによる遺伝子名の誤変換 -傾向と対策-
Excelによる遺伝子名の誤変換 -傾向と対策-Excelによる遺伝子名の誤変換 -傾向と対策-
Excelによる遺伝子名の誤変換 -傾向と対策-
Haruka Ozaki
 
Kashiwa.R#9 Rでゲノム解析
Kashiwa.R#9 Rでゲノム解析Kashiwa.R#9 Rでゲノム解析
Kashiwa.R#9 Rでゲノム解析
Haruka Ozaki
 
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと 12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
Haruka Ozaki
 
Rで塩基配列を扱う方法
Rで塩基配列を扱う方法Rで塩基配列を扱う方法
Rで塩基配列を扱う方法
Haruka Ozaki
 
FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)
Haruka Ozaki
 
距離まとめられませんでした
距離まとめられませんでした距離まとめられませんでした
距離まとめられませんでした
Haruka Ozaki
 

変分ベイズ法の説明