著名医師による解説が無料で読めます
すると翻訳の精度が向上します
統計フレームワークでは、カルバック - leibler(kl)エラー測定を使用した非陰性マトリックス因数分解(NMF)を説明します。これは、観測と以前のコンポーネントで構成される階層生成モデルを使用します。事前を省略すると、特別なケースとして標準のKL-NMFアルゴリズムにつながります。ここで、最尤パラメーター推定は、期待最大化(EM)アルゴリズムを介して実行されます。このビューから始めて、私たちは変分ベイズまたはモンテカルロを介して完全なベイジアン推論を開発します。私たちの建設は共役を維持し、単調な収束や簡単な実装など、より強力なモデルを開発することを可能にし、より強力なモデルを開発することができます。モデルの注文選択と画像再構成に関するアプローチを説明します。
統計フレームワークでは、カルバック - leibler(kl)エラー測定を使用した非陰性マトリックス因数分解(NMF)を説明します。これは、観測と以前のコンポーネントで構成される階層生成モデルを使用します。事前を省略すると、特別なケースとして標準のKL-NMFアルゴリズムにつながります。ここで、最尤パラメーター推定は、期待最大化(EM)アルゴリズムを介して実行されます。このビューから始めて、私たちは変分ベイズまたはモンテカルロを介して完全なベイジアン推論を開発します。私たちの建設は共役を維持し、単調な収束や簡単な実装など、より強力なモデルを開発することを可能にし、より強力なモデルを開発することができます。モデルの注文選択と画像再構成に関するアプローチを説明します。
We describe nonnegative matrix factorisation (NMF) with a Kullback-Leibler (KL) error measure in a statistical framework, with a hierarchical generative model consisting of an observation and a prior component. Omitting the prior leads to the standard KL-NMF algorithms as special cases, where maximum likelihood parameter estimation is carried out via the Expectation-Maximisation (EM) algorithm. Starting from this view, we develop full Bayesian inference via variational Bayes or Monte Carlo. Our construction retains conjugacy and enables us to develop more powerful models while retaining attractive features of standard NMF such as monotonic convergence and easy implementation. We illustrate our approach on model order selection and image reconstruction.
医師のための臨床サポートサービス
ヒポクラ x マイナビのご紹介
無料会員登録していただくと、さらに便利で効率的な検索が可能になります。