著名医師による解説が無料で読めます
すると翻訳の精度が向上します
最近の顕著なトピックとして、ドメイン一般化は、複数のソースドメインで一般化可能なモデルを学習することを目的としています。これは、目に見えないテストドメインでうまく機能すると予想されます。ドメイン全体で分布を調整することにより、ドメインに不変の機能を学習するために多大な努力が払われています。ただし、既存の作品は、一般的に満足するのが難しく、目的のジョイント分布のアライメントを実現するのが困難ないくつかのリラックスした条件に基づいて設計されていることがよくあります。この記事では、異なるドメインからの事後分布の間のKullback-Leibler(KL)divergenceを最小化することにより、ドメインに不変の分類器を学ぶことができるという直感的なアイデアに由来する新しいドメイン一般化方法を提案します。学習された分類器の一般化可能性を高めるために、最適化の目的を、グラウンドトゥルースの限界分布で計算された期待として形式化します。それにもかかわらず、それは2つの明らかな欠陥を提示します。1つはKl-divergenceのエントロピー増加の副作用であり、もう1つは地上真実の周辺分布の利用不能です。前者については、学習したドメインに不変の表現スペースの差別を維持するために、最大領域内の可能性という名前の用語を導入します。後者の場合、合理的な凸型船体の仮定の下でソースドメインを使用して、地上微量の周辺分布を近似します。最後に、共同分布が自然に整列されるかを解くことにより、制約された最大クロスドメイン尤度(CMCL)最適化問題が推定されます。交互の最適化戦略は、この最適化問題をほぼ解決するように慎重に設計されています。4つの標準ベンチマークデータセット、つまりDigits-DG、PACS、Office-Home、MinidomainNetでの広範な実験は、この方法の優れたパフォーマンスを強調しています。
最近の顕著なトピックとして、ドメイン一般化は、複数のソースドメインで一般化可能なモデルを学習することを目的としています。これは、目に見えないテストドメインでうまく機能すると予想されます。ドメイン全体で分布を調整することにより、ドメインに不変の機能を学習するために多大な努力が払われています。ただし、既存の作品は、一般的に満足するのが難しく、目的のジョイント分布のアライメントを実現するのが困難ないくつかのリラックスした条件に基づいて設計されていることがよくあります。この記事では、異なるドメインからの事後分布の間のKullback-Leibler(KL)divergenceを最小化することにより、ドメインに不変の分類器を学ぶことができるという直感的なアイデアに由来する新しいドメイン一般化方法を提案します。学習された分類器の一般化可能性を高めるために、最適化の目的を、グラウンドトゥルースの限界分布で計算された期待として形式化します。それにもかかわらず、それは2つの明らかな欠陥を提示します。1つはKl-divergenceのエントロピー増加の副作用であり、もう1つは地上真実の周辺分布の利用不能です。前者については、学習したドメインに不変の表現スペースの差別を維持するために、最大領域内の可能性という名前の用語を導入します。後者の場合、合理的な凸型船体の仮定の下でソースドメインを使用して、地上微量の周辺分布を近似します。最後に、共同分布が自然に整列されるかを解くことにより、制約された最大クロスドメイン尤度(CMCL)最適化問題が推定されます。交互の最適化戦略は、この最適化問題をほぼ解決するように慎重に設計されています。4つの標準ベンチマークデータセット、つまりDigits-DG、PACS、Office-Home、MinidomainNetでの広範な実験は、この方法の優れたパフォーマンスを強調しています。
As a recent noticeable topic, domain generalization aims to learn a generalizable model on multiple source domains, which is expected to perform well on unseen test domains. Great efforts have been made to learn domain-invariant features by aligning distributions across domains. However, existing works are often designed based on some relaxed conditions which are generally hard to satisfy and fail to realize the desired joint distribution alignment. In this article, we propose a novel domain generalization method, which originates from an intuitive idea that a domain-invariant classifier can be learned by minimizing the Kullback-Leibler (KL)-divergence between posterior distributions from different domains. To enhance the generalizability of the learned classifier, we formalize the optimization objective as an expectation computed on the ground-truth marginal distribution. Nevertheless, it also presents two obvious deficiencies, one of which is the side-effect of entropy increase in KL-divergence and the other is the unavailability of ground-truth marginal distributions. For the former, we introduce a term named maximum in-domain likelihood to maintain the discrimination of the learned domain-invariant representation space. For the latter, we approximate the ground-truth marginal distribution with source domains under a reasonable convex hull assumption. Finally, a constrained maximum cross-domain likelihood (CMCL) optimization problem is deduced, by solving which the joint distributions are naturally aligned. An alternating optimization strategy is carefully designed to approximately solve this optimization problem. Extensive experiments on four standard benchmark datasets, i.e., Digits-DG, PACS, Office-Home, and miniDomainNet, highlight the superior performance of our method.
医師のための臨床サポートサービス
ヒポクラ x マイナビのご紹介
無料会員登録していただくと、さらに便利で効率的な検索が可能になります。