Loading...
Medical image analysis2019May01Vol.54issue()

F-Anogan:生成的敵対的ネットワークを使用した監視なしの速い異常検出

,
,
,
,
,
文献タイプ:
  • Journal Article
  • Research Support, Non-U.S. Gov't
概要
Abstract

徹底的な注釈は時間がかかるため、臨床イメージングの専門家ラベルを取得することは困難です。さらに、すべての関連するマーカーが既知であるわけではなく、注釈を導くための先験的なことを十分に説明しているわけではありません。専門家のラベル付きトレーニングデータが利用可能な場合、監視された学習は良い結果をもたらしますが、視覚的な変動、したがって発見の語彙は、注釈付き病変に限定されます。ここでは、イメージングバイオマーカー候補として機能する可能性のある異常な画像と画像セグメントを特定できる生成的敵対的なネットワーク(GAN)ベースの監視されていない学習アプローチであるFast Anogan(F-Anogan)を提示します。健康的なトレーニングデータの生成モデルを構築し、Ganの潜在空間に新しいデータの高速マッピング手法を提案および評価します。マッピングは訓練されたエンコーダーに基づいており、異常は、訓練されたモデルの構成要素に基づいた組み合わせの異常スコアを介して検出されます。光コヒーレンス断層撮影データの実験では、提案された方法を代替アプローチと比較し、F-Anoganが代替アプローチを上回り、高い異常検出精度をもたらすという包括的な経験的証拠を提供します。さらに、2人の網膜の専門家による視覚的なチューリングテストでは、生成された画像が実際の正常な網膜OCT画像と区別できないことを示しました。F-Anoganコードは、https://github.com/tschlegl/f-anoganで入手できます。

徹底的な注釈は時間がかかるため、臨床イメージングの専門家ラベルを取得することは困難です。さらに、すべての関連するマーカーが既知であるわけではなく、注釈を導くための先験的なことを十分に説明しているわけではありません。専門家のラベル付きトレーニングデータが利用可能な場合、監視された学習は良い結果をもたらしますが、視覚的な変動、したがって発見の語彙は、注釈付き病変に限定されます。ここでは、イメージングバイオマーカー候補として機能する可能性のある異常な画像と画像セグメントを特定できる生成的敵対的なネットワーク(GAN)ベースの監視されていない学習アプローチであるFast Anogan(F-Anogan)を提示します。健康的なトレーニングデータの生成モデルを構築し、Ganの潜在空間に新しいデータの高速マッピング手法を提案および評価します。マッピングは訓練されたエンコーダーに基づいており、異常は、訓練されたモデルの構成要素に基づいた組み合わせの異常スコアを介して検出されます。光コヒーレンス断層撮影データの実験では、提案された方法を代替アプローチと比較し、F-Anoganが代替アプローチを上回り、高い異常検出精度をもたらすという包括的な経験的証拠を提供します。さらに、2人の網膜の専門家による視覚的なチューリングテストでは、生成された画像が実際の正常な網膜OCT画像と区別できないことを示しました。F-Anoganコードは、https://github.com/tschlegl/f-anoganで入手できます。

Obtaining expert labels in clinical imaging is difficult since exhaustive annotation is time-consuming. Furthermore, not all possibly relevant markers may be known and sufficiently well described a priori to even guide annotation. While supervised learning yields good results if expert labeled training data is available, the visual variability, and thus the vocabulary of findings, we can detect and exploit, is limited to the annotated lesions. Here, we present fast AnoGAN (f-AnoGAN), a generative adversarial network (GAN) based unsupervised learning approach capable of identifying anomalous images and image segments, that can serve as imaging biomarker candidates. We build a generative model of healthy training data, and propose and evaluate a fast mapping technique of new data to the GAN's latent space. The mapping is based on a trained encoder, and anomalies are detected via a combined anomaly score based on the building blocks of the trained model - comprising a discriminator feature residual error and an image reconstruction error. In the experiments on optical coherence tomography data, we compare the proposed method with alternative approaches, and provide comprehensive empirical evidence that f-AnoGAN outperforms alternative approaches and yields high anomaly detection accuracy. In addition, a visual Turing test with two retina experts showed that the generated images are indistinguishable from real normal retinal OCT images. The f-AnoGAN code is available at https://github.com/tSchlegl/f-AnoGAN.

医師のための臨床サポートサービス

ヒポクラ x マイナビのご紹介

無料会員登録していただくと、さらに便利で効率的な検索が可能になります。

Translated by Google