Loading...
Proceedings of SPIE--the International Society for Optical Engineering20190101Vol.10954issue()

3D放射線データセットの特性評価のための深い学習技術の適用 - 乳房MRIの静脈内コントラストを検出するためのパイロット研究

,
,
,
,
,
,
,
文献タイプ:
  • Journal Article
概要
Abstract

モダリティ、スキャナーパラメーター、身体部分などの特性に応じた放射線画像の分類は、品質管理、臨床効率、研究に重要です。DICOM形式に保存されている画像に関連付けられたメタデータは、CTのチューブ電流やMRIのエコー時間(TE)などのスキャナー設定を確実にキャプチャします。ただし、画像方向、調べられたボディパート、静脈内コントラストの存在などの他のパラメーターは、スキャナー設定に固有のものではないため、ヒューマンエラーを起こしやすいユーザー入力が必要です。スキャナー設定に固有のパラメーターを使用しても、画像を適切に分類する自動化されたアプローチが一般的に必要です。これらのアプローチは、平面2D画像と完全な3Dスキャンの両方を処理できるはずです。この作業では、3D MRIスキャンにおける静脈内コントラストの存在または不在という1つのパラメーターを自動的に検出するための深い学習ベースのアプローチを提示します。コントラストは、イメージング検査中に放射線科のスタッフによって手動で注入され、その存在はスキャナーによってDICOMヘッダーに自動的に記録することはできません。当社の分類器は、ResNetアーキテクチャに基づいた畳み込みニューラルネットワーク(CNN)です。私たちのデータは、それぞれ80%/20%分割でCNNのトレーニングとテストに使用された1000の乳房MRIスキャン(静脈内コントラストのない500スキャンと500スキャン)で構成されていました。スキャンのラベルは、認定放射線技術者によって作成されたシリーズの説明から得られました。分類器の予備結果は、0.98のROC曲線(AUC)の下の面積、それぞれ1.0と0.9の感度と特異性(最適なROCカットオフポイント)で非常に有望であり、臨床および研究の両方で潜在的な有用性を示しています設定。

モダリティ、スキャナーパラメーター、身体部分などの特性に応じた放射線画像の分類は、品質管理、臨床効率、研究に重要です。DICOM形式に保存されている画像に関連付けられたメタデータは、CTのチューブ電流やMRIのエコー時間(TE)などのスキャナー設定を確実にキャプチャします。ただし、画像方向、調べられたボディパート、静脈内コントラストの存在などの他のパラメーターは、スキャナー設定に固有のものではないため、ヒューマンエラーを起こしやすいユーザー入力が必要です。スキャナー設定に固有のパラメーターを使用しても、画像を適切に分類する自動化されたアプローチが一般的に必要です。これらのアプローチは、平面2D画像と完全な3Dスキャンの両方を処理できるはずです。この作業では、3D MRIスキャンにおける静脈内コントラストの存在または不在という1つのパラメーターを自動的に検出するための深い学習ベースのアプローチを提示します。コントラストは、イメージング検査中に放射線科のスタッフによって手動で注入され、その存在はスキャナーによってDICOMヘッダーに自動的に記録することはできません。当社の分類器は、ResNetアーキテクチャに基づいた畳み込みニューラルネットワーク(CNN)です。私たちのデータは、それぞれ80%/20%分割でCNNのトレーニングとテストに使用された1000の乳房MRIスキャン(静脈内コントラストのない500スキャンと500スキャン)で構成されていました。スキャンのラベルは、認定放射線技術者によって作成されたシリーズの説明から得られました。分類器の予備結果は、0.98のROC曲線(AUC)の下の面積、それぞれ1.0と0.9の感度と特異性(最適なROCカットオフポイント)で非常に有望であり、臨床および研究の両方で潜在的な有用性を示しています設定。

Categorization of radiological images according to characteristics such as modality, scanner parameters, body part etc, is important for quality control, clinical efficiency and research. The metadata associated with images stored in the DICOM format reliably captures scanner settings such as tube current in CT or echo time (TE) in MRI. Other parameters such as image orientation, body part examined and presence of intravenous contrast, however, are not inherent to the scanner settings, and therefore require user input which is prone to human error. There is a general need for automated approaches that will appropriately categorize images, even with parameters that are not inherent to the scanner settings. These approaches should be able to process both planar 2D images and full 3D scans. In this work, we present a deep learning based approach for automatically detecting one such parameter: the presence or absence of intravenous contrast in 3D MRI scans. Contrast is manually injected by radiology staff during the imaging examination, and its presence cannot be automatically recorded in the DICOM header by the scanner. Our classifier is a convolutional neural network (CNN) based on the ResNet architecture. Our data consisted of 1000 breast MRI scans (500 scans with and 500 scans without intravenous contrast), used for training and testing a CNN on 80%/20% split, respectively. The labels for the scans were obtained from the series descriptions created by certified radiological technologists. Preliminary results of our classifier are very promising with an area under the ROC curve (AUC) of 0.98, sensitivity and specificity of 1.0 and 0.9 respectively (at the optimal ROC cut-off point), demonstrating potential usefulness in both clinical as well as research settings.

医師のための臨床サポートサービス

ヒポクラ x マイナビのご紹介

無料会員登録していただくと、さらに便利で効率的な検索が可能になります。

Translated by Google