Loading...
Journal of medical imaging (Bellingham, Wash.)2023Sep01Vol.10issue(5)

バッチバランスの焦点損失:深い学習におけるクラスの不均衡に対するハイブリッドソリューション

,
,
,
,
,
,
,
文献タイプ:
  • Journal Article
概要
Abstract

目的:不均衡なデータセットでの畳み込みニューラルネットワーク(CNN)分類パフォーマンスを強化する際のバッチバランス焦点損失(BBFL)と呼ばれるアプローチの有効性を検証する。 材料と方法:BBFLは、クラスの不均衡に取り組むための2つの戦略を組み合わせています。(1)クラスサンプルのモデル学習を均等化するためのバッチバランスと(2)学習勾配にハードサンプルの重要性を追加するための焦点損失。BBFLは、2つの不均衡な眼底画像データセットで検証されました:バイナリ網膜神経線維層欠陥(RNFLD)データセット(n = 7,258)とマルチクラス緑内障データセット(n = 7,873)。BBFLは、3つの最先端のCNNに基づいて、ランダムオーバーサンプリング(ROS)、コストに敏感な学習、しきい値など、いくつかの不均衡な学習手法と比較されました。精度、F1スコア、およびレシーバー演算子特性曲線(AUC)の下の領域は、バイナリ分類のパフォーマンスメトリックとして使用されました。平均精度と平均F1スコアをマルチクラス分類に使用しました。混乱マトリックス、T分化された隣接埋め込みプロット、およびGRADCAMがパフォーマンスの視覚評価に使用されました。 結果:RNFLDのバイナリ分類では、INCEPTIONV3(93.0%精度、84.7%F1、0.971 AUC)のBBFL(92.6%精度、83.7%F1、0.964 AUC)、コスト感受性学習(92.5%精度、83.8%F1、0.962 AUC)、Threathing、shrestin 0.962 AUC)およびその他。緑内障のマルチクラス分類では、MobileNETV2(79.7%精度、平均F1スコア69.6%)を備えたBBFL(76.8%精度、64.7%F1)、コスト感受性学習(78.3%の精度、67.8.8%F1)、ランダムアンガンプン(76.5%精度)。 結論:BBFLベースの学習方法は、データが不均衡な場合、バイナリとマルチクラスの両方の疾患分類でCNNモデルのパフォーマンスを改善できます。

目的:不均衡なデータセットでの畳み込みニューラルネットワーク(CNN)分類パフォーマンスを強化する際のバッチバランス焦点損失(BBFL)と呼ばれるアプローチの有効性を検証する。 材料と方法:BBFLは、クラスの不均衡に取り組むための2つの戦略を組み合わせています。(1)クラスサンプルのモデル学習を均等化するためのバッチバランスと(2)学習勾配にハードサンプルの重要性を追加するための焦点損失。BBFLは、2つの不均衡な眼底画像データセットで検証されました:バイナリ網膜神経線維層欠陥(RNFLD)データセット(n = 7,258)とマルチクラス緑内障データセット(n = 7,873)。BBFLは、3つの最先端のCNNに基づいて、ランダムオーバーサンプリング(ROS)、コストに敏感な学習、しきい値など、いくつかの不均衡な学習手法と比較されました。精度、F1スコア、およびレシーバー演算子特性曲線(AUC)の下の領域は、バイナリ分類のパフォーマンスメトリックとして使用されました。平均精度と平均F1スコアをマルチクラス分類に使用しました。混乱マトリックス、T分化された隣接埋め込みプロット、およびGRADCAMがパフォーマンスの視覚評価に使用されました。 結果:RNFLDのバイナリ分類では、INCEPTIONV3(93.0%精度、84.7%F1、0.971 AUC)のBBFL(92.6%精度、83.7%F1、0.964 AUC)、コスト感受性学習(92.5%精度、83.8%F1、0.962 AUC)、Threathing、shrestin 0.962 AUC)およびその他。緑内障のマルチクラス分類では、MobileNETV2(79.7%精度、平均F1スコア69.6%)を備えたBBFL(76.8%精度、64.7%F1)、コスト感受性学習(78.3%の精度、67.8.8%F1)、ランダムアンガンプン(76.5%精度)。 結論:BBFLベースの学習方法は、データが不均衡な場合、バイナリとマルチクラスの両方の疾患分類でCNNモデルのパフォーマンスを改善できます。

PURPOSE: To validate the effectiveness of an approach called batch-balanced focal loss (BBFL) in enhancing convolutional neural network (CNN) classification performance on imbalanced datasets. MATERIALS AND METHODS: BBFL combines two strategies to tackle class imbalance: (1) batch-balancing to equalize model learning of class samples and (2) focal loss to add hard-sample importance to the learning gradient. BBFL was validated on two imbalanced fundus image datasets: a binary retinal nerve fiber layer defect (RNFLD) dataset (n=7,258) and a multiclass glaucoma dataset (n=7,873). BBFL was compared to several imbalanced learning techniques, including random oversampling (ROS), cost-sensitive learning, and thresholding, based on three state-of-the-art CNNs. Accuracy, F1-score, and the area under the receiver operator characteristic curve (AUC) were used as the performance metrics for binary classification. Mean accuracy and mean F1-score were used for multiclass classification. Confusion matrices, t-distributed neighbor embedding plots, and GradCAM were used for the visual assessment of performance. RESULTS: In binary classification of RNFLD, BBFL with InceptionV3 (93.0% accuracy, 84.7% F1, 0.971 AUC) outperformed ROS (92.6% accuracy, 83.7% F1, 0.964 AUC), cost-sensitive learning (92.5% accuracy, 83.8% F1, 0.962 AUC), and thresholding (91.9% accuracy, 83.0% F1, 0.962 AUC) and others. In multiclass classification of glaucoma, BBFL with MobileNetV2 (79.7% accuracy, 69.6% average F1 score) outperformed ROS (76.8% accuracy, 64.7% F1), cost-sensitive learning (78.3% accuracy, 67.8.8% F1), and random undersampling (76.5% accuracy, 66.5% F1). CONCLUSION: The BBFL-based learning method can improve the performance of a CNN model in both binary and multiclass disease classification when the data are imbalanced.

医師のための臨床サポートサービス

ヒポクラ x マイナビのご紹介

無料会員登録していただくと、さらに便利で効率的な検索が可能になります。

Translated by Google