Loading...
Annals of surgical oncology2024Mar12Vol.issue()

腎腫瘍学における人工知能戦略の強化:GPT 35対40の反復最適化と比較分析

,
,
,
,
,
,
,
,
,
,
文献タイプ:
  • Journal Article
概要
Abstract

背景:医学における人工知能(AI)の台頭は、医療診断と治療における極めて重要なツールとしてのChatGPTの可能性を明らかにしました。この研究では、腎細胞癌(RCC)の臨床調査に対処する際のCHATGPTバージョン3.5および4.0の有効性を評価します。特に、モデルの微調整および反復的最適化は、この領域でのChatGPTの制限を修正しました。 方法:私たちの研究では、泌尿器科の専門家からの80のRCC関連の臨床的質問が、ChatGPT 3.5とChatGPT 4.0の両方に3回提起され、バイナリ(はい/いいえ)応答を求めました。次に、回答を統計的に分析しました。最後に、これらの質問を使用してGPT-3.5ターボモデルを微調整し、トレーニングの結果を評価しました。 結果:CHATGPTバージョン3.5と4.0によって提供される回答の平均精度率は、それぞれ67.08%と77.50%であることがわかりました。CHATGPT 4.0はChatGPT 3.5を上回り、応答の精度が高い(P <0.05)。80の質問に対する正しい回答の数を数えることにより、ChatGPT 4.0のパフォーマンスが向上しているが(P <0.05)、両方のバージョンが回答に不安定になることがわかった。最後に、GPT-3.5ターボモデルを微調整することにより、これらの質問に対する正しい応答率が93.75%で安定する可能性があることがわかりました。モデルの反復最適化により、100%の応答精度が発生する可能性があります。 結論:CHATGPTバージョン3.5と4.0を臨床RCCの質問に対処し、制限を特定しました。GPT-3.5ターボ微調整モデル反復トレーニング方法を適用することにより、腎腫瘍学のAI戦略を強化しました。このアプローチは、ChatGPTのデータベースと臨床ガイダンス機能を強化し、この分野のAIを最適化するように設定されています。

背景:医学における人工知能(AI)の台頭は、医療診断と治療における極めて重要なツールとしてのChatGPTの可能性を明らかにしました。この研究では、腎細胞癌(RCC)の臨床調査に対処する際のCHATGPTバージョン3.5および4.0の有効性を評価します。特に、モデルの微調整および反復的最適化は、この領域でのChatGPTの制限を修正しました。 方法:私たちの研究では、泌尿器科の専門家からの80のRCC関連の臨床的質問が、ChatGPT 3.5とChatGPT 4.0の両方に3回提起され、バイナリ(はい/いいえ)応答を求めました。次に、回答を統計的に分析しました。最後に、これらの質問を使用してGPT-3.5ターボモデルを微調整し、トレーニングの結果を評価しました。 結果:CHATGPTバージョン3.5と4.0によって提供される回答の平均精度率は、それぞれ67.08%と77.50%であることがわかりました。CHATGPT 4.0はChatGPT 3.5を上回り、応答の精度が高い(P <0.05)。80の質問に対する正しい回答の数を数えることにより、ChatGPT 4.0のパフォーマンスが向上しているが(P <0.05)、両方のバージョンが回答に不安定になることがわかった。最後に、GPT-3.5ターボモデルを微調整することにより、これらの質問に対する正しい応答率が93.75%で安定する可能性があることがわかりました。モデルの反復最適化により、100%の応答精度が発生する可能性があります。 結論:CHATGPTバージョン3.5と4.0を臨床RCCの質問に対処し、制限を特定しました。GPT-3.5ターボ微調整モデル反復トレーニング方法を適用することにより、腎腫瘍学のAI戦略を強化しました。このアプローチは、ChatGPTのデータベースと臨床ガイダンス機能を強化し、この分野のAIを最適化するように設定されています。

BACKGROUND: The rise of artificial intelligence (AI) in medicine has revealed the potential of ChatGPT as a pivotal tool in medical diagnosis and treatment. This study assesses the efficacy of ChatGPT versions 3.5 and 4.0 in addressing renal cell carcinoma (RCC) clinical inquiries. Notably, fine-tuning and iterative optimization of the model corrected ChatGPT's limitations in this area. METHODS: In our study, 80 RCC-related clinical questions from urology experts were posed three times to both ChatGPT 3.5 and ChatGPT 4.0, seeking binary (yes/no) responses. We then statistically analyzed the answers. Finally, we fine-tuned the GPT-3.5 Turbo model using these questions, and assessed its training outcomes. RESULTS: We found that the average accuracy rates of answers provided by ChatGPT versions 3.5 and 4.0 were 67.08% and 77.50%, respectively. ChatGPT 4.0 outperformed ChatGPT 3.5, with a higher accuracy rate in responses (p < 0.05). By counting the number of correct responses to the 80 questions, we then found that although ChatGPT 4.0 performed better (p < 0.05), both versions were subject to instability in answering. Finally, by fine-tuning the GPT-3.5 Turbo model, we found that the correct rate of responses to these questions could be stabilized at 93.75%. Iterative optimization of the model can result in 100% response accuracy. CONCLUSION: We compared ChatGPT versions 3.5 and 4.0 in addressing clinical RCC questions, identifying their limitations. By applying the GPT-3.5 Turbo fine-tuned model iterative training method, we enhanced AI strategies in renal oncology. This approach is set to enhance ChatGPT's database and clinical guidance capabilities, optimizing AI in this field.

医師のための臨床サポートサービス

ヒポクラ x マイナビのご紹介

無料会員登録していただくと、さらに便利で効率的な検索が可能になります。

Translated by Google