Loading...
Human factors2024Mar04Vol.issue()

より多くが常に良いとは限りません:AI生成された自信の影響と人間と自動の相互作用における説明

,
,
,
文献タイプ:
  • Journal Article
概要
Abstract

目的:この研究の目的は、自信と説明を自動的に生成および視覚化し、人間との自動相互作用におけるパフォーマンス、信頼、好み、および視線追跡行動への影響を自動的に生成および視覚化することにより、自律システムの透明性を高めることを目的としています。 背景:システムの透明性は、適切なレベルの信頼とミッションの成功を維持するために不可欠です。以前の研究では、尤度情報と説明の表示の影響に関する混合結果を提示し、しばしば手作業で作成された情報に依存し、スケーラビリティを制限し、実際のダイナミクスに対処できませんでした。 方法:インテリジェントな検出器からの支援を受けてシミュレートされた監視テストベッドを運営した42人の大学生を含むデュアルタスク実験を実施しました。この研究では、2(自信の視覚化:はい対いいえ)×3(視覚的説明:なし、境界ボックス、境界ボックス、キーポイント)混合デザインを使用しました。タスクのパフォーマンス、人間の信頼、インテリジェントな検出器の好み、および視線追跡行動が評価されました。 結果:境界ボックスとキーポイントを使用した視覚的説明は、信頼性が表示されなかったときに検出タスクのパフォーマンスを改善しました。一方、視覚的な説明は、説明の種類に関係なく、インテリジェント検出器の信頼と好みを強化しました。自信の視覚化は、インテリジェント検出器に対する人間の信頼と好みに影響を与えませんでした。さらに、両方の視覚情報がサッカードの速度を遅くしました。 結論:この研究は、視覚的な説明が、検索戦略を変更することにより、自信の視覚化なしに、人間と自動の相互作用のパフォーマンス、信頼、および好みを改善できることを実証しました。ただし、過度の情報は悪影響を引き起こす可能性があります。 アプリケーション:これらの調査結果は、透明な自動化の設計に関するガイダンスを提供し、効果的なヒューマシンコラボレーションを促進するためのコンテキストに適したユーザー中心の説明の重要性を強調します。

目的:この研究の目的は、自信と説明を自動的に生成および視覚化し、人間との自動相互作用におけるパフォーマンス、信頼、好み、および視線追跡行動への影響を自動的に生成および視覚化することにより、自律システムの透明性を高めることを目的としています。 背景:システムの透明性は、適切なレベルの信頼とミッションの成功を維持するために不可欠です。以前の研究では、尤度情報と説明の表示の影響に関する混合結果を提示し、しばしば手作業で作成された情報に依存し、スケーラビリティを制限し、実際のダイナミクスに対処できませんでした。 方法:インテリジェントな検出器からの支援を受けてシミュレートされた監視テストベッドを運営した42人の大学生を含むデュアルタスク実験を実施しました。この研究では、2(自信の視覚化:はい対いいえ)×3(視覚的説明:なし、境界ボックス、境界ボックス、キーポイント)混合デザインを使用しました。タスクのパフォーマンス、人間の信頼、インテリジェントな検出器の好み、および視線追跡行動が評価されました。 結果:境界ボックスとキーポイントを使用した視覚的説明は、信頼性が表示されなかったときに検出タスクのパフォーマンスを改善しました。一方、視覚的な説明は、説明の種類に関係なく、インテリジェント検出器の信頼と好みを強化しました。自信の視覚化は、インテリジェント検出器に対する人間の信頼と好みに影響を与えませんでした。さらに、両方の視覚情報がサッカードの速度を遅くしました。 結論:この研究は、視覚的な説明が、検索戦略を変更することにより、自信の視覚化なしに、人間と自動の相互作用のパフォーマンス、信頼、および好みを改善できることを実証しました。ただし、過度の情報は悪影響を引き起こす可能性があります。 アプリケーション:これらの調査結果は、透明な自動化の設計に関するガイダンスを提供し、効果的なヒューマシンコラボレーションを促進するためのコンテキストに適したユーザー中心の説明の重要性を強調します。

OBJECTIVE: The study aimed to enhance transparency in autonomous systems by automatically generating and visualizing confidence and explanations and assessing their impacts on performance, trust, preference, and eye-tracking behaviors in human-automation interaction. BACKGROUND: System transparency is vital to maintaining appropriate levels of trust and mission success. Previous studies presented mixed results regarding the impact of displaying likelihood information and explanations, and often relied on hand-created information, limiting scalability and failing to address real-world dynamics. METHOD: We conducted a dual-task experiment involving 42 university students who operated a simulated surveillance testbed with assistance from intelligent detectors. The study used a 2 (confidence visualization: yes vs. no) × 3 (visual explanations: none, bounding boxes, bounding boxes and keypoints) mixed design. Task performance, human trust, preference for intelligent detectors, and eye-tracking behaviors were evaluated. RESULTS: Visual explanations using bounding boxes and keypoints improved detection task performance when confidence was not displayed. Meanwhile, visual explanations enhanced trust and preference for the intelligent detector, regardless of the explanation type. Confidence visualization did not influence human trust in and preference for the intelligent detector. Moreover, both visual information slowed saccade velocities. CONCLUSION: The study demonstrated that visual explanations could improve performance, trust, and preference in human-automation interaction without confidence visualization partially by changing the search strategies. However, excessive information might cause adverse effects. APPLICATION: These findings provide guidance for the design of transparent automation, emphasizing the importance of context-appropriate and user-centered explanations to foster effective human-machine collaboration.

医師のための臨床サポートサービス

ヒポクラ x マイナビのご紹介

無料会員登録していただくと、さらに便利で効率的な検索が可能になります。

Translated by Google