筑波大学の善甫 啓一教授らの研究グループは、患者の音声や医師との会話内容、生理的反応など複数の情報を組み合わせた「マルチモーダル感情認識」技術を非接触で実現する、新しいフレームワークを開発した。患者の感情を高精度に推定し、医師の共感的対応を支援できる可能性を示した。
医療現場では、患者の感情を正しく理解し、適切に対応することが、治療効果や患者満足度の向上に大きく関わるとされる。しかし、感情認識には個人差があり、医師により精度や対応にばらつきが生じることがある。また、共感的対応を続けることで、医師自身が精神的に疲弊する「共感疲労」のリスクも指摘されている。
研究グループは、患者の音声や医師との会話内容、生理的反応など複数の情報を組み合わせた「マルチモーダル感情認識」技術を非接触で実現する、新しいフレームワークを開発。この技術により、患者の身体に触れずに心拍や呼吸といった生理データを取得し、音声や発言内容と統合して感情を高精度に分析できる。
がん診療を模した熟練医師と訓練を受けた模擬患者による面談を行い、患者自身が記録した感情をもとに、医師とシステムの感情の読み取り精度を比較した。その結果、感情をどれだけ正確に捉えられたかを示す指標で、システムの方が医師よりも高いスコアを示し、より正確に感情を認識できることが分かった。
今回の研究は、AIが複数の情報を融合して処理することで、専門医を上回る感情認識を実現できる可能性があり、また、非接触技術により患者の身体的・心理的負担を抑えつつ、自然な対話環境で感情データを取得できる点も大きな利点としている。