熊本大学文学部の積山薫教授らの研究グループは、目の前の相手の話を聞く際に、日本人が相手の声を聞き取ることに集中しているのに対し、英米人が相手の口を見てから声の聞き取りに入るなど、情報処理の仕方が大きく異なっていることを突き止めた。
熊本大学によると、研究グループには積山教授のほか、文学部の久永聡子研究員、大学院の伊賀崎伴彦准教授、村山伸樹名誉教授らが参加。日本語を母語とする熊本大学の学生と英語を母語とする留学生各20人ずつを集め、会話中の視線パターンや脳波、音声判断速度などを調べた。
その結果、声と口の動きが一致している自然な音声の場合、英語母語者は音が始まる前から視線が話者の口に集中していた。これに対し、日本語母語者は視線が分散し、口に集中することがなかった。
英語母語者は口の動きがある方が速く音声判断できたのに比べ、日本語母語者は口の動きをみると逆に遅くなっていた。
脳波の推移を1,000分の1秒単位で観察し、音声判断中の脳の動きを見ても、英語母語者は口の動きの視覚情報があると処理が促進されていた。逆に、日本語母語者は視覚情報が音声判断の妨げになっていることも分かった。
研究グループでは、英語母語者が音声開始の寸前から口の動きで次の音を推察しているのに対し、日本語母語者は聴覚のみで音声を判断していると分析している。研究成果は英国のオープンアクセスジャーナル「サイエンティフィックレポート」に掲載された。