発表

1A-055

バーチャルリアリティ空間におけるロボットを用いた視線知覚

[責任発表者] 吉田 弘司:1
[連名発表者・登壇者] 桑原 加奈#:1, 大畑 美紗#:1
1:比治山大学

目的 人と人が「目が合った」と感じるのは,視線がどの程度自分の方向を向いたときだろう。対人場面を使った実験では,目が合うと人は表情に変化が現れるなど,刺激人物の視線以外の情報を厳密に統制することができないため,このようなテーマの研究は容易ではなかった。そこで,本研究では顔や視線の方向,表情などを自由に制御できるソフトウェア・ロボット(Figure 1)を開発し,それをバーチャルリアリティ(VR)空間に提示して人の視線知覚の特性について検討した。また,視線の知覚は単なる眼球の変位パターンの知覚でなく,それが向けられた先にある対象を理解することではないかと考え,その仮説を確かめる実験を行った。


方法 参加者 大学生29名(うち男性14名)が参加した。
 装置と刺激 Windows PC(G-Tune LG i310)とVRゴーグル(Oculus Rift CV1)を用いてVR空間を提示し実験を行った。ロボットの作成にはDaz Studio v4.10を,実験プログラムの開発にはUnity 2017.4を用いた。
 予備実験 開発したロボットは,眼球の向きが必ずしも知覚される視線方向と一致するとは限らないため,10名(うち男性3名)の参加者が本実験と同じVR環境下でロボットの視線を調整した。調整は,50 cmと100 cmの観察距離で輻輳角を調整し,その後,50 cmの観察距離で正面および左右に15度,30度,45度,上下に15度回転した顔に対して自分を見ていると知覚されるところに視線方向を調整した。
 手続き ロボットはVR環境下で参加者から75 cm離れた位置に立ち,参加者の25 cm前方平面の9か所の位置(眉間中心0 cmとその左右2 cm, 4 cm, 6 cm, 8 cm)のうちの1つに視線を向けた。ロボットは試行ごとに左右に15度回転して提示され,参加者はその視線が自分を見ているか,それとも自分の左か右かの3件法(左・自分・右)でキーを押して回答した。また,実験条件として,エージェントの視点が直径5 cmの半透明のピンクの球で表示される条件(視点表示あり条件)と表示されない条件(視点表示なし条件)の2種類を設けた。視点表示なし条件では計90試行,視点表示あり条件では計160試行をブロック化して行った。

結果 実験結果をFigure 2に示した。自分を見ているとする反応率について性別×視点表示の有無×視点位置の3要因分散分析を行ったところ,視点表示の主効果(F(1,27) = 19.06, p < .001)と視点位置の主効果(F(8,216) = 55.14, p < .001),視点表示×視点位置の交互作用(F(8,216) = 3.56, p < .001)が有意であった。交互作用について単純主効果の下位検定を行ったところ,視点表示の効果は,-2 cm, 0 cm, 2 cmを除くすべての視点位置で有意であった。このことから,ロボットの視点位置が参加者の眉間中心より2 cm以内であれば自分と判断され,その際は視点表示の効果は見られないが,2 cmより外側では自分以外を見ているという反応が増え,その際には視点が表示されることによって,見ているのは自分ではないという反応が有意に増加することがわかった。

考察 本研究の結果は,人の視線検出が極めて優秀であることを示している。人の両眼間距離は約6 cmなので,75 cm先に立つロボットが参加者の前25 cmの平面上で眉間中心から2 cm離れた位置を見ると,それはおよそ参加者の左右眼を見ているに等しい。本研究では,ロボットの視線が眉間中心から2 cm以内に向けられていると,視点表示の有無にかかわらず自分を見ているという判断が生じていた。その一方,ロボットが2 cm以上離れた位置を見ているときは,視点表示があれば,見ているのは自分ではないという反応が増加した。このことから,自分以外に対する視線の知覚には,相手の視線が“何に向けられているか”を理解することが重要な意味をもつのではないだろうか。
 

キーワード
視線知覚/バーチャルリアリティ(VR)/ヒューマノイド


詳細検索