日本財団 図書館


これは最初、声の感情認識をやっていました。やっぱりどうしても作品、インタラクティブ・アートを体験してもらう観客がそこで嘘をつくんですよね。高くて強い声を出せば喜ぶと言えば、高くて強い声を出してみるわけですよ。そう思ってなくても。人間がコンピュータに対して嘘をついてしまうので、これでは感情認識というのはなかなか難しいなという、表層の部分しかとれないわけなんですね。それをもっと深層の部分まで、人々がどきっとするようなところまでとらないと意味がないと思いましたので、こういうことを考え始めました。定義はそういう形で、精神分析学から応用しているという感じです。

あと2番目の答えなんですが、声を選んだ理由というのは、これはかなり技術的な理由でして、画像認識は遅いです。声のほうが、やっぱり情報量が少ないというわけでもないんですが、我々日本人はなかなか恥ずかしがって、ここでこのような動作をしてくださいと言ってもなかなかやってくれないんですね。話しかけるんだったら、動作をいろいろやるよりは話しかけてくれるんですね。この声も、欧米のインタラクションの仕方と比べると日本人はかなりシャイでして、また関西と東京でも差があるんですけれども、東京でいろいろ展覧会をすると、だれもいないときじゃないとなかなかしゃべってくれないんですね。関西でやると、もう人前でも平気で「あほ〜」とか言うんですけれども。欧米だと、人がいても何が来ても、自己主張が激しくいろいろがんがん言うんですが。それぐらいの文化の差というのもあるんですが、往々にして声でしゃべるというのはあまり抵抗がない。人間にとって自然なインタラクションの一つの方法であるということを理解したので、まずそれを選びました。

3番目なんですが、生理情報は心拍だけなのかということですけれども、先ほどお見せしましたのは心拍情報だけです。もっと正確に言うと、医療機器でコンパクトなものがあるんですが、これはMIT (マサチューセッツ工科大学)のメディア・ラボにアフェクテイング・コンピューティングというところがありまして、人の情動を生理的に研究するグループがあります。

 

 

 

前ページ   目次へ   次ページ

 






日本財団図書館は、日本財団が運営しています。

  • 日本財団 THE NIPPON FOUNDATION