基調講演。MIT石井先生。 あまりにも有名なタンジブル・ビットの研究者であるが、近年の作品も含めた具体的な苦労なども含めたお話が聞けてよかった。 デモの完成からSIGGRAPHそしてアートエキシビジョン、というようにフェーズが展開していく流れを各代表作品について解説していただけた。相変わらずお忙しく、SIGGRAPH’98でのお礼をしようと思いましたが、講演が終わると共に行ってしまいました…(また戻ってこられましたが)。 フルペーパーセッション ■”Interactive and Enjoyable Interface in Museum”, Fusako Kusunoki 英語の発表がなんだか本当に分からない。デモンストレーションも日本語だし、質問はかみ合ってないし。発表の練習が絶対的に足らないと思う。データの取り方も主観の言語依存であり、どうしてこれでフルペーパーなのか個人的には疑問が多い(が、書き物はしっかりしているのかもしれない、暗くてまだ読んでないけど…)。会場の質問は「理解しているかどうか質問したか?」「グループで使えるようにしたか?」の2つ。 ■”Painting the Town Red: Configuring Location-Based Games by Colouring Maps”, Martin Flintham, Mixed Reality Lab, Jublee Campus, University of Nottingham, UK. ひとりでの投稿であるが、システムは大きいうえにしっかり作られているし、論文も内容が濃い。 PDFをつかって歩いて地図を塗るゲーム。GPSは室内で使えないので衛星写真から室内のエリアを割り出している。FPSスタイルの3Dコンテンツ化などもある。いろいろやっているが面白いのかは不明。 ■”Natural Interaction with Virtual Objects Using Vision-Based Six DOF Sphere Tracking”, Caleton Univ.,Ottawa, Canada. Derek Bradley. ARToolkitなどのTUI(Touchable/Tangible?)に対して、6自由度を球体で検出できるシステムを提案。青い直径5cmぐらいのボールに直径2mmぐらいの蛍光マーカーが2色、1面当たり20数個ほど貼ってある。反応速度はビデオレート以上でているようで、バーチャルな剣や仮想カメラの視点manipulateに使っていた。ARToolkit式との比較デモがすばらしく、遮蔽にも強いことがよく分かる。ボールをお手玉のように投げたりできるのも利点の一つだろう。 ★それにしてもACEはリアルタイム画像処理屋さんのレベルはとても高いと思う。