●未来の技術が盛りだくさんで興奮します
2011年10月20日、東京のお台場にある日本科学未来館で、経済産業省と財団法人デジタルコンテンツ協会主催の “デジタルコンテンツ EXPO 2011”が開幕した。コ・フェスタ(JAPAN国際コンテンツフェスティバル)2011のオフィシャルイベントとして行われる本イベントには、最新のデジタル技術を活用したインタラクティブコンテンツ、アートなどが集結。未来を感じさせるそれら作品の体験、デモンストレーションを楽しむことができる貴重な機会となっている。今年はCG、3D(立体視)、バーチャルリアリティー(仮想現実)、AR(拡張現実)などを中心とした55作品が出展。開催期間は2011年10月20日〜22日までの3日間で、入場は無料となっている。
▲ソニーPLCが出展した、外光が入るところでも見られる3Dスクリーン。 |
今回の展示でもっとも多く見られたのは、3Dに関連した出展。3Dそのものズバリという作品としては、会場入ってすぐのところにあるソニーPLCが開発した“3D LED ディスプレイ”が挙げられる。LEDを使用した巨大なスクリーンで、これが優れているのは外光が入ってしまう明るい場所でもしっかりと3D表示が可能な点だ。またソニーPLCは、2Dと3Dを同時に表示できる撮影カメラも展示。2Dと3Dを同時に表示……と聞くと何やらややこしい感じもするが、(観るぶんには)何も難しいことはない。このカメラで撮影した映像をモニターに映し、そのまま観れば一般的な2Dになり、3Dグラスをかけると3D立体視で観ることができるのだ。
▲2D、3Dのどちらにでも見えるクオリティ エクスペリエンス デザインのモニター。 |
また、クオリティ エクスペリエンス デザインもそれと同様の技術を出展。担当に話を聞いたところ、同社の2D/3D変換に関しては、たとえば花の中心部など立体感のあるところに集中して3D効果を設定し、そこ以外はあまり3D効果をかけないという仕組みで、2Dにも3Dにも観られる映像を実現しているのだという。実際に試してみたが、裸眼で見ている段階ではそれがじつは3D映像であるということにまず気づかないほど自然な2D表示となっていた。昨今ゲームでも3Dに対応した作品がいくつも出ているが、ほかの人と遊ぶ際の問題として、メガネをかけていない人はゲーム画面が楽しめないというものがある。この2D/3D変換の技術があれば、そういった問題も解消され、3D対応のゲームをみんなで楽しむことができそうだ。そのほか、ソリッドレイ研究所は3D映像が投影できるプロジェクター“Sight3D”を出展。こちらはすでに商品化されており、28万8000円[税込]〜で販売中だ。スクリーン不要で、白い壁にも投影ができるので、気軽に大画面の3D映像を楽しむことができる。
そのほか、すぐれた3D映像を表彰する“国際3Dアワード2011 Lumiere Japan”という催しも会期初日に実施された。これは機能性、安全性、快適性、必然性という項目で3D映像を審査するもので、“シネアド(映画館での映像広告)部門”においてスクウェア・エニックスの『ファイナルファンタジーXIII』の3Dシネアドが受賞した。
さて、ここまでは3Dそのものという出展をお届けしたが、3Dを組み合わせた出展の中にも興味深いものが複数見られた。たとえば、首都大学東京 大学院システム デザイン研究科 池井研究室が出展していた“FIVESTAR 五感シアター”は味覚以外の感覚を映像と3D映像と連動して楽しめるというもの。専用のシートに座り、触覚センサーが入ったベルトなどを巻けば準備完了。主観視点の映像と連動して、実際にその場にいるような体験ができるのだ。
今回の出展では函館と浅草にある浅草寺を擬似散歩。歩行時は足元に置かれたパネルがカタカタと動き、見あげればシートがやや倒れ、人と体がぶつかると腕に巻いたベルトが振動するといった具合で、気分としてはアーケードの体感ゲームを極めて現実的にした感じ。しかし、“FIVESTAR 五感シアター”は嗅覚も再現しているという点で体感ゲームとは大きく異なる。花畑へ行くシーンでは甘い香りが漂い、浅草寺に行けば周囲からはお煎餅、お線香の匂いを楽しむことができる。その仕組みは、あらかじめそういった匂いの元を用意しておき、所定のタイミングで噴射&ファンで体験者のところへ送り届けるというもの。なので、リアルタイムで香りを生成しているというわけではない。今後は、各部位の振動も含めリアルタイムで変化する映像と連動したシステムの構築を目指すとのことだ。
3D映像は右目と左目でズレた映像を映すことで、立体感を表現しているが、これを3Dではない分野で使用したのが、神奈川工科大学 情報学部 情報メディア化 情報メディア学科・谷中研究室、白井研究室が手掛けた“ScritterH”。この技術では、3D映像の仕組みで右目と左目用にそれぞれまったく違う絵を用意してスクリーンに投影する。今回出展されたものだと、裸眼では太陽の絵が見えるのだが、レンズを通すとそれが月の絵に変化。これを利用すれば、3Dグラスをかけている人とかけていない人で、まったく違う映像を楽しむこともできるというわけだ。
ちなみに神奈川工科大学はそのほかに、映像クリエイターの活動を支援するiPhone、iPad向けデジタルポートフォリオ“SUSTANIME”も出展しており、非常に感心させられる内容だったので併せて紹介しておこう。SUSTANIMEの基本機能は、映像作家が自身の映像作品をまとめて配給できるというもので、YouTubeを始めとした動画配信サイトよりも極めて高画質な状態で流すことができる。これに加えてSUSTANIMEには、それを観ている人たちの行動を、ジャイロセンサーなどiPhone、iPadの本体機能を利用して記録するという機能も搭載。どんな姿勢で観ていたのか? どのシーンで体を動かしたのか? どのシーンで動画を早送りしたのか? どのシーンで観るのをやめてしまったのか? といった視聴者のアクションを確認できるのである。これによってクリエイターは自身の作品の問題点などを客観的かつ肉体的な反応で得ることができ、改善していくことが可能となる。ゲームでも開発段階のゲームをプレイしてもらい、プレイヤーの行動から改善点などを探る“テストプレイ”という文化があるが、SUSTANIMEであれば、場所や時間に縛られることなくテストプレイを行うことができるかもしれない。
上記のように、デジタルコンテンツ EXPO 2011では3Dに関連した出展が非常に多かったのだが、ゲームメディアの記者としてそのほかに気付いたことがある。Xbox 360用周辺機器の“Kinectセンサー”を活用した技術が複数あったということだ。
チームラボが出展した“チームラボミラー“は、ミラーの前に立つと自身の胴体部分にTシャツがCGグラフィックで表示され、ハンドジェスチャーでつぎつぎとそれを切り換えられるというもの。ここで利用者の体を認識するために使われているのがKinectセンサーなのである。
慶應義塾大学環境情報学部 筧康明研究室が出展した“ペタンコ麺棒”でもKinectセンサーは使われていた。これは、センサーが仕込まれた台の上にモノを置くと、物体の凹凸といった情報が収集されて平面の映像となり、その上で専用の機器“ペタンコ麺棒”を転がすと、凹凸データを読み取ってモーター駆動で手応えを再現してくれるというもの。Kinectセンサーはここで、物体の凹凸を測定するために使用している。
同じく慶應義塾大学が出展した小木研究室の“デジタル3D浮世絵”という作品では、体験者の頭の動きを把握するためにKinectセンサーを活用。この作品では、著名な浮世絵をレイヤーにわけるなどして奥行きのある画像として表現するのだが、体験者の頭の動きなどに併せて各レイヤーが微妙に動くのだ。研究室の人に話を聞いたところ、デジタル、インタラクティブアートの分野ではKinectセンサーの性能に注目している人が少なくないという。また、会期中に行われているシンポジウムでも“Kinectを使ったアプリケーション概要”と題して、コンピューターゲーム以外の分野におけるKinectの使用事例を紹。このような状況を見ていると、新たなゲーム体験は、ゲーム業界からではなく意外な分野から登場してくるのかも……という気分になる。
以上、ゲームとの関連が深い出展を中心にお届けしてきたが、もちろんそのほかにも数多くの新しい体験が会場内には用意されている。以下、記者が個人的にグッときた出展を紹介するので、この記事を読んで興味が湧いたという人は、ぜひデジタルコンテンツ EXPO 2011に足を運んでみてほしい。
<ぜひ商品化を! PocoPoco/フレクトリックドラムス>
首都大学東京のIDEEA Lab.が出展したPocoPocoは、メロディーに合わせて16個のボタンがポコポコと飛び出してくるステップシーケンサー型の電子楽器。似たような商品としてヤマハの“TENORI-ON”があるが、それと比べるとボタンがポコポコと飛び出す視覚的な楽しさと、ボタンをつかむ、まわすといった演奏方法の自由度がPocoPocoは印象的だ。記者は個人的にぜひ欲しいと思ったのだが、残念ながら商品化の話はまだないとのこと。どこか、ぜひ商品化を!
同じく首都大学東京のIDEEA Lab.の作品“フレクトリックドラムス”。中心の板を囲むようにして配置された鉄製のパイプ部分を複数人で握り、ほかの人の手を触ると音が出るという電子楽器。どの人がどの人を叩くか、という組み合わせによって音が変わるそうで、コミュニケーションと演奏を同時に楽しめてしまう一品だ。記者は個人的にぜひ欲しいと思ったのだが、残念なが(以下略)。どこか、ぜひ商品化を!
<世界初の球形飛行物体はスゴすぎてもはや不気味!>
個人的に今回もっとも未来を感じたのが、防衛省技術研究本部 先進技術推進センターがデモンストレーションで披露した世界初の球形飛行物体。どういったものかと言うと、その名の通り球体が飛行するのだ。これがもう、何だかスゴすぎて、もはや不気味。操縦者が手元のリモコンを操作すると、球体はすーっと垂直に浮かび上がり、平行移動も行う。さらにはその場でクルクルと回転もしたりで……こんな言葉を使うのは我ながら記者失格だと思うのだが“スゲエ!”のひと言である。仕組みは内部に設置されたプロペラが回転するというものだが、もちろんさまざまな技術的試行錯誤があるのだろう。とにかく、あのスゴさと不気味さは正直言葉では説明しきれない……。
<音手(おんず)もけっこう不気味!>
記者が会場内を歩いていると、遠くから拍手が聞こえてきた。どこかで最新技術のデモンストレーションでも行われているのかな? と音がするほうへ足を運んでみたところ、記者の予想通り最新技術のデモンストレーションが行われていた。しかし、拍手そのものが最新技術であったのは予想外であった。
慶應義塾大学大学院 メディアデザイン研究科がデモンストレーションを行っていた音手(おんず)は、ひとことで言えば拍手再現マシーンだ。マシーンの見た目は、人間の肘から先で、それの手のひら部分を実際に拍手するように動かして音を鳴らす。さきほどの球形飛行物体に引き続いての表現で恐縮だが、この音手もスゴすぎて何か不気味! まず何が不気味かと言うと、拍手の音である。デモンストレーションでは隣に人が立って、機械と人が交互に拍手をするひと幕もあったのだが、どちらも人が行う拍手にしか聞こえないのである。また、見た目もかなり不気味だ。人間の肌に近い質感・やわらかさを持つ超軟質ウレタン樹脂で作成された腕は、どこかしっとりしているように見えてしまうほどリアル。夜道で稼働中の音手(おんず)とバッタリ出くわしたら、間違いなく腰を抜かすだろう。まあ、そんなことはありえないから安心して夜道を歩いてほしい。
<未来のベイブレードはこうなる!>
コマとコマをぶつけて遊ぶ玩具ベイブレードの未来を会場で発見した。それは“インタラクティブトップ”と呼ばれるもので、出展しているのは国立大学法人電気通信大学 小池研究室。表面がモニターになっている盤面の上で、専用のコマを回すと、コマと盤面が通信を行いコマの真下にさまざまなエフェクトやデータが表示されるというもので、自然とバトルも白熱したものとなる。さらにこれのおもしろいところは、コマの中心に磁石がついており、同じく磁石がついた機器をコマの上にかざすことで、回転を維持できるという点。さらに磁力である程度コマの行方を制御することも可能だ。コマ経験はゼロの記者だが、動きを制御できるという敷居の低さもあって、気が付けば隣に立っていた見知らぬ紳士と白熱したバトルをくり広げてしまった。
【2011年10月24日修正】出展者情報に関しまして、誤りがありましたので訂正いたしました。読者、並びに関係各位にご迷惑をおかけしたことをお詫びするとともに、訂正させていただきます。
<博物館好きにはたまらないMRsionCase>
唐突に個人的な話で恐縮だが、記者は博物館が好きである。遺物の数々を眺めているだけで気分は遙かメソポタミアな感じのインダスな心持ちになれるのだ。しかしそれが果たしてどういった展示物なのか? という解説文については黄河ほど広くない記者の視野ではエジプトの蜃気楼のようにおぼろげにしか目に入ってこない。我ながらひどい文章だが、言いたいことは、展示物と解説が同時に見られたらな、と思っている人は記者以外にもいるだろうということ。東京大学 苗村研究室が出展したMRsionCase(エマージョンケース)は、展示物を囲むガラス部分に、それに関する情報が浮かび上がるという記者にとっては願ったり叶ったりなもの。ガラスが少し斜めになっており、真下に設置されたモニターの情報を映しているというシンプルな仕組みだが、技術的には簡単なものではないようだ。特殊な加工を施し、映像がガラスの片面にしか反射しないようになっているのである。これにより、4方向から同時に展示物&解説を読む、ということが可能に。博物館など展示物をケースで囲むところでは大活躍すること間違いなしだろう。