モーションキャプチャデータを活用してUnityでアニメーションを作成するというプロジェクトに参画することになりました。そこで、さまざまなモーションキャプチャ技術を試してみるため、SONYが開発したモバイルモーションキャプチャーセンサー「mocopi」を購入しました。
mocopiは、頭、腰、両手、両足の6つのセンサーを身につけることでユーザーの動きをデジタルデータとして捉えることができるセンサーで、専用のスマートフォンアプリと連携して動作します。このアプリはAndroidとiOSの両方に対応しています。私は当初、AndroidのPixel 6aを使用してmocopiを試す予定でしたが、センサーとのペアリングは可能であったものの、接続には失敗してしまいました。
Bluetoothの接続は難しいですね。
そこで、代わりにiPhone SE(第3世代)を使用してみたところ、問題なくセンサーと接続することができました。また、スマートフォンアプリでもアニメーションが動作するため、古いiOSデバイスでは数秒のタイムラグが出ていました。
次の動画は、左側の女の子のキャラクターの動画は、mocopiアプリにて映像として録画したものです。一方、右側に表示される3Dモデルは、mocopiアプリでBVH形式というモーションキャプチャデータ形式で記録したデータをUnityに取り込んでアニメーション化したものです。
Unityでアニメーション化したモデルは、腰を左右に振る動作をすると、徐々に画面奥へと進んでいき、最終的にはかなり小さく表示されるようになってしまいます。まだBVHデータを詳細には確認していませんが、おそらく位置情報に何らかのずれが生じているのではないかと思います。
動画はこちらのダイエットダンスの動画を真似したものです。
ちなみに、中の人は小学4年生になる娘です。(私はこんなに動けません。)
mocopiは税込44,000円(キャンペーン中)ですが、全身のトラッキングができるという意味ではお得に楽しめるデバイスだと思います。Meta QuestなどのVRゴーグルを併用す場合には、mocopiを下半身に集中的に装着し、トラッキング精度を上げるモードもあるようなので、さらに楽しめそうです。
mocopiはモーションキャプチャデータをリアルタイムにVRChatやCluster等にも送信できるため、活用方法が広がりそうです。