【VTuber向け】mocopiとLeap Motionでフルトラッキング配信!機材とセットアップ方法を解説

今回紹介するのは、ソニーのmocopiLeap Motionの機材を持っている人向けに
フルトラッキングができる方法を紹介したいと思います。

また、表情をトラッキングをするために、iFacialMocapアプリが動く、
もう1つ、A12 Bionicチップ以降を搭載した (iOS14以降)iPhone、もしくはiPadも必要です。

通常、iPhoneを2台持っている人は少ないと思いますが、iPadなら持っている人はいらっしゃるかと思います。

もちろんPCも必要です。
機材がたくさん必要ですが、比較的手軽に低予算でフルトラッキングができる環境を作ることができますので紹介させていただきます。

まず、必要な機材は以下になります。

目次

今回使用する機材

・ソニーmocopi (全身トラッキング用)
・iPhone(mocopiアプリ用)
・iPhone又はiPad(表情トラッキング用のiFacialMocapアプリ)
Ultraleap Leap Motion コントローラ 2 (手の動きトラッキング用)
・PC

今回使用するアプリ

・mocopi(無料)【iOSアプリ】
・iFacialMocap(無料)【iOSアプリ】
・VSeeFace(無料)【PCアプリ】
・VirtualMotionCapture(有料:先行リリース版)PIXIV FANBOXの300円〜の支援でダウンロード可【PCアプリ】

接続図

今回紹介する機材とアプリの全体の接続図です。
最終的にVSeeFaceに統合して、OBSで配信する感じです。

vtuber 全体図

 

フルトラッキングの設定

それでは、少し長くなりますが、設定していきます。

1.mocopiを体に取付けてトラッキングする

mocopiをケースに入れたまま、すべての電源をオンにします。

mocopi
mocopiを動かさないで、mocopiアプリと接続します。

mocopi sony
アプリに接続できたら、頭、両手首、腰、両足首に取り付けます。

sony mocopi

mocopiアプリ 外部機器との接続設定

mocopiアプリの右上の3点から、設定 > 外部機器との接続設定画面にいきます。

mocopi

外部機器との接続設定 mocopi

送信フォーマット:mocopi(UDP)
IPアドレス:使用するPCのIPアドレス
IPアドレスの確認はVirtualMotionCaptureを立ち上げて、コントロールパネルの詳細設定 > Check IPから確認できます。下記画像を確認してください。
送信ポート設定:多分なんでもいいと思います。

VirtualMotionCapture コントロールパネル

VirtualMotionCapture コントロールパネル 設定

そして、mocopiアプリの下にある真ん中の緑ボタンでモーションを送信します。

mocopi モーションの送信

これで一旦mocopiの設定は終了、次に進みます。

VirtualMotionCaptureの起動

mocopiを起動したまま、
続きまして、PCアプリのVirtualMotionCaptureに進みます。
まず、アバターのvrmファイルを読み込みます。

VirtualMotionCapture

mocopi(UDP)ボタンを押します。

VirtualMotionCapture 設定 mocopi

mocopiアプリの送信ポート設定にあったポート番号を入れて適用します。

VirtualMotionCapture mocopi

これで、VirtualMotionCapture上で、mocopiを使ってアバター全身を動かすことができます。

VirtualMotionCapture mocopi

体は動かせるようになりましたが、表情、指の動きはまだ動かせません。
顔の表情トラッキングは、iFacialMocap(iOSアプリ)を使います。
しかし、mocopiアプリでiPhoneをすでに使用していますので、
もう一つ、iPhoneもしくは、iPadが必要です。

下記画像はiOSアプリ、iFacialMocapの画面です。

iFacialMocap

そして、指の動きはUltraleap Leap Motion コントローラ 2を使います。
下記画像は、自分の首に掛けれるようにしてます。
詳細はこの記事を参考になさってください

leapmotion リープモーション2 ネックマウント

これらは、VirtualMotionCaptureでは使えません。
そこでVirtualMotionCapture上でmocopiを動かせるようになったモーションを
別のアプリのVSeeFaceに送信します。

VirtualMotionCaptureからモーション送信する

VirtualMotionCaptureの設定画面の右上にある、OSCでモーション送信を有効にするをチェックを入れて適用します。
Address:127.0.0.1(仮) Port:39539(仮)を覚えておきます。

VirtualMotionCapture モーション送信

次に、VSeeFaceアプリを使います。

VSeeFaceを使う

VSeeFaceを立ち上げると、この画面になります。
アバターを選択します。
ウェブカメラ、マイクの設定をしてスタートをクリックします。

VSeeFace

Leap Motionコントローラーで指をトラッキング

Leap MotionコントローラーをPCに接続しておきます。
次に、VSeeFaceを起動します。

VSeeFace ブイシーフェイス

VSeeFaceで、Leap Motionコントローラーを使えるように設定します。

VSeeFace ブイシーフェイス VCフェイス

続きまして、Leap Motion設定に進みます。
上画像にLeap Motionの取り付け場所が表示されています。
実際に取り付けている場所に合わせます。
デジモットの場合は、首にマウントしていますので胸元に取り付けています。
設定は下記のように設定しました。

VSeeFace ブイシーフェイス leapmotion設定

VSeeFaceでiFacialMocapで顔の表情をトラッキング

VSeeFaceでiFacialMocapを使用して、顔の表情を使えるようにします。
もう一つのiPhoneもしくは、iPadでiFacialMocapアプリを立ち上げます。

VSeeFaceの設定 > 一般設定へ進みます。

VSeeFace ブイシーフェイス leapmotion設定

iPhone/ARKitからトラッキングを受信のチェックを入れる。

VSeeFace ifacialmocap

iPhone又は、iPadアプリのiFacialMocapの
上部のIPアドレスを覚えておき、VSeeFaceの設定 > 一般設定  > iFacialMocap/FaceMocap3D/VTube StudioのIPアドレスの入力箇所に入れます。

VSeeFace ifacialmocap

トラッキングアプリをiFacialMocapにします。
iFacialMocapアプリ上部のIPアドレスを入れます。

VSeeFace ifacialmocap

VirtualMotionCaptureで送信したOSCモーションを受信して全身を動かす

最初の方に、VirtualMotionCaptureで、OSCでモーション送信をしたのを受信します。
VSeeFace > 設定 > 一般設定 > OSC/VRMプロトコルで受信する(トラッキングを無効)のチェックを入れます。

これで、VirtualMotionCapture上でmocopiを使って全身のトラッキングの情報が、VSeeFaceに送られて、VSeeFace上で全身トラッキング、Leap Motionを使った指トラッキング、iFacialMocapを使った表情トラッキングができるようになりました。

注意)当然ですが、今まで使用したアプリはすべて立ち上げておいてください。

VirtualMotionCaptureで送信したOSCモーション受信

できたと思いきや、指が動かない場合があります。
その時は、下記画像の指のトラッキングのチェックを入れてください。
これで、指が動くようになります。

VirtualMotionCaptureで送信したOSCモーション受信

これで、OBSなどで配信することができます。
右下の※印のボタンで背景が透過することができます。
VSeeFaceはグリーンバックなど、背景の色を変更することができません。多分・・・。
グリーンバッグにしたい時は、OBSでグリーンバックのレイヤーを下のレイヤーに作るといいでしょう。

VSeeFace 背景透過

注意点はmocopiは時間が経つとズレが生じてきますので、時折リセットやキャリブレーションが必要です。

以上で、フルトラで配信や録画ができる環境の解説を終わりたいと思います。
機材も結構必要で、初めは結構複雑ですが、慣れてしまえば簡単です。