ネクストステージ表現

スマートフォン/タブレットのセンサーが拓く身体表現:身近なデバイスで始めるインタラクティブパフォーマンス

Tags: スマートフォン, タブレット, センサー, インタラクティブパフォーマンス, 身体表現, OSC, MIDI, TouchOSC, MobMuPlat

はじめに:身近なデバイスで新しい表現を

ライブパフォーマンスにおいて、デジタル技術の活用は表現の可能性を大きく広げています。これまで特定の専門的な機材が必要と思われがちでしたが、実は多くの人が日常的に持ち歩いているスマートフォンやタブレットといったスマートデバイスも、強力な表現ツールとなり得ます。これらのデバイスに内蔵された多様なセンサーは、パフォーマーの動きや周囲の環境を捉え、リアルタイムに音、光、映像といった他のメディアと連動させるインタラクティブなパフォーマンスを実現するポテンシャルを秘めています。

この記事では、スマートフォンやタブレットのセンサーが身体表現にどのような可能性をもたらすのか、具体的な活用事例とともに、技術初心者でも比較的容易に始められる導入方法や、クリエイターとの連携のヒントをご紹介します。高価な専用機器がなくても、身近なデバイスからデジタルと融合した新しい表現への一歩を踏み出すことができることをお伝えいたします。

スマートデバイスの主要センサーと身体表現への応用

スマートフォンやタブレットには、様々な種類のセンサーが搭載されています。これらのセンサーから取得できるデータは、パフォーマーの身体の動きや状態、あるいはパフォーマンス空間に関する情報を取得するために活用できます。

これらのセンサーから得られるデータは、デジタル信号としてリアルタイムにコンピューターや他の制御システムに送信し、様々なメディア表現と連動させることが可能です。

スマートデバイスを活用したパフォーマンス事例

スマートデバイスのセンサーは、多岐にわたるパフォーマンスジャンルで活用されています。

これらの事例は一部ですが、スマートデバイスのセンサーは、身体表現の情報をデジタルデータに変換し、他のメディアと組み合わせることで、既存の枠にとらわれない新しい表現の可能性を切り開いています。

技術的な導入ステップ:プログラミングなしでも始められる方法

スマートデバイスのセンサーデータをパフォーマンスに活用するために、必ずしも高度なプログラミングスキルが必要なわけではありません。いくつかの段階的なアプローチがあります。

  1. 既存のコントローラーアプリを利用する:

    • 「TouchOSC」や「MobMuPlat」、「센서데이터를 OSC로 내보내는 앱 (Sensor Data to OSC App)」のような、スマートフォンやタブレットのセンサーデータをOSC(Open Sound Control)やMIDI信号としてWi-Fi経由で出力できるアプリが多数存在します。
    • これらのアプリを使用すれば、デバイスを動かすだけで、Max/MSP/Jitter、Pure Data、TouchDesigner、Processing、Ableton Liveなどの、OSCやMIDI信号を受け取れるソフトウェアにデータを送信できます。
    • メリット: プログラミング不要で、すぐにセンサーデータを活用し始められます。比較的安価または無料で利用できるアプリが多いです。
    • 必要なもの: スマートデバイス、センサーデータを受け取るPC、Wi-Fiネットワーク。
  2. 簡易開発環境での連携を試す:

    • p5.js(JavaScriptライブラリ)やProcessing(Javaベースの言語/環境)など、比較的学習しやすいプログラミング環境と連携させます。
    • p5.jsであれば、p5.DeviceOrientationp5.Accelerationのようなライブラリを利用して、ブラウザ上で動作するコードでデバイスのセンサーデータを取得できます。これにより、スマートフォン単体でインタラクティブなビジュアルやサウンドを生成することも可能です。
    • Processingの場合は、OSCライブラリなどを使用して、前述のコントローラーアプリから送信されたデータを受け取り、複雑なビジュアルを生成・制御できます。
    • メリット: よりカスタマイズされたインタラクティブな表現が可能になります。学習リソースが豊富です。
    • 必要なもの: スマートデバイス、開発環境を動作させるPC、(外部アプリを利用する場合は)Wi-Fiネットワーク。
  3. ネイティブアプリ開発(上級者向け):

    • iOS(Swift/Objective-C)やAndroid(Kotlin/Java)で専用のアプリケーションを開発します。
    • これにより、センサーデータのより詳細な制御、複数のセンサーデータの複雑な組み合わせ、カメラ画像処理との連携、他のハードウェアとの直接的な通信など、高度でカスタマイズされたシステムを構築できます。
    • メリット: 最高の自由度とパフォーマンスが得られます。独自のインタラクティブシステムをゼロから設計できます。
    • 必要なもの: スマートデバイス、アプリ開発環境を動作させるPC、開発スキル。

技術初心者の方は、まずは既存のコントローラーアプリから試してみることをお勧めします。OSCやMIDIといったデータ形式について基本的な理解を深めることで、様々なデジタルツールとの連携の道が開けます。

始めるためのヒントと考慮点

パフォーマーと技術者の連携

スマートデバイスを活用したインタラクティブパフォーマンスの実現には、パフォーマーと技術者の密な連携が不可欠です。

スマートデバイスのセンサー活用は、技術者とパフォーマーが共に試行錯誤しやすい、連携の入り口としても適しています。

まとめ:身近な技術で表現のフィールドを広げる

スマートフォンやタブレットに内蔵されたセンサーは、特別な機材がなくともインタラクティブなライブパフォーマンスを実現するための強力なツールです。モーションデータ、環境データ、視覚・聴覚データをリアルタイムに取得し、音、光、映像といった様々なメディア表現と連動させることで、身体表現に新しい次元を加えることができます。

既存のコントローラーアプリを利用すれば、プログラミングスキルがなくてもすぐに始めることが可能です。まずは身近なデバイスを使って、身体の動きがデジタルメディアに影響を与える感覚を体験してみてください。そこから、より複雑な表現や、パフォーマーと技術者の連携による高度なシステムの構築へと発展させていくことができるでしょう。

「ネクストステージ表現」では、これからも様々な技術と表現の融合事例をご紹介してまいります。身近なスマートデバイスから、あなたの新しい表現のフィールドを切り開いていきましょう。