ライフスタイル 他人の動きを自分の体で再現できる!?ドコモが開発中の未来のすごい技術

女性が使いやすく、毎日がちょっと楽しく便利になるデジタルガジェットを、ライターの太田百合子さんが解説! 豊富な知識と自腹買いであれこれ試した経験からガチのオススメを紹介します。

★★★

今回はすでに製品化されたものではなく、これから製品になるかもしれない、テクノロジーの種を紹介したいと思います。ドコモの研究開発や最新技術を紹介するイベント「docomo Open House’22」を取材してきました。

かわいいロボットが離れて暮らす両親や祖父母のスマホをサポート!

今回のイベントでは、5Gのさらに先の6Gに向けた取り組みなど、研究開発中の技術がたくさん紹介されました。中でも筆者がこれは今すぐ製品化して欲しいと思ったのが、「スマートフォン操作支援ロボット」です。

離れて暮らす両親や祖父母からスマホの使い方を聞かれ、遠隔で教えるのに苦労した経験がある人も多いのでは?筆者もときどき電話でサポートするのですが、会話だけでスマホの詳しい使い方を説明するのはなかなか大変です。

このロボットは使い方を教えて欲しい人が、自分のスマホの画面をカメラに写して、遠隔操作でサポートしてもらえるようにするもの。教える側のスマホに相手の画面が映るので、その映像に対してタッチやスワイプといった操作をすると、それがロボットが持っているスタイラスペンに反映されて、実際に相手のスマホを操作できるしくみです。

通話しながら、相手の画面を見て、操作をサポートできる優れモノ。ロボットのほっぺにはつながっていることがわかるLEDが配置され、表情にも愛嬌があって、教えてもらうのが楽しくなりそうです。

現在一部ドコモショップに設置して実証実験中とのこと。製品化するかどうかや、それを一般発売するかどうかは未定とのことですが、ぜひ楽しみに待ちたいと思います。

可愛らしいロボットを使って遠隔でスマホのサポートができるシステム。上のアームにカメラが付いています。
離れた場所にいる人が専用アプリで映っているスマホを操作すると、それがロボットの持っているスタイラスペンに反映されて、実際にスマホを操作できます。

自分の表情をアバターに反映。そっくりな動きができる技術

続いて紹介するのは、カメラに映った自分の表情をアバター(自分に似せたキャラクター)にリアルタイムに反映できる技術。特別な機材を使わず、WEBカメラを使って表情を読み取り、それを仮想空間のアバターの表情にリアルタイムに反映します。

アバターは3Dのキャラクターになっていて、口の動きだけでなく目の動きや顔の向きなどもリアルに再現。ドコモではこの技術を使って遠隔で接客できるシステムを開発したとのこと。これから接客はオンラインでというケースが増えそうなので、どこかで目にするかもしれませんね。

WEBカメラに向かって様々な表情を作ると、それが3Dアバターにリアルタイムに反映されます。

6G時代を見据えたスゴイ技術、「人間拡張基盤」って?

今回のイベントの中でも一際注目を集めていたのが、ヒトの身体から発せられる様々な情報をオンラインに送り、それを活用しようという「人間拡張基盤」という技術です。

筋肉の動き、脳波、動作、身体から発生される様々な音など、センサーで取得したデータをオンラインに送り、それをロボットや3Dアバター、あるいは別の人間の動きに反映させるという、ちょっと未来を感じさせる技術です。

ヒトの動きをロボットに反映するといったものはすでにありますが、この「人間拡張基盤」がすごいのは、反映するものを簡単に切り替えられるところ。人の筋肉の動きをデータ化し、そのデータをもとにロボットだけでなく、別の人の腕や手の筋肉を動かすこともできます。

実際にデモを見ましたが、たとえば将来はプロの動きを見て学ぶのではなく、直接身体に伝えるなんてことも可能になるかもしれません。

パネルから送るデータと送る先で何に反映するかを選ぶだけ。同じ動きをロボットやアバター、人に反映できます。
人の手の動きをロボットに反映させるデモンストレーション。
同じセンサーを使って別の人の手の筋肉に信号を送り、同じ動きをさせることもできます。
この技術を応用すれば、プロの演奏技術を自分の腕に直接反映する……なんてこともできるようになるかもしれません。

今、私たちがオンラインで共有できるのは映像と音で、五感でいえば主に視覚と聴覚に限られていますが、すでに触った感覚や臭い、動作など様々な五感を共有する技術が研究されています。ネットワークがもっともっと高速になって、センサーやそれを伝える技術がさらに発展すれば、オンラインで“本物”の体験ができる日も来るかもしれませんね。

取材・文/太田百合子