2016年6月22日水曜日,私は東京ビッグサイトで開催されていた「日本ものづくりワールド2016」を見学してきました.去年は白井先生と3年セミナーメンバーでの参加でしたが,今回は後輩と2人での参加でした.
今回は3D&バーチャルリアリティ展を中心に設計・製造ソリューション展や医療機器 開発・製造展も見てきました.そして最後に”IoT時代のものづくりについて”という題目で日本電気株式会社の松下裕執行役員とファナック株式会社専務取締役 稲葉清典ロボット事業本部長の2人の講演を聴きました.
感想から言えばVRの行く先,IoTの発展,それぞれの未来が 感じられてとても良い日だったと感じました.今回のBlogでは見てきたものの一部を紹介します.

当日のビッグサイト
展示で強く印象に残ったものは日本バーチャルリアリティ学会のAffectiveWearと振動デバイスです.去年はIVRCの作品を展示していましたが,今回はCEDECの作品が展示されていました.
AffectiveWear は,Oculusを装着した体験者の顔とOculusの距離を赤外線センサで測定し,体験者の表情を検出するVRです.複数の赤外線センサで目の周りを覆うように配置され,体験者毎に喜怒哀楽のキャリブレーションを行うことで誰でも同じような体験を出来るようになっていました.
赤外線センサを使うことで微妙な表情の変化も数値として受け取り,判別を可能にしていました.装着後にキャリブレーションをするため,汗や装着が甘かったなどの理由によって,少しでもHMDがズレると調整をしなおさなければならないといった課題もありました。

Affective Wearのデバイス,HMD+赤外線センサー
検出する表情は真顔,笑顔,困った顔,怒った顔,驚いた顔の5種類でした.実際に体験した限りでは正確に表情を捉えていました.しかし,少しでもHMDがずれると正確に検出ができないと聞きました.
Unityで開発,3DモデルはUnityちゃんが使用されていて,距離センサの値は別のウィンドウで表示されていました.

真顔を認識した時

怒った顔を認識したとき

驚いた顔を認識した時
振動デバイスは一方向は早く,反対方向は遅く物体を振動させると速い方向に引っ張られるように感じるというものでした.このデバイスを組み合わせて使うと前後に引っ張られる,右回転、左回転に引っ張られる感覚を得ることができました.
感覚を言葉で表現するならば,手に持っている振動している物体を糸で軽く引っ張られているような感覚でした.
開発環境はUnityを使っていて,画面上のボタンをクリックすることで各種感覚を与えていました.

振動スピーカ(左上)を用いたデバイス
VR学会以外にもモーションキャプチャーや3Dプリンター,機械の部品などの展示も見て回っていました.どれも「凄い! 欲しい!」と思うものばかりでした.自分の他に後輩も来ていましたが,彼も良い刺激をもらえたと話していたので今年も見学に来てよかったです.
文章ばかりでも疲れると思うので写真とキャプションで軽く紹介します.

株式会社エー・ピー・アイの「渡りジョース君」.加速度センサーを頭に載せてみている方向を取っている.

モーションキャプチャーの展示.バスケットボールと人の位置をリアルタイムで取り,HMDを付けててもパスし合える.
IVR展について調べると,特別講演がいくつかあると知りました.去年も聴いた気がします…たしか自動車の会社だったのは覚えてますが.上のほうでも書きましたが,今回は「IoT時代のものづくり」という題目で日本電気株式会社 執行役員の松下裕さんとファナック株式会社事務取締り役 ロボット事業本部長の稲葉清典さんの2人の講演を聴きました.
松下さんの講演では「製造業におけるIoTは”実証”から”実装”の段階に入った」というお話をされていました.
・Multi-Cnectivityによる「ものづくりの可視化」
・AIの活用による「製造業の高度化」
という2つに焦点を当てて展開される話はこれからのIoTが発展,普及する未来を感じる素晴らしい講演だったと思っています.
稲葉さんの講演では自社の製品を例にIoTを現場で活用するシステムについてお話されていました.
今までは現場の工作機械から送られてくる情報をメインコンピュータで処理していました.それによる負荷が大きく,処理に時間が掛かるなどの問題がありました.
今回の講演では,工作機械自体に学習・機械間での情報共有するシステムを導入することでメインコンピュータへの負荷を軽減しつつ,不調の早い段階で発見することで故障による現場の停滞時間を無くすというお話でした.
講演内容には人が操作するロボットと,機械学習によってコンピュータが操作するロボットの比較や,これからの課題の話もあり,具体的でわかりやすい内容でした.
これらの講演を聴いてIoTの技術が実用化に向かって着実に進歩・発展しているんだなと感じました.
今回のBlogは以上です.ありがとうございました.