TOP
プログラム

9月20日のプログラム
8:30
~
受付
12:10
~
14:00
昼食・技術芸術展示コアタイム・ランチョンセミナー
(ランチョンセミナーの会場はRoom D)
14:00
~
15:10
大会長挨拶・特別講演1
(Room Bはサテライト)
15:20
~
16:40
特別講演2・出展企業紹介
(Room Bはサテライト)
16:40
~
17:40
論文賞表彰式・IVRC表彰式・IEEE VRの紹介・懇親会案内
(Room Bはサテライト)
18:30
~
20:30
懇親会・次回アナウンス
(国際センター駅市民交流施設「青葉の風テラス」)

[11A] ハプティクス (心理)
座長|繁枡 博昭(高知工科大学)
Room A
9月19日(水) 09:00~10:30
[11B] 聴覚
座長|茅原 拓朗(宮城大学)
Room B
9月19日(水) 09:00~10:30
11B-5
逆遠近法を用いた錯覚の知覚条件の検証
○竹内 凌一(大阪工業大学 情報科学研究科 情報科学専攻), 橋本 渉, 水谷 泰治, 西口 敏司(大阪工業大学)

絵画的手法の一つに逆遠近法というものがある。遠近法とは、近くのものを大きく描き、遠くのものを小さく描くことで、実際の視覚に基づいた表現であるといえる。一方逆遠近法では近くのものを小さく描き、遠くのものを大きく描く。ペーパークラフトであるGathering for Gardnerの”Thinky the Dragon”などが逆遠近法を活用した例として有名である。この作品は逆遠近法とホロウマスク錯視を組み合わせてドラゴンが常にこちらを見ているように見えるというものである。この錯視をモニタに応用することで動画やコンテンツを動的に提示することができるため、ユーザに向けて常に情報を提示するデジタルサイネージやエンタテインメントに活用できるのではないかと考えた。そこで”Thinky the Dragon”の鼻部分がコーナーキューブ型であることに着目し、逆遠近法によって凹凸が逆転することを狙い、3枚のモニタを用いてコーナーキューブ型モニタを作成し、このモニタに提示する映像を工夫することで提示する映像や情報が常にユーザを追いかけながら向きを変えるモニタにすることができると考え検証を行った。さらにバーチャルリアリティ環境でシミュレーション環境を構築し、実際に錯視が有効となる範囲を検証した。実験の結果バーチャルリアリティ環境を用いて錯視の知覚範囲の検証を行うことができた。検証の結果、錯視の知覚範囲が分散はあるものの左右対称であることがわかった。今後の研究では実際にモデルをペーパークラフトに出力し、バーチャルリアリティ環境と同様の実験を行い、バーチャルリアリティ環境の実験環境の正確性を検証した後にペーパークラフトの錯視立体図形にプロジェクションマッピングによって映像を投影することで錯視することのできるモニタを研究していこうと考えている。

[11C] テレイグジスタンス
座長|佐藤 克成(奈良女子大学)
Room C
9月19日(水) 09:00~10:30
[11D] AR1
座長|酒田 信親(奈良先端科学技術大学院大学)
Room D
9月19日(水) 09:00~10:30
[11E] 医療・生体
座長|黒田 嘉宏 (大阪大学)
Room E
9月19日(水) 09:00~10:30
[12A] ハプティクス (基礎 1)
座長|田中 由浩(名古屋工業大学)
Room A
9月19日(水) 10:40~12:10
[12B] 身体1
座長|牧野 泰才(東京大学)
Room B
9月19日(水) 10:40~12:10
[12C] スポーツ
座長|南澤 孝太 (慶応義塾大学)
Room C
9月19日(水) 10:40~12:35
[13B] 身体2
座長|棚橋 重仁(新潟大学)
Room B
9月19日(水) 14:00~15:30
13B-1
「つもり」抽出時のバーチャルな自己主体感の生起と評価
○宮本 拓, 原 彰良, 西村 朋樹, 中尾 駿太(大阪大学情報科学研究科バイオ情報工学専攻), 古川 正紘, 前田 太郎(大阪大学情報科学研究科バイオ情報工学専攻/脳情報通信融合研究センター)

自己主体感(Sense of Agency)とは、観察される運動を自身が引き起こしたという感覚である。過去の報告ではアバターに対する自己主体感や、本来の腕ではないラバーハンドに対する自己主体感についての報告が多くある。しかしながら、いずれの報告も、自発的な運動が伴う場合についてのみ調査されており、自発的な運動が伴わない場合については調査されていない。一方で、ヒトの離散的な運動意図を、ヒトが直感的に出力した連続的な動作から抽出・推定し、それを利用することによって、直感的にロボットを操縦する手法として「つもり」制御がある。つもり制御の概略図を図1 に示す。図1 つもり制御の概略図この制御方法では、抽出段階においてヒトの身体動揺を計測しており、この身体動揺にあらわれる運動再現性を利用することで意図推定、制御を行っている。この運動再現性が生まれるためには、運動予測が一致することが必要だと考えられる。そこで我々は、自発的な運動は伴わなわずとも、観測される運動を自身が引き起こしている「つもり」になっており、運動再現性があれば、つまり運動予測が一致していれば自己主体感が生起するという仮説を立て、調査を行った。本論では、ロボットを操縦している「つもり」になっているときの身体動揺、運動の再現性を評価および自己主体感を評価する。これにより、自己の運動を伴わずとも自己主体感と等価なバーチャルな自己主体感が生起することを示す。さらに運動再現性とバーチャルな自己主体感の関係を明らかにする。

13B-2
操縦対象と両手に現れる運動意図の左右弁別の検証
○西村 朋樹, 原 彰良, 宮本 拓, 中尾 駿太(大阪大学大学院 情報科学研究科 バイオ情報工学専攻), 古川 正紘, 前田 太郎(大阪大学大学院 情報科学研究科 バイオ情報工学専攻/脳情報通信融合研究センター)

現在、多自由度のロボットをレバーや複数のボタンの組み合わせによって操縦するためには、使用者がロボットの動きと入力の対応を覚える必要がある。自由度の高いロボットになるほど、覚えなければならないコマンドは増え、使用者に負担を強いることになる。これを解決する操縦方法として、我々は「つもり制御」というものを提案している。これは、人がロボットをどのように動かそうとしているかという運動意図が、無意識下で再現性を持って身体に現れることを利用し、操縦するという手法である。つもり制御では、使用者はロボットの動きに対応する入力を覚える必要がなく、直感的に操作することができる。つもり制御を行うためには、操縦前にロボットの動きと使用者の身体に現れる応答とを結びつけておく運動意図の抽出・学習が必要である。現在、意図抽出は2本の操縦桿によって行われている。意図抽出では、使用者に対し左右対称に動くロボットの動画を提示し、その時に得られる身体応答を用いて機械学習を行うことで、運動意図推定器を構築している。これまでの研究で、左右非対称動作に関しても操縦は行われていたが、従来手法では左右運動を非分離で捉えており、左右非対称動作に関して運動意図推定器を構築しようとする場合、すべての動作に関してのデータを網羅的に取らざるを得ず、抽出時間が多大なものとなっていた。しかし、ロボットの左右運動を分離して考え、左右非対称動作を左右の動作の組み合わせとして表現できるのならば、抽出にかかる時間を大幅に短縮することができる。本論文では、ロボットの右半身に対する応答が右の操縦桿に、左半身に対する応答が左の操縦桿に独立性を持って現れるという仮説と、左右対称の動作に対する左右の操縦桿入力は鏡像反転の関係を持つという仮説を立て、検証を行った。

[13C] コミュニケーション
座長|野嶋 琢也 (電気通信大学)
Room C
9月19日(水) 14:00~15:30
13C-3
深層学習を用いた入力音声に適した顔表情生成
○西村 亮佑(大阪大学大学院 基礎工学研究科), 酒田 信親(奈良先端科学技術大学院大学 先端科学技術研究科), 冨永 登夢(大阪大学大学院 基礎工学研究科), 土方 嘉徳(関西学院大学 商学部), 原田 研介(大阪大学大学院 基礎工学研究科), 清川 清(奈良先端科学技術大学院大学 先端科学技術研究科)

近年、VR で利用する高品質な3DCG キャラクタに対する需要が高まっている。CG キャラクタの表情アニメーションは、CG コンテンツのリアリティを高めるうえで重要な要素である。表情アニメーションの生成手法は、カメラを用いた手法が一般的であるが、カメラの画角による撮影範囲の制限やカメラの光軸と顔の向きの関係によっては人間の表情を取得できないなど、カメラの性能や設置場所に依存する問題がある。一方で、音声を用いた手法は、これらの問題を解決する可能性がある。本稿では、音声データのみを入力とし、RNN を用いて音声に適した表情を出力するシステムを提案する。そして、このシステムを評価した結果、感情により声の周波数が変わるという知見から、あらかじめデータを前処理することで、先行研究に比べて出力の精度が向上することを確認した。

[13D] AR2
座長|山本 豪志朗(京都大学)
Room D
9月19日(水) 14:00~15:30
[14A] ハプティクス (基礎 2)
座長|栗田 雄一(広島大学)
Room A
9月19日(水) 15:40~17:10
14A-1
塗布時の振動特性を用いた化粧水の触感評価に関する研究
○齋藤 直輝, 松森 孝平(資生堂グローバルイノベーションセンター)

消費者は化粧水を購入する際に保湿機能だけでなく使用感触も重視して購入しているため、使用感触は重要な設計項目である。化粧水の開発時には、専門の官能評価者や一般の消費者による官能評価テストを実施し使用感触を評価している。しかしながら官能評価テストは「一度に大量の商品を評価することが困難」、「専門の評価者のトレーニングコストが高い」、「言語圏の違いに対応することが困難」といった課題があった。そこで官能評価テストの代わりに化粧品基剤のレオロジー特性を用いて使用感触を評価しようという研究が行われている。しかしながらレオロジー測定では化粧水の塗布過程で生じる水の揮発などの経時変化を反映するのが困難であった。そこで本研究では化粧水塗布時の指の振動刺激を計測し、塗布過程で生じる変化を反映したデータを用いて官能評価値を推定することが可能か検証した。市販品を含む33品の化粧水サンプルに対して、専門技術者による官能評価と塗布過程の振動計測を実施した。3軸の加速度センサを用いて振動データを取得し、周波数解析によって振動特徴量を算出し官能評価値との相関を調べた。その結果、「とろみ」「さっぱりさ」「しっとりさ」「べたつき」の各官能評価項目と振動特徴量の間に非常に高い相関関係を見出した。相関のあった振動特徴量は、いずれも250-500 [ Hz ] という高い周波数域の振動のパワースペクトル密度であり、ヒトの振動知覚において最も感度が高い周波数域と一致していた。また、「さっぱりさ」は正の相関関係であり、他の3項目は負の相関関係であった。「とろみ」、「しっとりさ」、「べたつき」のスコアが高い化粧水の方が塗布時の液膜が厚く肌表面と指腹間での振動が生じにくく、逆に「さっぱりさ」のスコアが高い化粧水は液膜が薄いため振動が大きく生じることが原因と考えられる。以上の結果、塗布過程の振動計測は官能評価推定に有用であると考えられる。

[14B] 移動と酔い1
座長|大須賀 恵美子(大阪工業大学)
Room B
9月19日(水) 15:40~17:10
[14C] 【OS】テレイグジスタンス研究会
座長|古川 正紘
Room C
9月19日(水) 15:40~17:10
14C
テレイグジスタンス産業への挑戦
深堀 昂(ANAホールディングス), 小川哲男(新日鉄住金ソリューションズ), 舘 暲(東京大学), 南澤孝太(慶應義塾大学), 古川正紘(大阪大学)

テレイグジスタンスは、多様な分野での産業応用が可能な汎用的なヒューマンエンパワーメント(人間能力拡張)システムとして社会に好循環をもたらす科学技術イノベーションとして期待されている。長らく研究開発段階にあったテレイグジスタンスは、2007 年頃からテレプレゼンスという名称で米国で商品化され始めたが、2016 年になって XPRIZE のテーマとして選定され、今年からは ANA AVATAR XPRIZE が正式にローンチされ、世界中から多くのグループが挑戦する開発競争が開始された。一方、ディズニーリサーチ、KDDI、新日鉄住金ソリューションズと NTT ドコモ、トヨタなどが、臨場感があり作業も可能なテレイグジスタンス開発を行なっており、また、TELEXISTENCE INC. などのベンチャーも生まれる中、大分県では社会実装実験もすでに始まるなど、テレイグジスタンスの産業化への道が、着実に拓けだしている。本 OS では、時空間瞬間移動産業や遠隔就労への挑戦ともいうべきテレイグジスタンスの産業化や社会システム化に焦点をあて現状を概観し将来を展望する。

[14D] AR(ディスプレイ)
座長|橋本 直己(電気通信大学)
Room D
9月19日(水) 15:40~17:10
14D-6
立体視HMDを用いた仮想ネイルアートシステムの構築
○神原 利彦(八戸工業大学)

ネイルアートとは、華麗な付け爪を自分の爪に貼り付けて爪を装飾するファッションである。華麗な装飾を施した付け爪は加工・彩色に手間と費用が多くかかっているので、一般的に非常に高価とされている。その高価な付け爪を購入し、実際に装飾してみてから初めて自分の指に感性的に合わないと購入者が気付く場合があり、その場合には購入者の多大な損失となる。そのため、購入する以前に、あたかもその爪を自分の爪に貼り付けたかのような感覚を、視覚で立体的に確認できるような仮想システムが望まれている。そこで、本研究では被験者がステレオカメラを搭載した立体視HMDを装着して、自分の手指の動画をそのカメラで撮影すれば、HMDのディスプレイにCGの付け爪が立体的に重畳表示される手法を提案した。だが、この処理では画像から指先の位置・姿勢を推定し認識する学習率が低く、誤認識が頻発して、付け爪がとんでもない場所に重畳されていた。その一方で、近年深層学習を使って機械学習の認識率を向させる手法が多数提案されている。OpenPoseもその一種であり、単眼のカラー画像から関節を持った人物のスティックモデルや、手指の各指関節のスティックモデルが高精度で認識された例が多数紹介されている。そこで、このOpenPoseを用いて、高精度で仮想的にネイルアートを鑑賞できるシステムの構築を目指す。

[14E] インタラクション
座長|藤田 和之(東北大学)
Room E
9月19日(水) 15:40~17:35
14E-3
外耳道の加速度を利用したロボットの操縦意図の抽出
○中尾 駿太, 原 彰良, 宮本 拓, 西村 朋樹(大阪大学大学院情報科学研究科バイオ情報工学専攻), 古川 正紘, 前田 太郎(大阪大学大学院情報科学研究科バイオ情報工学専攻/脳情報通信融合研究センター)

現在、多くの多自由度ロボットはレバーやボタンといったインターフェースを用いて操縦されている。この操縦法ではロボットを自在に操るためにはそのロボットの持つ行動コマンドと同数以上のボタンやその組み合わせの準備または自由度数だけのレバーを必要とする。しかし、その多自由度さゆえに操縦者は非常に多くの操縦法を学習する必要がある。そこで、多自由度による学習が困難である操縦の問題を解決するロボットの制御方法として先行研究に「つもり」制御がある。見まね学習などにおいて、人間の随意運動は離散的な分節構造をもつことが指摘されており、「つもり」制御では、操縦対象に対する離散化された操縦意図を抽出し、操縦対象のある時間連続な定型動作(以下行動分節)を1対1対応させることで、意図レベルで整合性のとれた制御を実現している。これまでは操縦者がロボットの動作する動画を見ながら、画面内のロボットを操作しているつもりになって低自由度の操縦桿へ力を込めることで操縦意図の抽出を行っている。そこで、本研究では操縦意図を抽出する手法として人間の四肢とは独立した動作が可能である頭部に存在する各器官の中でも外耳道に着目した。外耳道の変化によって生じる加速度を測定する耳栓型加速度センサと操縦桿を用いて操縦意図を抽出することで、ロボットの行動分節を推定する精度を評価し、外耳道の加速度の変化からロボットの操縦意図に起因する分節行動の推定可能性を検証する。

[21A] ハプティクス (ウェアラブル)
座長|藤田 欣也(東京農工大学)
Room A
9月20日(木) 09:00~10:30
[21B] 食
座長|稲見 昌彦(東京大学)
Room B
9月20日(木) 09:00~10:30
[21D] AR応用
座長|池田 聖(立命館大学)
Room D
9月20日(木) 09:00~10:30
[21E] 支援
座長|上岡 玲子(九州大学)
Room E
9月20日(木) 09:00~10:30
21E-4
プロジェクションマッピングと機械学習を用いた 結晶成長プロセスにおける熱流動の可視化システムの構築
○畑佐 豪記, 角岡 洋介, 李 相一(名古屋大学 工学研究科), 村山 健太(名古屋大学 未来材料・システム研究所), 朱 燦(名古屋大学 工学研究科), 原田 俊太, 田川 美穂(名古屋大学 工学研究科/名古屋大学 未来材料・システム研究所), 石黒 祥生(名古屋大学 未来社会創造機構), 宇治原 徹(名古屋大学 工学研究科/名古屋大学 未来材料・システム研究所/産業技術総合研究所 窒化物半導体先進デバイスオープンイノベーションラボラトリ)

約2000 ℃の金属液体中の温度や流れの空間分布を瞬時に予測し可視化する技術を、プロジェクションマッピングと機械学習により実現した。素材プロセスの開発には多くの年月が必要である。例えば、代表的な素材プロセスである半導体結晶成長を例にとっても、非常に多くの実験条件、装置の構造パラメータが存在する。それらを実験やシミュレーションから系統的に解析し最適条件を見出す必要があるが、これは非常に忍耐のいる作業である。しかも、多くの場合、装置内部の状態を観察できない場合が多く、「見ながら実験を行う」ということすらできない。我々は電力損失を大幅に低減させる次世代パワー半導体材料である炭化ケイ素(SiC)結晶の溶液成長法技術の開発を行っている。プロセス開発においては、高温溶液中の温度・流速分布が極めて重要である。しかし、温度・流速分布を制御するための実験条件には多くのパラメータの組み合わせが存在するため、最適化が困難である。また、SiC溶液成長法は2000 ℃近くの高温で行うため、溶液の入った坩堝は断熱材とコイルで覆われている。そのため、実験中の溶液の温度・流速分布を直接測定・観察することが困難である。本論文は実際の装置の熱流体解析を行い、機械学習を用いて、炉内で測定している坩堝の温度や種結晶の回転速度等の実験条件から、溶液の温度・流速分布を瞬時に出力する予測モデルを構築した。また、コンピュータグラフィックスによって装置内部の映像を再現し、実験装置へプロジェクションマッピングを行うことで、結晶成長の育成環境のリアルタイム観察システムを実現した。このシステムを通じて、オペレータは装置内部の部材の位置や溶液の状態を「見ながら実験を行う」ことが可能となった。

[22A] ハプティクス (計測,システムモデリング)
座長|昆陽 雅司(東北大学)
Room A
9月20日(木) 10:40~12:10
[22B] 視覚(心理)
座長|松宮 一道 (東北大学)
Room B
9月20日(木) 10:40~12:10
[22C] 【OS】テレイマージョン
座長|石田 智行(福岡工業大学)
Room C
9月20日(木) 10:40~12:10
[22D] マルチモーダル1
座長|青山 一真(東京大学)
Room D
9月20日(木) 10:40~12:10
[22E] 体感・作用
座長|大西 克彦 (大阪電気通信大学)
Room E
9月20日(木) 10:40~12:10
[31A] ハプティクス (提示 1)
座長|吉元 俊輔 (大阪大学)
Room A
9月21日(金) 09:00~10:30
31A-5
臀部皮膚せん断変形による座面からの突き上げ感の提示
○堀江 新, 永野 光, 昆陽 雅司, 田所 諭(東北大学)

本研究では、臀部の皮膚にせん断変形を提示することで座面から鉛直方向に突き上げられた感覚を提示する手法を提案する。我々はこれまで、臀部の皮膚をせん断変形させることでせん断力を提示し、自己運動の加速感覚を誘発する手法を提案してきた。本研究ではさらに、左右の臀部の皮膚を瞬間的に身体中央に向けてせん断変形させることで路面の凹凸等による座面からの突き上げ感を提示する手法を提案する。提案手法が座面からの突き上げ感を再現する上で有効であるかを評価するため、臀部皮膚変形デバイスと、振動する機能を持ったステアリングコントローラを使用して実験を行った。身体中央への皮膚変形、外側への皮膚変形、手掌部への振動刺激を触覚条件として組み合わせて比較したところ、既存手法であるステアリングの振動のみの刺激と比較して、ステアリングの振動に加えて臀部の皮膚の身体中央へのせん断変形を提示する刺激が有意に突き上げ感を高い臨場感で提示できることが明らかになった。また、身体中央へのせん断変形と外側へのせん断変形との間では各評価項目で傾向が異なっており、異なる刺激として知覚されていることが示唆された。

[31D] ロコモーション
座長|野間 春生(立命館大学)
Room D
9月21日(金) 09:00~10:30
[31E] 動物
座長|永谷 直久(京都産業大学)
Room E
9月21日(金) 09:00~10:30
[32A] ハプティクス (提示 2)
座長|嵯峨 智(熊本大学)
Room A
9月21日(金) 10:40~12:10
[32B] 視覚(ディスプレイ1)
座長|小泉 直也(電気通信大学)
Room B
9月21日(金) 10:40~12:10
[32C] 移動とVR酔2
座長|矢野 博明(筑波大学)
Room C
9月21日(金) 10:40~12:10
[32D] 計測技術
座長|新居 英明(VIVITA)
Room D
9月21日(金) 10:40~12:10
[33A] ハプティクス (空間 1)
座長|坂口 正道 (名古屋工業大学)
Room A
9月21日(金) 14:00~15:30
[33B] 視覚(ディスプレイ2)
座長|吉田 俊介(NICT)
Room B
9月21日(金) 14:00~15:30
[33E] 人間拡張
座長|古川 正紘(大阪大学)
Room E
9月21日(金) 14:00~15:30
[34A] ハプティクス (空間 2)
座長|半田 拓也 (NHK技研)
Room A
9月21日(金) 15:40~17:10
[34B] 嗅覚
座長|小池 崇文(法政大学)
Room B
9月21日(金) 15:40~17:10
[34C] ハプティクス (デバイス)
座長|長谷川 晶一 (東京工業大学)
Room C
9月21日(金) 15:40~17:10
[34D] マルチモーダル2
座長|高嶋 和毅(東北大学)
Room D
9月21日(金) 15:40~17:10
[34E] エンタテインメント
座長|井村 誠孝(関西学院大)
Room E
9月21日(金) 15:40~17:35