ニュース・イベント

プレスリリース

協調ロボットの未来:広範囲触覚・近接センシングの簡易な実現に成功

協調ロボットの未来:広範囲触覚・近接センシングの簡易な実現に成功

ポイント

  • 周囲の環境や人に対する安全な動作を実現するための近接覚と、利用者に対して安心感を提供する触覚、2つの感覚を備えたセンシングロボットアームの開発に成功した。
  • 広範囲なセンシング機能を備えていながら、複雑な配線がなく、シンプルかつ耐久性の高い設計を実現した。
  • センシング装置におけるデジタルツインを構築することによって、データ駆動型のセンシング機能を備えることができ、Sim2Real[用語説明]の効果を高めることにも成功した。
 北陸先端科学技術大学院大学(学長・寺野稔、石川県能美市)人間情報学研究領域のホ アン ヴァン(Ho Anh Van)准教授は、視覚による触覚・近接検知装置を備えたロボットアームの開発に成功した。これにより、ロボットと人間とのインターフェースに関して、人工知能(AI)を活かした人間とCyber-Physical System (CPS) [用語説明]環境における、新たな価値を創出する研究につながることが期待される。

【研究の背景と目的】
 これまでの産業用ロボットの考え方では、人間とロボットは作業領域が明確に分離されており、ロボットは人間の安全半径内に立ち入ることが許されなかった。これは、第一義的には人間を危険から守るためだが、一方で、産業用ロボットの安全性に関する技術・研究の発展を阻害していた側面がある。安全性の確保は、最低限のセンシング技術と簡易なフェイルセーフ機能で十分とされ、研究開発のリソースは、より製品の競争力を高めるためのロボットの高速化・高精度化に注ぎ込まれてきた。しかしながら、近年の我が国における労働力不足や長引くコロナ禍による新しい生活様式の中で、これまで人間の手で行ってきた作業をロボットで代替しようとする動きが急速に高まってきている。さらに、全ての人が健康的な生活を送ることができる社会を目指すSDGsの大きな流れが加わり、現在ロボット技術に人間との調和、つまりロボットが人間と共存し、さらに人間とコラボレーションすることが強く求められている。
 例えば、ロボットが人間をサポートする技術として、アームで人間を支える介護ロボットでは、介護サービスの提供を受ける人間が安心感を得られる触覚センシングの活用が検討されている。触覚は、人間同士の触れ合いにおいては愛情や信頼、思いやりを伝える重要な感覚である。しかし、ロボットの触覚技術は長年研究されてきているが、視覚技術の研究と比較すると未だ応用例は極めて少ない。また、同時に周囲の人間や環境に対する安全性を確保するためには、ロボットが周辺状況を高い精度で検知する必要があるが、特に外付けのカメラを利用する場合に、アームや利用者によって遮蔽される領域が多く、アームの近接領域の検出が困難となっている。
 このような問題点に鑑み、今回、利用者が安心感を得られる接触と、安全な動作を実現する近接の両方の感覚を兼ね備えたロボットアームの技術を提案した。本研究において実現される近触覚・接覚のセンシング技術では、人間を含む周囲の環境を認識し、自立的な判断行動が可能となるロボットアームを開発することで、衝突回避等の安全性だけではなく、接触が許容される状況の判断および接触を通じた安心感の提供といった機能を有する、人工知能(AI)を搭載した協働ロボットの実現を目指す(図1)。

pr20230412-11.png
図1:本研究の位置付け

【研究の内容】
 本研究では、低コストかつシンプルな構造を有する柔軟な触覚装置と、人間との接触を即時に検知することで、人間の行動を推定しながら人間と調和するロボットを実現した。このロボットは、人間の皮膚を模した柔軟なスキン上の複数の接触点へ加えられた力を、ロボットアームの両端に設置されたカメラが、スキンの変形の状態をリアルタイムで測定する技術によって実現した。さらに、透明なシリコンゴムと薄い柔軟な高分子分散液晶(PDLC)フィルムを組み合わせることで、柔軟なスキンの透明性をアクティブに切り替えることが可能となった(図2)。利用するPDLCフィルムは、外部から小さな電圧を印加することにより、透明/不透明を切り替えることができる。この透明/不透明の切り替えでは、近接覚と触覚の二つのモードを備え、またそのモードをシームレスに切り替えることができる。

pr20230412-12.png

図2:設計概念

(図2)
(右)近接覚モード(PDLCが透明):スキン内部の2台のカメラは、スキン近傍の外部オブジェクトを検知できる。
(左)触覚モード(PDLCが不透明):これまでの研究成果と同様、2台のカメラが接触または相互作用下でのスキンの歪みを検知し、触覚または力のセンシングが可能となる。

 本研究で使用したロボットアームは、柔軟なスキンの内側に格子状のマーカーを備え、スキン内部に2台の小型カメラを配置している。スキンの透明性の能動的な切替えにより、近接覚と広範囲の触覚をセンシングする独創性の高い手法である。圧力センサを用いずカメラによるマーカーの変位から外力を算出することから、配線の複雑さやオクルージョン (光学遮蔽)などをほぼ完全に無くすことに成功しており、高いセンシング精度と耐久性を実現した。さらに、各モジュールの内圧を変えることでスキンの柔らかさを調整し、スキンに触れた人間に対する触感についても、制御可能である。さらに、深層学習を通じて多様な近接・接触動作・状況を予め学習させることで、人間と調和し、人間との複雑な近接・接触を実現する潜在的に高い適応性を持つと期待される。

pr20230412-13.png図3:各動作モード

<参考動画>
 動作ビデオ1:https://youtu.be/NN2u8YBLITY
 動作ビデオ2:https://youtu.be/m8QzvDx_vpc

 今日、ロボットは、いわゆる物理的な人間とロボットの相互作用(pHRI;physical Human-Robot Interaction)シナリオのように、安全半径の外で動作しつつ、人間と同じワークスペースを共有し(共存)、さらには人間と相互作用(コラボレーション)する必要がある。pHRIでは、ロボットは衝突の可能性を回避するだけでなく、避けられない物理的接触と意図的な物理的接触の両方を安全かつ信頼できる方法で対応することが期待されている。これを達成するために、深度カメラと力/トルクセンサーの組み合わせが提案されているが 、これは、外部カメラを使用するために、先述した視覚の遮蔽の問題を有している。近年、マルチモーダル知覚(触覚、近接など)を備えた大規模センサースキンが開発されたが、センサーネットワークのデータ取得と処理が複雑であるため、微調整が困難であり、衝突等の突発的な事故への応答が遅くなる可能性がある。

 本研究は、ロボットの周りの多様な近接や接触動作・状況などをたった2台のカメラで検知することが可能なシンプルな構造をしており、信頼性を持つpHRIの実装方法となり得る。また、Sim2Realのプロセスで、実物の特性を再現できるデジタルツインにおいて、必要なデータ収集や学習などをシミュレーション環境で実施し、学習の結果を、実物に反映させることができ、今後の研究・開発の時間を大幅に縮小することも期待される。

 本研究成果は、2023年2月28日にIEEE(米国電気電子学会)が発行する学術雑誌「IEEE Transactions on Robotics」のオンライン版に掲載された。また、2023年4月3日から7日までシンガポールで開催の、国際会議IEEE-RAS International Conference on Soft Robotics (RoboSoft 2023)で発表された。

 なお、本研究は、国立研究開発法人科学技術振興機構(JST)・戦略的創造研究推進事業さきがけ「IoTが拓く未来」研究領域(JPMJPR2038)の支援を受け行った。

【今後の展開】
 本研究によって、今後の展開が期待される製品・サービスとして、次の二つが挙げられる。一つ目は、利用者がより多くの事を自分自身でできるように支援し、さらに利用者に加え、周りの状況も考慮したロボットアームを備えた車椅子への活用である。二つ目に、サービスの提供を受ける利用者に安心感や大事にされているという感覚、思いやりなどを伝えることができる介護ロボットである。将来的に、これらの製品が介護保険等の給付対象として認可されることで普及促進へと繋がることが期待される。

【論文情報等】

(1)
題目 Simulation, Learning, and Application of Vision-Based Tactile Sensing at Large Scale
雑誌名 IEEE Transactions on Robotics
著者 Quan Khanh Luu, Nhan Huu Nguyen, and Van Anh Ho
掲載日 2023年228
DOI 10.1109/TRO.2023.3245983
(2)
題目 Soft Robotic Link with Controllable Transparency for Vision-based Tactile and Proximity Sensing
国際会議名 the 6th IEEE-RAS International Conference on Soft Robotics (RoboSoft 2023)
著者 Quan Luu, Dinh Nguyen, Nhan Huu Nguyen, anh Van Anh Ho
発表日 2023年4月6日

【用語解説】

Sim2Real:
コンピュータ内のシミュレーション等で学習したモデルを現実世界に用いるという強化学習の手法。
Cyber-Physical System (CPS):
実世界(フィジカル)におけるデータを収集し、サイバー世界でデジタル技術などを用いて分析・知識化を行い、それをフィジカル側にフィードバックすることで、産業の活性化や社会問題の解決を図っていく仕組み。

令和5年4月12日

PAGETOP