全身を用いた情動表出が可能な
2足歩行ヒューマノイドロボット
KOBIAN-RIII

  1. 研究の目的と概要
  2. ロボットシステム
  3. KOBIANの研究
  4. 研究の歴史
  5. 謝辞

1. 研究の目的と概要

本研究では,ADL(Activities of Daily Living : 日常生活活動) 支援RT(Robot Technology)サービスの提供を目指して, その際のインタラクションにおける身体性や表現性の影響や効果を研究,解明することを目的としています.

ADL支援RTサービスでは家庭や公共施設などの既存の実環境下での運用が想定されます(Fig. 1.1). また,ユーザがロボットに関する専門知識を持たない一般の方々であるため, ロボットとのコミュニケーションが直感的に行えることが必要であると考えられます. そこで,本研究で情動表出可能な2足歩行ヒューマノイドロボットによるサービスの提供を提案しております. これは,2足歩行であることで実環境に手を加えることなく汎用的に利用可能であることと, ヒューマンライクな情動表出がユーザにとって直感的に理解しやすいと考えられるからです.

Fig. 1.1 ADL支援RTサービス

本研究室では1995年より頭部ロボットWEシリーズの開発を進めており, 2004年までに上半身のみを有する情動表出可能なヒューマノイドロボット WE-4RII(Fig. 1.2) の開発を行ってきました.また,1996年より開発を行ってきた2足歩行ヒューマノイドロボットWABIANシリーズでは, 2007年度までに成人女性と同程度の大きさで歩行やダンスなど人体運動をシミュレートすることができる WABIAN-2R(Fig. 1.3)を開発しました.

KOBIANのハードウェアは,2007年に情動表出が可能な上半身と2足歩行が可能な下半身を統合して開発されました.2011年には小型モータコントローラユニットを開発し,自由度数の増加が可能になったことで,表情表現能力を向上させた頭部を開発,これを搭載したKOBIAN-Rを開発しました.2013年には漫画で用いられる表現記号(漫符)を表出できる機構を搭載した頭部を持つKONIAN-RIIを開発し,さらに表情表現能力が向上しました.2014年度には腕部の動作を高速化・可動範囲を拡大し,肩付け根に2自由度を追加したKONIAN-RIIIを開発し,これらの人間の笑い誘発への有効性を確認しました.

Fig. 1.2 WE-4RII

Fig. 1.3 WABIAN-2R

2. ロボットシステム

KOBIAN-RIIIは2014年に開発された全身情動表出が可能な2足ヒューマノイドロボットです(Fig. 2.1). KOBIAN-RIIIは全身に58自由度を有しており(Fig. 2.2),人間の5感に相当するセンサ,制御用のPCやバッテリなどが搭載されています.全重量は67[kg]です.

Fig. 2.1 KOBIAN-R (2011)

Fig. 2.2 自由度配置図

自由度
頭部(表情)27
首部4
腰部2
体幹部1
腕部6×2
脚部6×2
合計58
センサ カラーCMOSカメラ
コンデンサマイク
力センサ
ガスセンサ
6軸力覚センサ
アクチュエータ DCサーボモータ
バッテリ Li-ionバッテリ
重量[kg] 67

関連論文
[1] Nobutsuna Endo and Atsuo Takanishi, "Development of Whole-body Emotional Expression Humanoid Robot for ADL-assistive RT services," Journal of Robotics and Mechatronics Vol.23 No.6, Fuji press, December 20, 2011.

頭部は表情表出のために眉8自由度,瞼5自由度,眼球3自由度,唇7自由度,顎1自由度(Fig. 2.4)に加え,漫符表出機構3自由度の27自由度を有しています.寸法は成人女性の頭部平均寸法と同等であり,この中に表情各部を動作させる機構が収められています(Fig. 2.5).漫画に用いられる表現記号(漫符) を表出するために,額と頬に計5枚のフルカラーLEDディスプレイを実装しており, 様々な漫符を表出することが可能です.また,シートの変形を利用したプッシュプル機構により, 垂れ線の漫符や,しわの漫符を表出することができます(Fig. 2.6).

Fig. 2.3 アイソメ図

Fig. 2.4 自由度配置

Fig. 2.5 機構の配置

Fig. 2.6 漫符表出機構の配置

関連論文
[1] T. Kishi, et al., “Development of Expressive Robotic Head for Bipedal Humanoid Robot," Proceedings of the 2012 IEEE/RSJ International Conference on Intelligent Robots and Systems, pp. 4584-4589, Vilamoura, Algarve, Portugal, October, 2012.
[2] T. Kishi et al., "Development of a comic mark based expressive robotic head adapted to Japanese cultural background", Proceedings of the 2014 IEEE Intelligent Robots and Systems(IROS 2014), pp. 2608-2613, Chicago, USA, September 2014.
[3] 岸他, “顔面各部の広い可動域および顔色により豊かな表情表現が可能な 2 足ヒューマノイドロボット頭部の開発,” 日本ロボット学会誌,Vol. 31,No. 4,pp. 106-116,2013年5月.

(1) 眉, 額

眉は伸縮性が高い軟素材である株式会社クラレセプトン ®で成形されています.眉の両端および中央部2点の4点にはネオジウム磁石が接着されています. この磁石を外装内側の金属薄板に取り付けられたもう一つの磁石に引きつけながら上下させることで, 眉を変形させます(Fig. 2.7, Fig. 2.8).

額部外装内には無機ELシートが組み込まれ,顔色の表出が可能となっています.

Fig. 2.7 眉動作機構

Fig. 2.8 眉の動作

(2) 瞼

瞼は左右それぞれの上瞼のピッチとロールおよび左右下瞼のピッチ(連動)の合計5自由度により構成されています.上瞼のロールは超音波リニアアクチュエータを用いた機構により駆動されます.

Fig. 2.9 上瞼ロール機構

Fig. 2.10 瞼の動作

(3) 目

目はピッチ(連動)と左右それぞれのヨーの3自由度をもち,ジンバル機構により駆動されます.

Fig. 2.11 眼球機構

(4) 口

唇にも伸縮性が高い軟素材である株式会社クラレセプトン ®が用いられています.唇は上唇中央部において外装に固定されており, 上唇両端,下唇両端にそれぞれ制御点を持ち,上唇の制御点は左右独立に上下左右に駆動させることが可能です. 下唇の制御点は上下方向を左右独立に,左右方向は左右共通に駆動させることが可能です.

Fig. 2.12 口の構造

Fig. 2.13 口の動作

(5) 漫符表出機構(シート)

額と頬には垂れ線の漫符,顎には皺の漫符が表出されます(Fig.2.14). これらの漫符は黒い線の描かれた透明なシートを出し入れすることにより表出されます. また,額は7層構造になっています.白く塗装された外装の1層目から7層目の間に, LEDのドットを目立たなくするための光拡散シート,漫符表示のためのLEDディスプレイ, 顔色表出のためのELシートが収められています(Fig.2.15).

Fig. 2.14 漫符表出機構

Fig. 2.15 額の層構造(断面図)

(6) 漫符表出機構(LEDディスプレイ)

LEDディスプレイは額に3枚,頬に2枚,計5枚実装されています(Fig.2.16). フレキシブル基板を用いているため,非常に薄く,外装曲面に沿わせて変形させることが可能です. また,世界最小クラスのフルカラーLEDを用いているため, 高い解像度でフルカラーの漫符が表示可能です(Fig.2.17).

Fig. 2.16 LEDディスプレイの配置




Fig. 2.17 LEDディスプレイ

2.2 首部

首部は頭部との接続位置にピッチとヨー、また胴体との接続位置でのピッチとロールの4自由度となっています. WE-4RIIと同様首の上下両端にピッチ軸を持たせることで,顔の向きを固定したまま首を突き出したり,引いたりする動きが可能です.

Fig. 2.18 首部

2.3 腕部

人間のお笑い芸人のように極端に速く・大きく動かす表現が可能な腕部を開発しました.特に速度は標準的なヒューマノイドと同等の性能であったKOBIAN腕部に比べ,各関節の平均で10倍以上高速な動作が可能となっています.評価実験の結果,この腕部による高速動作の人間の笑い誘発への有効性を確認しました.この腕部には高出力化のため2つのモータを並列に駆動する機構,軽量化のためフレキシブルシャフトを使用した機構が採用されています.それぞれの詳細を以下に示します.

Fig. 2.19 腕部機構の配置

Fig. 2.20 腕部の自由度配置

(1) 2つのモータを並列に駆動する機構を利用した高出力化

腕部全体を支える肩付け根Roll軸には大きなトルクが要求されます.小さいモータを2つ並列に駆動させる方法を採用することで,1つの大きなモータで駆動するより省スペースな機構を実現しました.

Fig. 2.20 2つのモータを並列に駆動する関節の構造

(2) フレキシブルシャフトを利用した腕部の軽量化

上腕Yawや肘Pitchの腕部末端の関節は特に軽量化が求められます.関節を構成する要素部品のうち,特に重量が大きいモータを体幹に配置し,フレキシブルシャフトで関節に伝達する機構を採用することで腕部末端の軽量化を実現しました.フレキシブルシャフトのねじれによる位置決め精度の悪化を抑制するため,フレキシブルシャフトの出力側に減速機を配置しました.

Fig. 2.22 フレキシブルシャフトを利用した関節の構造

フレキシブルシャフトの動作


2.4 制御システム構成

KOBIAN-RIIIの全システム構成は下図のようになっています. KOBIAN-RIIIのボディは背中のPC(CPU: Pentium M 1.6GHz, RAM: 2GB, OS: QNX Neutrino 6.3.0) で制御されています. また頭部は,背中のPCと当研究室で開発したモータコントローラユニットを8つ用いた分散制御を行っています.

Fig. 2.23 制御システム構成

(1) モータコントローラユニット

ロボット内のモータやセンサなど様々な要素部品を制御するために, 基板の交換による機能の変更が可能なモータコントローラユニットを開発しました. このモータコントローラユニットは,4つのDCモータ・超音波モータの制御, さらにアナログセンサの信号の読み取りが可能です. また,サイズは同等の機能を持つものと比べると非常に小型であり, これによりKOBIAN-Rの頭部を,多様な情動表出能力と感覚機能を持ちながら人間と同等のサイズに抑えることに成功しました.

Fig. 2.24 モータコントローラユニット

Fig. 2.25 概要図

CPU STM32F103VG
モータ DC 4軸
モータ駆動電圧 [V] 8〜52
モータ制御 電流/速度/位置
センサ [ch] エンコーダ 4
フォトセンサ 4
電流センサ 4
外部用A/D 4
サイズ [mm] 46 x 30 x 18
重量 [g] 20

関連論文
[1] T. Otani, et al., “Development of Distributed Control System and Modularized Motor Controller for Expressive Robotic Head," Proceedings of the 19th CISM-IFToMM Symposium on Robot Design, Dynamics and Control (ROMANSY2012), pp. 183-190, Paris, France, June, 2012.


3. KOBIANを用いた研究

3.1 笑いに関する研究

我々は,不随意動作であり,生理学的な検出が可能で,健康増進効果が示唆されているという特徴を持つ笑いを人間とロボットのインタラクションの好例として注目しています.これまでにKOBIANの全身動作によって人間の笑いを誘発する研究に取り組んできました.

(1) 「笑いの方略」に基づくロボットの全身動作による人間の笑い誘発 (2013)

我々は,お笑い芸人や人間の笑い誘発メカニズムの研究者らが人間が面白さを感じる要因をまとめた書籍を調査し,「笑いの方略」をまとめました.お笑い芸人との相談によりこれらの「笑いの方略」から面白さを説明できるロボットの全身動作によるねたを作成しました.評価実験により,ロボットによる人間の笑い誘発を確認し,「笑いの方略」をもとにロボットの動作を作成することの有効性を確認しました.

Fig. 3.1 ねた中のKOBIANの様子

KOBIANによるねた動作

表情や脚を含んだ全身動作によるねた動作が可能です.

関連論文
[1] Kishi et al.,“Bipedal humanoid robot that makes humans laugh with use of the method of comedy and affects their psychological state actively ”,Proceedings of the 2014 IEEE International Conference on Robotics and Automation, pp. 1965-1970, Hong Kong, May 2014-June 2014.

(2) 人間の笑い誘発に対する腕部の可動速度・可動範囲の影響 (2014)

ロボットの腕部の速度・可動範囲の笑い誘発動作の面白さに与える影響を調べました.評価実験の結果,腕部の動作が速く,大きいほうが動作が面白くなることが確認されました.

KOBIAN-RIIIの全身動作

腕部を高速に動かすことができます.

関連論文
[1]下村他,“笑いを通じた人間とロボットのインタラクションに関する研究(第1報:高速度・広可動域を実現した2足ヒューマノイドロボット上腕部の開発)”,第15回計測自動制御学会システムインテグレーション部門講演会,3H2-3,東京都,2014年12月.

(3) 脇腹を揉んでくすぐる1自由度ロボットハンドの開発

人間が相手の笑いを誘発する手段には視覚的なものだけでなく,触覚によるくすぐりがあります.くすぐりによって笑いが誘発されるメカニズムは未解明の部分が多くあります.そこで我々は再現性のあるくすぐりが可能なわき腹を揉んでくすぐるロボットを開発しました.評価実験から,このロボットのくすぐりにより,人間の笑いを誘発できることが確認されました.

Fig. 3.2 ロボットハンドの全体像


Fig. 3.3 ロボットハンドの機構


ロボットハンドの動作

関連論文
[1]岸他,“揉み動作によるくすぐりで人間の笑いを誘発する一自由度ロボットハンドの開発”,第32回日本ロボット学会学術講演会,3E2-05,福岡県,2014年9月.

3.2 感情に関する研究

(1) 情動表出

Ekmanの基本6感情に基づく,"喜び","怒り","驚き","悲しみ","恐れ","嫌悪", の6つの感情に"通常状態"を加えた7つの感情パターンをあらかじめ定義しています. KOBAIN-RIIIではこれらを頭部・腕・手・腰・脚による全身を用いて表出できます.

(a) 喜び (b) 恐怖
(c) 驚き (d) 悲しみ
(e) 怒り (f) 嫌悪
(g) 通常

Fig. 3.4 KOBIANの全身情動表出,KOBIAN-RIIの表情

情動表出の映像


基本6感情を表現できます.



体全体で感情を表出します.


関連論文
[1] M. Zecca et al., “Design of the humanoid robot KOBIAN - preliminary analysis of facial and whole body emotion expression capabilities-” Proceedings of the 8th IEEE-RAS International Conference on Humanoid Robots (Humanoids 2008), pp. 487-492, Daejeon, S. Korea, December, 2008.

(2) 表情生成システムの開発(2012)

我々はロボットの内部状態としての感情を定義するために,Ekmanが提唱した基本6感情を用いています. ロボットと人間のインタラクションを実現するためには6表情だけでなく, 相手の文化背景やその時々に応じた様々な表情を表出する必要があります. 我々はPlutchikの感情モデルに基づき,表情の合成システムを開発し,KOBIAN-Rに適用しました. この手法によって複合的な感情を非対称な表情を含む,複数の表情の組み合わせから生成することができ,文化背景に合わせた表情も表出できるようになりました.

Fig. 3.5 表情生成の過程

関連論文
[1] G. Trovato et al., “Generation of Humanoid Robot's Facial Expressions for Context-Aware Communication," International Journal of Humanoid Robotics, Vol. 10, Issue 01, 23 pages, March, 2013.
[2] G. Trovato et al., “Development of Facial Expressions Generator for Emotion Expressive Humanoid Robot," Proceedings of the 2012 IEEE-RAS International Conference on Humanoid Robots, pp. 303-308, Osaka, Japan, November, 2012.
[3] G. Trovato et al., “Evaluation Study on Asymmetrical Facial Expressions Generation for Humanoid Robot," Proceedings of the 1st International Conference on Innovative Engineering Systems, pp. 129-134, Egypt, December, 2012.

(3) 表情と「漫符」の認識における文化的差異(2012)

表情の認識には文化による影響があることが報告されています. 我々は表情認識の文化的差異を調査するため,KOBIAN-Rの表情に日本の漫画に多く使用される「漫符」を加え,印象評価を行いました. 実験の結果,漫符により日本人の表情認識は上昇しましたが,西洋人に対する効果は薄いことがわかりました.

Fig. 3.6 漫符を用いた表情

関連論文
[1] G. Trovato et al., “A Cross-Cultural Study on Generation of Culture Dependent Facial Expressions of Humanoid Social Robot," Proceedings of the 4th International Conference on Social Robotics, pp. 35-44, Chengdu, China, October, 2012.
[2] G. Trovato et al., “Cross-Cultural Perspectives on Emotion Expressive Humanoid Head: Recognition of Facial Expressions and Symbols," International Journal of Social Robotics, Vol. 5, Issue 4, pp. 515-527, November, 2013.

(4) 2足ヒューマノイドロボットの感情表出を伴う歩行 (2013)

ロボットと人間の社会的なインタラクションにおいて感情の効果は様々であり, 表情や声だけでなく,歩行などの日常的なしぐさにも影響を与えます. 我々はインタラクション中の反応としての感情表出だけでなく, 日常的な動作中における感情表出の印象評価を行うために, プロの演劇家が表現する,感情表出を伴う歩行のモーションキャプチャを行い, KOBIANの歩行パターンを作成しました.CGおよび実機による印象評価の結果, 多くの被験者がKOBIANの感情表出を伴う歩行から意図した感情を認識しました.

喜びの歩行

悲しみの歩行

Fig. 3.7 感情表出を伴う歩行

関連論文
[1] M. Destephe et al., “Emotional Gait Generation Method based on Emotion Mental Model - Preliminary experiment with Happiness and Sadness -," Proceedings of the 10th International Conference on Ubiquitous Robots and Ambient Intelligence (URAI2013), pp. 86-89, Jeju, Korea, October, 2013.
[2] M. Destephe et al., “Conveying Emotion Intensity with Bio-inspired Expressive Walking -Experiments with Sadness and Happiness-," Proceedings of the 22nd IEEE International Symposium on Robot and Human Interactive Communication, pp. 161-166, Gyeongju, Korea, August, 2013.
[3] M. Destephe et al., “The Influences of Emotional Intensity for Happiness and Sadness on Walking," Proceedings of the 35th Annual International Conference of the IEEE Engineering in Medicine and Biology Society, pp. 7452-7455, Osaka, Japan, July, 2013.
[4] M. Destephe et al., "Improving the Human-Robot Interaction through Emotive Movements - A Special Case: Walking -," Proceedings of the 8th ACM/IEEE International Conference on Human-Robot Interaction, pp. 115-116, Tokyo, Japan, March, 2013.

(5) ヒューマノイドロボットを用いた異文化挨拶における印象の違い(2013)

ロボットがある特定の文化に属するジェスチャーや会話を行うとき, その文化に属さない人にどのような印象を与えるのか調査するために,KOBIANを用いて実験を行いました. 日本とエジプトの挨拶をKOBIANに表出させ,文化間での印象の違いを調査したところ, 文化が異なることで"親しみやすさ"や"心地よさ"に違いがでることが分かりました.

日本の挨拶

エジプトの挨拶

Fig. 3.8 挨拶するKOBIAN

関連論文
[1] G. Trovato et al., “Cross-cultural study on human-robot greeting interaction: acceptance and discomfort by Egyptians and Japanese," Journal of Behavioral Robotics, 11pages, October, 2013.
[2] G. Trovato et. al, “Towards Culture-specific Robot Customisation: A Study on Greeting Interaction with Egyptians," Proceedings of the 22nd IEEE International Symposium on Robot and Human Interactive Communication, pp. 447-452, Gyeongju, Korea, August, 2013.

(6) 心理モデルに基づく動的な感情表現(2013)

パーソナルロボットは,人間にとって親しみやすい存在であることが必要であると我々は考えています. このためには,ロボットの機能として,自らの内部状態を表情やジェスチャーなどを用いてわかりやすく表出することが求められます. 我々はWE-4RIIに搭載されていた心理モデルをKOBIAN-Rの視標追従のアルゴリズムと統合, 視標との距離による感情状態を変化,また感情による視標との距離の取り方の変化を実現させました. 印象評価の結果,ロボットが視標追従中に感情を表出すると,”親しみやすさ”が上昇,”ロボットらしさ”が減少することがわかりました.

正面

全体

Fig. 3.9 視標追従中の感情表出(驚き)

KOBIAN-R視標追従の映像


感情表出しながら視標追従します.

関連論文
[1] T. kishi et al., “Impression Survey of the Emotion Expression Humanoid Robot with Mental Model based Dynamic Emotions," Proceedings of the 2013 IEEE International Conference on Robotics and Automation, pp. 1655-1660, Karlsruhe, Germany, May, 2013.

3.3 視覚に関する研究

(1)前庭動眼反射を基にした2足歩行ヒューマノイドロボットの視標追従行動の実現(2010)

パーソナルロボットは,産業用ロボットのような画一的な動作ではなく, 人間と同様に,時々刻々と変化する環境を把握し,変化に応じた行動を取ることが要求されます. このために,我々はWE-4RIIに実装されていた前庭動眼反射による視標追従アルゴリズムを体幹のPitch とYaw にも拡張し, 目・頭・体幹による視標追従アルゴリズムを開発しました. 次に,それをオンラインパターンジェネレータと統合し,視標との距離に応じて2足歩行を行うアルゴリズムを開発しました.これをKOBIANに 実装し評価実験を行ない,本手法の有効性を確認しました.

Fig. 3.10 視標追従の様子

関連論文
[1] N. Endo et al., “Integration of Emotion Expression and Visual Tracking Locomotion based on Vestibulo-Ocular Reflex," Proceedings of the 19th IEEE International Symposium on Robot and Human Interactive Communication, pp. 593-598, Viareggio, Italy, September, 2010.

(2)最適な歩行軌道を選択する手法(2013)

ロボットが人間の生活空間のなかで活動するためには,障害物や凹凸のある不整地で,動的に周りの状況を把握し,安全な移動経路を選択することが必要です. 我々はロボットの視覚センサの情報から歩行軌道上の障害物の位置を把握し, 経路を変更しながら歩行する手法を開発しました.

Fig. 3.11 最適な歩行軌道を選択する手法

関連論文
[1] M. Brandao et al., “Active Gaze Strategy for Reducing Map Uncertainty along a Path," Proceedings of the 3rd IFToMM International Symposium on Robotics and Mechatronics (ISRM 2013), pp. 455-466, Singapore, October, 2013.
[2] M. Brandao et al., “Integrating the whole cost-curve of stereo into occupancy grids," Proceedings of the 2013 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2013), pp. 4681-4686, Tokyo, Japan, November, 2013.

4. 研究の歴史

KOBIAN/HABIAN (2009)
  • 全身情動表出可能なヒューマノイドロボットKOBIANを作成しました.
  • WE-4RIIと表情における情動認識率の比較調査を行いました.
  • 全身情動表出の認識率調査を行いました.
  • ソフトハンドWSH-1,WSH-1Rを開発しました.
  • 車輪式情動表出ヒューマノイドロボットを開発し,
    脚式と車輪式の情動表出認識率の比較調査を行いました.
  • 詳細

全業績リスト

5. 謝辞

本研究は独立法人新エネルギー・産業技術総合研究機構の「戦略的先端ロボット要素技術開発プロジェクト」(II.サービスロボット分野研究開発項目<2>「高齢者対応コミュニケーションRTシステム」)にて行われました.

本研究は早稲田大学ヒューマノイド研究所,ヒューマノイド国際研究所ROBOCASA,文部科学省グローバルCOEプログラム「グローバルロボットアカデミア」,欧州の科学技術助成制度FP7のRoboSoM(ICT-2009-4)の支援を受けました.

最後に,研究にご協力頂きました株式会社 ソリッドワークス・ジャパン株式会社テムザック大電株式会社NikkiFron株式会社株式会社 クラレ中興化成工業株式会社STマイクロエレクトロニクス株式会社早稲田大学理工学総合研究所に感謝の意を表します.

早稲田大学ヒューマノイド研究所
早稲田大学WABOT-HOUSE研究所
ソリッドワークス・ジャパン株式会社
新エネルギー・産業技術総合開発機構  (NEDO)
株式会社テムザック
大電株式会社
NikkiFron株式会社
株式会社クラレ
中興化成工業株式会社
STマイクロエレクトロニクス株式会社
Back
Last Update: 2015-6-24
Copyright(C) 2013 Takanishi Laboratory
All Rights Reserved.