情動表出ヒューマノイドロボット WE-4RII
(Waseda Eye No.4 Refined II)

  1. 研究の目的と概要
  2. ロボットシステム
  3. 情動表出
  4. 心理モデル
  5. 実験映像
  6. 研究の歴史
  7. 謝辞

1. 研究の目的と概要

本研究では,人間形頭部ロボットの開発を行うことによって,人間の知覚・認識機能を工学的観点から解明し,人間との円滑なコミュニケーションを可能とするために必要なロボットの形態と機能の実現を目標としています.

高西研究室では1995年より頭部ロボットWEシリーズの開発を進めており,2002年には,表情および体幹の動きにより情動表出が可能なWE-4 (Waseda Eye No.4)を開発し,2003年,より豊かな情動表出を目指し,WE-4に心理志向型9自由度ロボットアームを搭載した情動表出ヒューマノイドロボットWE-4R (Waseda Eye No.4 Refined)を,そして2004年,片手6自由度の情動表出・把持・触覚機能を有する人間形ロボットハンドRCH-1 (RoboCasa Hand No.1)をWE-4Rに統合することにより情動表出ヒューマノイドロボットWE-4RII (Waseda Eye No.4 Refined II)を開発しました.

2. ロボットシステム

下の写真が情動表出ヒューマノイドロボットWE-4RIIです.WE-4RIIは全59自由度(手:12,腕:18,腰:2,首:4,眼球:3,眼瞼:6,眉:8,口唇:4,顎:1,肺:1)を有しており,外部からの刺激に対する感覚器官として,多種のセンサ(視覚,聴覚,触覚,嗅覚)を搭載しています.以下に詳細を説明します.

Fig. 1 WE-4RII (全体図)

Fig. 1 WE-4RII (全体図)

Fig. 2 WE-4RII (頭部)

Fig. 2 WE-4RII (頭部)

2.1 眼球・眼瞼部

眼球部は3自由度で,ピッチ軸が左右共通になっています.眼球の最高角速度は600[deg/s]と人間と同等の運動性能を有します.眼瞼部は片側3自由度で,上下の開閉動作に加え,上部眼瞼部には回転動作が可能で,目尻の上げ下げが可能になっています.また,眼瞼フレームにはゴム製の膜を貼り付けています.眼瞼部の開閉における最大角速度は人間と同等の900[deg/s]であり,0.3[s]以内の瞬目が可能です.

WE-4では,これらの眼球部と眼瞼部を一体構造した眼球ユニットを開発することで,頭部の小型・軽量化を実現しました.さらに,眼球のピッチ軸の動きと眼瞼の開閉動作をメカニカルに同期する構造とし,ハードウェアによる眼球と眼瞼の強調動作を実現しました.

Fig. 3 眼球・眼瞼部機構図

Fig. 3 眼球・眼瞼部機構図

2.2 首部

首部は上部ピッチ・下部ピッチ・ヨー・ロール軸の4自由度となっています.ピッチ軸に2軸持たせることで,首を突き出したり,引いたりする動きが可能です.首の運動性能は人間と同等で,160[deg/s]で動作可能です.

2.3 腕部

腕部には,肩全体を動かすことで,情動表出能力を向上させた9自由度心理志向型ヒューマノイドアームを搭載しています.具体的には,肩付け根(ピッチ・ヨー軸),肩(ピッチ・ヨー・ロール軸),肘(ピッチ軸),手首(ピッチ・ヨー・ロール軸)から構成されています.これにより,「怒り」の時は肩をいからせたり,「悲しみ」の時は肩を落としたりすることができ,腕による豊かな情動表出を可能としています.

Fig. 4 心理志向型9自由度ロボットアーム

Fig. 4 心理志向型9自由度ロボットアーム

2.4 ハンド部

ハンド部はヒューマノイド国際共同研究室 ROBOCASA にて開発が行われ,イタリアの聖アンナ大学院大学 ARTS Lab. にて設計・製作された人間形ロボットハンドRCH-1 (RoboCasa Hand No.1)を搭載しています.

Fig. 5 RCH-1

Fig. 5 RCH-1

(1) 指部機構

RCH-1の各指はワイヤ駆動となっており,Fig. 6のようにアクチュエータに接続されたワイヤは,プーリとバネが並列に配置された各関節を通り,指先につながっています.各関節のプーリはいずれも軸周りに自由に回転可能となっているためアクチュエータが駆動し,ワイヤが引っ張られていくとFig. 7のように,物体の形状にならうように,指が屈曲していきます.これは,各関節のプーリが独立して回転可能なためで,複雑な制御を用いずに機構による安定した把持が可能です.

Fig. 6 指部機構

Fig. 6 指部機構

Fig. 7 把持機構

Fig. 7 把持機構

(2) 親指内転・外転機構

ヒトは球状の物体を把持する場合には親指を外転方向に開き,小指と向かい合うような位置で掴むのに対し,円筒状の物体を把持する場合は,親指を内転方向に回転させ中指と向かい合う位置で把持しています.この親指の内転・外転運動により,物体の安定した把持が可能となっています.

(3) 触覚センサ

RCH-1には触覚機能として,分布型on/offコンタクトセンサ,FSR,3D Force センサの3種類のセンサを備えています.on/offコンタクトセンサは,薄膜状のスイッチであり,Fig. 8のように指の腹15箇所,掌1箇所の合計16箇所に配置しています.FSRはWE-4シリーズの頭部に用いられているものと同一のもので2層に重ね合わせることで,接触時の力の大きさだけではなく,なで・たたき・押しの3種類の触り方が識別可能です.また,3D Force センサは親指と人差し指の指先に内蔵されており,指先の力を測定可能です.

Fig. 8 RCH-1触覚センサ

Fig. 8 RCH-1触覚センサ

2.5 体幹部

WE-4RIIではヨー軸とピッチ軸で構成される腰を体幹部に持っています.腰部の動きにより,首だけでなく上半身全体によるロボットの情動表出が可能となっています.

2.6 表情表出機構

WE-4RIIは眉・口唇・顎・顔色・声による情動表出が可能です.眉には伸縮性が高いスポンジを使っており,片眉4自由度を有します.眉上の4点をワイヤで上下に駆動することで,形状が変化します.

口唇部には紡錘形のバネを使用しており,左右4方向からワイヤで引っ張り,形状を変化させ,顎を使用して開閉を行います.

顔色として,赤色と青色のEL(Electro Luminescence)シートを使用することで,2色顔色が表出可能です.ELは左右の頬に配置しました.

発声には口部に小型スピーカーを搭載し,LaLaVoice 2001(東芝)による合成音による発声をします.

Fig. 9 表情表出機構

Fig. 9 表情表出機構

2.7 センサ

(1) 視覚

視覚センサとして,両眼にカラーCCDカメラを搭載しています.2つのCCDカメラから取得された映像は,画像キャプチャボードによってパソコンに取り込まれます.WE-4RIIは同時に任意の8色を視標とすることができ,視野内における視標の面積および重心を計測し,それらを目・首・腰によって追従できます.これにより,任意の色を持つ視標に対する3次元空間内での追従を実現しています.

Fig. 10 視覚センサ

Fig. 10 視覚センサ

(2) 聴覚

聴覚センサとして,左右の耳の奥に小型コンデンサマイクを搭載しています.そして左右の音圧差から音源の方向を知覚できます.

(3) 触覚

皮膚感覚として,触・圧覚と,温覚を搭載している.触・圧覚センサには,FSR(Force Sensing Resistor)を使用しています.FSRは非常に弱い力でも検出が可能であり,薄くて軽量なデバイスです.私たちは,2枚のFSRを重ねて貼ることにより,力の大きさのみでなく,「押す」「なでる」「たたく」の触れ方の違いを検出することを可能としました.一方,温度センサとしては,サーミスタを用いたセンサを搭載しています.また,手の甲にもFSRを貼り,対象物の接触の有無を検知可能としています.

(4) 嗅覚

嗅覚センサとしては,鼻の奥に4種の半導体ガスセンサを配置し,肺によって鼻から息を吸い込むことで,「アルコール」「アンモニア」「たばこの煙」の3種類のニオイを識別できます.

Fig. 11 嗅覚センサ

Fig. 11 嗅覚センサ

(5) 電流センサ

両肩ピッチ軸モータに流れる電流を,電流センサで計測することで,モノを持ったときの対象物の重量を認識可能としています.

2.8 システム構成

情動表出ヒューマノイドロボットWE-4RIIの全システム構成はFig. 12のようになっています.ロボットの制御には3台のパーソナルコンピュータ(PC/AT互換機)を使用しており,Ethernetにて互いに接続されています.

PC1(Pentium 4, 2.66[GHz],OS: Windows XP)では,嗅覚・皮膚感覚センサからの出力を12ビットA/Dボードで取得し,刺激の解析を行っています.また,サウンドカードを用いて,聴覚情報を取得しています.これらの情報とPC2から送信されたハンドのセンサ情報および,PC3から送信された視覚情報を統合し,ロボットの心理状態および行動を決定しています.さらに,センサ情報と心理状態,出力する行動に基づいて,ハンド以外のモータの位置制御を行っています.同時に,PC2に対してハンドの制御情報を送信しています.PC2(Pentium V, 1.0[GHz],OS: Windows 2000)では,RCH-1のセンサ情報を12ビットA/Dボードおよび,デジタルI/Oボードにより取得し,刺激の解析を行っています.解析されたセンサ情報はPC1に送信され,また,PC1から送信されたRCH-1の制御情報に基づいて,RCH-1の位置制御を行っている.PC3(Pentium 4, 3.0[GHz], OS: Windows XP)では,CCDカメラからの映像を取得し,視標の重心計測および輝度計測を行い,PC1に送信しています.

Fig. 12 システム構成図

Fig. 12 システム構成図

3. 情動表出

表情の制御にはEkmanの6基本表情を採用しており,"喜び","怒り","驚き","悲しみ","恐れ","嫌悪",6つの情動に対応する表情に"通常状態"を加えた7つの基本表情パターンをあらかじめ定義しています.そして,ロボットの表情表出パラメータである眉・口唇・顔色・首・腕・手・腰の変位を"通常状態"との間で50段階に比例補間し,情動の強さと各部の動きの大きさを対応させることで,多様な表情表出を可能としています.WE-4RIIではFig. 14で示した表情を表情パターンとして定義しています.表情・腕・手・腰の動きにより多様な表出が可能です.

Fig. 13a Happiness Fig. 13a Happiness Fig. 13b Fear Fig. 13b Fear
(a) 喜び (b) 恐怖
Fig. 13c Suprised Fig. 13c Suprised Fig. 13d Sadness Fig. 13d Sadness
(c) 驚き (d) 悲しみ
Fig. 13e Anger Fig. 13e Anger Fig. 13f Disgust Fig. 13f Disgust
(e) 怒り (f) 嫌悪
Fig. 13g Neutral Fig. 13g Neutral
(g) 通常
Fig. 13h Anger Fig. 13h Happiness Fig. 13h Happiness Fig. 13h Surprise
Fig. 13h Happiness Fig. 13h Sadness
(h) 新情動表出パターン

Fig. 14 WE-4RIIの情動表出

4. 心理モデル

4.1 アプローチ

WE-4RIIの心理モデルの構築にあたって,本研究では,Fig. 14のように脳を反射・情動・知能の3層構造に分け,反射側から心理モデルのアプローチをおこなっています.そして,情動の部分をその作用時間によって,3段階に構造化し,作用時間の長い側から,学習・気分・ダイナミックレスポンスとすることで,外部あるいはロボット内部からの刺激による心理状態遷移,すなわち,Mental Dynamicsの実現を目指しています.

さらに,ロボットと人間の双方向インタラクションを実現するために,マズローの欲求階層論を参考に,食欲・安全欲求・探索欲求から構成される欲求モデルを導入し,欲求に基づいた行動生成を可能としています.また,ロボットの行動対象を明確にするため,安西らの意識の3層構造を参考に意識モデルを導入し,行動の多様化を実現するため,オペラント条件付け学習にもとづく行動モデルを導入しました.

Fig. 14 心理モデルへのアプローチ

Fig. 14 心理モデルへのアプローチ

4.2 モデルの流れ

WE-4RIIは入力された刺激によって,刻一刻と自身の心理状態(=感情)を変化させ,それを表情や顔色,体の動きなどによって表現します.心理モデルの情報の流れとして,Fig. 15のようなモデルを構築しています.ここには大きな流れが2つあり,一方が外界からの刺激による流れ,もう一方がロボットの内的状態による流れです.また,人間はひとりひとり性格が異なっているように,ロボットにもパーソナリティを導入することで,個性を持たせようとしています.ロボットの心理状態を挟んで,前後にある感受個性・表出個性の2つがロボットパーソナリティとなります.欲求と感情は2層構造となっており,欲求は感情よりも低い層に位置づけています.また,感受個性を介すことで感情と欲求は相互作用も可能となっています.

Fig. 15 心理モデルとパーソナリティ

Fig. 15 心理モデルとパーソナリティ

4.3 パーソナリティ・学習システム

ロボットパーソナリティは感受個性と表出個性からなり,前者は刺激がいかに感情に作用するかを,後者は感情をどの程度表出するかを決定しています.これらのパーソナリティは任意に設定することができ,容易に多様なパーソナリティを生成可能です.さらに,WE-4では,過去の経験を学習し,その学習に基づいた動的なパーソナリティを形成することができます.

4.4 情動ベクトル・気分ベクトル

WE-4RIIには,Fig. 17のように快度,覚醒度,確信度の3軸からなる心理空間を定義しています.そして,心理空間内に定義した情動ベクトルEによってロボットの心理状態は表されます.さらに,ロボットに気分(ムード)を表現させるため,快度,覚醒度の2軸から構成される気分ベクトルMを導入しました.

気分ベクトルの快度は,外部からの刺激によって少しずつ変化するものとしました.一方,覚醒度は,自律神経系として体内時計を組み込むことで,表現しています.これにより,ロボットの覚醒レベルに人間と同様に周期性を持たせることができました.

4.5 情動方程式

外部から刺激が入力されると,ロボットの心理状態である情動ベクトルEは,情動方程式と呼んでいる方程式に従って変化していきます.WE-4RIIでは運動方程式をモデルにした2次微分方程式による情動方程式を導入しています.これにより,ロボットの心理状態において,刺激作用後の定常状態だけでなく,刺激が作用中の過渡状態も表現可能となり,より複雑で多様な情動軌跡も得られるようになりました.

また,ロボットの心理空間に対して,Fig. 17のように7種類の感情をマッピングしており,ロボットの心理状態が決定することで,ロボットの感情も一意に決定します.

Fig. 16 心理空間

Fig. 16 心理空間

Fig. 17 感情マッピング

Fig. 17 感情マッピング

4.6 欲求モデル

ロボットと人間の双方向インタラクションを実現するためには,ロボットからの自発的な行動が必要である.そこで,ロボットの欲求状態である欲求行列Nは,欲求方程式と呼ばれる,刺激と感受個性を変数に持つ,1次の差分方程式によって表現されます.現在,ロボットの欲求は,食欲・安全欲求・探索欲求の3要素によって構成していますが,将来的には要素数を拡張可能となっています.

(1) 食欲

食欲は人間の消費エネルギーに依存し,安静にしている状態でも消費する基礎代謝エネルギーと運動により消費するエネルギーの和として表されます.基礎代謝エネルギーはロボットの心理状態によって変化し,ロボットの消費エネルギーはロボットに流れる総電流量など,内的もしくは外的刺激に依存すると考えています.

(2) 安全欲求

安全欲求は人間が持つ外界に対する防衛態度の一種であす.近似の反応として生体防御反射がありますが,生体防御反射が強い刺激に対する反射的な回避行動であるのに対して,安全欲求は反射行動よりも時間的に長い刺激に対する防御反応となり,弱い危険刺激であっても,連続的に入力されることで,その危険性を認識し,危険回避や防衛態度などの行動を引き起こす.われわれはロボットが外界から危険刺激を感じたときに,刺激が入力された部位と強度を記憶させることで安全欲求を実現しました.

(3) 探索欲求

探索欲求とは人や動物が新しい場面や対象に出会うと,好奇心を示して探索行動を起こすという基本的欲求の1つです.ロボットに入力された視覚刺激とその対象物が持つ属性情報を関連づけて記憶させることで探索欲求を実現しました.

(4) 行動生成

ロボットの欲求が高まると,欲求を満たすためにロボットが自発的に行動を選択し,その行動を表出します.その結果,欲求が満たされない場合,欲求が解消されるまで,欲求を満たそうとします.また,欲求もロボットの内的刺激の一種とみなし,欲求に対する感受個性を定義することで,欲求は行動の生成だけでなく心理状態への作用も引き起こします.

4.7 意識モデル

ヒトの行動や情動表出には必ず意識が存在し,意識の対象に向かって,行動・情動表出が行われています.そこで,意識モデルを導入することで,ロボットの意識がどの対象に向けられているかを明らかにし,ロボットの行動をより明確なものにすることが可能になります.

(1) 覚醒レベルの意識

ヒトは覚醒度が低い状態では,刺激に対する反応が鈍くなる傾向があり,覚醒レベルの意識は,ヒトの覚醒度と高い相関関係を持っています.そこで,ロボットの覚醒度に応じて意識総量を定義することで,ロボットの覚醒度が低い状態では,意識総量が0に近くなり,覚醒レベルの意識がない状態を表し,逆に覚醒度が高い状態では意識総量が大きくなり意識がある状態を表すことが可能です.

(2) アウェアネスの意識

アウェアネスは特定の対象や事象に向かう意識のことを指しており,ヒトの場合,意識の向きやすさは強化の予測性,刺激の強度および欲求状態に大きく関わっています.アウェアネスではこれらの要因に基づいて,複数の対象が存在している場合でも,ロボット自身が最も大きな意識を向けている刺激を選択することが可能です.これによりインタラクションを行っている相手にどの対象物に対して意識を向けているかを伝えることが可能です.

4.8 行動モデル

ヒトの行動は多様性を有しており,状況に合わせて最適と判断した行動を出力することが可能であり,その判断は自身の経験によって学習することができます.ロボットの行動に対しても同様なシステムが必要であると考え,心理学における行動のモデルであるオペラント条件付け学習に基づく行動モデルを導入しました.これにより,自身の心理状態や欲求状態に基づいて,自律的に行動の出力が可能となりました.

4.9 記憶モデル

人間の記憶は,一般に,気分の影響を受けるとされています.その1つが気分の状態依存性で,一定の気分で体験した出来事が,その内容の快,不快にかかわらず,再び体験したときの気分になると簡単に再生される傾向をいいます.一方,ある一定の気分は,その気分と一致する記憶を呼び起こす,つまり,快い気分は快記憶を想起させ,不快な気分は不快記憶を想起させる傾向があり,これを気分適合性といいます.また,人間は覚醒度が低すぎたり高すぎるとうまく行動できず,適度な覚醒度のとき最適なパフォーマンスを示すと言われています.自己組織化マップによりコード化モデル,カオスニューラルネットワークにより想起モデルを開発し,ロボットが同じ刺激に対しても,そのときの気分,覚醒度,食欲に合った認識をすることが可能になりました.

5. 実験映像

画像をクリックすることにより実験映像を見ることができます.

情動表出(表情)
7つの基本感情の表情を表出します.
情動表出(全体)
表情・体幹・腕・手を用いて情動表出を行います.
刺激反応
視覚・触覚・聴覚・嗅覚より入る刺激に反応します.
様々な行動
ダンベル運動など人間に近い動きをすることができます.
意識
複数の刺激に対し,ロボット自身が最も
意識を向けている刺激に反応します.

6. 研究の歴史

WE-4R
WE-4R (2003)

WE-4Rでは,肩全体を動かすことが可能な心理志向型9自由度ロボットアームを搭載することで「怒り」のときは肩をいからせたり,「悲しみ」のときは肩を落とすなど,豊かな情動表出を実現しました.また,欲求を導入することによりロボットからの自発的な行動が可能となりました.

詳細

WE-4
WE-4 (2002)

WE-4では,眼球と眼瞼を一体化した小型の眼球・眼瞼機構を開発することで,ロボットシステムの大幅な小型化を実現しました.さらに,眉の機構改良や体幹に追加した2自由度を用いた上半身全体による視標追従や,学習システム・気分・2次情動方程式を導入した心理モデルにより,情動表出能力が大幅に向上しました.

詳細

WE-3RV
WE-3RV (2001)

WE-3RVでは目尻の上げ下げ,赤・青色の顔色表出,発声システム,人間らしい皮膚の触感を新たにWE-3RIVの基本機構に付加しました.それにより,情動表出能力を大きく向上することができました.また,ロボットパーソナリティを導入することで,外部からの刺激に対する多様なパーソナリティの表現が可能となりました.

詳細

WE-3RIV
WE-3RIV (2000)

WE-3RIVではロボットの入出力を強化するため,入力機能として嗅覚を,出力機構として赤色の顔色表出機構を搭載しました.さらに,ロボットの心理モデルに情動方程式を導入することで,多種の刺激によって情動が変化し,それを表出することが可能となりました.

WE-3RIII
WE-3RIII (1999)

WE-3RIIIでは新たに聴覚と触・圧覚および温覚からなる皮膚感覚を搭載しました.また,表情表出機構に改良を加えました.さらに,WE-3RIIの心理モデルを改良,再構築することで,刺激によって情動が変化し,それを表出することが可能となりました.

WE-3RII
WE-3RII (1998)

WE-3およびWE-3Rの基本機構に眉,唇,顎を付加することで人間らしい表情表出を可能としたWE-3RIIを開発しました.さらに,3つの独立したパラメータを持つ心理モデルに基づく表情制御方式を実現しました.

WE-3R
WE-3R (1997)

WE-3Rは1996年に開発したWE-3に眼瞼を付加することにより,光強度への適応を実現しました.また,耳を付加することにより,音源定位や音源の追従など対象物の追従方法を変えることも可能となりました.

WE-3
WE-3 (1996)

2眼の視覚ロボットを開発することで,輻輳角を利用した奥行き知覚を可能としました.WE-3は人間に極めて近い視覚と運動画の統合である頭部と眼球の協調運動に加え,奥行き方向の追従運動を実現しました.

WE-2
WE-2 (1995)

WE-2は頭部回転機構を有し,4自由度で単眼のロボットです.人間の前庭動眼反射を用いた協調運動制御により,視覚と運動画の統合である頭部と眼球の協調運動を実現しました.

全業績リスト

7. 謝辞

本研究は早稲田大学ヒューマノイド研究所にて行われました.本研究所のヒューマノイドコンソーシアムへの参加企業に対して感謝の意を表します.また本研究はヒューマノイド国際研究所ROBOCASAにて行われました.イタリア外務省文化交流振興局の研究・振興産業応用事業に感謝致します.さらに,本研究の一部は,岐阜県からの委託であるWABOT-HOUSE プロジェクトにより行われました.ここに謝意を表します.最後に,研究に協力頂きました聖アンナ大学院大学ARTS Lab,ソリッドワークス・ジャパン(株),(株) NTT ドコモ,早稲田大学理工学総合研究センター,早稲田大学文学部木村裕教授に感謝の意を表します.

Back
Last Update: 2006-11-01
Copyright(C) 2004-2006 Head Robot Team/Takanishi Laboratory
All Rights Reserved.