JP7020159B2 - コミュニケーション装置およびその制御プログラム - Google Patents

コミュニケーション装置およびその制御プログラム Download PDF

Info

Publication number
JP7020159B2
JP7020159B2 JP2018020119A JP2018020119A JP7020159B2 JP 7020159 B2 JP7020159 B2 JP 7020159B2 JP 2018020119 A JP2018020119 A JP 2018020119A JP 2018020119 A JP2018020119 A JP 2018020119A JP 7020159 B2 JP7020159 B2 JP 7020159B2
Authority
JP
Japan
Prior art keywords
image data
moving image
frame
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018020119A
Other languages
English (en)
Other versions
JP2019136797A (ja
Inventor
航 加来
真太郎 吉澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018020119A priority Critical patent/JP7020159B2/ja
Priority to EP18215930.1A priority patent/EP3525199A1/en
Priority to CN201910091023.0A priority patent/CN110116413A/zh
Priority to KR1020190011937A priority patent/KR20190100853A/ko
Priority to US16/266,650 priority patent/US20190240588A1/en
Publication of JP2019136797A publication Critical patent/JP2019136797A/ja
Application granted granted Critical
Publication of JP7020159B2 publication Critical patent/JP7020159B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/365Details; Accessories allowing a choice of facial features, e.g. to change the facial expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/04Display device controller operating with a plurality of display units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Hardware Design (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Processing Or Creating Images (AREA)
  • Toys (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、コミュニケーション装置およびその制御プログラムに関する。
外部からの情報等に応じて表示部に感情をアニメーションで表現するコミュニケーションロボットが知られている(例えば、特許文献1参照)。
特開2016-193466号公報
表情を表現するアニメーション動画は、通常、その表情の一周期分の変化を連続する複数のフレーム画像によって描写するものである。したがって、コミュニケーションロボットは、継続してある表情を示す場合に、その表情に対応するアニメーション動画を繰り返して再生する。表出する表情を変化させる場合には、次の表情に対応するアニメーション動画に切り替えて再生する。このとき、これまでのコミュニケーションロボットは、再生中の動画像を途中で打ち切って次の動画像の再生を開始するか、再生中の動画像の一周期分の再生を終えてから次の動画像の再生を開始していた。前者の切り替え手法は、表情の連続性が失われ、生身の人間や動物ではあり得ない違和感のある変化を生じさていた。後者の切り替え手法は、例えばユーザとの対話における感情の転換時点に対して遅れを生じさせ、円滑なコミュニケーションを阻害する要因となっていた。
本発明は、このような問題を解決するためになされたものであり、表出する感情を適切なタイミングで切り替えると共に、切り替え時における表情の連続性を考慮してユーザの違和感を低減するコミュニケーション装置を提供するものである。
本発明の第1の態様におけるコミュニケーション装置は、表示部と、感情を表現するための複数のフレーム画像から成る動画像データをデータベースから取得する取得部と、取得部で取得した動画像データを表示部で再生表示する表示制御部と、表示部で再生表示する動画像データを現在再生表示している第1動画像データから次に再生表示する第2動画像データへ切り替える判断を行う判断部とを備え、表示制御部は、判断部が表示部で再生表示する動画像データを第1動画像データから第2動画像データへ切り替えると判断した場合に、切り替え直前に再生表示する第1動画像データのフレーム画像の次のフレーム画像と切り替え直後に再生表示する第2動画像データのフレーム画像とが互いに類似するように、第2動画像データから再生開始のフレーム画像を選択して第2動画像データを再生表示する。
このような表示制御を行えば、第1動画像データの再生表示における表情の変化の流れを受け継いで第2動画像データの再生表示を開始できるので、切り替え時点における再生画像の連続性を確保できる。また、第1動画像データの一周期分の再生完了を待つことなく第2動画像データの再生を開始するので、切り替えるべきタイミングで表情を切り替えることができる。
上記のコミュニケーション装置において、表示部は、眼球部の変化を表す動画像データを表示するように設けられており、表示制御部は、切り替え直前に再生表示する第1動画像データのフレーム画像の次のフレーム画像と切り替え直後に再生表示する第2動画像データのフレーム画像のフレーム画像間で眼球部の黒目の開閉度合が類似するように、第2動画像データから再生開始のフレーム画像を選択しても良い。表情の印象は黒目の開閉度合が大きく寄与しており、切り替え時点において黒目の開閉度合が不連続であると、ユーザに強い違和感を生じさせる。そこで、このように黒目の開閉度合を基準として切り替え時のフレーム画像を選択すると、表情の遷移においてユーザにより滑らかな印象を与えることができる。
また、このようなコミュニケーション装置において、動画像データは、フレーム画像ごとの開閉度合に関する情報を付随情報として有し、表示制御部は、付随情報を参照して第2動画像データから再生開始のフレーム画像を選択するようにしても良い。このような情報が予め用意されていれば、フレーム画像の画像解析等を行うことなく適切なフレーム画像を選択できるので、より少ない演算でいち早く第2動画像データの再生表示を開始することができる。
また、動画像データは、黒目の開状態から閉状態を経て再び開状態となるまでの周期情報を付随情報として有し、表示制御部は、付随情報を参照して第2動画像データから再生開始のフレーム画像を選択するようにしても良い。動画像データが周期情報を有していれば、開状態から閉状態へ変化しているのか、あるいは閉状態から開状態へ変化しているのかに合わせて、第2動画像データから適切なフレーム画像データを選択することができる。すなわち、繋ぎ目前後のフレーム画像が類似しているに留まらず、繋ぎ目を跨いで再生される動画像の流れとしても滑らかになる。
上記の動画像データは、それぞれのフレーム画像が複数のレイヤを有し、複数のレイヤは、黒目を表現する黒目レイヤを含み、表示制御部は、表示部に対し、表現する視線方向に応じて黒目レイヤの表示位置を調整し、他のレイヤの表示を固定位置とするように表示すると良い。フレーム画像をこのようなレイヤ構造とすれば、表情を安定的に表現できると共に、簡単な演算で視線方向を調整することができる。ユーザは、視線が合うことにより、コミュニケーションの現実感を享受できる。
本発明の第2の態様における制御プログラムは、表示部に感情を表現するための複数のフレーム画像から成る動画像データを再生表示するコミュニケーション装置の制御プログラムであって、動画像データのうちの第1動画像データを表示部に表示再生する第1表示ステップと、表示部に再生表示する動画像データを第1動画像データから第2動画像データへ切り替える判断を行う判断ステップと、判断ステップで第2動画像データへ切り替えると判断した場合に、切り替え直前に再生表示する第1動画像データのフレーム画像の次のフレーム画像と切り替え直後に再生表示する第2動画像データのフレーム画像とが互いに類似するように、第2動画像データから再生開始のフレーム画像を選択して第2動画像データを再生表示する第2表示ステップとをコンピュータに実行させる。
このような処理を順次行えば、第1動画像データの再生表示における表情の変化の流れを受け継いで第2動画像データの再生表示を開始できるので、切り替え時点における再生画像の連続性を確保できる。また、第1動画像データの一周期分の再生完了を待つことなく第2動画像データの再生を開始するので、切り替えるべきタイミングで表情を切り替えることができる。
本発明により、表出する感情を適切なタイミングで切り替えると共に、切り替え時における表情の連続性を考慮してユーザの違和感を低減するコミュニケーション装置を提供することができる。
第1の実施例に係るロボットの概観図である。 ロボットのシステム構成図である。 右眼の構造を示す斜視図である。 ロボットの表情とラッセルの円環図との関係を示す図である。 動画像データの再生について説明する図である。 動画像データのヘッダ情報を説明する図である。 第1動画像データから第2動画像データへの再生切り替えを説明する図である。 第1動画像データから第2動画像データへの再生切り替えを説明する図である。 第1動画像データから第2動画像データへの再生切り替えを説明する図である。 フレーム画像のレイヤ構造を説明する図である。 動作処理の手順を示すフローチャートである。 第2の実施例に係る搬送ロボットの概観図である。 第3の実施例に係るタブレット端末の概観図である。
以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。
図1は、本実施形態の第1の実施例に係るロボット100の概観図である。ロボット100は、ユーザである人間と音声対話を行うコミュニケーション装置としてのロボットである。ロボット100は、キャラクターを具現化したキャラクター装置であり、対話に合わせて眼の表情が変化する。
ロボット100は、外観として動物を模しており、顔部120を有する。顔部120には、ユーザが眼と認識できる位置に、眼球部122(右眼122a、左眼122b)が設けられている。眼球部122の構造については後に詳述するが、右眼122a、左眼122bのそれぞれの背後には、例えば液晶パネルや有機ELパネルである表示パネル106が設置されている。
ロボット100の鼻の位置には、カメラ102が目立たないように配置されている。カメラ102は、例えばCMOSセンサを含み、外部環境を認識するための画像を取得する撮像部として機能する。ロボット100の口の位置には、スピーカ109が隠されて配置されている。スピーカ109は、ロボット100が生成した音声を発する発話出力部として機能する。ユーザは、口の位置から出力される音声に、ロボット100が喋っているような感覚を覚える。また、顔部120のいずれかの位置には、マイク101が隠されて配置されている。マイク101は、ユーザの発話音声等を集音する機能を担う。
図2は、ロボット100のシステム構成図である。ロボット100は、主なシステム構成として、マイク101、カメラ102、表示パネル106、スピーカ109、制御部200、応答音声DB310および応答表情DB320を備えている。制御部200は、例えばCPUによって構成され、機能ごとの実行を担う機能実行部としても動作し、主に、発話認識部201、顔認識部202、表出判断部203、表情取得部204、視線決定部205、音声選択部206、発話制御部207および表示制御部210として動作する。
マイク101は、主な機能として、ロボット100が対話する相手であるユーザの発話音声を集音する。マイク101は、集音したユーザの発話音声を音声信号に変換して、発話認識部201へ引き渡す。
発話認識部201は、マイク101から受け取った音声信号を解析してユーザの発話を認識する。発話認識部201は、マイク101と協働して、ロボット100へ向かって話しかけるユーザの発話を取得する発話取得部としての機能を担う。発話認識部201は、具体的には、一般的な音声認識技術によりユーザの発話内容を認識する。発話認識部201は、認識した発話内容を音声選択部206へ引き渡す。
音声選択部206は、発話認識部201で認識されたユーザの発話内容に対して会話としてふさわしいセンテンスを選択し、選択したセンテンスに応じた発話データを応答音声DB310から収集して、発話制御部207へ引き渡す。応答音声DB310は、音声選択部206に接続されている応答音声のデータベースであり、例えばハードディスクドライブの記録媒体によって構成されている。応答音声DB310は、例えばコーパスとして体系化されており、個々の用語は、再生可能な発話データを伴って格納されている。
発話制御部207は、受け取った発話データを音声信号に変換してスピーカ109へ引き渡す。音声選択部206と発話制御部207は、互いに協働して、ユーザの発話内容に基づいて応答音声を生成する音声生成部としての機能を担う。スピーカ109は、発話制御部207で変換された音声信号を受け取って、応答音声を音声出力する。
また、発話認識部201は、受け取った音声信号の韻律を解析する。韻律は、発話を音波として捉えた場合の、その物理的特徴を表すものであり、発話認識部201は、ユーザが発する一塊の音波において、例えば中心周波数、周波数帯域、振幅の最大値および平均値を物理的特徴として演算する。発話認識部201は、解析した韻律を表出判断部203へ引き渡す。また、発話認識部201は、受け取った音声信号から当該音声の出所方向を解析し、解析した出所方向を視線決定部205へ引き渡す。
カメラ102は、主な機能として、ロボット100とコミュニケーションを取るユーザを撮影する。カメラ102は、撮影した画像を画像信号に変換して、顔認識部202へ引き渡す。
顔認識部202は、カメラ102から受け取った画像信号を解析してコミュニケーション対象であるユーザの顔を認識する。顔認識部202は、認識した顔領域の画像信号を表出判断部203へ引き渡す。また、顔認識部202は、顔領域の代表座標値を視線決定部205へ引き渡す。代表座標値は、例えば認識した顔の両眼間の中点座標である。
表出判断部203は、顔認識部202から受け取った顔領域の画像信号、および発話認識部201から受け取った韻律を用いてユーザの感情を推定する。具体的には、表出判断部203は、一般的な顔認識技術によりユーザの顔画像から特徴点を抽出し、それらの位置、隣接する特徴点を結ぶ線分の傾き、特徴点の数等の表情特徴量を演算する。そして、表情特徴量から例えば瞳孔の大きさ、目尻の下がり具合、口角の上がり具合、発汗の有無、皺の寄り具合などを抽出して、ユーザの感情を推定する材料とする。また、表出判断部203は、韻律から振幅レベルの変化や語尾の抑揚などを抽出して、ユーザの感情を推定する材料とする。表出判断部203は、これらの材料を総合的に判断して、ユーザの感情を推定する。
表出判断部203は、推定したユーザの感情に対応してロボット100が表出すべき共感感情を判断する。表出判断部203は、判断した共感感情を表情取得部204へ引き渡す。表情取得部204は、受け取った共感感情に対応する、表示パネル106へ表示するための動画像データを、応答表情DB320から取得する。
応答表情DB320は、表情取得部204に接続されている応答表情のデータベースであり、例えばハードディスクドライブの記録媒体によって構成されている。応答表情DB320は、例えばラッセルの円環図に対応して体系化されており、具体的な眼の表情の動画像データと、その表情が意味する感情とが互いに対応付けられて格納されている。動画像データは、詳しくは後述するが、眼球部の変化を表す複数のフレーム画像によって構成され、そのフレーム画像の描画や描画の変化によって感情を表現する。表情取得部204は、このような動画像データをデータベースである応答表情DBから取得する取得部としての機能を担う。表情取得部204は、取得した動画像データを表示制御部210へ引き渡す。
視線決定部205は、発話認識部201から受け取った音声の出所方向、および顔認識部202から受け取った顔領域の代表座標値の少なくともいずれかを用いてコミュニケーション対象であるユーザの方向を演算する。そして、その方向をロボット100が向けるべき視線方向であると決定する。視線決定部205は、目標とする視線方向を表示制御部210へ引き渡す。
表示制御部210は、表情取得部204から受け取った動画像データを展開し、視線決定部205から受け取った視線方向を実現するように黒目の表示位置を調整して、表示パネル106に再生表示する。表示制御部210は、表情取得部204から新たな動画像データ受け取ると、当該新たな動画像データの再生表示を開始する。具体的には後述する。
図3は、右眼122aの構造を示す斜視図である。左眼122bも右眼122aと同様の構造であり、それぞれの表示パネル106は、共に表示制御部210によって表示制御される。
右眼122aは、主に、透光カバー131、光ファイバ束132および表示パネル106から成る。透光カバー131は、例えば透明なポリカーボネイトによって成形され、顔部120の外装材としての役割を担う。動物や人を模したロボットの場合、眼の表面は曲面であることが自然であり、ユーザに受け入れられやすい。したがって、本実施形態におけるロボット100も、眼の表面に相当する透光カバー131は、外部に向かって凸状の曲面に成形されている。
右眼122aの奥側には、右眼の黒目等を図案化した図柄である右眼画像161aを表示するための表示パネル106が設置されている。また、表示面は、透光カバー131の外縁周を包含する大きさを有する。図においては、透光カバー131の外縁周に対応する大きさの白目に対して偏位した位置に右眼画像161aが表示されている様子を示す。
なお、本実施形態において表示する黒目は、生身の人間であれば虹彩と瞳孔を含む角膜に相当する部分であるが、図案化して表示するものであるので、生身の人間の黒目に対して部分的に省略されていたり、デフォルメされていたりするものであって良い。また、生身の人間には生じ得ないような装飾が施されていても良い。いずれにしても、コミュニケーション対象であるユーザが、眼の表情として認識し得るような図柄であれば良い。
透光カバー131の内曲面と表示パネル106の表面とは、光ファイバ束132によって接続される。光ファイバ束132は、表示パネル106に表示された右眼画像161aを透光カバー131まで伝達する。光ファイバ束132は、表示パネル106のピクセルのそれぞれに一対一に対応する光ファイバ132aの集合体である。図では説明のために表示パネル106の表面から浮かせて示しているが、それぞれの光ファイバ132aの一端は、表示パネル106の表面に導光系の接着剤により接着されている。それぞれの光ファイバ132aは、集合体としてその外周面が被覆132bで覆われて束ねられている。このようにして、透光カバー131、光ファイバ束132および表示パネル106は、互いに接続されて一体化される。
表示パネル106に表示されたた右眼画像161aの光束は、光ファイバ132aの一端から入射し、他端から出射する。光ファイバ132aの出射面である他端の集合体は、透光カバー131の内曲面に沿う仮想的なスクリーンを形成する。したがって、表示パネル106に表示されたた右眼画像161aは、この仮想的なスクリーンにおいてユーザに観察される。
図4は、ロボット100が表現する表情とラッセルの円環図との関係を示す図である。図においては顔部120の様子を並べて示しているが、本実施例におけるロボット100は、表示パネル106で再生表示する右眼動画像と左眼動画像により顔部120の全体からユーザが受ける印象をコントロールするものである。したがって、以下に説明するそれぞれの感情に対応付けられて応答表情DB320に格納されている動画像データは、右眼動画像データと左眼動画像データに対応する動画像データのセットである。
心理学の分野で提唱されているラッセルの円環図は、全ての感情を「快-不快」と「驚き-不活性」を軸とする平面に円環状に配置するモデルである。具体的な感情がいずれの位置に配置され得るかについては諸説あるが、本実施形態においては図示するように、「驚き」から時計回りで均等に、「警戒」「興奮」「高揚」「幸福」「快」「満足」「柔和」「リラックス」「冷静」「不活性」「疲労」「無気力」「憂鬱」「悲しい」「不快」「動転」「ストレス」「緊張」「神経質」の20の感情を円周上に配置している。図示するラッセルの円環図において、互いに隣接する感情は似通った感情である。したがって、その表情も相互に類似している。それぞれの感情に対応付けられた動画像データの図柄は、このような関係性をもって予め作成されている。
次に、動画像データの構造と表示制御について説明する。上述のように、動画像データは、右眼動画像データと左眼動画像データのセットで管理されているが、以下においては右眼動画像データに関して説明し、特に言及する場合を除き、左眼動画像データに関する同様の説明を省略する。
図5は、右眼動画像データの再生について説明する図である。右眼動画像データは、図示するように、連続する複数のフレーム画像によって構成され、各フレームには右眼の様子が描かれている。図の例では、右眼動画像データは、フレームF01からフレームF05までの5フレームによって構成されおり、これらのフレームを番号順に順次再生すると、黒目が開いた状態から一旦閉じて再び開くまでの変化をアニメーションとして表現できる。また、フレームF05からフレームF01へ戻って繰り返して再生すれば、一定の表情を繰り返し表現することができる。表示制御部210は、右眼動画像データを右眼122aの表示パネル106に、例えば秒6フレーム程度の速さで再生表示する。
図6は、右眼動画像データのヘッダ情報を説明する図である。ヘッダ情報は、右眼動画像データに付加されている付加情報であり、ヘッダ領域に記述されている。
ヘッダ情報は、表情表示に関する情報として主に「感情分類」、「フレーム数」、「開閉周期」、および「開閉度合」を含む。「感情分類」は、その動画像データがいかなる感情を表現するものであるかを示す情報であり、上述のラッセルの円環図で示される一つの感情が対応付けられている。図の例では、「リラックス」であることが記述されている。表情取得部204は、この「感情分類」の情報を参照して、指定された共感感情の動画像データを探索する。
「フレーム数」は、その動画像データがいくつのフレーム画像によって構成されているかを示し、図の例では5つのフレーム画像によって構成されていることを示している。表示制御部210は、同一の感情を継続して表現する場合には、この「フレーム数」の情報を参照して、繰り返し再生を滑らかに実行する。
「開閉周期」は、開状態の様子を描いたフレームから閉状態の様子を描いたフレームを経て、再び開状態の様子を描いたフレームへ戻るまでのフレーム数を示し、図の例では「フレーム数」と同じ5つのフレームで1周期となっていることを示している。「開閉度合」は、各フレームに描かれた右眼がどの程度開いた状態を描いたものであるかを示す値であり、フレームごとに値が定められている。ここでは、開閉度合いを「P0」から「P3」までの4段階で表し、最も開いた状態を「P0」、閉じた状態を「P3」として、その中間を「P1」(開き気味)、「P2」(閉じ気味)としている。図では、例えばフレームF04に対してP2が規定されている。
従前のコミュニケーションロボットは、表出する表情を変化させる場合には、再生中の動画像を途中で打ち切って次の動画像を先頭から再生するか、再生中の動画像の一周期分の再生を終えてから次の動画像の再生を開始していた。前者の切り替え手法は、表情の連続性が失われ、生身の人間や動物ではあり得ない違和感のある不連続な変化を生じさていた。後者の切り替え手法は、ユーザとの対話における感情の転換時点に対して遅れを生じさせ、円滑なコミュニケーションを阻害する要因となっていた。
そこで、本実施例におけるロボット100では、表出する感情を適切なタイミングで切り替えると共に、表情の連続性を考慮してユーザの違和感を低減すべく、第1動画像データから第2動画像データへの再生切り替えを工夫する。以下に再生切り替え時におけるいくつかの表示制御について説明する。
図7は、現時点で表示している第1動画像データから、次に表示する第2動画像データへ再生表示を切り替える第1の制御例を説明する図である。現時点で再生表示している第1動画像データは「リラックス」を表現する動画像データであり、この動画像データを再生表示しているあるタイミングにおいて、表出判断部203は、「満足」を表現する動画像データを再生すると判断したものとする。
表示制御部210は、「満足」の動画像データを受け取ると、表示を切り替えるタイミングを決定する。図の例では、第1動画像データのフレームF03の表示終了時点を切り替えタイミングとしている。すなわち、第1動画像データのフレームF03は、切り替え直前に再生表示する第1動画像データのフレーム画像である。表示を切り替えるタイミングは、表出判断部203が共感感情を切り替えると判断したタイミングにできるだけ近いことが好ましい。実際には、表情取得部204が応答表情DB320から動画像データを読み出す時間や、表示制御部210が演算処理に要する時間等を考慮して決定される。
表示制御部210は、第1動画像データのフレームF03を現再生フレーム画像として、その次のフレーム画像であるフレームF04を比較基準フレーム画像と定める。そして、表示制御部210は、比較基準フレーム画像であるフレームF04の開閉度合Pをヘッダ情報から検索する。表示制御部210は、フレームF04の開閉度合いがP2であることがわかると、第2動画像データを構成するフレーム画像の中から、開閉度合いがP2であるものを抽出する。図の例では、第2動画像データのフレームF02とF04が開閉度合P2として規定されている。
比較基準フレーム画像と、切り替え後の最初に表示される切替後開始フレーム画像のそれぞれの開閉度合が同じ値であれば、比較基準フレーム画像の眼の描画と、切替後開始フレーム画像の眼の描画は、比較的類似するものであると言える。したがって、現再生フレーム画像で第1動画像データの再生表示を終了し、続けてそのような切替後開始フレーム画像から第2動画像データの再生表示を開始すれば、ユーザに違和感を与えることなく滑らかに両画像データの再生表示を接続することができる。また、第1動画像データの最終フレームが再生されるまで待つことがないので、感情の切り替えタイミングに遅れを取る不自然さも大幅に軽減される。
切替後開始フレーム画像は、開閉度合いがP2であるフレームF02でもフレームF03でも良いが、本実施例では、さらに開閉周期情報も利用して切替後開始フレーム画像を決定する。すなわち、比較基準フレーム画像がフレームF04であり、第1動画像データの開閉周期が5であることから、現時点における右眼画像の変化は閉状態から開状態へ向かうものとわかるので、切替後開始フレーム画像もこの変化に沿うものの中から選ぶ。表示制御部210は、第2動画像データの開閉周期を読み込み、比較基準フレーム画像のF04に対応する、周期後半のフレーム画像を切替後開始フレーム画像の候補とする。
表示制御部210は、上記のように開閉周期も参照して第2動画像データのフレームF04を切替後開始フレーム画像に決定する。すなわち、表示制御部210は、第1動画像データのフレームF03まで表示したら、第2動画像データのフレームF04へ切り替えて、当該フレームから第2動画像データの再生表示を開始する。このように両画像データの再生表示を接続すると、切替前後の変化も継続させることができるので、表出する感情の切り替えとして、より滑らかな印象をユーザに与えることができる。
図8は、現時点で表示している第1動画像データから、次に表示する第2動画像データへ再生表示を切り替える第2の制御例を説明する図である。現時点で再生表示している第1動画像データは「リラックス」を表現する動画像データであり、この動画像データを再生表示しているあるタイミングにおいて、表出判断部203は、「驚き」を表現する動画像データを再生すると判断したものとする。
「驚き」を表現する動画像データである第2動画像データは、フレーム数が4であり、開閉周期が2である。フレームF01は、1周期目の第1フレーム(c1f1)であり、フレームF02は、1周期目の第2フレーム(c1f2)であり、フレームF03は、2周期目の第1フレーム(c2f1)であり、フレームF04は、2周期目の第2フレーム(cf2)である。それぞれの第1フレームに描かれた右眼は、開状態あるいはそれに近い状態であり、それぞれの第2フレームに描かれた右眼は、閉状態あるいはそれに近い状態である。

ここでも第1の制御例と同じく、第1動画像データのフレームF03を現再生フレーム画像とし、フレームF04を比較基準フレーム画像とする。第1動画像データの開閉周期は5であるので、比較基準フレーム画像であるフレームF04は周期後半のフレーム画像である。したがって、表示制御部210は、第2動画像データのうち各周期の第1フレームの方が比較基準フレーム画像に類似し、かつ変化の流れに沿うものと判断する。また、比較基準フレーム画像が第1動画像データの周期後半のフレーム画像であるので、第2動画像データのうち後半の開閉周期である2周期目から第1フレーム(c2f1)を選択して切替後開始フレーム画像に決定する。
すなわち、表示制御部210は、第1動画像データのフレームF03まで表示したら、第2動画像データのフレームF03へ切り替えて、当該フレームから第2動画像データの再生表示を開始する。このように、対象とする動画像データによっては、開閉度合の情報を使うことなく周期情報から切替後開始フレーム画像を決定することができる。このように切替後開始フレーム画像を決定しても、ユーザに違和感を与えることなく滑らかに両画像データの再生表示を接続することができる。
図9は、現時点で表示している第1動画像データから、次に表示する第2動画像データへ再生表示を切り替える第3の制御例を説明する図である。現時点で再生表示している第1動画像データは「無気力」を表現する動画像データであり、この動画像データを再生表示しているあるタイミングにおいて、表出判断部203は、「冷静」を表現する動画像データを再生すると判断したものとする。
「無気力」を表現する動画像データである第1動画像データは、5つのフレーム画像によって構成されているが、いずれの右眼も開いた状態(P0)で描かれている。一方で、「冷静」を表現する動画像データである第2動画像データは、5つのフレーム画像によって構成されているが、いずれの右眼も閉じた状態(P3)で描かれている。表示制御部210は、例えば、第1動画像データのフレームF03を現再生フレーム画像とし、比較基準フレーム画像をフレームF04と決定しても、フレームF04の開閉度合はP0であるので、同じ開閉度合のフレーム画像を第2動画像データから抽出できない。
このような場合には、表示制御部210は、第2動画像データのフレームF01を切替後開始フレーム画像に決定する。このように、第1動画像データを構成する各フレームに描かれた右眼の様子と、第2動画像データを構成する各フレームに描かれた右眼の様子が大きく異なる場合には、切り替え時にむしろ不連続となった方がユーザにインパクトを与えるので好ましいと言える。
次に本実施例で採用する動画像データのフレーム画像について説明する。図10は、フレーム画像のレイヤ構造を説明する図である。例えば、「疲労」を表現する動画像データのあるフレーム画像が、左上に示すように再生表示されているとする。この右眼画像161aは、瞼を表現する要素と、黒目を表現する要素と、毛細血管を含む白目を表現する要素の3つから構成されている。フレーム画像は、これらの要素をレイヤごとに分けて保持している。
すなわち、図示するようにレイヤ1として瞼の描画を保持し、レイヤ2として黒目の描画を保持し、レイヤ3として毛細血管を含む白目の描画を保持している。換言すると各フレーム画像は三層構造を有している。表示制御部210は、これらのレイヤのうち、レイヤ1とレイヤ3は、表示パネル106に対して所定の位置に表示する。一方、レイヤ2(黒目レイヤ)で表現される黒目は、視線決定部205から受け取った視線方向を実現するように、表示パネル106に対して表示位置を調整する。すなわち、受け取った視線方向を実現する座標に、黒目の基準位置を移動させる。
このように、黒目の要素以外の要素を固定して黒目の要素のみを移動させることにより視線方向の調整を行えば、視線方向の変化としてより自然な印象を与えることができる。また、他の要素が移動して顔全体として不自然な印象を与えることもない。
次に、制御部200が表情の調整に関して実行する動作処理の手順を説明する。以下に説明する動作処理は、制御部200がシステムメモリから読み込んだ制御プログラムを実行することにより実行される。図11は、動作処理の手順を示すフローチャートである。フローは、ロボット100の電源がオンにされて開始される。なお、表情の調整に関する処理以外の処理についての説明は省略する。
ステップS101で、顔認識部202は、カメラ102から画像信号を取得して、コミュニケーション対象であるユーザの顔領域を認識する。また、発話認識部201は、マイク101から音声信号を取得してユーザの発話を認識する。視線決定部205は、ステップS102で、これらの情報を用いて、眼球部122の視線方向を決定する。
表出判断部203は、ステップS103で、顔認識部202からの情報および発話認識部201からの情報を用いて、顔部120が表出すべき表情を判断する。そして、ステップS104で、これまで表出していた表情に対して表出すべき表情が変わったか否かを判断する。表出すべき表情が変わった場合には、表示パネル106の再生表示を切り替えるべく、ステップS105へ進む。そうでない場合には、再生表示を切り替える必要がないので、ステップS107へ進む。
表情取得部204は、ステップS105で、表出判断部203が切り替えると判断した共感感情に対応する動画像データを応答表情DB320から取得し、表示制御部210へ引き渡す。表示制御部210は、ステップS106で、図7から図9を用いて説明したように、表情取得部204から受け取った動画像データ(第2動画像データ)のフレーム画像の中から切替後開始フレーム画像を決定する。
表情取得部204は、ステップS107で、図10を用いて説明したように、対象フレーム画像において黒目の基準位置を移動させることにより視線方向を調整する。ここで、対象フレーム画像は、動画像データを切り替える場合(ステップS106からステップS107へ進んだ場合)には、切替後開始フレーム画像であり、切り替えない場合(ステップS104からステップS107へ進んだ場合)には、継続して再生表示する次のフレーム画像である。表示制御部210は、ステップS108で、このように調整されたフレーム画像を表示パネル106に表示する。
制御部200は、ステップS109で、無会話状態で一定時間が経過するなど、ユーザとのコミュニケーションが終了したか否かを判断する。まだ終了していないと判断した場合には、ステップS101へ戻る。終了したと判断した場合には、一連の処理を終了する。
以上、第1の実施例に係るロボット100について説明したが、表情の調整に関して実行する動作処理は、さまざまなバリエーションが存在し得る。上記の例では、右眼として再生表示される動画像データに対して、切替後開始フレーム画像を決定する例を説明した。左眼として再生表示される動画像データに対しては、右眼と同様の処理を独立して行っても良いし、右眼の切り替えタイミングに同期させて切り替え処理を行っても良い。もちろん左眼として再生表示される動画像データを主として、右眼の切り替えタイミングを左眼のタイミングに同期させても良い。また、再生している動画像データの描画内容に応じて、右眼の動画像データを判断対象とするか左眼の動画像データを判断対象とするかを決定しても良い。
また、上記の実施例においては、比較基準フレーム画像と切替後開始フレーム画像の類似性は、ヘッダに記述されたフレームごとの黒目の開閉度合を用いたり、周期情報を用いたりして判断した。このように判断することにより、より簡便に類似性を判断することができるので、再生表示の切り替えタイミングを、感情変化のタイミングに近づけることに成功している。しかし、表示制御部等の演算能力が高ければ、あるいは、予めヘッダ情報にそのような情報が準備されていないのであれば、表示制御部は、比較基準フレーム画像に描画と、第2動画像データの各フレーム画像の描画を画像解析して類似度合を判断すると良い。
次に、本実施形態の第2の実施例について説明する。図12は、第2の実施例に係るロボット400の概観図である。第1の実施例に係るロボット100は、キャラクターを具現化したコミュニケーションロボットであったが、第2の実施例に係るロボット400は、搬送物を把持して自律移動する搬送ロボットとしての機能も有するコミュニケーションロボットである。近時の搬送ロボットは、人間と作業空間を共有するものが増えており、人間とコミュニケーションを取りながら作業を実行するものも知られてきている。ロボット400は、搬送ロボットでありながら、ロボット100のようなコミュニケーションを実行できるロボットである。
ロボット400は、コミュニケーション機能に関する構成はロボット100とほぼ同様であるので、主に相違点について説明する。搬送ロボットのような機能ロボットは、顔部や胴体部が必ずしも人間や動物の形態を模倣するものでなくて良い。ロボット400は、図示するように、顔部420がほぼ表示パネル406のみで構成されている。表示パネル406には、眼画像461と口画像462を含む顔画像が表示される。
このように構成されたロボット400においても、ロボット100と同様に、画像の変化により共感感情を表出することができる。具体的には、眼画像461として、各感情に対応する動画像データが用意されており、これに対応して口画像462としても、各感情に対応する動画像データが用意されている。そして、表情を変化させる場合には、それぞれの動画像データの切り替えフレーム画像を上述のように決定すれば、ユーザに違和感を与えることなく滑らかに表情を変化させることができる。したがって、ロボット400が人間や動物の形態とはかけ離れた外見であっても、ロボット400と作業するユーザは、ロボット100のようにコミュニケーションを取ることができる。
次に、本実施形態の第3の実施例について説明する。図13は、第3の実施例に係るタブレット端末500の概観図である。第1の実施例および第2の実施例においてはロボットをユーザが対話する相手としたが、第3の実施例においては、タブレット端末500に表示した映像キャラクター600を対話する相手とする。キャラクターをロボットとして実体化すれば、ユーザは、ペットのように感じることができ、より愛着を持てるようになるが、タブレット端末500でより簡便にキャラクターを表現することもできる。
タブレット端末500は、コミュニケーション機能に関する構成はロボット100とほぼ同様であるので、主に相違点について説明する。タブレット端末500は、マイク501、カメラ502、表示パネル506、スピーカ509を備える。表示パネル506は、例えば液晶パネルであり、映像キャラクター600を表示する。
映像キャラクター600の顔部620は、眼画像661と口画像662の変化によって共感感情を表現する。具体的には、眼画像661として、各感情に対応する動画像データが用意されており、これに対応して口画像662としても、各感情に対応する動画像データが用意されている。そして、表情を変化させる場合には、それぞれの動画像データの切り替えフレーム画像を上述のように決定すれば、ユーザに違和感を与えることなく滑らかに表情を変化させることができる。したがって、映像キャラクター600がタブレット端末500で表示されるものであっても、ロボット100のようにコミュニケーションを取ることができる。
以上第1の実施例から第3の実施例を通じて本実施形態を説明したが、コミュニケーション装置の態様はこれらの実施例に限定されない。例えば、環境センサやデータベースは外部装置に備えられていても良い。この場合、コミュニケーション装置は、これらの外部装置と通信するための通信IFを備えれば良い。
また上記の実施例では、両眼を備える顔部を説明したが、単眼の眼球部や、三眼以上の眼球部を有するキャラクターであっても構わない。また、上記の例では、光ファイバ束132を介在させた眼球部122を説明したが、光ファイバ束132等を介在させることなく、曲面の表示パネルを眼球部122として採用しても良い。また、簡易的には平面の表示パネルを眼球部122として採用しても良い。
100 ロボット、101 マイク、102 カメラ、106 表示パネル、109 スピーカ、120 顔部、122 眼球部、122a 右眼、122b 左眼、131 透光カバー、132 光ファイバ束、132a 光ファイバ、132b 被覆、161a 右眼画像、200 制御部、201 発話認識部、202 顔認識部、203 表出判断部、204 表情取得部、205 視線決定部、206 音声選択部、207 発話制御部、210 表示制御部、400 ロボット、406 表示パネル、420 顔部、461 眼画像、462 口画像、500 タブレット端末、501 マイク、502 カメラ、506 表示パネル、509 スピーカ、600 映像キャラクター、620 顔部、661 眼画像、662 口画像

Claims (5)

  1. 表示部と、
    感情を表現するための複数のフレーム画像から成る動画像データをデータベースから取得する取得部と、
    前記取得部で取得した前記動画像データを前記表示部で再生表示する表示制御部と、
    前記表示部で再生表示する前記動画像データを現在再生表示している第1動画像データから次に再生表示する第2動画像データへ切り替える判断を行う判断部と
    を備え、
    前記表示制御部は、前記判断部が前記表示部で再生表示する前記動画像データを前記第1動画像データから前記第2動画像データへ切り替えると判断した場合に、切り替え直前に再生表示する前記第1動画像データのフレーム画像の次のフレーム画像と切り替え直後に再生表示する前記第2動画像データのフレーム画像とが互いに類似するように、前記第2動画像データから再生開始のフレーム画像を選択して前記第2動画像データを再生表示するコミュニケーション装置であって、
    前記表示部は、眼球部の変化を表す前記動画像データを表示するように設けられており、
    前記表示制御部は、切り替え直前に再生表示する前記第1動画像データのフレーム画像の次のフレーム画像と切り替え直後に再生表示する前記第2動画像データのフレーム画像のフレーム画像間で前記眼球部の黒目の開閉度合が類似するように、前記第2動画像データから再生開始のフレーム画像を選択する、
    コミュニケーション装置。
  2. 前記動画像データは、フレーム画像ごとの前記開閉度合に関する情報を付随情報として有し、
    前記表示制御部は、前記付随情報を参照して前記第2動画像データから再生開始のフレーム画像を選択する請求項に記載のコミュニケーション装置。
  3. 前記動画像データは、前記黒目の開状態から閉状態を経て再び開状態となるまでの周期情報を付随情報として有し、
    前記表示制御部は、前記付随情報を参照して前記第2動画像データから再生開始のフレーム画像を選択する請求項1又は2に記載のコミュニケーション装置。
  4. 前記動画像データは、それぞれのフレーム画像が複数のレイヤを有し、前記複数のレイヤは、前記黒目を表現する黒目レイヤを含み、
    前記表示制御部は、前記表示部に対し、表現する視線方向に応じて前記黒目レイヤの表示位置を調整し、他のレイヤの表示を固定位置とする請求項1~3のいずれか1項に記載のコミュニケーション装置。
  5. 表示部に感情を表現するための複数のフレーム画像から成る動画像データを再生表示するコミュニケーション装置の制御プログラムであって、
    前記動画像データのうちの第1動画像データを前記表示部に表示再生する第1表示ステップと、
    前記表示部に再生表示する前記動画像データを前記第1動画像データから第2動画像データへ切り替える判断を行う判断ステップと、
    前記判断ステップで前記第2動画像データへ切り替えると判断した場合に、切り替え直前に再生表示する前記第1動画像データのフレーム画像の次のフレーム画像と切り替え直後に再生表示する前記第2動画像データのフレーム画像とが互いに類似するように、前記第2動画像データから再生開始のフレーム画像を選択して前記第2動画像データを再生表示する第2表示ステップと
    をコンピュータに実行させる制御プログラムであって、
    前記表示部は、眼球部の変化を表す前記動画像データを表示するように設けられており、
    前記第2表示ステップでは、切り替え直前に再生表示する前記第1動画像データのフレーム画像の次のフレーム画像と切り替え直後に再生表示する前記第2動画像データのフレーム画像のフレーム画像間で前記眼球部の黒目の開閉度合が類似するように、前記第2動画像データから再生開始のフレーム画像を選択する、
    制御プログラム。
JP2018020119A 2018-02-07 2018-02-07 コミュニケーション装置およびその制御プログラム Active JP7020159B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018020119A JP7020159B2 (ja) 2018-02-07 2018-02-07 コミュニケーション装置およびその制御プログラム
EP18215930.1A EP3525199A1 (en) 2018-02-07 2018-12-31 Communication apparatus and control program thereof
CN201910091023.0A CN110116413A (zh) 2018-02-07 2019-01-30 通信设备及其控制程序
KR1020190011937A KR20190100853A (ko) 2018-02-07 2019-01-30 커뮤니케이션 장치 및 그 제어 프로그램
US16/266,650 US20190240588A1 (en) 2018-02-07 2019-02-04 Communication apparatus and control program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018020119A JP7020159B2 (ja) 2018-02-07 2018-02-07 コミュニケーション装置およびその制御プログラム

Publications (2)

Publication Number Publication Date
JP2019136797A JP2019136797A (ja) 2019-08-22
JP7020159B2 true JP7020159B2 (ja) 2022-02-16

Family

ID=64901444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018020119A Active JP7020159B2 (ja) 2018-02-07 2018-02-07 コミュニケーション装置およびその制御プログラム

Country Status (5)

Country Link
US (1) US20190240588A1 (ja)
EP (1) EP3525199A1 (ja)
JP (1) JP7020159B2 (ja)
KR (1) KR20190100853A (ja)
CN (1) CN110116413A (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD898761S1 (en) * 2018-04-26 2020-10-13 Lg Electronics Inc. Display screen with graphical user interface
CN110136231B (zh) * 2019-05-17 2023-02-24 网易(杭州)网络有限公司 虚拟角色的表情实现方法、装置及存储介质
CN111050105A (zh) * 2019-12-14 2020-04-21 中国科学院深圳先进技术研究院 视频播放方法、装置、玩具机器人及可读存储介质
JP7399740B2 (ja) 2020-02-20 2023-12-18 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット、制御プログラムおよび制御方法
USD980864S1 (en) * 2020-07-16 2023-03-14 Lg Electronics Inc. Display screen or a portion thereof with graphical user interface
US20240037828A1 (en) * 2022-07-29 2024-02-01 Ncr Corporation Secondary display to a primary display with an animated feedback interface

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004017197A (ja) 2002-06-14 2004-01-22 Victor Co Of Japan Ltd ロボット装置
JP2007175810A (ja) 2005-12-27 2007-07-12 Fujitsu Ltd ロボット制御装置
JP2016193466A (ja) 2015-03-31 2016-11-17 シャープ株式会社 ロボット
JP2018008318A (ja) 2016-07-11 2018-01-18 森本 高広 ロボット用薄型弾性表皮
WO2018016461A1 (ja) 2016-07-20 2018-01-25 Groove X株式会社 スキンシップを理解する自律行動型ロボット

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3368967B2 (ja) * 1994-01-25 2003-01-20 任天堂株式会社 ゲーム機用変換装置
JPH11478A (ja) * 1997-06-11 1999-01-06 Fumiko Moriya 模型動物の動く瞳の構造
JPH11219445A (ja) * 1998-02-03 1999-08-10 Matsushita Electric Ind Co Ltd 画像表示装置、画像表示方法、および画像表示プログラム記録媒体
KR100437372B1 (ko) * 2001-04-18 2004-06-25 삼성광주전자 주식회사 이동통신망을 이용한 로봇 청소 시스템
AU2003900809A0 (en) * 2003-02-24 2003-03-13 Aristocrat Technologies Australia Pty Ltd Gaming machine transitions
CN100460159C (zh) * 2007-07-12 2009-02-11 上海交通大学 工业机器人离线编程***
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
CN106113041A (zh) * 2016-07-20 2016-11-16 徐州木牛流马机器人科技有限公司 一种基于总线舵机控制的智能机器人控制***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004017197A (ja) 2002-06-14 2004-01-22 Victor Co Of Japan Ltd ロボット装置
JP2007175810A (ja) 2005-12-27 2007-07-12 Fujitsu Ltd ロボット制御装置
JP2016193466A (ja) 2015-03-31 2016-11-17 シャープ株式会社 ロボット
JP2018008318A (ja) 2016-07-11 2018-01-18 森本 高広 ロボット用薄型弾性表皮
WO2018016461A1 (ja) 2016-07-20 2018-01-25 Groove X株式会社 スキンシップを理解する自律行動型ロボット

Also Published As

Publication number Publication date
EP3525199A1 (en) 2019-08-14
CN110116413A (zh) 2019-08-13
KR20190100853A (ko) 2019-08-29
US20190240588A1 (en) 2019-08-08
JP2019136797A (ja) 2019-08-22

Similar Documents

Publication Publication Date Title
JP7020159B2 (ja) コミュニケーション装置およびその制御プログラム
JP6841167B2 (ja) コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム
US20220148271A1 (en) Immersive story creation
EP3381175B1 (en) Apparatus and method for operating personal agent
CN111145282B (zh) 虚拟形象合成方法、装置、电子设备和存储介质
JP2023096152A (ja) 眼追跡カメラからの顔の表情
KR102400398B1 (ko) 애니메이션 캐릭터 헤드 시스템 및 방법
JP2019531538A (ja) ワードフロー注釈
JP7295136B2 (ja) 対話型アニメキャラクターヘッドステム及び方法
KR102180576B1 (ko) 사용자의 플레잉에 기초하여 재프로그래밍되는 인터랙티브 콘텐츠 제공 방법 및 장치
EP3599065A1 (en) Communication robot and control program therefor
JP2020126195A (ja) 音声対話装置、音声対話装置の制御装置及び制御プログラム
JP6972526B2 (ja) コンテンツ提供装置、コンテンツ提供方法、及びプログラム
JP7517390B2 (ja) コミュニケーション支援プログラム、コミュニケーション支援方法、コミュニケーション支援システム、端末装置及び非言語表現プログラム
Hirahara et al. Human Information Science: Opening up Communication Possibilities for the Future

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220117

R151 Written notification of patent or utility model registration

Ref document number: 7020159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151