JP7023971B2 - サービス提供システム、サービス提供方法およびサービス提供システム用管理装置 - Google Patents

サービス提供システム、サービス提供方法およびサービス提供システム用管理装置 Download PDF

Info

Publication number
JP7023971B2
JP7023971B2 JP2019544585A JP2019544585A JP7023971B2 JP 7023971 B2 JP7023971 B2 JP 7023971B2 JP 2019544585 A JP2019544585 A JP 2019544585A JP 2019544585 A JP2019544585 A JP 2019544585A JP 7023971 B2 JP7023971 B2 JP 7023971B2
Authority
JP
Japan
Prior art keywords
user
robot
unit
image
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019544585A
Other languages
English (en)
Other versions
JPWO2019065303A1 (ja
Inventor
茂憲 蛭田
史郎 北村
大輔 村松
修司 仲山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JPWO2019065303A1 publication Critical patent/JPWO2019065303A1/ja
Application granted granted Critical
Publication of JP7023971B2 publication Critical patent/JP7023971B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/20Administration of product repair or maintenance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0645Rental transactions; Leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39451Augmented reality for robot programming
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40131Virtual reality control, programming of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0383Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Accounting & Taxation (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Finance (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • Operations Research (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Quality & Reliability (AREA)
  • Primary Health Care (AREA)
  • Manipulator (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、移動可能なロボットを活用してユーザに各種サービスを提供するサービス提供システム、サービス提供方法およびサービス提供システム用管理装置に関する。
この種のシステムとして、従来、ネットワークを介したユーザ端末からの指令により遠隔地のロボットを移動させるようにしたシステムが知られている(例えば特許文献1参照)。この特許文献1記載のシステムでは、ロボットに視覚センサが設けられ、視覚センサにより取得された画像信号がネットワークを介してユーザ端末に出力される。
特許文献1:特開2005-64837号公報
ところで、このようなロボットを用いたサービスが流行すると、ロボットの数が増えて、ユーザが利用するロボットの周囲に別のロボットが存在する可能性が高まる。その結果、ユーザは、提供されるサービスに対し十分な満足感を得られないおそれがある。
本発明の一態様であるサービス提供システムは、無線通信を介したユーザからの指令に応じて動作し、人が有する外界を感知するための感覚機能に対応した機能を有する検出部であって、カメラを含む検出部を備える移動可能なロボットと、カメラにより得られた画像に基づいて撮影対象が人であるか他のロボットであるかを判定する対象判定部と、対象判定部による判定結果に応じた信号を出力する出力部と、出力部により出力された信号に基づいてユーザが知覚可能な態様で動作する、表示部を有するユーザ機器と、を備え、出力部は、対象判定部により撮影対象が人であると判定されると、カメラにより得られた人の画像が表示部に表示され、撮影対象が他のロボットであると判定されると、他のロボットに対応付けられた他のユーザの外見を示す画像が表示部に表示されるようにユーザ機器に信号を出力する。
本発明の他の態様は、無線通信を介したユーザからの指令に応じて動作し、人が有する外界を感知するための感覚機能に対応した検出機能を有する検出部であって、カメラを含む検出部を備える移動可能なロボットと、表示部を有し、ユーザが知覚可能な態様で動作するユーザ機器と、を用いて、ユーザにサービスを提供するサービス提供方法であって、コンピュータが、カメラにより得られた画像に基づいて撮影対象が人であるか他のロボットであるかを判定し、撮影対象が人であると判定されると、カメラにより得られた人の画像が表示部に表示され撮影対象が他のロボットであると判定されると、他のロボットに対応付けられた他のユーザの外見を示す画像が表示部に表示されるようにユーザ機器に信号を出力することを含む。
本発明のさらなる他の態様であるサービス提供システム用管理装置は、表示部を有するユーザ機器及び、人が有する外界を感知するための感覚機能に対応した機能を有する検出部であって、カメラを含む検出部を備える移動可能なロボットと信号の送受信が可能な通信接続部と、通信接続部を介して受信したロボットからの信号より示される前記カメラにより得られた画像に基づいて撮影対象が人であるか他のロボットであるかを判定する対象判定部と、対象判定部により撮影対象が人であると判定されると、前記カメラにより得られた人の画像が前記表示部に表示され撮影対象が他のロボットであると判定されると、前記他のロボットに対応付けられた他のユーザの外見を示す画像が前記表示部に表示されるようにユーザ機器に信号を出力する出力部と、を備える。
本発明によれば、ユーザが利用するロボットの周囲に他のロボットが存在する場合であっても、ユーザに対し十分な満足感を与えるサービスを提供することができる。
本発明の実施形態に係るサービス提供システムの全体構成を概略的に示す図。 図1のユーザ機器の構成を示す図。 図1のロボットの構成を示す図。 図1の管理サーバの概略構成を示すブロック図。 図4の演算部で実行される処理の一例を示すフローチャート。 本発明の実施形態に係るサービス提供システムの動作の一例を説明するための図。 図1のユーザ機器の他の例を示す図。 図7のユーザ機器を用いての動作の一例を説明するための図。 図7のユーザ機器を用いての動作の他の例を説明するための図。
以下、図1~図9を参照して本発明の実施形態について説明する。本発明の実施形態に係るサービス提供システムは、ユーザからの指令により、ユーザから離れた場所に位置するロボットを動作させるとともに、ロボットにより検出された信号に基づいて、ユーザに知覚可能な態様でサービスを提供するものである。
ロボットは、ユーザからの指令により単独で行動することができるが、以下では、単独ではなくロボットがユーザの家族等の第三者とともに行動する例を説明する。具体的には、ユーザが家族とともに外出(例えば旅行)することが困難な場合に、ユーザの代わりにロボットが家族とともに旅行し、そのときにロボットが得た情報を、ユーザに提供するようにサービス提供システムを構成する。これによりユーザは、例えば自宅にいながら、あたかも家族とともに旅行している気分を味わうことができる。
図1は、本発明の実施形態に係るサービス提供システム100の全体構成を概略的に示す図である。図1に示すように、サービス提供システム100は、A地点に位置するユーザAに装着されたユーザ機器10Aと、B地点に位置するユーザBに装着されたユーザ機器10Bと、C地点に位置してユーザAにより操作されるロボット20Aと、C地点に位置してユーザBにより操作されるロボット20Bと、管理サーバ30とを含んで構成される。
これらユーザ機器10Aと、ユーザ機器10Bと、ロボット20Aと、ロボット20Bと、管理サーバ30とは、インターネット回線等の無線通信網を含むネットワーク1で通信可能に接続される。なお、ユーザ機器10A,10Bは互いに同一構成であり、これを符号10で表すこともある。ロボット20A,20Bは互いに同一構成であり、これを符号20で表すこともある。
A地点とB地点とC地点とは、互いに離れた地点、例えば互いに異なる地域である。なお、互いに異なる国であってもよい。A地点とB地点とが同一の地点であり、C地点がA地点とB地点とに対し離れた地点(遠隔地)であってもよい。C地点のロボット20A,20Bは、C地点またはC地点の近傍の店舗2からレンタルされる。すなわち、ロボット20Aは、店舗2に赴いたユーザAの家族によりレンタルされ、C地点でユーザAの家族とともに行動する。ロボット20Bは、店舗2に赴いたユーザBの家族によりレンタルされ、C地点でユーザBの家族とともに行動する。ロボット20A,20Bは、C地点での旅行が終了するときにユーザA,Bの家族により店舗2に返却される。店舗2の各ロボット20には、予め固有の識別IDが付されている。
図2は、ユーザ機器10の構成を示す図である。図2に示すようにユーザ機器10は、例えば全体が略ヘルメット形状を呈するウェアラブルコンピュータであり、ユーザの頭部に装着される。ユーザ機器10は、ユーザの脳波や脳磁波、脳血流の状態等の脳活動を検出する複数のセンサ11を備える。すなわち、ユーザ機器10は、ユーザの思考ないし意図を脳活動信号から検出し、身体を使うことなく機械操作を実現する、いわゆるブレインマシンインタフェース(BMI)を備える。
さらにユーザ機器10は、ディスプレイ12と、マイク13と、スピーカ14と、入力装置15と、コントローラ16と、無線ユニット17とを有する。ディスプレイ12は、例えば非透過型のヘッドマウントディスプレイであり、ユーザの顔面を覆うように配置され、ロボット20からのカメラ画像だけでなく、仮想現実の三次元画像を表示することができる。マイク13は、ユーザの口元に配置され、ユーザの発話による音声信号を入力する。スピーカは、ユーザの耳元に配置され、音声を出力する。入力装置15は、ユーザにより操作されるスイッチやタッチパネル等により構成され、入力装置15を介してユーザの個人情報等、各種情報を入力することができる。
コントローラ16は、CPU,ROM,RAM等を有するマイクロコンピュータを含み、無線ユニット17を制御して管理サーバ30との間で通信する。例えばコントローラ16は、センサ11とマイク13とからの信号を管理サーバ30に送信させる。さらにコントローラ16は、管理サーバ30からの信号に基づきディスプレイ12やスピーカ14などに制御信号を出力する。
図3は、ロボット20の構成を示す図である。図3に示すようにロボット20は、頭、胴体、2つの腕部、2つの脚部を有する人型ロボットであり、二足歩行によりロボット自身で移動することができる。ロボット20の高さは、成人の身長に近く、例えば140~160cm程度である。
ロボット20は、外界を感知するための人の感覚機能である五感に対応した検出機能を有する複数のセンサ、すなわち視覚センサ211と、聴覚センサ212と、触覚センサ213と、臭覚センサ214と、味覚センサ215とを有する。これらセンサ211~215は、人の五感に対応した信号(五感信号)を検出信号として出力する。
より具体的には、視覚センサ211はカメラにより構成され、ロボット20の目の位置に設けられたCMOSセンサやCCDセンサ等の画像センサとレンズとを有する撮影部と、撮影部を上下左右に駆動する駆動部と、被写体を拡大縮小するズーム機構とを有し、ロボット20の周囲の画像(動画)を取得する。聴覚センサ212は、例えばロボット20の耳の位置に設けられたマイクにより構成され、ロボット20の周囲の音声を取得する。触覚センサ213は、例えばロボット20のハンドの位置等に設けられた力覚センサにより構成され、ロボット20のハンドに作用する外力を検出する。臭覚センサ214は、ロボット20の鼻の位置に設けられ、臭いを検出する。味覚センサ215は、ロボット20の口の位置に設けられ、味を検出する。
さらにロボット20は、アクチュエータ22と、スピーカ23と、入力装置24と、GPSセンサ25と、コントローラ26と、無線ユニット27とを有する。アクチュエータ22は、例えばロボット20の関節部に設けられた複数のサーボモータ等により構成され、アクチュエータ22の駆動によりロボット20が動作する。スピーカ23は、ロボット20の口の位置に設けられ、音声を出力する。入力装置24は、電源スイッチ等の各種スイッチを備える。GPSセンサ25は、GPS衛星からのGPS信号を受信する。GPSセンサ25からの信号により、ロボット20の位置を検出することができる。
コントローラ26は、CPU,ROM,RAM等を有するマイクロコンピュータを含み、無線ユニット27を制御して管理サーバ30との間で通信する。例えばコントローラ26は、五感信号を出力するセンサ211~215とGPSセンサ25とからの信号を管理サーバ30に送信させる。さらにコントローラ26は、管理サーバ30からの信号に基づきアクチュエータ22やスピーカ23などに制御信号を出力する。
図4は、管理サーバ30の概略構成の一例を示すブロック図である。図4に示すように、管理サーバ30は、入力装置31と、表示装置32と、コントローラ33と、無線ユニット34とを有する。なお、入力装置31と表示装置32とは、省略することができる。
コントローラ33は、CPU等の演算部33Aと、ROM,RAM,ハードディスク等の記憶部33Bと、その他の周辺回路とを有し、無線ユニット34を制御してユーザ機器10およびロボット20との間で通信する。演算部33Aは、機能的構成として、ロボット管理部331と、信号入力部332と、対象判定部333と、ロボット制御部334と、ユーザ機器制御部335とを有する。記憶部33Bは、機能的構成としてユーザ登録部336を有する。
ユーザ登録部336は、ユーザ情報を記憶する。ユーザ情報は、各ユーザの氏名、年齢、性別、外見等の情報を含む。外見の情報は、予めユーザ自身をカメラで撮影することにより、あるいはユーザが写っている写真等の画像を読み込むことにより得られる。ユーザ機器制御部335は、ユーザ情報(特に外見などのユーザの態様の情報)を用いて、ユーザの外見に対応した画像信号を生成することができる。ユーザ情報には、ユーザ固有のユーザIDが付される。ユーザ情報は、例えばユーザ機器10の入力装置15(図2)を介して入力することができる。なお、ユーザの家族が店舗2(図1)でロボット20をレンタルする際に、店舗2の端末を介してユーザ情報を入力することもできる。
ロボット管理部331は、店舗2が所有するロボット20の情報(貸し出し情報、メンテナンス情報等)を管理する。ロボット20がレンタルされる際には、ロボット管理部331は、レンタルされるロボット20のロボットIDと、このロボット20をレンタルするユーザのユーザIDとを紐付ける。これにより、各ロボット20に対応するユーザの態様が特定される。
信号入力部332は、ユーザ機器10(図2のセンサ11やマイク13等)から送信されたデータおよびロボット20(図3のセンサ211~215やGPSセンサ25等)から送信されたデータを、無線ユニット34を介して取得する。なお、無線ユニット34はユーザ機器10とロボット20とを通信接続される構成(通信接続部)であれば良い。
対象判定部333は、ロボット20の視覚センサ211(カメラ)で認識された対象が、人であるかロボット20であるかを判定する。この判定は、例えば視覚センサ211により得られた画像と予め記憶部33Bに記憶されたロボット20の画像とのパターンマッチングを行うことで実現可能である。GPSセンサ25からの信号により、ロボット20の周囲に存在する他のロボット20の位置を検出することで、認識された対象がロボット20であるか否かを判定することもできる。
ロボット制御部334は、信号入力部332が読み込んだユーザ機器10のセンサ11からの信号(脳活動信号)に基づいて、ロボット20のアクチュエータ22に対する動作信号を、無線ユニット34を介してロボット20に送信する。ロボット20のコントローラ26は、この動作信号に応じてアクチュエータ22に制御信号を出力する。これにより、ユーザの意図に従いロボット20の動作が制御される。ロボット制御部334は、ユーザ機器10のマイク13からの信号に基づく音声を、ロボット20のスピーカ23から出力させることもできる。
ユーザ機器制御部335は、信号入力部332が読み込んだロボット20のセンサ211~215からの信号(五感信号)に基づいて、ユーザ機器10に対する動作信号を、無線ユニット34を介してユーザ機器10に送信する。例えば視覚センサ211により検出された画像信号を送信する。ユーザ機器10のコントローラ16は、この画像信号に応じてディスプレイ12に制御信号を出力し、ディスプレイ12に視覚センサ211から得られた三次元画像を表示させる。ユーザ機器制御部335は、聴覚センサ212からの信号に基づく音声を、ユーザ機器10のスピーカ14から出力させることもできる。
ところで、ユーザAが操作するロボット20Aの視覚センサ211(カメラ)が、他のロボット(ユーザBが操作するロボット20B)を撮影したときに、その画像をそのままユーザAのユーザ機器10Aのディスプレイ12に表示させると、ユーザAは、ユーザ機器10Aを介して提供されるサービスに対し十分な満足感を得られない。すなわち、旅行先でユーザBの身代わりとしてのロボット20Bを見かけると、ユーザAは折角の旅行気分を損ない、味気ない気分となる。そこで、ユーザ機器制御部335は、以下のように対象判定部333での判定結果に応じてユーザ機器10に制御信号を送信し、ディスプレイ12の表示画像を制御する。
図5は、予め記憶部33Bに記憶されたプログラムに従い演算部33Aで実行される処理の一例、特にユーザ機器制御部335で主に実行される処理の一例を示すフローチャートである。このフローチャートに示す処理は、視覚センサ211によりロボット20の周囲の撮影が開始されると開始され、所定周期で繰り返される。
まず、S1(S:処理ステップ)で、撮影対象がロボット20であるか否かを判定する。この判定は、対象判定部333で実行される。S1で否定、すなわち撮影対象が人や物(ロボット以外)であると判定されるとS2に進み、視覚センサ211からの画像信号をそのままユーザ機器10に送信する。これにより視覚センサ211が取得した三次元画像(動画)が、ユーザ機器10のディスプレイ12にそのまま表示される。
一方、S1で、撮影対象がロボット20であると判定されると、S3に進み、そのロボット20を操作するユーザの情報をユーザ登録部336から読み込む。次いで、S4で、視覚センサ211が取得したロボット20の画像信号を、ユーザ登録部336で読み込んだユーザの態様(外見)を示す画像信号に置き換えて、ユーザ機器10に送信する。すなわちロボット20を人に置き換えたときにセンサ211で検出されると予想される画像信号を、ユーザ機器10に送信する。これによりユーザ機器10のディスプレイ12には、視覚センサ211が取得したロボット20の画像に代えて、そのロボット20を操作するユーザの三次元画像(動画)が表示される。
図6は、本発明の実施形態に係るサービス提供システム100の主要な動作を説明するための図である。図6では、A地点のユーザA(図1)により操作されるロボット20A(実線)と、B地点のユーザB(図1)により操作されるロボット20B(実線)とが、C地点において互いに対向した状態を示す。このとき、ユーザAのユーザ機器10のディスプレイ12には、点線で示すユーザBの三次元画像が表示され(S4)、ユーザBのユーザ機器10のディスプレイ12には、点線で示すユーザAの三次元画像が表示される(S4)。一方、ロボット20A,20Bの周囲の人3は、ディスプレイ12にそのまま三次元画像で表示される(S2)。
このようにユーザによって操作されるロボット20の視覚センサ211が他のロボット20を撮影すると、そのロボット20の画像が人に置き換えて表示される。これによりユーザは、旅行の気分を害することなく、ロボット20を活用したサービス提供システム100により提供されるサービス(画像の表示)に対し、十分な満足感を得ることができる。視覚センサ211によるロボット20の画像は、ユーザの個人の画像に置き換えられるので、ユーザに提供される三次元画像についての現実空間であるかのようなリアル感が高まり、ユーザに対しより高いサービスを提供できる。
本実施形態によれば以下のような作用効果を奏することができる。
(1)本実施形態に係るサービス提供システム100は、無線通信を介したユーザからの指令に応じて動作し、人の五感に対応した検出機能を有する複数のセンサ211~215を備える移動可能なロボット20と、ロボット20による撮影対象が人であるか他のロボット20であるかを判定する対象判定部333と、対象判定部333により撮影対象が人であると判定されると、センサ(特に視覚センサ211)で検出された信号をそのまま出力し、撮影対象が他のロボット20であると判定されると、視覚センサ211で検出された信号を、ユーザを表す画像信号に置き換えて出力するユーザ機器制御部335と、ユーザ機器制御部335から出力された信号に基づいてロボット20の周囲の画像(動画)を表示するユーザ機器10(ディスプレイ12)とを備える(図1,4)。これにより人の身代わりとして利用されているロボット20の画像が、そのままユーザ機器10のディスプレイ12に表示されることを防止できる。このためユーザは、利用中のロボット20の周囲に、他のユーザによって利用されているロボット20が存在する場合であっても、表示画像に対し高い満足感を得ることができる。
(2)ユーザ機器制御部335は、対象判定部333により撮影対象が人であると判定されると、視覚センサ211で検出された信号をそのまま出力し(S2)、撮影対象が他のロボット20であると判定されると、他のロボット20を人に置き換えたときに視覚センサ211で得られると予想される信号を出力する(S4)。これにより、ユーザのディスプレイ12には、ロボット20が人に置き換えられて表示されるため、ユーザは、旅行気分を違和感なく味わうことができる。
(3)サービス提供システム100は、ロボット20を利用するユーザの情報を登録するユーザ登録部336をさらに備える(図4)。ユーザ機器制御部335は、対象判定部333により動作対象が他のロボット20であると判定されると、他のロボット20をユーザ登録部336により登録されたユーザに置き換えたときに視覚センサ216で得られると予想される信号を出力する(S4)。これによりロボット20を操作するユーザがあたかもその場所に存在するかのようにディスプレイ12に仮想表示されるため、例えばロボット20の周囲に複数の他のロボット20が存在するときに、画一的な態様でユーザが仮想表示される場合に比べ、ユーザはより高い満足感を得られる。すなわち、画一的な態様でユーザが仮想表示されると、外見が同一のユーザが仮想表示されることとなる。この場合、ユーザにとって違和感が大きく、提供されるサービスに対し十分な満足感が得られない。
(4)本実施形態に係るサービス提供方法は、無線通信を介したユーザからの指令に応じて動作し、人の五感に対応した検出機能を有する複数のセンサ211~215を備える移動可能なロボット20と、ロボット20の周囲の画像を表示するディスプレイ12を有するユーザ機器10とを用いて、ユーザに画像表示のサービスを提供するものであり、ロボット20による撮影対象が人であるか他のロボット20であるかを判定し(S1)、撮影対象が人であると判定されると、センサ(特に視覚センサ211)により検出された信号をそのままユーザ機器10に出力し(S2)、撮影対象が他のロボット20であると判定されると、視覚センサ211により検出された信号をユーザの画像信号に置き換えてユーザ機器10に出力することを含む(S4)。これにより、ユーザは、ディスプレイ12の表示画像に対し高い満足感を得ることができる。
なお、上記実施形態では、視覚センサ211により取得された信号に基づいてユーザ機器10のディスプレイ12に画像を表示させるようにした。すなわち、ユーザ機器としてヘッドマウントディスプレイを用いたが、ユーザ機器制御部335により出力された信号に基づいてユーザが知覚可能な態様で動作するのであれば、ユーザ機器はいかなるものでもよい。例えばユーザに非装着のモニタの画面に画像を表示させるようにしてもよい。BMIが画像を脳刺激の態様に変換するとともに、ユーザの脳(後頭葉の視覚野など)を磁気刺激し、これにより画像をユーザの脳裏に浮かばせるようにしてもよい。画像以外のサービスを提供してもよい。
図7は、ユーザ機器の他の例を示す図である。図7では、ユーザの頭部に装着されたユーザ機器10(10A)に加え、ユーザの手に例えば手袋形状のユーザ機器10Cが装着される。ユーザ機器10Cは、例えばユーザの指の関節部に相当する位置に電気信号によって動作するアクチュエータ19を有するとともに、アクチュエータ19の駆動を制御するコントローラ(不図示)を有する。コントローラからの指令によりアクチュエータ19を駆動することで、ユーザ機器10Cが伸縮し、これによりユーザに握手の感覚を付与することができる。
すなわち、例えば図8に示すように、ユーザにより操作されるロボット20が第三者4と握手をすると、触覚センサ213により検出された信号が管理サーバ30に送信される。管理サーバ30(ユーザ機器制御部335)は、この検出信号に対応した動作信号をユーザ機器10Cのコントローラに送信し、これによりアクチュエータ19が作動し、ユーザは第三者4と握手をした感覚を得られる。
対象判定部333により、ロボット20Aの握手の相手が他のユーザにより操作されるロボット20Bであると判定されるとき、図9に示すように、ロボット20A,20B同士は互いに握手をする必要はなく、ユーザ機器10Aの画像上、握手しているだけでよい。この場合には、握手したときに触覚センサ213により検出されると予想される信号を、管理サーバ(ユーザ機器制御部335)がユーザ機器10Aに送信する。これによりロボット20Aを操作するユーザAは、ロボット20Bを操作するユーザBと握手した感覚を得られる。ロボット20A,20B同士が実際に握手する必要がないので、ロボット20A,20Bの無駄な動作を省くことができる。
上記実施形態では、二足歩行可能な人型ロボット20を用いたが、無線通信を介したユーザからの指令に応じて動作し、人が有する外界を感知するための感覚機能、すなわち視覚機能や触覚機能等に対応した機能を有する検出部を備えるのであれば、ロボットの構成は上述したものに限らない。上述したセンサ211~215は、人の感覚機能に対応した機能を有する検出部の一例であるが、検出部の構成はこれに限らない。
上記実施形態では、視覚センサ211やGPSセンサ25からの信号に基づいて、対象判定部333がロボット20の撮影動作の対象あるいは握手の動作の対象が人であるか他のロボット20であるかを判定するようにした。しかしながら、ロボットの動作対象はこれに限らず、他の動作対象が人であるか他のロボットであるかを判定するようにしてもよく、対象判定部の構成は上述したものに限らない。
上記実施形態では、対象判定部333によりロボット20の動作対象(例えば撮影動作の対象)が人であると判定されると、センサ211の検出値をそのまま出力し、動作対象が他のロボット20であると判定されると、他のロボット20を人に置き換えたときにセンサ211により検出されると予想される信号を出力するようにした。しかしながら、人と判定されたときとロボットと判定されたときとで、互いに異なる態様(第1の態様、第2の態様)でディスプレイ12等のユーザ機器に対し信号を出力するのであれば、出力部としてのユーザ機器制御部335の構成はいかなるもでもよい。すなわち、互いに異なる態様で信号を出力するのであれば、互いに同一の態様で信号を出力する場合に比べ、ユーザは提供されるサービスに対し高い満足感を得ることが可能となる。なお、対象判定部333の判定結果に拘らずにユーザ機器制御部335が常にセンサ信号を出力し、ユーザ機器10のコントローラ16が、対象判定部333の判定結果に応じて第1の態様と第2の態様の信号を出力するようにしてもよい。すなわち、ユーザ機器制御部335ではなく、コントローラ16が出力部として機能してもよい。
上記実施形態では、管理サーバ30とユーザ機器10およびロボット20との間で信号を送受信するようにした。すなわち、ユーザ機器10とロボット20とが管理サーバ30を介して通信するようにしたが、ユーザ機器10とロボット20とが管理サーバ30を介さずに直接通信するようにしてもよい。この場合、管理サーバ30の機能を、ユーザ機器10およびロボット20のコントローラ16,26等が有するようにすればよい。
上記実施形態では、ロボット20を店舗2でレンタルするようにしたが、例えばユーザが自宅に所有するロボットを用いても、本発明は、同様に構成することができる。ロボットを家族とともに行動させるのではなく、単独で行動させてもよい。管理サーバ30と店舗2の端末とを通信可能に構成し、ロボット20のレンタル予約の申し込み、レンタル料金の支払い等を、管理サーバ30を介して行うようにしてもよい。
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。
10,10A ユーザ機器、12 ディスプレイ、19 アクチュエータ、20,20A,20B ロボット、100 サービス提供システム、211 視覚センサ、213 触覚センサ、333 対象判定部、335 ユーザ機器制御部、336 ユーザ登録部

Claims (7)

  1. 無線通信を介したユーザからの指令に応じて動作し、人が有する外界を感知するための感覚機能に対応した機能を有する検出部であって、カメラを含む検出部を備える移動可能なロボットと、
    前記カメラにより得られた画像に基づいて撮影対象が人であるか他のロボットであるかを判定する対象判定部と、
    前記対象判定部による判定結果に応じた信号を出力する出力部と、
    前記出力部により出力された信号に基づいてユーザが知覚可能な態様で動作する、表示部を有するユーザ機器と、を備え
    前記出力部は、前記対象判定部により前記撮影対象が人であると判定されると、前記カメラにより得られた人の画像が前記表示部に表示され、前記撮影対象が他のロボットであると判定されると、前記他のロボットに対応付けられた他のユーザの外見を示す画像が前記表示部に表示されるように前記ユーザ機器に信号を出力することを特徴とするサービス提供システム。
  2. 請求項1に記載のサービス提供システムにおいて、
    前記ロボットを利用するユーザの固有の情報であるユーザ識別子が付された、該ユーザの態様を示すユーザ情報を登録するユーザ登録部と、
    前記ロボットの固有の情報であるロボット識別子と、前記ロボットを利用するユーザの識別子とを紐づけて管理するロボット管理部と、をさらに備え、
    前記出力部は、前記対象判定部により前記撮影対象が前記他のロボットであると判定されると、前記ロボット管理部により前記他のロボットの前記ロボット識別子に紐づけて管理された前記ユーザ識別子により識別されるユーザの前記ユーザ情報を前記ユーザ登録部から読み込み、該ユーザ情報に基づいて、前記ユーザ識別子により識別されるユーザの外見を示す画像を生成し、生成した前記画像が前記表示部に表示されるように前記ユーザ機器に信号を出力することを特徴とするサービス提供システム。
  3. 請求項1または2に記載のサービス提供システムにおいて、
    前記ユーザ機器は、前記カメラにより撮影された画像のうち、前記他のロボットを含まない画像を前記表示部に立体的に表示するように構成されることを特徴とするサービス提供システム。
  4. 請求項1~3のいずれか1項に記載のサービス提供システムにおいて、
    前記検出部は、力覚センサを含み、前記ユーザ機器は、ユーザの身体に装着されて、前記力覚センサにより検出された力をユーザの身体の所定部位に付与するアクチュエータを有することを特徴とするサービス提供システム。
  5. 請求項1~4のいずれか1項に記載のサービス提供システムにおいて、
    前記他のロボットの位置を検出するセンサをさらに備え、
    前記対象判定部はさらに、前記センサにより検出された前記他のロボットの位置に基づいて、前記撮影対象が人であるか他のロボットであるかを判定することを特徴とするサービス提供システム。
  6. 無線通信を介したユーザからの指令に応じて動作し、人が有する外界を感知するための感覚機能に対応した検出機能を有する検出部であって、カメラを含む検出部を備える移動可能なロボットと、表示部を有し、ユーザが知覚可能な態様で動作するユーザ機器と、を用いて、ユーザにサービスを提供するサービス提供方法であって、
    コンピュータが、
    前記カメラにより得られた画像に基づいて撮影対象が人であるか他のロボットであるかを判定し、
    前記撮影対象が人であると判定されると、前記カメラにより得られた人の画像が前記表示部に表示され、前記撮影対象が他のロボットであると判定されると、前記他のロボットに対応付けられた他のユーザの外見を示す画像が前記表示部に表示されるように前記ユーザ機器に信号を出力することを含むことを特徴とするサービス提供方法。
  7. 表示部を有するユーザ機器、及び、人が有する外界を感知するための感覚機能に対応した機能を有する検出部であって、カメラを含む検出部を備える移動可能なロボットと信号の送受信が可能な通信接続部と、
    前記通信接続部を介して受信した前記ロボットからの信号により示される前記カメラにより得られた画像に基づいて撮影対象が人であるか他のロボットであるかを判定する対象判定部と、
    前記対象判定部により前記撮影対象が人であると判定されると、前記カメラにより得られた人の画像が前記表示部に表示され、前記撮影対象が他のロボットであると判定されると、前記他のロボットに対応付けられた他のユーザの外見を示す画像が前記表示部に表示されるように前記ユーザ機器に信号を出力する出力部と、を備えることを特徴とするサービス提供システム用管理装置。
JP2019544585A 2017-09-29 2018-09-14 サービス提供システム、サービス提供方法およびサービス提供システム用管理装置 Active JP7023971B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017189796 2017-09-29
JP2017189796 2017-09-29
PCT/JP2018/034161 WO2019065303A1 (ja) 2017-09-29 2018-09-14 サービス提供システム、サービス提供方法およびサービス提供システム用管理装置

Publications (2)

Publication Number Publication Date
JPWO2019065303A1 JPWO2019065303A1 (ja) 2020-11-05
JP7023971B2 true JP7023971B2 (ja) 2022-02-22

Family

ID=65903663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019544585A Active JP7023971B2 (ja) 2017-09-29 2018-09-14 サービス提供システム、サービス提供方法およびサービス提供システム用管理装置

Country Status (3)

Country Link
US (1) US11518036B2 (ja)
JP (1) JP7023971B2 (ja)
WO (1) WO2019065303A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11883963B2 (en) * 2019-06-03 2024-01-30 Cushybots Corporation Robotic platform for interactive play using a telepresence robot surrogate

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000081917A (ja) 1998-09-04 2000-03-21 Sony Corp 力触覚及び温度覚の呈示用装置
JP2000218575A (ja) 1999-01-28 2000-08-08 Minolta Co Ltd 画像提示装置
WO2003063086A1 (fr) 2002-01-23 2003-07-31 Michihiko Shouji Systeme de traitement d'images, appareil de traitement d'images, et appareil d'affichage
JP2014026590A (ja) 2012-07-30 2014-02-06 Yokohama National Univ 画像合成装置、画像合成システム、画像合成方法およびプログラム

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6292713B1 (en) * 1999-05-20 2001-09-18 Compaq Computer Corporation Robotic telepresence system
US6346950B1 (en) * 1999-05-20 2002-02-12 Compaq Computer Corporation System and method for display images using anamorphic video
US6539284B2 (en) * 2000-07-25 2003-03-25 Axonn Robotics, Llc Socially interactive autonomous robot
US6925357B2 (en) * 2002-07-25 2005-08-02 Intouch Health, Inc. Medical tele-robotic system
US7113848B2 (en) * 2003-06-09 2006-09-26 Hanson David F Human emulation robot system
JP4214860B2 (ja) 2003-08-12 2009-01-28 沖電気工業株式会社 ロボットによる中継システム、ロボットによる中継プログラム及びその方法
US7756322B2 (en) * 2003-08-18 2010-07-13 Honda Motor Co., Ltd. Picture taking mobile robot
US20070061041A1 (en) * 2003-09-02 2007-03-15 Zweig Stephen E Mobile robot with wireless location sensing apparatus
US7720572B2 (en) * 2005-09-30 2010-05-18 Irobot Corporation Companion robot for personal interaction
US9198728B2 (en) * 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
US20100201512A1 (en) * 2006-01-09 2010-08-12 Harold Dan Stirling Apparatus, systems, and methods for evaluating body movements
US8909370B2 (en) * 2007-05-08 2014-12-09 Massachusetts Institute Of Technology Interactive systems employing robotic companions
US9160783B2 (en) * 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
US9586471B2 (en) * 2013-04-26 2017-03-07 Carla R. Gillett Robotic omniwheel
US11154981B2 (en) * 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US10343283B2 (en) * 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US9440356B2 (en) * 2012-12-21 2016-09-13 Crosswing Inc. Customizable robotic system
US8918215B2 (en) * 2011-01-19 2014-12-23 Harris Corporation Telematic interface with control signal scaling based on force sensor feedback
US9323250B2 (en) * 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US8718822B1 (en) * 2011-05-06 2014-05-06 Ryan Hickman Overlaying sensor data in a user interface
US9259842B2 (en) * 2011-06-10 2016-02-16 Microsoft Technology Licensing, Llc Interactive robot initialization
US9255813B2 (en) * 2011-10-14 2016-02-09 Microsoft Technology Licensing, Llc User controlled real object disappearance in a mixed reality display
US8958911B2 (en) * 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
EP2890529A2 (en) * 2012-08-31 2015-07-08 Rethink Robotics Inc. Systems and methods for safe robot operation
US9044863B2 (en) * 2013-02-06 2015-06-02 Steelcase Inc. Polarized enhanced confidentiality in mobile camera applications
US9381426B1 (en) * 2013-03-15 2016-07-05 University Of Central Florida Research Foundation, Inc. Semi-automated digital puppetry control
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
US10564815B2 (en) * 2013-04-12 2020-02-18 Nant Holdings Ip, Llc Virtual teller systems and methods
US9872968B2 (en) * 2013-04-17 2018-01-23 Sri International Biofeedback virtual reality sleep assistant
US10262462B2 (en) * 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9542626B2 (en) * 2013-09-06 2017-01-10 Toyota Jidosha Kabushiki Kaisha Augmenting layer-based object detection with deep convolutional neural networks
US9517559B2 (en) * 2013-09-27 2016-12-13 Honda Motor Co., Ltd. Robot control system, robot control method and output control method
WO2016025941A1 (en) * 2014-08-15 2016-02-18 University Of Central Florida Research Foundation, Inc. Control interface for robotic humanoid avatar system and related methods
US9713871B2 (en) * 2015-04-27 2017-07-25 Microsoft Technology Licensing, Llc Enhanced configuration and control of robots
US9821455B1 (en) * 2015-08-08 2017-11-21 X Development Llc Replacing a first robot with a second robot during performance of a task by the first robot
US10649460B2 (en) * 2017-11-14 2020-05-12 Facebook, Inc. Interactive robots positionable for optimal interactions
US10890921B2 (en) * 2018-05-31 2021-01-12 Carla R. Gillett Robot and drone array

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000081917A (ja) 1998-09-04 2000-03-21 Sony Corp 力触覚及び温度覚の呈示用装置
JP2000218575A (ja) 1999-01-28 2000-08-08 Minolta Co Ltd 画像提示装置
WO2003063086A1 (fr) 2002-01-23 2003-07-31 Michihiko Shouji Systeme de traitement d'images, appareil de traitement d'images, et appareil d'affichage
JP2014026590A (ja) 2012-07-30 2014-02-06 Yokohama National Univ 画像合成装置、画像合成システム、画像合成方法およびプログラム

Also Published As

Publication number Publication date
WO2019065303A1 (ja) 2019-04-04
US11518036B2 (en) 2022-12-06
US20200238529A1 (en) 2020-07-30
JPWO2019065303A1 (ja) 2020-11-05

Similar Documents

Publication Publication Date Title
JP6155448B2 (ja) 3d撮像し、マッピングし、ネットワーク化しおよびインタフェースするための無線手首コンピューティングおよびコントロールするデバイスおよび方法
US12017351B2 (en) Remote control system, information processing method, and non-transitory computer-readable recording medium
KR101850028B1 (ko) 가상 여행 체험 장치 및 그 방법
JP6601402B2 (ja) 制御装置、制御方法およびプログラム
JP7355006B2 (ja) 情報処理装置、情報処理方法、および記録媒体
JP7375770B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2016158057A (ja) 表示装置、表示方法およびプログラム
JP7390541B2 (ja) アニメーション制作システム
CN113164822B (zh) 穿衣服的机器人
JP6822413B2 (ja) サーバ装置及び情報処理方法、並びにコンピュータ・プログラム
JP2018120520A (ja) 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
US20190121515A1 (en) Information processing device and information processing method
JP7023971B2 (ja) サービス提供システム、サービス提供方法およびサービス提供システム用管理装置
JP6564484B1 (ja) 同室感コミュニケーションシステム
JP6892928B2 (ja) 情報提供システム、情報提供方法および情報提供システム用管理装置
Maeda et al. Parasitic humanoid: The wearable robotics as a behavioral assist interface like oneness between horse and rider
US11135725B2 (en) Robot control system, robot control method and user apparatus for robot control system
JP6919568B2 (ja) 情報端末装置及びその制御方法、情報処理装置及びその制御方法、並びにコンピュータ・プログラム
JPWO2019065304A1 (ja) 食品提供システム、食品提供方法および食品提供システム用管理装置
US20240061510A1 (en) Motion sickness reduction, directional indication, and neural rehabilitation device
CN116322507A (zh) 一种性需求互动平台***
JP2003334219A (ja) 遠隔地散策装置
JP2020043521A (ja) 遠隔制御サーバおよび遠隔制御システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220209

R150 Certificate of patent or registration of utility model

Ref document number: 7023971

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150