JP2021105763A5 - - Google Patents

Download PDF

Info

Publication number
JP2021105763A5
JP2021105763A5 JP2019235610A JP2019235610A JP2021105763A5 JP 2021105763 A5 JP2021105763 A5 JP 2021105763A5 JP 2019235610 A JP2019235610 A JP 2019235610A JP 2019235610 A JP2019235610 A JP 2019235610A JP 2021105763 A5 JP2021105763 A5 JP 2021105763A5
Authority
JP
Japan
Prior art keywords
space
tracked object
camera
detecting
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019235610A
Other languages
English (en)
Other versions
JP7458779B2 (ja
JP2021105763A (ja
Filing date
Publication date
Application filed filed Critical
Priority to JP2019235610A priority Critical patent/JP7458779B2/ja
Priority claimed from JP2019235610A external-priority patent/JP7458779B2/ja
Priority to PCT/JP2020/046876 priority patent/WO2021131938A1/ja
Publication of JP2021105763A publication Critical patent/JP2021105763A/ja
Publication of JP2021105763A5 publication Critical patent/JP2021105763A5/ja
Priority to JP2024042980A priority patent/JP2024061890A/ja
Application granted granted Critical
Publication of JP7458779B2 publication Critical patent/JP7458779B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Claims (18)

  1. コンピュータに、
    現実世界における第1の空間を撮影する第1のカメラで撮影した情報を受け付けるステップと、
    現実世界における第2の空間を撮影する第2のカメラで撮影した情報を受け付けるステップと、
    複数の移動物のうちの追跡対象物が前記第1の空間にいる場合、前記第1のカメラで撮影した画像をユーザが装着するデバイスに表示するステップと、
    前記追跡対象物が前記第2の空間に移動したことを検知するステップと、
    前記検知するステップで前記追跡対象物が前記第2の空間に移動したことを検知した場合、前記デバイスに表示する画像を前記第2のカメラで撮影した画像に切替えるステップと、
    を実行させる、
    プログラム。
  2. 前記検知するステップは、
    前記追跡対象物が前記第1の空間を出たことを検知し、
    前記追跡対象物が前記第2の空間に入ったことを検知し、
    前記切替えるステップは、
    前記検知するステップによって前記追跡対象物が前記第1の空間を出たことを検出した後、前記追跡対象物が前記第2の空間に入ったことを検出したタイミングで、前記デバイスに表示する画像を前記第1のカメラで撮影した画像から前記第2のカメラで撮影した画像に切替える、
    請求項1に記載のプログラム。
  3. 前記検知するステップは、
    前記追跡対象物が前記第1の空間を出たことを検知し、
    前記追跡対象物が前記第2の空間に入ったことを検知し、
    前記切替えるステップは、
    前記検知するステップによって前記追跡対象物が前記第1の空間を出たことを検出したタイミングで前記デバイスに表示する画像を前記第1のカメラで撮影した画像から所定の画像に一旦切替え、
    前記検知するステップによって前記追跡対象物が前記第2の空間に入ったことを検出したタイミングで前記デバイスに表示する画像を前記所定の画像から前記第2のカメラで撮影した画像に切替える、
    請求項1に記載のプログラム。
  4. 前記追跡対象物は、人物であり、
    前記検知するステップは、
    前記第1の空間を撮影した画像及び前記第2の空間を撮影した画像を用いて、前記追跡対象物を特定する、
    請求項1から3のいずれか一項に記載のプログラム。
  5. 前記検知するステップは、
    前記追跡対象物である人物の顔を認識し、
    前記認識した顔によって前記追跡対象物を特定する、
    請求項4に記載のプログラム。
  6. 前記検知するステップは、
    前記追跡対象物である人物の顔の認識において機械学習を行う、
    請求項5に記載のプログラム。
  7. 前記検知するステップは、
    前記追跡対象物である人物の服の色をさらに認識し、
    前記認識した顔及び服の色によって前記追跡対象物を特定する、
    請求項5又は6に記載のプログラム。
  8. 前記検知するステップは、
    前記追跡対象物である人物の服の色を認識し、
    前記認識した服の色によって前記追跡対象物を特定する、
    請求項4に記載のプログラム。
  9. 前記検知するステップは、
    前記第1のカメラで前記第1の空間を撮影した画像及び前記第2のカメラで前記第2の空間を撮影した画像を用いて、前記追跡対象物を特定する、
    請求項4から8のいずれか一項に記載のプログラム。
  10. 前記追跡対象物は、人物であり、
    前記検知するステップは、
    第1のセンサによって前記追跡対象物が前記第1の空間を出たことを検知し、
    第2のセンサによって前記追跡対象物が前記第2の空間に入ったことを検知する、
    請求項1から3のいずれか一項に記載のプログラム。
  11. プロセッサに、
    前記表示するステップよりも前に、前記複数の移動物のうちのいずれが前記追跡対象物であるかを事前登録するステップ、
    をさらに実行させる、
    請求項4から1のいずれか一項に記載のプログラム。
  12. プロセッサに、
    ユーザの注目に基づいて、前記複数の移動物のうちのいずれが前記追跡対象物であるかを登録するステップ、
    をさらに実行させる、
    請求項4から1のいずれか一項に記載のプログラム。
  13. 前記登録するステップは、前記複数の移動物のそれぞれが前記第1の空間から出るタイミングにおけるユーザの注目に基づいて、前記複数の移動物のうちのいずれが前記追跡対象物であるかを登録する、
    請求項1に記載のプログラム。
  14. 前記登録するステップは、前記複数の移動物のうち前記第1の空間から出るタイミングでユーザの視界の中央に存在する移動物である人物を顔認識で特定する、
    請求項1に記載のプログラム。
  15. 前記登録するステップは、前記複数の移動物のうち前記第1の空間から出るタイミングでユーザの視界の中央に存在する移動物である人物を顔認識で特定し、特定した人物の特徴点を追跡する、
    請求項1に記載のプログラム。
  16. ユーザが装着するデバイスによって仮想空間を提供するためにコンピュータで実行されるプログラムであって、前記プログラムは前記コンピュータに、
    仮想視点と表示オブジェクトとを含む、3次元の仮想空間を定義するステップと、
    第1のカメラで撮影した画像の入力を受け付けるステップと、
    第2のカメラで撮影した画像の入力を受け付けるステップと、
    力された画像を前記表示オブジェクトに表示するステップと、
    記デバイスが関連付けられたユーザの動きを検出するステップと、
    ユーザの動きに応じて、前記仮想視点からの視界を制御するステップと、
    前記視界に対応する視界画像を前記デバイスに表示するステップと、
    を実行させ、
    前記表示オブジェクトに表示するステップは、追跡対象物が前記第1のカメラで撮影した画像にいる場合、入力された前記画像のうち前記第1のカメラで撮影した画像を前記表示オブジェクトに表示し、前記追跡対象物が前記第1のカメラで撮影した画像から消えて前記第2のカメラで撮影した画像に現れた場合、前記表示オブジェクトに表示する画像を、力された画像のうち前記第2のカメラで撮影した画像に切替える、
    プログラム。
  17. コンピュータで実行される方法であって、
    第1の空間を撮影する第1のカメラで撮影した画像の入力を受け付けるステップと、
    第2の空間を撮影する第2のカメラで撮影した画像の入力を受け付けるステップと、
    複数の移動物のうちの追跡対象物が前記第1の空間にいる場合、前記第1のカメラで撮影した画像をデバイスに表示するステップと、
    前記追跡対象物が前記第2の空間に移動したことを検知するステップと、
    前記検知するステップで前記追跡対象物が前記第2の空間に移動したことを検知した場合、前記デバイスに表示する画像を前記第2のカメラで撮影した画像に切替えるステップと、
    を備える、方法。
  18. プロセッサと、
    プログラムを格納したメモリと、
    を備え、
    前記プログラムは、前記プロセッサに、
    第1の空間を撮影する第1のカメラで撮影した画像の入力を受け付けるステップと、
    第2の空間を撮影する第2のカメラで撮影した画像の入力を受け付けるステップと、
    複数の移動物のうちの追跡対象物が前記第1の空間にいる場合、前記第1のカメラで撮影した画像をデバイスに表示するステップと、
    前記追跡対象物が前記第2の空間に移動したことを検知するステップと、
    前記検知するステップで前記追跡対象物が前記第2の空間に移動したことを検知した場合、前記デバイスに表示する画像を前記第2のカメラで撮影した画像に切替えるステップと、
    を実行させる、
    情報処理装置。
JP2019235610A 2019-12-26 2019-12-26 プログラム、方法および情報処理装置 Active JP7458779B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019235610A JP7458779B2 (ja) 2019-12-26 2019-12-26 プログラム、方法および情報処理装置
PCT/JP2020/046876 WO2021131938A1 (ja) 2019-12-26 2020-12-16 プログラム、方法および情報処理装置
JP2024042980A JP2024061890A (ja) 2019-12-26 2024-03-19 プログラム、方法および情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019235610A JP7458779B2 (ja) 2019-12-26 2019-12-26 プログラム、方法および情報処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024042980A Division JP2024061890A (ja) 2019-12-26 2024-03-19 プログラム、方法および情報処理装置

Publications (3)

Publication Number Publication Date
JP2021105763A JP2021105763A (ja) 2021-07-26
JP2021105763A5 true JP2021105763A5 (ja) 2023-11-07
JP7458779B2 JP7458779B2 (ja) 2024-04-01

Family

ID=76575899

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019235610A Active JP7458779B2 (ja) 2019-12-26 2019-12-26 プログラム、方法および情報処理装置
JP2024042980A Pending JP2024061890A (ja) 2019-12-26 2024-03-19 プログラム、方法および情報処理装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024042980A Pending JP2024061890A (ja) 2019-12-26 2024-03-19 プログラム、方法および情報処理装置

Country Status (2)

Country Link
JP (2) JP7458779B2 (ja)
WO (1) WO2021131938A1 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016110319A (ja) 2014-12-04 2016-06-20 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
JP2017187952A (ja) 2016-04-06 2017-10-12 株式会社コロプラ 表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラム
JP6495398B2 (ja) * 2017-09-04 2019-04-03 株式会社コロプラ 仮想空間を提供するための方法、プログラム、および当該プログラムを実行するための情報処理装置
JP6470374B1 (ja) * 2017-10-03 2019-02-13 株式会社コロプラ 仮想現実を提供するためにコンピュータで実行されるプログラムおよび情報処理装置
JP2019128721A (ja) 2018-01-23 2019-08-01 株式会社コロプラ ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
JP7005406B2 (ja) 2018-03-23 2022-01-21 株式会社コロプラ プログラム、情報処理装置、及び情報処理方法
JP2019211864A (ja) 2018-05-31 2019-12-12 株式会社コロプラ コンピュータプログラム、情報処理装置および情報処理方法

Similar Documents

Publication Publication Date Title
US10114459B2 (en) Gaze direction mapping
JP6598617B2 (ja) 情報処理装置、情報処理方法およびプログラム
GB2529943B (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
Chu et al. Hand gesture for taking self portrait
US10331209B2 (en) Gaze direction mapping
JP5674465B2 (ja) 画像処理装置、カメラ、画像処理方法およびプログラム
TW201120681A (en) Method and system for operating electric apparatus
WO2022174594A1 (zh) 基于多相机的裸手追踪显示方法、装置及***
US10574904B2 (en) Imaging method and electronic device thereof
JP2014042190A5 (ja)
WO2020032254A1 (ja) 注意対象推定装置及び注意対象推定方法
US10257414B2 (en) Method and system for smart group portrait
JP2021105763A5 (ja)
JPWO2020262261A5 (ja)
EP3973697A1 (en) Modification of projected structured light based on identified points within captured image
JP2017068468A (ja) 情報処理装置、情報処理方法及びプログラム
JP5951966B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US11269405B2 (en) Gaze direction mapping
JP2021105790A5 (ja)
JP6884123B2 (ja) ユーザの注視点を推定する注視点推定装置、プログラム及び方法
US11675428B2 (en) Determining a gaze direction using depth information
KR20230114686A (ko) 비디오에서 사용자의 손을 결정하는 방법 및 전자 장치
US10593045B2 (en) Information processing apparatus and method of controlling the same
KR101957417B1 (ko) 실사이미지 디스플레이 방식의 동작인식 컨트롤 시스템 및 방법
JP2017207949A (ja) ジェスチャコマンド入力装置、ジェスチャコマンド入力方法及びジェスチャコマンド入力プログラム並びに画像表示システム