JP2021105763A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2021105763A5 JP2021105763A5 JP2019235610A JP2019235610A JP2021105763A5 JP 2021105763 A5 JP2021105763 A5 JP 2021105763A5 JP 2019235610 A JP2019235610 A JP 2019235610A JP 2019235610 A JP2019235610 A JP 2019235610A JP 2021105763 A5 JP2021105763 A5 JP 2021105763A5
- Authority
- JP
- Japan
- Prior art keywords
- space
- tracked object
- camera
- detecting
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims 3
- 230000001815 facial effect Effects 0.000 claims 1
- 230000010365 information processing Effects 0.000 claims 1
- 238000010801 machine learning Methods 0.000 claims 1
Claims (18)
- コンピュータに、
現実世界における第1の空間を撮影する第1のカメラで撮影した情報を受け付けるステップと、
現実世界における第2の空間を撮影する第2のカメラで撮影した情報を受け付けるステップと、
複数の移動物のうちの追跡対象物が前記第1の空間にいる場合、前記第1のカメラで撮影した画像をユーザが装着するデバイスに表示するステップと、
前記追跡対象物が前記第2の空間に移動したことを検知するステップと、
前記検知するステップで前記追跡対象物が前記第2の空間に移動したことを検知した場合、前記デバイスに表示する画像を前記第2のカメラで撮影した画像に切替えるステップと、
を実行させる、
プログラム。 - 前記検知するステップは、
前記追跡対象物が前記第1の空間を出たことを検知し、
前記追跡対象物が前記第2の空間に入ったことを検知し、
前記切替えるステップは、
前記検知するステップによって前記追跡対象物が前記第1の空間を出たことを検出した後、前記追跡対象物が前記第2の空間に入ったことを検出したタイミングで、前記デバイスに表示する画像を前記第1のカメラで撮影した画像から前記第2のカメラで撮影した画像に切替える、
請求項1に記載のプログラム。 - 前記検知するステップは、
前記追跡対象物が前記第1の空間を出たことを検知し、
前記追跡対象物が前記第2の空間に入ったことを検知し、
前記切替えるステップは、
前記検知するステップによって前記追跡対象物が前記第1の空間を出たことを検出したタイミングで前記デバイスに表示する画像を前記第1のカメラで撮影した画像から所定の画像に一旦切替え、
前記検知するステップによって前記追跡対象物が前記第2の空間に入ったことを検出したタイミングで前記デバイスに表示する画像を前記所定の画像から前記第2のカメラで撮影した画像に切替える、
請求項1に記載のプログラム。 - 前記追跡対象物は、人物であり、
前記検知するステップは、
前記第1の空間を撮影した画像及び前記第2の空間を撮影した画像を用いて、前記追跡対象物を特定する、
請求項1から3のいずれか一項に記載のプログラム。 - 前記検知するステップは、
前記追跡対象物である人物の顔を認識し、
前記認識した顔によって前記追跡対象物を特定する、
請求項4に記載のプログラム。 - 前記検知するステップは、
前記追跡対象物である人物の顔の認識において機械学習を行う、
請求項5に記載のプログラム。 - 前記検知するステップは、
前記追跡対象物である人物の服の色をさらに認識し、
前記認識した顔及び服の色によって前記追跡対象物を特定する、
請求項5又は6に記載のプログラム。 - 前記検知するステップは、
前記追跡対象物である人物の服の色を認識し、
前記認識した服の色によって前記追跡対象物を特定する、
請求項4に記載のプログラム。 - 前記検知するステップは、
前記第1のカメラで前記第1の空間を撮影した画像及び前記第2のカメラで前記第2の空間を撮影した画像を用いて、前記追跡対象物を特定する、
請求項4から8のいずれか一項に記載のプログラム。 - 前記追跡対象物は、人物であり、
前記検知するステップは、
第1のセンサによって前記追跡対象物が前記第1の空間を出たことを検知し、
第2のセンサによって前記追跡対象物が前記第2の空間に入ったことを検知する、
請求項1から3のいずれか一項に記載のプログラム。 - プロセッサに、
前記表示するステップよりも前に、前記複数の移動物のうちのいずれが前記追跡対象物であるかを事前登録するステップ、
をさらに実行させる、
請求項4から10のいずれか一項に記載のプログラム。 - プロセッサに、
ユーザの注目に基づいて、前記複数の移動物のうちのいずれが前記追跡対象物であるかを登録するステップ、
をさらに実行させる、
請求項4から10のいずれか一項に記載のプログラム。 - 前記登録するステップは、前記複数の移動物のそれぞれが前記第1の空間から出るタイミングにおけるユーザの注目に基づいて、前記複数の移動物のうちのいずれが前記追跡対象物であるかを登録する、
請求項12に記載のプログラム。 - 前記登録するステップは、前記複数の移動物のうち前記第1の空間から出るタイミングでユーザの視界の中央に存在する移動物である人物を顔認識で特定する、
請求項12に記載のプログラム。 - 前記登録するステップは、前記複数の移動物のうち前記第1の空間から出るタイミングでユーザの視界の中央に存在する移動物である人物を顔認識で特定し、特定した人物の特徴点を追跡する、
請求項12に記載のプログラム。 - ユーザが装着するデバイスによって仮想空間を提供するためにコンピュータで実行されるプログラムであって、前記プログラムは前記コンピュータに、
仮想視点と表示オブジェクトとを含む、3次元の仮想空間を定義するステップと、
第1のカメラで撮影した画像の入力を受け付けるステップと、
第2のカメラで撮影した画像の入力を受け付けるステップと、
入力された画像を前記表示オブジェクトに表示するステップと、
前記デバイスが関連付けられたユーザの動きを検出するステップと、
ユーザの動きに応じて、前記仮想視点からの視界を制御するステップと、
前記視界に対応する視界画像を前記デバイスに表示するステップと、
を実行させ、
前記表示オブジェクトに表示するステップは、追跡対象物が前記第1のカメラで撮影した画像にいる場合、入力された前記画像のうち前記第1のカメラで撮影した画像を前記表示オブジェクトに表示し、前記追跡対象物が前記第1のカメラで撮影した画像から消えて前記第2のカメラで撮影した画像に現れた場合、前記表示オブジェクトに表示する画像を、入力された画像のうち前記第2のカメラで撮影した画像に切替える、
プログラム。 - コンピュータで実行される方法であって、
第1の空間を撮影する第1のカメラで撮影した画像の入力を受け付けるステップと、
第2の空間を撮影する第2のカメラで撮影した画像の入力を受け付けるステップと、
複数の移動物のうちの追跡対象物が前記第1の空間にいる場合、前記第1のカメラで撮影した画像をデバイスに表示するステップと、
前記追跡対象物が前記第2の空間に移動したことを検知するステップと、
前記検知するステップで前記追跡対象物が前記第2の空間に移動したことを検知した場合、前記デバイスに表示する画像を前記第2のカメラで撮影した画像に切替えるステップと、
を備える、方法。 - プロセッサと、
プログラムを格納したメモリと、
を備え、
前記プログラムは、前記プロセッサに、
第1の空間を撮影する第1のカメラで撮影した画像の入力を受け付けるステップと、
第2の空間を撮影する第2のカメラで撮影した画像の入力を受け付けるステップと、
複数の移動物のうちの追跡対象物が前記第1の空間にいる場合、前記第1のカメラで撮影した画像をデバイスに表示するステップと、
前記追跡対象物が前記第2の空間に移動したことを検知するステップと、
前記検知するステップで前記追跡対象物が前記第2の空間に移動したことを検知した場合、前記デバイスに表示する画像を前記第2のカメラで撮影した画像に切替えるステップと、
を実行させる、
情報処理装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019235610A JP7458779B2 (ja) | 2019-12-26 | 2019-12-26 | プログラム、方法および情報処理装置 |
PCT/JP2020/046876 WO2021131938A1 (ja) | 2019-12-26 | 2020-12-16 | プログラム、方法および情報処理装置 |
JP2024042980A JP2024061890A (ja) | 2019-12-26 | 2024-03-19 | プログラム、方法および情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019235610A JP7458779B2 (ja) | 2019-12-26 | 2019-12-26 | プログラム、方法および情報処理装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024042980A Division JP2024061890A (ja) | 2019-12-26 | 2024-03-19 | プログラム、方法および情報処理装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021105763A JP2021105763A (ja) | 2021-07-26 |
JP2021105763A5 true JP2021105763A5 (ja) | 2023-11-07 |
JP7458779B2 JP7458779B2 (ja) | 2024-04-01 |
Family
ID=76575899
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019235610A Active JP7458779B2 (ja) | 2019-12-26 | 2019-12-26 | プログラム、方法および情報処理装置 |
JP2024042980A Pending JP2024061890A (ja) | 2019-12-26 | 2024-03-19 | プログラム、方法および情報処理装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024042980A Pending JP2024061890A (ja) | 2019-12-26 | 2024-03-19 | プログラム、方法および情報処理装置 |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP7458779B2 (ja) |
WO (1) | WO2021131938A1 (ja) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016110319A (ja) | 2014-12-04 | 2016-06-20 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
JP2017187952A (ja) | 2016-04-06 | 2017-10-12 | 株式会社コロプラ | 表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラム |
JP6495398B2 (ja) * | 2017-09-04 | 2019-04-03 | 株式会社コロプラ | 仮想空間を提供するための方法、プログラム、および当該プログラムを実行するための情報処理装置 |
JP6470374B1 (ja) * | 2017-10-03 | 2019-02-13 | 株式会社コロプラ | 仮想現実を提供するためにコンピュータで実行されるプログラムおよび情報処理装置 |
JP2019128721A (ja) | 2018-01-23 | 2019-08-01 | 株式会社コロプラ | ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法 |
JP7005406B2 (ja) | 2018-03-23 | 2022-01-21 | 株式会社コロプラ | プログラム、情報処理装置、及び情報処理方法 |
JP2019211864A (ja) | 2018-05-31 | 2019-12-12 | 株式会社コロプラ | コンピュータプログラム、情報処理装置および情報処理方法 |
-
2019
- 2019-12-26 JP JP2019235610A patent/JP7458779B2/ja active Active
-
2020
- 2020-12-16 WO PCT/JP2020/046876 patent/WO2021131938A1/ja active Application Filing
-
2024
- 2024-03-19 JP JP2024042980A patent/JP2024061890A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10114459B2 (en) | Gaze direction mapping | |
JP6598617B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
GB2529943B (en) | Tracking processing device and tracking processing system provided with same, and tracking processing method | |
Chu et al. | Hand gesture for taking self portrait | |
US10331209B2 (en) | Gaze direction mapping | |
JP5674465B2 (ja) | 画像処理装置、カメラ、画像処理方法およびプログラム | |
TW201120681A (en) | Method and system for operating electric apparatus | |
WO2022174594A1 (zh) | 基于多相机的裸手追踪显示方法、装置及*** | |
US10574904B2 (en) | Imaging method and electronic device thereof | |
JP2014042190A5 (ja) | ||
WO2020032254A1 (ja) | 注意対象推定装置及び注意対象推定方法 | |
US10257414B2 (en) | Method and system for smart group portrait | |
JP2021105763A5 (ja) | ||
JPWO2020262261A5 (ja) | ||
EP3973697A1 (en) | Modification of projected structured light based on identified points within captured image | |
JP2017068468A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP5951966B2 (ja) | 画像処理装置、画像処理システム、画像処理方法、及びプログラム | |
US11269405B2 (en) | Gaze direction mapping | |
JP2021105790A5 (ja) | ||
JP6884123B2 (ja) | ユーザの注視点を推定する注視点推定装置、プログラム及び方法 | |
US11675428B2 (en) | Determining a gaze direction using depth information | |
KR20230114686A (ko) | 비디오에서 사용자의 손을 결정하는 방법 및 전자 장치 | |
US10593045B2 (en) | Information processing apparatus and method of controlling the same | |
KR101957417B1 (ko) | 실사이미지 디스플레이 방식의 동작인식 컨트롤 시스템 및 방법 | |
JP2017207949A (ja) | ジェスチャコマンド入力装置、ジェスチャコマンド入力方法及びジェスチャコマンド入力プログラム並びに画像表示システム |