JP2023002703A - 表示方法、表示装置、電子機器、記憶媒体及びコンピュータプログラム - Google Patents
表示方法、表示装置、電子機器、記憶媒体及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2023002703A JP2023002703A JP2022168596A JP2022168596A JP2023002703A JP 2023002703 A JP2023002703 A JP 2023002703A JP 2022168596 A JP2022168596 A JP 2022168596A JP 2022168596 A JP2022168596 A JP 2022168596A JP 2023002703 A JP2023002703 A JP 2023002703A
- Authority
- JP
- Japan
- Prior art keywords
- position information
- eye
- projection
- image
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000004590 computer program Methods 0.000 title claims abstract description 15
- 238000001514 detection method Methods 0.000 claims description 26
- 239000011159 matrix material Substances 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 18
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000013136 deep learning model Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/30—Clipping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
は、目スペースの所定点Pの所定位置座標Peを表す。近裁断平面(即ち、投影平面)の所定の投影点の所定の投影位置座標Ppは、
により表される。所定点の所定のクリップ位置座標Pcは、
により表される。所定点の正規化装置の位置座標Pnは、
により表される。lは、近裁断平面の左辺の辺長を表す。rは、近裁断平面の右辺の辺長を表す。tは、近裁断平面の上辺の辺長を表す。bは、近裁断平面の下辺の辺長を表す。
所定の座標範囲は、
により表すことができる。
画像中の対象の眼部位置情報を確定することと、
前記眼部位置情報に基づいて、裸眼3Dのカメラ位置情報を確定することと、
前記カメラ位置情報に基づいて、目スペースを作成することと、
投影情報に基づいて、前記目スペース中の目標物体の物***置情報により、前記目標物体の投影平面における投影位置情報を取得することと、
前記投影位置情報に基づいて、前記目標物体を表示することと、を含む。
第1態様に記載の方法であって、
前記画像中の対象の眼部位置情報を確定することは、
画像に対して対象識別を行って画像が対象を含むと確定した場合、前記画像を処理し、 前記対象の眼部位置情報を取得することを含む。
第2態様に記載の方法であって、
前記画像を処理し、前記対象の眼部位置情報を取得することは、
前記画像に対して目標検出を行い、前記対象の眼部位置情報を取得することを含む。
第3態様に記載の方法であって、
前記画像に対して目標検出を行い、前記対象の眼部位置情報を取得することは、
目標検出モデルを用いて画像を処理し、前記対象の眼部位置情報を取得することを含む。
第1~4態様のいずれか1つに記載の方法であって、
前記投影情報は、投影行列を含み、
前記投影情報に基づいて、前記目スペース中の目標物体の物***置情報により、前記目標物体の投影平面における投影位置情報を取得することは、
前記投影行列と前記目スペース中の目標物体の物***置情報を乗算して、前記目標物体のクリップ位置情報を取得することと、
前記目標物体のクリップ位置情報に基づいて、前記目標物体の投影平面における投影位置情報を取得することと、を含む。
第1~5態様のいずれか1つに記載の方法であって、
前記眼部位置情報は、利き目の眼部位置情報を含む。
第5又は6態様に記載の方法であって、
前記投影行列は、所定の座標範囲と、前記目スペースに対応する目標視錐体の近裁断平面の辺長とに基づいて確定される。
画像中の対象の眼部位置情報を確定するための第1の確定モジュールと、
前記眼部位置情報に基づいて、裸眼3Dのカメラ位置情報を確定するための第2の確定モジュールと、
前記カメラ位置情報に基づいて、目スペースを作成するための作成モジュールと、
投影情報に基づいて、前記目スペース中の目標物体の物***置情報により、前記目標物体の投影平面における投影位置情報を取得するための取得モジュールと、
前記投影位置情報に基づいて、前記目標物体を表示するための表示モジュールと、を含む。
第8態様に記載の装置であって、
前記第1の確定モジュールは、
画像に対して対象識別を行って画像が対象を含むと確定した場合、前記画像を処理し、 前記対象の眼部位置情報を取得するための第1の取得サブモジュールを含む。
第9態様に記載の装置であって、
前記第1の取得サブモジュールは、
前記画像に対して目標検出を行い、前記対象の眼部位置情報を取得するための取得ユニットを含む。
第10態様に記載の装置であって、
前記取得ユニットは、
目標検出モデルを用いて画像を処理し、前記対象の眼部位置情報を取得するための取得サブユニットを含む。
第8~11態様のいずれか1つに記載の装置であって、
前記投影情報は、投影行列を含み、
前記取得モジュールは、
前記投影行列と前記目スペース中の目標物体の物***置情報を乗算して、前記目標物体のクリップ位置情報を取得するための第2の取得サブモジュールと、
前記目標物体のクリップ位置情報に基づいて、前記目標物体の投影平面における投影位置情報を取得するための第3の取得サブモジュールと、を含む。
第8~12態様のいずれか1つに記載の装置であって、
前記眼部位置情報は、利き目の眼部位置情報を含む。
第12又は13態様に記載の装置であって、
前記投影行列は、所定の座標範囲と、前記目スペースに対応する目標視錐体の近裁断平面の辺長とに基づいて確定される。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されるメモリとを備える電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサによって実行され得る命令が記憶されており、前記少なくとも1つのプロセッサが第1~7態様のいずれか1つに記載の方法を実行することができるように前記命令が前記少なくとも1つのプロセッサによって実行される。
コンピュータに第1~7態様のいずれか1つに記載の方法を実行させるためのコンピュータ命令を記憶している。
プロセッサにより実行される場合に、第1~7態様のいずれか1つに記載の方法を実現する。
Claims (17)
- 画像中の対象の眼部位置情報を確定することと、
前記眼部位置情報に基づいて、裸眼3Dのカメラ位置情報を確定することと、
前記カメラ位置情報に基づいて、目スペースを作成することと、
投影情報に基づいて、前記目スペース中の目標物体の物***置情報により、前記目標物体の投影平面における投影位置情報を取得することと、
前記投影位置情報に基づいて、前記目標物体を表示することと、を含む、
表示方法。 - 前記画像中の対象の眼部位置情報を確定することは、
画像に対して対象識別を行って画像が対象を含むと確定した場合、前記画像を処理し、 前記対象の眼部位置情報を取得することを含む、
請求項1に記載の方法。 - 前記画像を処理し、前記対象の眼部位置情報を取得することは、
前記画像に対して目標検出を行い、前記対象の眼部位置情報を取得することを含む、
請求項2に記載の方法。 - 前記画像に対して目標検出を行い、前記対象の眼部位置情報を取得することは、
目標検出モデルを用いて画像を処理し、前記対象の眼部位置情報を取得することを含む、
請求項3に記載の方法。 - 前記投影情報は、投影行列を含み、
前記投影情報に基づいて、前記目スペース中の目標物体の物***置情報により、前記目標物体の投影平面における投影位置情報を取得することは、
前記投影行列と前記目スペース中の目標物体の物***置情報を乗算して、前記目標物体のクリップ位置情報を取得することと、
前記目標物体のクリップ位置情報に基づいて、前記目標物体の投影平面における投影位置情報を取得することと、を含む、
請求項1~4のいずれか1項に記載の方法。 - 前記眼部位置情報は、利き目の眼部位置情報を含む、
請求項1~4のいずれか1項に記載の方法。 - 前記投影行列は、所定の座標範囲と、前記目スペースに対応する目標視錐体の近裁断平面の辺長とに基づいて確定された、
請求項5に記載の方法。 - 画像中の対象の眼部位置情報を確定するための第1の確定モジュールと、
前記眼部位置情報に基づいて、裸眼3Dのカメラ位置情報を確定するための第2の確定モジュールと、
前記カメラ位置情報に基づいて、目スペースを作成するための作成モジュールと、
投影情報に基づいて、前記目スペース中の目標物体の物***置情報により、前記目標物体の投影平面における投影位置情報を取得するための取得モジュールと、
前記投影位置情報に基づいて、前記目標物体を表示するための表示モジュールと、を含む、
表示装置。 - 前記第1の確定モジュールは、
画像に対して対象識別を行って画像が対象を含むと確定した場合、前記画像を処理し、 前記対象の眼部位置情報を取得するための第1の取得サブモジュールを含む、
請求項8に記載の装置。 - 前記第1の取得サブモジュールは、
前記画像に対して目標検出を行い、前記対象の眼部位置情報を取得するための取得ユニットを含む、
請求項9に記載の装置。 - 前記取得ユニットは、
目標検出モデルを用いて画像を処理し、前記対象の眼部位置情報を取得するための取得サブユニットを含む、
請求項10に記載の装置。 - 前記投影情報は、投影行列を含み、
前記取得モジュールは、
前記投影行列と前記目スペース中の目標物体の物***置情報を乗算して、前記目標物体のクリップ位置情報を取得するための第2の取得サブモジュールと、
前記目標物体のクリップ位置情報に基づいて、前記目標物体の投影平面における投影位置情報を取得するための第3の取得サブモジュールと、を含む、
請求項8~11のいずれか1項に記載の装置。 - 前記眼部位置情報は、利き目の眼部位置情報を含む、
請求項8~11のいずれか1項に記載の装置。 - 前記投影行列は、所定の座標範囲と、前記目スペースに対応する目標視錐体の近裁断平面の辺長とに基づいて確定された、
請求項12に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されるメモリとを備える電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサによって実行され得る命令が記憶されており、前記少なくとも1つのプロセッサが請求項1~7のいずれか一項に記載の方法を実行することができるように前記命令が前記少なくとも1つのプロセッサによって実行される、
電子機器。 - コンピュータに請求項1~4のいずれか一項に記載の方法を実行させるためのコンピュータ命令を記憶している、
非一時的なコンピュータ可読記憶媒体。 - プロセッサにより実行される場合に、請求項1~4のいずれか一項に記載の方法を実現するコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111614532.0A CN114327346B (zh) | 2021-12-27 | 2021-12-27 | 显示方法、显示装置、电子设备以及存储介质 |
CN202111614532.0 | 2021-12-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023002703A true JP2023002703A (ja) | 2023-01-10 |
Family
ID=81013564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022168596A Pending JP2023002703A (ja) | 2021-12-27 | 2022-10-20 | 表示方法、表示装置、電子機器、記憶媒体及びコンピュータプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230118166A1 (ja) |
EP (1) | EP4167189A1 (ja) |
JP (1) | JP2023002703A (ja) |
CN (1) | CN114327346B (ja) |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8704879B1 (en) * | 2010-08-31 | 2014-04-22 | Nintendo Co., Ltd. | Eye tracking enabling 3D viewing on conventional 2D display |
CN105282532B (zh) * | 2014-06-03 | 2018-06-22 | 天津拓视科技有限公司 | 3d显示方法和装置 |
JP2016212784A (ja) * | 2015-05-13 | 2016-12-15 | 株式会社リコー | 画像処理装置、画像処理方法 |
US11240487B2 (en) * | 2016-12-05 | 2022-02-01 | Sung-Yang Wu | Method of stereo image display and related device |
CN108628087B (zh) * | 2017-03-20 | 2020-11-06 | 成都理想境界科技有限公司 | 一种投影装置及空间成像方法 |
CN107490870B (zh) * | 2017-06-15 | 2020-07-07 | 深圳市维超智能科技有限公司 | 一种3d显示标定参数的确定方法、存储介质、设备及*** |
CN107172417B (zh) * | 2017-06-30 | 2019-12-20 | 深圳超多维科技有限公司 | 一种裸眼3d屏幕的图像显示方法、装置及*** |
FR3071625B1 (fr) * | 2017-09-26 | 2019-09-27 | Alioscopy | Systeme et procede d'affichage d'une image autostereoscopique a 2 points de vue sur un ecran d'affichage autostereoscopique a n points de vue et procede de controle d'affichage sur un tel ecran d'affichage |
US20190124313A1 (en) * | 2017-10-19 | 2019-04-25 | Intel Corporation | Three dimensional glasses free light field display using eye location |
CN108769664B (zh) * | 2018-05-28 | 2020-12-08 | 张家港康得新光电材料有限公司 | 基于人眼跟踪的裸眼3d显示方法、装置、设备及介质 |
CN108881880A (zh) * | 2018-08-01 | 2018-11-23 | 上海玮舟微电子科技有限公司 | 基于人眼跟踪的裸眼3d显示方法、装置、设备及存储介质 |
CN109784333B (zh) * | 2019-01-22 | 2021-09-28 | 中国科学院自动化研究所 | 基于点云带权通道特征的三维目标检测方法及*** |
CN111857461B (zh) * | 2020-06-29 | 2021-12-24 | 维沃移动通信有限公司 | 图像显示方法、装置、电子设备及可读存储介质 |
CN112668460A (zh) * | 2020-12-25 | 2021-04-16 | 北京百度网讯科技有限公司 | 目标检测方法、电子设备、路侧设备和云控平台 |
CN112929651A (zh) * | 2021-01-25 | 2021-06-08 | 北京信息科技大学 | 一种显示方法、装置、电子设备及存储介质 |
CN112672139A (zh) * | 2021-03-16 | 2021-04-16 | 深圳市火乐科技发展有限公司 | 投影显示方法、装置及计算机可读存储介质 |
CN113253845A (zh) * | 2021-06-01 | 2021-08-13 | 纵深视觉科技(南京)有限责任公司 | 一种基于人眼追踪视图显示方法、装置、介质及电子设备 |
-
2021
- 2021-12-27 CN CN202111614532.0A patent/CN114327346B/zh active Active
-
2022
- 2022-10-20 JP JP2022168596A patent/JP2023002703A/ja active Pending
- 2022-12-21 US US18/086,494 patent/US20230118166A1/en active Pending
- 2022-12-27 EP EP22216743.9A patent/EP4167189A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN114327346A (zh) | 2022-04-12 |
CN114327346B (zh) | 2023-09-29 |
EP4167189A1 (en) | 2023-04-19 |
US20230118166A1 (en) | 2023-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111860167B (zh) | 人脸融合模型获取及人脸融合方法、装置及存储介质 | |
US20210272306A1 (en) | Method for training image depth estimation model and method for processing image depth information | |
CN114550177B (zh) | 图像处理的方法、文本识别方法及装置 | |
US20220351390A1 (en) | Method for generating motion capture data, electronic device and storage medium | |
CN112784765B (zh) | 用于识别动作的方法、装置、设备以及存储介质 | |
EP3876204A2 (en) | Method and apparatus for generating human body three-dimensional model, device and storage medium | |
CN103914876A (zh) | 用于在3d地图上显示视频的方法和设备 | |
CN111639147B (zh) | 一种地图压缩方法、***及计算机可读存储介质 | |
CN114792355B (zh) | 虚拟形象生成方法、装置、电子设备和存储介质 | |
CN113870439A (zh) | 用于处理图像的方法、装置、设备以及存储介质 | |
CN114004840A (zh) | 图像处理方法、训练方法、检测方法、装置、设备及介质 | |
CN112580666A (zh) | 图像特征的提取方法、训练方法、装置、电子设备及介质 | |
CN111899159A (zh) | 用于变换发型的方法、装置、设备以及存储介质 | |
CN113837194B (zh) | 图像处理方法、图像处理装置、电子设备以及存储介质 | |
CN114187392A (zh) | 虚拟偶像的生成方法、装置和电子设备 | |
CN113380269A (zh) | 视频图像生成方法、装置、设备、介质和计算机程序产品 | |
US20230260211A1 (en) | Three-Dimensional Point Cloud Generation Method, Apparatus and Electronic Device | |
CN112714337A (zh) | 视频处理方法、装置、电子设备和存储介质 | |
CN115082298A (zh) | 图像生成方法、装置、电子设备以及存储介质 | |
JP2023002703A (ja) | 表示方法、表示装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN113656629B (zh) | 视觉定位方法、装置、电子设备及存储介质 | |
CN113327311B (zh) | 基于虚拟角色的显示方法、装置、设备、存储介质 | |
CN112991451B (zh) | 图像识别方法、相关装置及计算机程序产品 | |
CN113781653A (zh) | 对象模型生成方法、装置、电子设备及存储介质 | |
CN113240780A (zh) | 生成动画的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221020 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240221 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240604 |