JP2023002703A - 表示方法、表示装置、電子機器、記憶媒体及びコンピュータプログラム - Google Patents

表示方法、表示装置、電子機器、記憶媒体及びコンピュータプログラム Download PDF

Info

Publication number
JP2023002703A
JP2023002703A JP2022168596A JP2022168596A JP2023002703A JP 2023002703 A JP2023002703 A JP 2023002703A JP 2022168596 A JP2022168596 A JP 2022168596A JP 2022168596 A JP2022168596 A JP 2022168596A JP 2023002703 A JP2023002703 A JP 2023002703A
Authority
JP
Japan
Prior art keywords
position information
eye
projection
image
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022168596A
Other languages
English (en)
Inventor
鵬飛 鐘
Pengfei Zhong
江勇 李
Jiangyong Li
瑜 劉
Yu Ryu
曉華 任
Xiaohua Ren
曉琳 黄
Xiaolin Huang
慧斌 趙
Huibin Zhao
粤強 董
Yueqiang Dong
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2023002703A publication Critical patent/JP2023002703A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/30Clipping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】表示方法、表示装置、電子機器、記憶媒体及びコンピュータプログラムを提供する。【解決手段】表示方法は、画像中の対象の眼部位置情報を確定し、眼部位置情報に基づいて、裸眼3Dのカメラ位置情報を確定し、カメラ位置情報に基づいて、目スペースを作成し、投影情報に基づいて、目スペース中の目標物体の物***置情報により、目標物体の投影平面における投影位置情報を取得し、投影位置情報に基づいて、目標物体を表示する。【選択図】図2

Description

本開示は、画像処理技術分野に関し、特に、裸眼3D画像表示技術及びコンピュータビジョン技術分野に関する。具体的には、表示方法、表示装置、電子機器、記憶媒体及びコンピュータプログラムに関する。
コンピュータ技術の発展に伴い、表示技術はますます成熟している。裸眼3D画像表示技術は、対象の日常生活に徐々に浸透している。裸眼3D画像表示技術とは、補助機器を装着することなく、3D表示画面を見ることができる技術である。
本開示は、表示方法、表示装置、電子機器および記憶媒体を提供する。
本開示の一態様は、画像中の対象の眼部位置情報を確定することと、前記眼部位置情報に基づいて、裸眼3Dのカメラ位置情報を確定することと、前記カメラ位置情報に基づいて、目スペースを作成することと、投影情報に基づいて、前記目スペース中の目標物体の物***置情報により、前記目標物体の投影平面における投影位置情報を取得することと、前記投影位置情報に基づいて、前記目標物体を表示することと、を含む、表示方法を提供する。
本開示の他の態様は、画像中の対象の眼部位置情報を確定するための第1の確定モジュールと、前記眼部位置情報に基づいて、裸眼3Dのカメラ位置情報を確定するための第2の確定モジュールと、前記カメラ位置情報に基づいて、目スペースを作成するための作成モジュールと、投影情報に基づいて、前記目スペース中の目標物体の物***置情報により、前記目標物体の投影平面における投影位置情報を取得するための取得モジュールと、前記投影位置情報に基づいて、前記目標物体を表示するための表示モジュールと、を含む、表示装置を提供する。
本開示の他の態様は、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサと通信接続されるメモリとを備える電子機器であって、前記メモリには、前記少なくとも1つのプロセッサによって実行され得る命令が記憶されており、前記命令が前記少なくとも1つのプロセッサによって実行されることで、前記少なくとも1つのプロセッサが本開示に記載の方法を実行することができる、電子機器を提供する。
本開示の他の態様は、コンピュータに本開示に記載の方法を実行させるためのコンピュータ命令を記憶している、非一時的なコンピュータ可読記憶媒体を提供する。
本開示の他の態様は、プロセッサにより実行される場合に、本開示に記載の方法を実現するコンピュータプログラムを提供する。
本部分に記載された内容は、本開示の実施例のキーポイントまたは重要な特徴を示すことを意図するものではなく、本開示の範囲を限定するものでもないと理解されるべきである。本開示の他の特徴は、以下の説明により容易に理解される。
図面は、本開示の発明をよく理解するために用いられ、本開示を限定するものではない。
本開示の実施例に係る表示方法及び装置を適用できる例示的なシステムアーキテクチャを模式的に示す図である。 本開示の実施例に係る表示方法を模式的に示すフローチャートである。 本開示の実施例に係る目標視錐体を模式的に示す例示的な概略図である。 本開示の実施例に係る目標視錐体を模式的に示す平面概略図である。 本開示の実施例に係る表示過程を模式的に示す例示的な概略図である。 本開示の実施例に係る表示装置を模式的に示すブロック図である。 本開示の実施例に係る表示方法を実現することに適する電子機器を模式的に示すブロック図である。
以下、図面を参照して本開示の例示的な実施例を説明する。ここで、より理解しやすいために本開示の実施例の様々な詳細は含まれ、それらが例示的なものであると考えられるべきである。したがって、当業者であれば、ここで記載される実施例に対して様々な変更や補正を行うことができ、本開示の範囲及び精神から逸脱することはないと分るべきである。同様に、明確かつ簡潔に説明するために、以下の記載において周知の機能や構成に対する説明を省略する。
本開示の実施例は、表示手段を提供している。画像中の対象の眼部位置情報を確定し、眼部位置情報に基づいて、裸眼3Dのカメラ位置情報を確定し、カメラ位置情報に基づいて、目スペースを作成し、投影情報に基づいて、目スペース中の目標物体の物***置情報により、目標物体の投影平面における投影位置情報を取得し、投影位置情報に基づいて、目標物体を表示することにより、スクリーン内の裸眼3D画像表示の応用を実現している。また、上記手段は、ロード速度が速く、故障率を低減し、ユーザの使用体験を向上させることができる。
図1は、本開示の実施例に係る表示方法及び装置を適用できる例示的なシステムアーキテクチャを模式的に示す図である。
なお、図1に示すのは、本開示の実施例を適用することができるシステムアーキテクチャの例示に過ぎず、当業者が本開示の技術内容を理解することに役立つが、本開示の実施例は他の装置、システム、環境又はシーンに用いられないことを意味するものではない。例えば、他の実施例において、表示方法及び装置を適用することができる例示的なシステムアーキテクチャは、端末装置を含むことができるが、端末装置は、サーバと対話する必要がなく、本開示の実施例に提供される表示方法及び装置を実現することができる。
図1に示すように、該実施例に係るシステムアーキテクチャ100は、裸眼3D装置101と端末装置103とを含むことができる。裸眼3D装置101は、裸眼3Dカメラを含んでもよい。
端末装置103は、表示スクリーンを有し、かつ、ウェブページの閲覧をサポートする様々な電子機器であってもよく、スマートフォン、タブレットコンピュータ、ラップトップ型携帯コンピュータ及びデスクトップコンピュータ等を含むがそれらに限定されない。
裸眼3D装置101は、画像中の対象の眼部位置情報を確定することができる。眼部位置情報に基づいて、裸眼3Dのカメラ位置情報を確定する。カメラ位置情報に基づいて、目スペースを作成する。投影情報に基づいて、目スペースにおける目標物体102の物***置情報により、目標物体102の投影平面における投影位置情報を取得する。投影位置情報に基づいて、目標物体を表示する。例えば、端末装置103の表示スクリーンに目標物体を表示することができる。
なお、本開示の実施例に提供される表示方法は、一般的に裸眼3D装置101により実行されることができる。それに応じて、本開示の実施例に提供される表示装置は、裸眼3D装置101に設置されてもよい。
図1における裸眼3D装置及び端末装置の数は単に例示的なものであると理解すべきである。実現の必要に応じて、任意の数の裸眼3D装置及び端末装置を有することができる。
図2は本開示の実施例に係る表示方法を模式的に示すフローチャートである。
図2に示すように、該方法200は、操作S210~S250を含む。
操作S210は、画像中の対象の眼部位置情報を確定する。
操作S220は、眼部位置情報に基づいて、裸眼3Dのカメラ位置情報を確定する。
操作S230は、カメラ位置情報に基づいて、目スペースを作成する。
操作S240は、投影情報に基づいて、目スペース中の目標物体の物***置情報により、目標物体の投影平面における投影位置情報を取得する。
操作S250は、投影位置情報に基づいて、目標物体を表示する。
本開示の実施例によれば、画像は、画像収集装置が収集して取得することができる。画像は、ビデオにおけるビデオフレームであってもよい。画像収集装置により収集された複数のビデオフレームを取得することができる。フレームシーケンスアレイのデータ構造で複数のビデオフレームを記憶することにより、ビデオフレームを処理し、対象の眼部位置情報を確定する。
本開示の実施例によれば、対象は、操作体を含むことができる。操作体は、ユーザを含むことができる。眼部位置情報は、眼部位置座標で表すことができる。例えば、眼部位置座標は(x,y,z)であってもよい。眼部位置情報は、利き目の眼部位置情報と補助目の眼部位置情報の少なくとも1つを含んでもよい。
本開示の実施例によれば、裸眼3Dは、対象の目をカメラとして使用することを指すことができる。カメラは、三次元のシーンにおいて目標物体を観察する観察角度を提供することができる。観察角度は、位置と角度を含んでもよい。裸眼3Dのカメラ位置情報は眼部位置情報を指すことができる、即ち、眼部位置情報を裸眼3Dのカメラ位置情報に確定することができる。目スペースは、裸眼3Dに基づいて構築された三次元スペースを指すことができる。
本開示の実施例によれば、目標物体は、それに投影操作を実行する必要がある対象を指すことができる。例えば、目標物体は、ユーザ、植物、動物、自然景色、生活用品、学習用品又は作業用品を含むことができる。物***置情報は、物***置座標で表すことができる。投影位置情報は、投影スペースにおける位置情報を指すことができる。
本開示の実施例によれば、投影情報は、目標物体の目スペースでの物***置情報を投影スペースでの投影位置情報に変換するために用いられる。投影情報は、射影行列を含むことができる。投影情報は、所定の座標範囲及び目標視錐体の近裁断平面の辺長に基づいて確定することができる。目標視錐体は、目スペースに対応する。
本開示の実施例によれば、画像を取得することができる。画像に対象識別を行い、対象識別結果を取得する。対象識別結果が対象を含むと確定した場合、対象の眼部位置情報を確定することができる。代替的には、画像に目標検出を行い、目標検出結果を取得することができる。対象の眼部位置情報は、目標検出結果に基づいて確定される。対象の眼部位置情報は、裸眼3Dのカメラ位置情報として確定される。目スペースは、裸眼3Dのカメラ位置情報に基づいて作成される。
本開示の実施例によれば、投影情報を用いて目スペースにおける目標物体の物***置情報を目標物体の投影平面における投影位置情報に変換することができる。投影位置情報を取得した後、投影スクリーンに目標物体を表示するように、目標物体をレンダリングすることができる。例えば、レンダラを用いて目標物体をレンダリングすることができる。
本開示の実施例によれば、画像中の対象の眼部位置情報を確定し、眼部位置情報に基づいて、裸眼3Dのカメラ位置情報を確定し、カメラ位置情報に基づいて、目スペースを作成し、投影情報に基づいて、目スペース中の目標物体の物***置情報により、目標物体の投影平面における投影位置情報を取得し、投影位置情報に基づいて、目標物体を表示し、これにより、スクリーン内の裸眼3D画像表示の応用を実現している。また、上記手段は、ロード速度が速く、故障率を低減し、ユーザの使用体験を向上させることができる。
本開示の実施例によれば、眼部位置情報は、利き目の眼部位置情報を含む。
本開示の実施例によれば、目は、利き目と補助目を含むことができる。利き目とは、主導的に作用する目を指すことができる。利き目は、左眼又は右眼であってもよい。眼部位置情報を裸眼3Dのカメラ位置情報に確定する眼部位置情報は、利き目の眼部位置情報であってもよい。
本開示の実施例によれば、利き目の眼部位置情報を使うことは、データ処理量を減少させ、演算効率を向上させることができる。
本開示の実施例によれば、操作S210は、以下の操作を含むことができる。
画像に対して対象識別を行って画像が対象を含むと確定した場合、画像を処理し、対象の眼部位置情報を取得する。
本開示の実施例によれば、画像の画像データを対象識別モデルに入力し、対象識別結果を取得することができる。対象識別結果は、画像が対象を含むことと、画像が対象を含まないこととの1つを含むことができる。対象識別モデルは、第1のトレーニングサンプルを用いて第1の所定モデルをトレーニングしたものであってもよい。第1の所定モデルは、第1のディープラーニングモデルを含んでもよい。第1のディープラーニングモデルは、LeNet、AlexNet、VGG(Visual Geometry Group Network)、Inception Net、ResNet、又は、SqueezeNetを含むことができる。
本開示の実施例によれば、対象識別の結果として、画像が対象を含むと確定されたら、画像を処理し、対象の眼部位置情報を取得することができる。例えば、画像に対して目標検出を行い、対象の眼部位置情報を取得することができる。代替的には、所定のデータベースから対象に対応する眼部位置情報をルックアップすることができる。所定のデータベースは、複数の関連付け関係を含むことができる。各関連付け関係は、対象と対象の眼部位置情報との関係を表すことができる。
本開示の実施例によれば、画像を処理し、対象の眼部位置情報を取得することは、以下の操作を含むことができる。
画像に対して目標検出を行い、対象の眼部位置情報を取得する。
本開示の実施例によれば、スライドウィンドウを用いて画像から眼部に対応する領域候補枠を確定することができる。さらに、領域候補枠に対応する画像に対して特徴抽出を行い、特徴図を取得する。最後に特徴図を分類し、対象の眼部位置情報を取得する。代替的には、目標検出モデルを用いて画像を処理し、対象の眼部位置情報を取得することができる。
本開示の実施例によれば、画像に対して目標検出を行い、対象の眼部位置情報を取得することは、以下の操作を含むことができる。
目標検出モデルを用いて画像を処理し、対象の眼部位置情報を取得する。
本開示の実施例によれば、画像の画像データを目標検出モデルに入力し、対象の眼部位置情報を取得することができる。目標検出モデルは、第2のトレーニングサンプルを用いて第2の所定モデルをトレーニングしたものであってもよい。第2の所定モデルは、第2のディープラーニングモデルであってもよい。第2のディープラーニングモデルは、候補枠に基づく目標検出モデル、分割に基づく目標検出モデル、又は、両者に基づいて混合された目標検出モデル等を含むことができる。
本開示の実施例によれば、投影情報は、投影行列を含むことができる。投影行列は、所定の座標範囲と、目標視錐体の近裁断平面の辺長とに基づいて確定される。目標視錐体は、目スペースに対応する。
本開示の実施例によれば、目標物体は、目標視錐体に位置する物体であってもよい。視錐体は、シーンにおけるカメラの可視の錐体範囲を指すことができる。裸眼3Dカメラは、錐頂点に設置されてもよい。視錐体は、以下のようにして形成することができる。視錐体は、角錐を上面と下面で切断し、錐台を形成することにより、取得される。視錐体は、上面、下面、左面、右面、前面および背面を含んでもよい。視錐体の内部部分は可視であり、視錐体の他の部分は見えない。視錐体の内部の部分を裁断スペースと呼ぶことができる。錐頂点(裸眼3Dカメラの位置)に近い側の面を、近裁断平面と呼ぶことができる。近裁断平面に対向し、かつ、錐頂点から離れた面を遠裁断平面と称する。近接裁断面とは、投影平面を指してもよい。
本開示の実施例によれば、目標視錐体の近裁断平面の辺長は、左辺の長さ、右辺の長さ、上辺の長さ及び下辺の長さを含んでもよい。所定の座標範囲は、裸眼3Dカメラが向いている方向が位置する座標軸の座標範囲、即ち、Z軸上の座標範囲を指すことができる。
本開示の実施例によれば、所定の座標範囲と、目標視錐体の近裁断平面の各辺長とに基づいて、各要素の数値を確定することができる。投影行列は、各元素の数値に基づいて取得される。
以下に図3A及び図3Bを参照し、具体的な実施例を参照して投影行列の形成過程をさらに説明する。
図3Aは本開示の実施例に係る目標視錐体を模式的に示す例示的な概略図である。
図3Aに示すように、300Aには、裸眼3Dカメラ301と角錐302が含まれる。角錐302は正角錐であってもよい。角錐302は、R-HIJKである。裸眼3Dカメラ301は、角錐302の錐頂点に位置する。
角錐302は、上面3031と下面3030で切断され、目標視錐体303を取得する。上面3031は、表面QLMOである。下面3030は、表面HIJKである。上面3031は、近裁断平面である。下面3030は、遠裁断平面である。
図3Bは本開示の実施例に係る目標視錐体を模式的に示す平面概略図である。
図3Bに示すように、300Bにおいては、目スペースに基づいてスペース座標系303を作成する。
Figure 2023002703000002

は、目スペースの所定点Pの所定位置座標Pを表す。近裁断平面(即ち、投影平面)の所定の投影点の所定の投影位置座標Pは、
Figure 2023002703000003

により表される。所定点の所定のクリップ位置座標Pは、
Figure 2023002703000004

により表される。所定点の正規化装置の位置座標Pは、
Figure 2023002703000005

により表される。lは、近裁断平面の左辺の辺長を表す。rは、近裁断平面の右辺の辺長を表す。tは、近裁断平面の上辺の辺長を表す。bは、近裁断平面の下辺の辺長を表す。
Figure 2023002703000006

所定の座標範囲は、
Figure 2023002703000007

により表すことができる。
Figure 2023002703000008

は、以下の式(1)により行うことができる。
Figure 2023002703000009

(1)
Figure 2023002703000010

は、式(1)により得られる。
Figure 2023002703000011

は、以下の式(2)により行うことができる。
Figure 2023002703000012

(2)
Figure 2023002703000013

は、式(2)により得られる。
Figure 2023002703000014

は、以下の式(3)により行うことができる。
Figure 2023002703000015

(3)
以下の式(4)のように、連立方程式を構築することができる。
Figure 2023002703000016

(4)
Figure 2023002703000017

は、式(4)により得られる。
マッピング関数の式は、式(5)に基づいて確定することができる。
Figure 2023002703000018

(5)
Figure 2023002703000019


Figure 2023002703000020

を式(5)に代入して、式(6)を得ることができる。
Figure 2023002703000021

(6)
Figure 2023002703000022

は、式(6)により得られる。
AとBを式(5)に代入して得られるz座標のマッピング関数は、以下の式(7)であってもよい。
Figure 2023002703000023

(7)
Figure 2023002703000024

は、式(4)と式(7)により得られる。
上記の等式にいずれも-Zを乗算すれば、以下の式(8)を得ることができる。
Figure 2023002703000025

(8)
以上の関数群はPの線形関数群であるので、4×4の行列MfrusturnでPを表すことができる、即ち、以下の式(9)である。
Figure 2023002703000026

(9)
式(9)から式(10)を得ることができる。
Figure 2023002703000027

(10)
本開示の実施例によれば、式(10)では、W=-Z。Wは所定のクリップ閾値を表す。
本開示の実施例によれば、操作S240は、以下の操作を含むことができる。
投影行列に目スペース中の目標物体の物***置情報を乗算して、目標物体のクリップ位置情報を取得する。目標物体のクリップ位置情報に基づいて、目標物体の投影平面における投影位置情報を取得する。
本開示の実施例によれば、物***置情報は、物***置座標であってもよい。クリップ位置情報は、クリップ位置座標であってもよい。投影位置情報は、投影位置座標であってもよい。
本開示の実施例によれば、投影行列は、式(9)におけるMfrusturnであってもよい。式(10)を用いて投影行列と物***置座標を乗算して目標物体のクリップ位置座標を取得した後、クリップ位置座標を所定のクリップ位置座標成分で割ることにより、正規化装置の位置座標を取得することができ、即ち、式(9)を用いて正規化装置の位置座標を確定することができる。正規化装置の位置座標は、投影位置座標として確定されてもよい。
以下に図4を参照し、具体的な実施例を参照して本開示の実施例に記載の表示方法をさらに説明する。
図4は、本開示の実施例に係る表示過程を模式的に示す例示的な概略図である。
図4に示すように、400においては、画像401を取得することができる。画像401に対して対象識別を行って画像401が対象を含むと確定された場合、画像401に対して目標検出を行い、画像401中の対象の眼部位置情報402を取得する。
眼部位置情報402に基づいて、裸眼3Dのカメラ位置情報403を確定する。さらに、カメラ位置情報403に基づいて、目スペース404を作成する。投影情報406に基づいて、目スペース404中の目標物体の物***置情報405により、目標物体の投影平面における投影位置情報407を取得する。最後に、投影位置情報407に基づいて、目標物体を表示する。
以上は例示的な実施例に過ぎず、これに限定されるものではなく、本分野の既知の他の表示方法を含むことができ、スクリーン内の裸眼3D画像の表示の応用を実現することができればよい。
図5は、本開示の実施例に係る表示装置を模式的に示すブロック図である。
図5に示すように、表示装置500は、第1の確定モジュール510と、第2の確定モジュール520と、作成モジュール530と、取得モジュール540と、表示モジュール550とを含んでもよい。
第1の確定モジュール510は、画像中の対象の眼部位置情報を確定するために用いられる。
第2の確定モジュール520は、眼部位置情報に基づいて、裸眼3Dのカメラ位置情報を確定するために用いられる。
作成モジュール530は、カメラ位置情報に基づいて、目スペースを作成するために用いられる。
取得モジュール540は、投影情報に基づいて、目スペース中の目標物体の物***置情報により、目標物体の投影平面における投影位置情報を取得するために用いられる。
表示モジュール550は、投影位置情報に基づいて、目標物体を表示するために用いられる。
本開示の実施例によれば、第1の確定モジュール510は、第1の取得サブモジュールを含んでもよい。
第1の取得サブモジュールは、画像に対して対象識別を行って画像が対象を含むと確定した場合、画像を処理し、対象の眼部位置情報を取得するために用いられる。
本開示の実施例によれば、第1の取得サブモジュールは、取得ユニットを含んでもよい。
取得ユニットは、画像に対して目標検出を行い、対象の眼部位置情報を取得するために用いられる。
本開示の実施例によれば、取得ユニットは、取得サブユニットを含んでもよい。
取得サブユニットは、目標検出モデルを用いて画像を処理し、対象の眼部位置情報を取得するために用いられる。
本開示の実施例によれば、投影情報は、投影行列を含む。
本開示の実施例によれば、取得モジュール540は、第2の取得サブモジュールと、第3の取得サブモジュールとを含んでもよい。
第2の取得サブモジュールは、投影行列と目スペース中の目標物体の物***置情報を乗算して、目標物体のクリップ位置情報を取得するために用いられる。
第3の取得サブモジュールは、目標物体のクリップ位置情報に基づいて、目標物体の投影平面における投影位置情報を取得するために用いられる。
本開示の実施例によれば、眼部位置情報は、利き目の眼部位置情報を含む。
本開示の実施例によれば、投影行列は、所定の座標範囲と、目標視錐体の近裁断平面の辺長とに基づいて確定された。目標視錐体は、目スペースに対応する。
本開示の実施例によれば、本開示は、電子機器と、可読記憶媒体と、コンピュータプログラムとをさらに提供する。
本開示の実施例によれば、電子機器は、少なくとも1つのプロセッサと、少なくとも1つのプロセッサと通信接続されるメモリとを備える電子機器であって、メモリには、少なくとも1つのプロセッサによって実行され得る命令が記憶されており、少なくとも1つのプロセッサが上記の方法を実行することができるように、命令が少なくとも1つのプロセッサによって実行される。
本開示の実施例によれば、非一時的なコンピュータ可読記憶媒体は、コンピュータに上記の方法を実行させるためのコンピュータ命令を記憶している。
本開示の実施例によれば、コンピュータプログラムは、プロセッサにより実行される場合に、上記の方法を実現する。
図6は、本開示の実施例に係る表示方法を実現することに適する電子機器を模式的に示すブロック図である。電子機器は、様々な形式のデジタルコンピュータを示すことを目的とし、例えば、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ及び他の適切なコンピュータである。電子機器は、さらに様々な形式の移動装置を示してもよく、例えば、個人デジタルアシスタント、携帯電話、スマートフォン、ウェアラブル機器及び他の類似の演算装置である。本明細書に示された部品、それらの接続及び関係、及びそれらの機能は、例示に過ぎず、本明細書に記載された及び/または要求された本開示の実現を限定すると意味しない。
図6に示すように、電子機器600は、演算ユニット601を含み、演算ユニット601は、リードオンリーメモリ(ROM)602に記憶されたコンピュータプログラムまたは記憶ユニット608からランダムアクセスメモリ(RAM)603にロードされたコンピュータプログラムに基づいて、様々な適切な動作及び処理を実行してもよい。RAM603には、電子機器600の操作に必要な様々なプログラム及びデータをさらに記憶してもよい。演算ユニット601と、ROM602と、RAM603とは、バス604を介して相互に接続される。入出力(I/O)インタフェース605も、バス604に接続される。
電子機器600における、例えばキーボード、マウス等の入力ユニット606と、例えば様々な種類のディスプレイ、スピーカ等の出力ユニット607と、例えば磁気ディスク、光ディスク等の記憶ユニット608と、例えばネットワークカード、モデム、無線通信トランシーバ等の通信ユニット609とを含む複数の部品は、I/Oインタフェース605に接続される。通信ユニット609は、電子機器600がインターネット等のコンピュータネットワーク及び/または各種の電気通信ネットワークを介して他の機器と情報・データをやり取りすることを可能にする。
演算ユニット601は、処理及び演算能力を有する各種の汎用及び/または専用の処理モジュールであってもよい。演算ユニット601の幾つかの例としては、中央処理装置(CPU)、GPU(Graphics Processing Unit)、各種専用の人工知能(AI)演算チップ、機械学習モデルアルゴリズムを実行する各種演算ユニット、DSP(Digital Signal Processor)、並びに任意の適切なプロセッサ、コントローラ、マイクロコントローラ等が挙げられるが、これらに限定されない。演算ユニット601は、例えば表示方法のような上記に記載の各方法及び処理を実行する。例えば、いくつかの実施例において、表示方法は、例えば記憶ユニット608のような機械可読媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現されてもよい。いくつかの実施例において、コンピュータプログラムの一部または全部は、ROM602及び/又は通信ユニット609を介して電子機器600にロード及び/またはインストールされてもよい。コンピュータプログラムがRAM603にロードされて演算ユニット601により実行される場合、上記に記載の表示方法の1つまたは複数のステップを実行してもよい。代替的に、他の実施例において、演算ユニット601は、他の任意の適切な方式(例えば、ファームウェアを介する)により表示方法を実行するように構成されてもよい。
本明細書で説明されたシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、コンプレックスプログラムマブルロジックデバイス (CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせにおいて実現されてもよい。これらの様々な実施形態は、1つまたは複数のコンピュータプログラムにおいて実施され、当該1つまたは複数のコンピュータプログラムは、少なくとも1つのプログラムマブルプロセッサを含むプログラムマブルシステムで実行され及び/または解釈されることが可能であり、当該プログラムマブルプロセッサは、専用または汎用のプログラムマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、且つデータ及び命令を当該記憶システム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送することができることを含んでもよい。
本開示の方法を実施するためのプログラムコードは、1つまたは複数のプログラミング言語の任意の組み合わせで作成されてもよい。これらのプログラムコードは、汎用コンピュータ、専用コンピュータまたは他のプログラマブルデータ処理装置のプロセッサまたはコントローラに提供されてもよく、それによって、プログラムコードがプロセッサまたはコントローラにより実行される時に、フローチャート及び/またはブロック図に規定された機能・操作が実施される。プログラムコードは、機器に完全に実行されてもよく、部分的に機器で実行されてもよく、独立したソフトウェアパッケージとして部分的に機器で実行され、かつ部分的に遠隔機器で実行されるかまたは完全に遠隔機器またはサーバで実行されてもよい。
本開示のコンテキストにおいて、機械可読媒体は、有形の媒体であってもよく、命令実行システム、装置または電子機器に使用され、または命令実行システム、装置または電子機器と組み合わせて使用されるプログラムを含んでまたは記憶してもよい。機械可読媒体は、機械可読信号媒体または機械可読記憶媒体であってもよい。機械可読媒体は、電子の、磁気的、光学的、電磁的、赤外線の、または半導体システム、装置または電子機器、または上記内容の任意の適切な組み合わせを含んでもよいが、それらに限定されない。機械可読記憶媒体のより具体的な例としては、1つ以上の線による電気的接続、携帯式コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROMまたはフラッシュメモリ)、光ファイバ、コンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶装置、磁気記憶装置、または上記内容の任意の適切な組み合わせを含む。
ユーザとの対話を提供するために、コンピュータにここで説明されたシステム及び技術を実施させてもよく、当該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウスまたはトラックボール)とを備え、ユーザは、当該キーボード及び当該ポインティングデバイスを介して入力をコンピュータに提供することができる。他の種類の装置は、さらにユーザとの対話を提供してもよく、例えば、ユーザに提供されたフィードバックは、いかなる形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、且ついかなる形式(音声入力、語音入力、または、触覚入力を含む)でユーザからの入力を受信してもよい。
ここで説明されたシステム及び技術は、バックグラウンド部品を含むコンピューティングシステム(例えば、データサーバとする)、またはミドルウェア部品を含むコンピューティングシステム(例えば、アプリケーションサーバ)、またはフロントエンド部品を含むコンピューティングシステム(例えば、グラフィカルユーザインタフェースまたはウェブブラウザを有するユーザコンピュータ、ユーザが該グラフィカルユーザインタフェースまたは該ネットワークブラウザを介してここで説明されたシステム及び技術の実施形態と対話することができる)、またはこのようなバックグラウンド部品、ミドルウェア部品、またはフロントエンド部品のいずれかの組み合わせを含むコンピューティングシステムに実施されることが可能である。任意の形式または媒体のデジタルデータ通信(例えば、通信ネットワーク)によりシステムの部品を互いに接続することができる。通信ネットワークの例としては、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及びインターネットを例示的に含む。
コンピュータシステムは、クライアント及びサーバを含んでもよい。クライアントとサーバ同士は、一般的に離れており、通常、通信ネットワークを介して対話する。クライアントとサーバとの関係は、該当するコンピュータ上で実行し、クライアント-サーバの関係を有するコンピュータプログラムによって生成される。サーバは、クラウドサーバであってもよく、分散型システムのサーバであってもよく、またはブロックチェーンを組み合わせしたサーバであってもよい。
以上に示された様々な形式のフローを使用してもよく、ステップを改めてソーティングしたり、追加したりまたは削除してもよいと理解されるべきである。例えば、本開示に記載の各ステップは、並列に実行されたり、順次に実行されたり、または異なる順序で実行されてもよく、本開示に開示された技術案の所望の結果を実現することができれば、本明細書はここで限定されない。
以上説明したセキュリティ情報の処理方法、装置、電子機器、記憶媒体およびコンピュータプログラムは、以下のように表現することができる。
第1態様の表示方法は、
画像中の対象の眼部位置情報を確定することと、
前記眼部位置情報に基づいて、裸眼3Dのカメラ位置情報を確定することと、
前記カメラ位置情報に基づいて、目スペースを作成することと、
投影情報に基づいて、前記目スペース中の目標物体の物***置情報により、前記目標物体の投影平面における投影位置情報を取得することと、
前記投影位置情報に基づいて、前記目標物体を表示することと、を含む。
第2態様の表示方法は、
第1態様に記載の方法であって、
前記画像中の対象の眼部位置情報を確定することは、
画像に対して対象識別を行って画像が対象を含むと確定した場合、前記画像を処理し、 前記対象の眼部位置情報を取得することを含む。
第3態様の表示方法は、
第2態様に記載の方法であって、
前記画像を処理し、前記対象の眼部位置情報を取得することは、
前記画像に対して目標検出を行い、前記対象の眼部位置情報を取得することを含む。
第4態様の表示方法は、
第3態様に記載の方法であって、
前記画像に対して目標検出を行い、前記対象の眼部位置情報を取得することは、
目標検出モデルを用いて画像を処理し、前記対象の眼部位置情報を取得することを含む。
第5態様の表示方法は、
第1~4態様のいずれか1つに記載の方法であって、
前記投影情報は、投影行列を含み、
前記投影情報に基づいて、前記目スペース中の目標物体の物***置情報により、前記目標物体の投影平面における投影位置情報を取得することは、
前記投影行列と前記目スペース中の目標物体の物***置情報を乗算して、前記目標物体のクリップ位置情報を取得することと、
前記目標物体のクリップ位置情報に基づいて、前記目標物体の投影平面における投影位置情報を取得することと、を含む。
第6態様の表示方法は、
第1~5態様のいずれか1つに記載の方法であって、
前記眼部位置情報は、利き目の眼部位置情報を含む。
第7態様の表示方法は、
第5又は6態様に記載の方法であって、
前記投影行列は、所定の座標範囲と、前記目スペースに対応する目標視錐体の近裁断平面の辺長とに基づいて確定される。
第8態様の表示装置は、
画像中の対象の眼部位置情報を確定するための第1の確定モジュールと、
前記眼部位置情報に基づいて、裸眼3Dのカメラ位置情報を確定するための第2の確定モジュールと、
前記カメラ位置情報に基づいて、目スペースを作成するための作成モジュールと、
投影情報に基づいて、前記目スペース中の目標物体の物***置情報により、前記目標物体の投影平面における投影位置情報を取得するための取得モジュールと、
前記投影位置情報に基づいて、前記目標物体を表示するための表示モジュールと、を含む。
第9態様の表示装置は、
第8態様に記載の装置であって、
前記第1の確定モジュールは、
画像に対して対象識別を行って画像が対象を含むと確定した場合、前記画像を処理し、 前記対象の眼部位置情報を取得するための第1の取得サブモジュールを含む。
第10態様の表示装置は、
第9態様に記載の装置であって、
前記第1の取得サブモジュールは、
前記画像に対して目標検出を行い、前記対象の眼部位置情報を取得するための取得ユニットを含む。
第11態様の表示装置は、
第10態様に記載の装置であって、
前記取得ユニットは、
目標検出モデルを用いて画像を処理し、前記対象の眼部位置情報を取得するための取得サブユニットを含む。
第12態様の表示装置は、
第8~11態様のいずれか1つに記載の装置であって、
前記投影情報は、投影行列を含み、
前記取得モジュールは、
前記投影行列と前記目スペース中の目標物体の物***置情報を乗算して、前記目標物体のクリップ位置情報を取得するための第2の取得サブモジュールと、
前記目標物体のクリップ位置情報に基づいて、前記目標物体の投影平面における投影位置情報を取得するための第3の取得サブモジュールと、を含む。
第13態様の表示装置は、
第8~12態様のいずれか1つに記載の装置であって、
前記眼部位置情報は、利き目の眼部位置情報を含む。
第14態様の表示装置は、
第12又は13態様に記載の装置であって、
前記投影行列は、所定の座標範囲と、前記目スペースに対応する目標視錐体の近裁断平面の辺長とに基づいて確定される。
第15態様の電子機器は、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されるメモリとを備える電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサによって実行され得る命令が記憶されており、前記少なくとも1つのプロセッサが第1~7態様のいずれか1つに記載の方法を実行することができるように前記命令が前記少なくとも1つのプロセッサによって実行される。
第16態様の非一時的なコンピュータ可読記憶媒体は、
コンピュータに第1~7態様のいずれか1つに記載の方法を実行させるためのコンピュータ命令を記憶している。
第17態様のコンピュータプログラムは、
プロセッサにより実行される場合に、第1~7態様のいずれか1つに記載の方法を実現する。
上記具体的な実施形態は、本開示の保護範囲を限定するものではない。当業者であれば、設計要件及び他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション及び代替を行うことが可能であると理解すべきである。本開示の精神と原則内で行われる任意の修正、均等置換及び改良などは、いずれも本開示の保護範囲内に含まれるべきである。

Claims (17)

  1. 画像中の対象の眼部位置情報を確定することと、
    前記眼部位置情報に基づいて、裸眼3Dのカメラ位置情報を確定することと、
    前記カメラ位置情報に基づいて、目スペースを作成することと、
    投影情報に基づいて、前記目スペース中の目標物体の物***置情報により、前記目標物体の投影平面における投影位置情報を取得することと、
    前記投影位置情報に基づいて、前記目標物体を表示することと、を含む、
    表示方法。
  2. 前記画像中の対象の眼部位置情報を確定することは、
    画像に対して対象識別を行って画像が対象を含むと確定した場合、前記画像を処理し、 前記対象の眼部位置情報を取得することを含む、
    請求項1に記載の方法。
  3. 前記画像を処理し、前記対象の眼部位置情報を取得することは、
    前記画像に対して目標検出を行い、前記対象の眼部位置情報を取得することを含む、
    請求項2に記載の方法。
  4. 前記画像に対して目標検出を行い、前記対象の眼部位置情報を取得することは、
    目標検出モデルを用いて画像を処理し、前記対象の眼部位置情報を取得することを含む、
    請求項3に記載の方法。
  5. 前記投影情報は、投影行列を含み、
    前記投影情報に基づいて、前記目スペース中の目標物体の物***置情報により、前記目標物体の投影平面における投影位置情報を取得することは、
    前記投影行列と前記目スペース中の目標物体の物***置情報を乗算して、前記目標物体のクリップ位置情報を取得することと、
    前記目標物体のクリップ位置情報に基づいて、前記目標物体の投影平面における投影位置情報を取得することと、を含む、
    請求項1~4のいずれか1項に記載の方法。
  6. 前記眼部位置情報は、利き目の眼部位置情報を含む、
    請求項1~4のいずれか1項に記載の方法。
  7. 前記投影行列は、所定の座標範囲と、前記目スペースに対応する目標視錐体の近裁断平面の辺長とに基づいて確定された、
    請求項5に記載の方法。
  8. 画像中の対象の眼部位置情報を確定するための第1の確定モジュールと、
    前記眼部位置情報に基づいて、裸眼3Dのカメラ位置情報を確定するための第2の確定モジュールと、
    前記カメラ位置情報に基づいて、目スペースを作成するための作成モジュールと、
    投影情報に基づいて、前記目スペース中の目標物体の物***置情報により、前記目標物体の投影平面における投影位置情報を取得するための取得モジュールと、
    前記投影位置情報に基づいて、前記目標物体を表示するための表示モジュールと、を含む、
    表示装置。
  9. 前記第1の確定モジュールは、
    画像に対して対象識別を行って画像が対象を含むと確定した場合、前記画像を処理し、 前記対象の眼部位置情報を取得するための第1の取得サブモジュールを含む、
    請求項8に記載の装置。
  10. 前記第1の取得サブモジュールは、
    前記画像に対して目標検出を行い、前記対象の眼部位置情報を取得するための取得ユニットを含む、
    請求項9に記載の装置。
  11. 前記取得ユニットは、
    目標検出モデルを用いて画像を処理し、前記対象の眼部位置情報を取得するための取得サブユニットを含む、
    請求項10に記載の装置。
  12. 前記投影情報は、投影行列を含み、
    前記取得モジュールは、
    前記投影行列と前記目スペース中の目標物体の物***置情報を乗算して、前記目標物体のクリップ位置情報を取得するための第2の取得サブモジュールと、
    前記目標物体のクリップ位置情報に基づいて、前記目標物体の投影平面における投影位置情報を取得するための第3の取得サブモジュールと、を含む、
    請求項8~11のいずれか1項に記載の装置。
  13. 前記眼部位置情報は、利き目の眼部位置情報を含む、
    請求項8~11のいずれか1項に記載の装置。
  14. 前記投影行列は、所定の座標範囲と、前記目スペースに対応する目標視錐体の近裁断平面の辺長とに基づいて確定された、
    請求項12に記載の装置。
  15. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサと通信接続されるメモリとを備える電子機器であって、
    前記メモリには、前記少なくとも1つのプロセッサによって実行され得る命令が記憶されており、前記少なくとも1つのプロセッサが請求項1~7のいずれか一項に記載の方法を実行することができるように前記命令が前記少なくとも1つのプロセッサによって実行される、
    電子機器。
  16. コンピュータに請求項1~4のいずれか一項に記載の方法を実行させるためのコンピュータ命令を記憶している、
    非一時的なコンピュータ可読記憶媒体。
  17. プロセッサにより実行される場合に、請求項1~4のいずれか一項に記載の方法を実現するコンピュータプログラム。
JP2022168596A 2021-12-27 2022-10-20 表示方法、表示装置、電子機器、記憶媒体及びコンピュータプログラム Pending JP2023002703A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202111614532.0A CN114327346B (zh) 2021-12-27 2021-12-27 显示方法、显示装置、电子设备以及存储介质
CN202111614532.0 2021-12-27

Publications (1)

Publication Number Publication Date
JP2023002703A true JP2023002703A (ja) 2023-01-10

Family

ID=81013564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022168596A Pending JP2023002703A (ja) 2021-12-27 2022-10-20 表示方法、表示装置、電子機器、記憶媒体及びコンピュータプログラム

Country Status (4)

Country Link
US (1) US20230118166A1 (ja)
EP (1) EP4167189A1 (ja)
JP (1) JP2023002703A (ja)
CN (1) CN114327346B (ja)

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8704879B1 (en) * 2010-08-31 2014-04-22 Nintendo Co., Ltd. Eye tracking enabling 3D viewing on conventional 2D display
CN105282532B (zh) * 2014-06-03 2018-06-22 天津拓视科技有限公司 3d显示方法和装置
JP2016212784A (ja) * 2015-05-13 2016-12-15 株式会社リコー 画像処理装置、画像処理方法
US11240487B2 (en) * 2016-12-05 2022-02-01 Sung-Yang Wu Method of stereo image display and related device
CN108628087B (zh) * 2017-03-20 2020-11-06 成都理想境界科技有限公司 一种投影装置及空间成像方法
CN107490870B (zh) * 2017-06-15 2020-07-07 深圳市维超智能科技有限公司 一种3d显示标定参数的确定方法、存储介质、设备及***
CN107172417B (zh) * 2017-06-30 2019-12-20 深圳超多维科技有限公司 一种裸眼3d屏幕的图像显示方法、装置及***
FR3071625B1 (fr) * 2017-09-26 2019-09-27 Alioscopy Systeme et procede d'affichage d'une image autostereoscopique a 2 points de vue sur un ecran d'affichage autostereoscopique a n points de vue et procede de controle d'affichage sur un tel ecran d'affichage
US20190124313A1 (en) * 2017-10-19 2019-04-25 Intel Corporation Three dimensional glasses free light field display using eye location
CN108769664B (zh) * 2018-05-28 2020-12-08 张家港康得新光电材料有限公司 基于人眼跟踪的裸眼3d显示方法、装置、设备及介质
CN108881880A (zh) * 2018-08-01 2018-11-23 上海玮舟微电子科技有限公司 基于人眼跟踪的裸眼3d显示方法、装置、设备及存储介质
CN109784333B (zh) * 2019-01-22 2021-09-28 中国科学院自动化研究所 基于点云带权通道特征的三维目标检测方法及***
CN111857461B (zh) * 2020-06-29 2021-12-24 维沃移动通信有限公司 图像显示方法、装置、电子设备及可读存储介质
CN112668460A (zh) * 2020-12-25 2021-04-16 北京百度网讯科技有限公司 目标检测方法、电子设备、路侧设备和云控平台
CN112929651A (zh) * 2021-01-25 2021-06-08 北京信息科技大学 一种显示方法、装置、电子设备及存储介质
CN112672139A (zh) * 2021-03-16 2021-04-16 深圳市火乐科技发展有限公司 投影显示方法、装置及计算机可读存储介质
CN113253845A (zh) * 2021-06-01 2021-08-13 纵深视觉科技(南京)有限责任公司 一种基于人眼追踪视图显示方法、装置、介质及电子设备

Also Published As

Publication number Publication date
CN114327346A (zh) 2022-04-12
CN114327346B (zh) 2023-09-29
EP4167189A1 (en) 2023-04-19
US20230118166A1 (en) 2023-04-20

Similar Documents

Publication Publication Date Title
CN111860167B (zh) 人脸融合模型获取及人脸融合方法、装置及存储介质
US20210272306A1 (en) Method for training image depth estimation model and method for processing image depth information
CN114550177B (zh) 图像处理的方法、文本识别方法及装置
US20220351390A1 (en) Method for generating motion capture data, electronic device and storage medium
CN112784765B (zh) 用于识别动作的方法、装置、设备以及存储介质
EP3876204A2 (en) Method and apparatus for generating human body three-dimensional model, device and storage medium
CN103914876A (zh) 用于在3d地图上显示视频的方法和设备
CN111639147B (zh) 一种地图压缩方法、***及计算机可读存储介质
CN114792355B (zh) 虚拟形象生成方法、装置、电子设备和存储介质
CN113870439A (zh) 用于处理图像的方法、装置、设备以及存储介质
CN114004840A (zh) 图像处理方法、训练方法、检测方法、装置、设备及介质
CN112580666A (zh) 图像特征的提取方法、训练方法、装置、电子设备及介质
CN111899159A (zh) 用于变换发型的方法、装置、设备以及存储介质
CN113837194B (zh) 图像处理方法、图像处理装置、电子设备以及存储介质
CN114187392A (zh) 虚拟偶像的生成方法、装置和电子设备
CN113380269A (zh) 视频图像生成方法、装置、设备、介质和计算机程序产品
US20230260211A1 (en) Three-Dimensional Point Cloud Generation Method, Apparatus and Electronic Device
CN112714337A (zh) 视频处理方法、装置、电子设备和存储介质
CN115082298A (zh) 图像生成方法、装置、电子设备以及存储介质
JP2023002703A (ja) 表示方法、表示装置、電子機器、記憶媒体及びコンピュータプログラム
CN113656629B (zh) 视觉定位方法、装置、电子设备及存储介质
CN113327311B (zh) 基于虚拟角色的显示方法、装置、设备、存储介质
CN112991451B (zh) 图像识别方法、相关装置及计算机程序产品
CN113781653A (zh) 对象模型生成方法、装置、电子设备及存储介质
CN113240780A (zh) 生成动画的方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240604