JP7461504B2 - モデル生成方法、画像透視図の決定方法、装置、ディバイス及び媒体 - Google Patents

モデル生成方法、画像透視図の決定方法、装置、ディバイス及び媒体 Download PDF

Info

Publication number
JP7461504B2
JP7461504B2 JP2022564397A JP2022564397A JP7461504B2 JP 7461504 B2 JP7461504 B2 JP 7461504B2 JP 2022564397 A JP2022564397 A JP 2022564397A JP 2022564397 A JP2022564397 A JP 2022564397A JP 7461504 B2 JP7461504 B2 JP 7461504B2
Authority
JP
Japan
Prior art keywords
perspective
image
view
point cloud
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022564397A
Other languages
English (en)
Other versions
JP2023522442A (ja
Inventor
艶 麗 李
冬 冬 劉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingdong Qianshi Technology Co Ltd
Original Assignee
Beijing Jingdong Qianshi Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Qianshi Technology Co Ltd filed Critical Beijing Jingdong Qianshi Technology Co Ltd
Publication of JP2023522442A publication Critical patent/JP2023522442A/ja
Application granted granted Critical
Publication of JP7461504B2 publication Critical patent/JP7461504B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本願は、出願番号が202010514388.2で、出願日が2020年6月8日である中国特許出願に基づいた優先権を主張するものであり、該中国特許出願の全ての内容が引用により本願に援用される。
[技術分野]
本願の実施例は、データ処理の技術分野に関し、例えば、モデル生成方法、画像透視図の決定方法、装置、ディバイス及び媒体に関する。
仮想シミュレーション、高精度地図作り、ロボット、自動運転などの産業の推進と発展に伴い、点群マッピングのアプリケーションがますます広まっている。点群マッピングは、レーザーレーダーディバイスによって各時刻のマッピングされるシーンにおける点群データを収集し、測量製図の方式又は同時ローカリゼーションとマッピング(SLAM)の方式によって各時刻の点群データの三次元座標を取得し、更に当該三次元座標により複数の時刻の点群データを投影し合成する。
単純な点群マッピングでは、複数の時刻における点群データの三次元座標を取得することしかできず、情報が単一である。この問題を解決するために、点群マッピングの過程で、カメラを設置することにより、データを同時に収集して対応する時刻の画像透視図を生成し、マルチデータソースの融合によってより多くのアプリケーションを展開することができる。例えば、シミュレーション再構成では、レーザーレーダーディバイス及びカメラを時空間で標定することによりカラーの点群データを取得し、作図の過程で、画像透視図によって実際のシーンを見ることをサポートし、インテリジェントセンシングでは、画像透視図によって車線、歩行者などの動的なものの認識を改善する。
関連技術では、上記の画像透視図の取得過程で手間がかかり、まず、複雑なレーザーレーダーディバイス及びカメラの同期システムを設置し、両者を時空間で標定する必要があり、この時空間の標定の過程は煩雑である場合が多く、更に、品質の高い全方位の画像透視図を取得するために、使用されるカメラは高価であることが多く、360度のパノラマLadybug3は20万人民元以上かかり、加えて、カメラにより収集された画像透視図の品質は、天気、照明、影などの環境要因の影響を受けやすく、例えば、暗い光環境で撮影した画像透視図の画像の明るさが低く、車のスピードが速すぎるとブレたりボケたりしやすい、という技術問題がある。
本願の実施例は、モデル生成方法、画像透視図の決定方法、装置、ディバイス及び媒体を提供し、画像透視図の取得過程は比較的に手間がかかる問題を解決した。
第1態様では、本願の実施例は、
プリセット収集システムに基づいて点群データ及びマルチフレームの画像透視図を収集し、点群データの座標データ、及び前記マルチフレームの画像透視図と1つずつ対応する複数の画像収集時点が得られることと、
複数の画像収集時点における各画像収集時点に対応するポーズマトリックスを決定し、前記各画像収集時点が対応するポーズマトリックス及び座標データに基づいて前記各画像収集時点での点群透視図を生成することと、
前記各画像収集時点での点群透視図及び前記各画像収集時点での画像透視図を1セットのトレーニングサンプルとし、複数のセットのトレーニングサンプルに基づいてオリジナルニューラルネットワークモデルをトレーニングし、点群透視図を画像透視図に変換するための画像変換モデルを生成することと、を含む可能なモデル生成方法を提供する。
第2態様では、本願の実施例は、
プリセット収集システムに基づいて点群データを収集し、点群データの座標データ及び点群収集時点を取得し、点群収集時点に対応するポーズマトリックスを決定し、ポーズマトリックス及び座標データに基づいて点群収集時点での点群透視図を生成することと、
本願の何れかの実施例に係るモデル生成方法に従って生成された画像変換モデルを取得し、点群透視図を画像変換モデルに入力し、画像変換モデルの出力結果に基づいて点群収集時点での画像透視図を決定することと、を含む可能な画像透視図の決定方法をさらに提供する。
第3態様では、本願の実施例は、
プリセット収集システムに基づいて点群データ及びマルチフレームの画像透視図を収集し、点群データの座標データ、及び前記マルチフレームの画像透視図と1つずつ対応する複数の画像収集時点が得られるように設けられるデータ収集モジュールと、
複数の前記画像収集時点における各画像収集時点に対応するポーズマトリックスを決定し、前記各画像収集時点が対応するポーズマトリックス及び座標データに基づいて前記各画像収集時点での点群透視図を生成するように設けられる第1生成モジュールと、
前記各画像収集時点での点群透視図及び前記各画像収集時点での画像透視図を1セットのトレーニングサンプルとし、複数のセットのトレーニングサンプルに基づいてオリジナルニューラルネットワークモデルをトレーニングし、点群透視図を画像透視図に変換するための画像変換モデルを生成するように設けられる第2生成モジュールと、を含む可能なモデル生成装置をさらに提供する。
第4態様では、本願の実施例は、
プリセット収集システムに基づいて点群データを収集し、点群データの座標データ及び点群収集時点を取得し、点群収集時点に対応するポーズマトリックスを決定し、ポーズマトリックス及び座標データに基づいて点群収集時点での点群透視図を生成するように設けられる第3生成モジュールと、
本願の何れかの実施例に係るモデル生成方法に従って生成された画像変換モデルを取得し、点群透視図を画像変換モデルに入力し、画像変換モデルの出力結果に基づいて点群収集時点での画像透視図を決定するように設けられる画像透視図決定モジュールと、を含む可能な画像透視図の決定装置をさらに提供する。
第5態様では、本願の実施例は、
少なくとも1つのプロセッサと、
少なくとも1つのプログラムを記憶するように設けられるメモリと、を含む可能であり、
少なくとも1つのプログラムが少なくとも1つのプロセッサに実行されると、少なくとも1つのプロセッサは本願の何れかの実施例に係るモデル生成方法又は画像透視図の決定方法を実現する、ディバイスをさらに提供する。
第6態様では、本願の実施例はコンピュータ可読記憶媒体をさらに提供し、前記コンピュータ可読記憶媒体にコンピュータプログラムが記憶され、当該コンピュータプログラムがプロセッサに実行されると、本願の何れかの実施例に係るモデル生成方法又は画像透視図の決定方法を実現する。
本願の実施例1に係るモデル生成方法のフローチャートである。 本願の実施例1に係るモデル生成方法における点群マッピングの第1模式図である。 本願の実施例1に係るモデル生成方法における点群マッピングの第2模式図である。 本願の実施例1に係るモデル生成方法における点群透視図の模式図である。 本願の実施例1に係るモデル生成方法におけるシングルフレーム変換のためのオリジナルニューラルネットワークモデルの模式図である。 本願の実施例1に係るモデル生成方法におけるシーケンスフレーム変換のためのオリジナルニューラルネットワークモデルの模式図である。 本願の実施例2に係るモデル生成方法のフローチャートである。 本願の実施例3に係るモデル生成装置の構造ブロック図である。 本願の実施例4に係る画像透視図の決定装置の構造ブロック図である。 本願の実施例5に係るディバイスの構造模式図である。
以下、図面及び実施例を参照し、本願を詳しく説明する。
実施例1
図1は本願の実施例1に係るモデル生成方法のフローチャートである。本実施例は、点群透視図を画像透視図に変換するための画像変換モデルを生成する場合に適用可能である。当該方法は本願の実施例に係るモデル生成装置によって実行することが可能であり、当該装置はソフトウェア及び/又はハードウェアの形で実現することが可能であり、当該装置は様々なユーザ端末又はサーバに統合することが可能である。
図1を参照し、本願の実施例における方法は下記のステップを含む。
S110において、プリセット収集システムに基づいて点群データ及びマルチフレームの画像透視図を収集し、点群データの座標データ、及びマルチフレームの画像透視図と1つずつ対応する複数の画像収集時点が得られる。
ここで、点群データは、プリセット収集システムにおける点群収集ディバイスによって収集されたマッピングされるシーンでのデータであり、例えば、レーザーレーダー走査ディバイス、架空のシーンの間引きディバイス又はマルチビュー再構成ディバイスによって収集された点群データである。画像透視図は、プリセット収集システムにおける画像収集ディバイスによって収集された透視図であり、当該画像収集ディバイスは、球面パノラマカメラ、広角カメラ、歪曲のない一般的な透視カメラなどであっても良く、これに対応し、これにより収集された画像透視図は、球面パノラマ画像、広角画像、歪曲のない一般的な透視画像などであっても良いが、ここでは限定しない。点群データが収集された後、点群データをマッピングし、図2に示すように、マッピングの過程で複数の点群データの座標データを得ることが可能であり、マッピングの方式は測量製図の方式、SLAMの方式などであっても良いが、ここでは限定しない。これに対応し、画像透視図が収集された後、各フレームの画像透視図の画像収集時点を取得することが可能であり、当該画像収集時点は画像透視図が収集されたときの時点である。
S120において、複数の画像収集時点における各画像収集時点に対応するポーズマトリックスを決定し、前記各画像収集時点が対応するポーズマトリックス及び座標データに基づいて前記各画像収集時点での点群透視図を生成する。
ここで、ポーズマトリックスは、点群収集ディバイスがある画像収集時点で、且つ点群データの座標データが位置する座標系でのマトリックスであり、当該ポーズマトリックスは回転マトリックス及び平行移動ベクトルを含む。実際のアプリケーションでは、測量製図の方式によりマッピングする場合、ポーズマトリックスは複合慣性航法データより取得することが可能であり、SLAMの方式によりマッピングする場合、ポーズマトリックスはSLAMのアルゴリズムによって提供されることが可能である。ポーズマトリックスを取得した後、当該ポーズマトリックスに基づいて画像収集ディバイスは当該画像収集時点でのローカル座標系を得ることが可能であり、または、当該ポーズマトリックスによって画像収集ディバイスが当該画像収集時点で位置する画像収集の位置におけるローカル座標系を得ることが可能であり、これにより点群データの座標データを当該ローカル座標系に変換し、このようにして、変換された座標データ基づき当該画像収集時点での点群透視図を得ることが可能である。例えば、点群マッピングをした後に得られるマッピングされるシーンでの点群データは図3aに示すとおりで、点群データ及び対応するポーズマトリックスに基づき合成する点群透視図は図3bに示すとおりである。
好ましくは、上記ポーズマトリックスは、以下のステップにより決定することが可能である。点群データに基づいてプリセット収集システムのポーズ軌跡が得られ、当該ポーズ軌跡は、点群データのマッピング中に得られることが可能であり、プリセット収集システムが移動中のポーズの変化の状況を表すことが可能であり、当該ポーズは位置及び姿勢を含むことが可能である。実際のアプリケーションでは、測量製図の方式によってマッピングすると、プリセット収集システムにおける複合慣性航法によりプリセット収集システムが複数の収集時点でのポーズを取得することができ、SLAMの方式によってマッピングすると、SLAMのアルゴリズムによってプリセット収集システムが複数の収集時点でのポーズを取得することができる。さらに、複数の画像収集時点に基づいてポーズ軌跡をサンプリングし、サンプリングの結果に基づいて各画像収集時点にそれぞれ対応するポーズマトリックスが得られる。
S130において、前記各画像収集時点での点群透視図及び前記各画像収集時点での画像透視図を1セットのトレーニングサンプルとし、複数のセットのトレーニングサンプルに基づいてオリジナルニューラルネットワークモデルをトレーニングし、点群透視図を画像透視図に変換するための画像変換モデルを生成する。
ここで、各画像収集時点では何れも1つの点群透視図及び1つの画像透視図が存在するため、両者を1セットのトレーニングサンプルとし、点群透視図を実際の入力データとし、画像透視図を所望の出力データとすることが可能であり、これにより、複数のセットのトレーニングサンプルに基づいてオリジナルニューラルネットワークモデルをトレーニングして、点群透視図を画像透視図に変換するための画像変換モデルを生成することができる。
なお、オリジナルニューラルネットワークモデルは、何れかのトレーニングされていない、点群透視図を画像透視図に変換することが可能である畳み込みニューラルネットワークモデルであり、1つの好ましいオリジナルニューラルネットワークモデルの模式図は、図4aに示し、シングルフレームの点群透視図からシングルフレームの画像透視図に変換する画像変換モデルである。例示的に、実線はデータ層であり、データ層のMtは点群透視図であり、そのディメンションはH*W*Cであり、Cは点群データの属性情報の数であることが可能であり、例えば、属性情報が強度情報と意味情報である場合、C=2であり、また例えば、属性情報が色情報(R/G/B)である場合、C=3であり、データ層のItは画像透視図であり、そのディメンションはH*W*3であり、3は色情報(R/G/B)である。点線はネットワーク層であり、当該ネットワーク層におけるニューロンは、畳み込み層cxx_kx_sx、励起層leakyPeLU、畳み込みブロック層ResnetXtBlock_cxx_xx、アップサンプリング層PixelShuffle、励起層tanhなどを含むことが可能である。例示的に、畳み込み層c32_k3_s2は、32個の3x3のサイズ(k3)のステップサイズが2(s2)の畳み込みカーネルで畳み込み、他の畳み込み層の意味は類似するため、ここでは省略し、励起層leakyPeLUのパラメータは0.2であっても良いし、他の数値であっても良く、畳み込みブロック層ResnetXtBlock_c256_x10は用10セットのResnetXtBlockで順番に直列して得られ、その内部の畳み込み層は共に3x3のサイズ(k3)のステップサイズが2(s2)の畳み込みカーネルを使用してもよいし、他の畳み込みカーネルを使用してもよく、c256は畳み込みカーネルの数であり、他の畳み込みブロック層の意味は類似するため、ここでは省略し、PixelShuffleはアップサンプリングの倍でもよい。
本願の実施例に係る技術案は、プリセット収集システムが収集した点群データ及びマルチフレームの画像透視図に基づき、点群データの座標データ及びマルチフレームの画像透視図と1つずつ対応する複数の画像収集時点が得られることが可能であり、さらに、複数の画像収集時点における各画像収集時点に対応するポーズマトリックスを決定した後、前記各画像収集時点が対応するポーズマトリックス及び座標データに基づいて前記各画像収集時点での点群透視図を生成することが可能であり、即ち三次元のシーンの点の点群データを画像収集時点での仮想カメラの下に投影して点群透視図を形成し、これにより、前記各画像収集時点での点群透視図及び前記各画像収集時点での画像透視図を1セットのトレーニングサンプルとし、複数のセットのトレーニングサンプルに基づいてオリジナルニューラルネットワークモデルをトレーニングし、点群透視図を画像透視図に変換するための画像変換モデルを生成することが可能である。上記技術案は、点群データによって投影した点群透視図に基づいて画像透視図を誘導し合成することが可能であり、画像透視図の取得の過程で手間がかかるという問題を解決し、品質の高い画像透視図を簡単な操作且つ低いコストで取得するという効果を達成した。
1つの好ましい技術案は、点群透視図を生成した後、点群透視図における点群データに対応する画素点を取得し、点群データの属性情報を画素点に割り当てることが可能であり、当該属性情報は強度情報、意味情報、色情報などであっても良く、例示的に、強度情報はレーザーレーダー走査ディバイスの反射により取得することが可能であり、意味情報は、点群の解析により取得することが可能である。上記ステップをセットする利点は、カメラの画像形成の過程がマッピングされるシーンの三次元のシーンの点がカメラのネガフィルムに投影する過程であり、投影の後で得られる画像透視図における各画素点は当該三次元のシーンの点の色情報(R/G/B)を記憶し、それに対応し、点群透視図は三次元のシーンの点がカメラネガフィルムに投影することを再建する過程であり、点群透視図における各画素点は当該三次元のシーンの点の属性情報を記録することを考えると、これは点群透視図と画像透視図の間に強い関連性があること意味し、このような関連性は点群透視図によって画像透視図を合成する合成の精度を向上させる。
マッピングされるシーンの点群データを点群透視図における画素点に投影することは、複数が一に対応する関係である可能性があると考えると、複数の点群データが1つの画素点に対応する場合、カメラに最も近い点群データの属性情報を当該画素点に割り当てることが可能であり、これは人間の目の視覚法則と一致し、前の三次元のシーンの点が後ろの三次元のシーンの点をブロックする場合、人間の目は前の三次元のシーンの点(即ち、複数の点群データのうち、カメラに最も近い点群データ)しか見えなく、後ろの隠されている三次元のシーンの点(即ち、複数の点群データのうち、カメラに最も近い点群データ以外の点群データ)が見えない。
Figure 0007461504000001
同様に、画像透視図はプリセット収集システムにおける球面パノラマカメラによって収集し得られると、三次元のシーンの点が1つの球面に投影され、球の表面を緯度と経度で展開して球面パノラマ図になり、そのため、下記の数式により、点群データのPW_3dをtで収集した球面パノラマカメラ座標系でのPC_2d(t)に投影し、複数のPC_2d(t)に基づいてtでの点群透視図を生成してもよく、
3d=MW→L(t)PW_3d,P3d=[x3d,y3d,z3d],
Figure 0007461504000002
ここで、Rは球面パノラマカメラの球体半径であり、PC_2d(t)は三次元座標データがPW_3dである点群データの点群透視図(即ち、球体パノラマ図)に投影する画素点の二次元座標データである。
1つの好ましい技術案は、点群透視図に基づいて画像透視図を誘導し合成する場合、時空間の関連性を保証し、単一フレームの一対一の解析によるシーケンスの跳躍変化を回避するために、少なくとも2つの画像収集時点での点群透視図、及び当該少なくとも2つの画像収集時点での点群透視図が対応する画像透視図を合わせてトレーニングサンプルとし、オリジナルニューラルネットワークモデルをトレーニングすることが可能である。例示的に、複数の画像収集時点における現在の画像収集時点での点群透視図を第1点群透視図とすると共に現在の画像収集時点での画像透視図を第1画像透視図とし、現在の画像収集時点の前の少なくとも1つの画像収集時点での点群透視図を第2点群透視図とすると共に現在の画像収集時点の前の少なくとも1つの画像収集時点での前記点群透視図が対応する画像透視図を第2画像透視図とし、第2点群透視図の数は少なくとも1つであり、第2画像透視図の数は少なくとも1つであり、少なくとも1つの第2点群透視図と少なくとも1つの第2画像透視図とは一つずつ対応する関係であり、第1点群透視図、第2点群透視図、第1画像透視図及び第2画像透視図を1セットのトレーニングサンプルとし、そのうち、第1点群透視図、第2点群透視図及び第2画像透視図は実際の入力データで、第1画像透視図は所望の出力データである。
これを踏まえ、上記トレーニングサンプルに合致するオリジナルニューラルネットワークモデルは点群畳み込み励起モジュール、画像畳み込み励起モジュール及びマージ処理モジュールを含むことが可能であり、これにより、複数のセットのトレーニングサンプルに基づいてオリジナルニューラルネットワークモデルをトレーニングすることは、トレーニングサンプルをオリジナルニューラルネットワークモデルに入力することと、点群畳み込み励起モジュールにより第1点群透視図と第2点群透視図とのチャネルカスケードの結果を処理して点群特徴図を得ると共に画像畳み込み励起モジュールにより第2画像透視図を処理して画像特徴図を得て、勿論、第2画像透視図の数は少なくとも2つであると、まず、少なくとも2つの第2画像透視図をチャネルカスケードし、次に第2画像透視図のチャネルカスケードの結果を処理することが可能であることと、マージ処理モジュールにより点群特徴図及び画像特徴図をマージ処理し、マージ処理の結果に基づいて第3画像透視図を生成し、当該第3画像透視図は実際の出力データであることと、これにより、第3画像透視図及び第1画像透視図に基づいてオリジナルニューラルネットワークモデルのネットワークパラメータを調節し、例えば両者の差異性に基づいて損失関数を計算し、かつ計算結果に基づいてネットワークパラメータを調節することとを含むことが可能である。
以下、具体的な例を参照し、本実施例に係るオリジナルニューラルネットワークモデルを例示的に説明する。例示的に、第1点群透視図、第2点群透視図、第1画像透視図及び第2画像透視図を1セットのトレーニングサンプルとする場合、当該トレーニングサンプルと互いに合致するために、図4bに示すようなオリジナルニューラルネットワークモデルの模式図は、シーケンスフレームの点群透視図からシングルフレームの画像透視図に変換する画像変換モデルである。図4aに示すオリジナルニューラルネットワークモデルに比べ、図4bに示すオリジナルニューラルネットワークモデルのネットワーク層におけるニューロンは更にカスケード層concatを含むことが可能であり、データ層中のMtは第1点群透視図であり、Mt-2とMt-1は何れも第2点群透視図であり、Itは第1画像透視図であり、It-2は第2画像透視図であり、It-2はMt-2と共に同一画像収集時点での透視図に所属し、It-1も第2画像透視図であり、It-1はMt-1と共に同一画像収集時点での透視図に所属する。また、Mt-2、Mt-1及びMtのチャネルカスケードの結果のディメンションはH*W*(3*C)で、It-2とIt-1のチャネルカスケードの結果のディメンションはH*W*6である。
例示的に、複数の画像収集時点の時間間隔が1秒であることを例とし、MtとItがそれぞれ第10秒の点群透視図と画像透視図である場合、Mt-1とIt-1はそれぞれ第9秒の点群透視図と画像透視図で、Mt-2とIt-2はそれぞれ第8秒の点群透視図と画像透視図であり、この時、第8-10秒の3つの点群透視図と第8-9秒の2つの画像透視図を実際の入力データとし、第10秒の画像透視図を所望の出力データとし、共にオリジナルニューラルネットワークモデルに入力してモデルトレーニングする。
なお、図4bに示すようなオリジナルニューラルネットワークモデルによってトレーニングして画像変換モデルが得られた後、画像変換モデルのアプリケーションの段階では、何れかのフレームの画像透視図も未知であり、これは前の3つのフレームの点群透視図及び前の2つのフレームの画像透視図に基づいて第3フレームの画像透視図を予測することができないことを意味する。この問題を解決するために、1つの好ましい案は、オリジナルニューラルネットワークモデルをトレーニングする時に、前の2つのフレームの点群透視図をブランク、ランダムな数値などにセットし、第3フレームの点群透視図からトレーニングし、このようにして、画像変換モデルのアプリケーションの段階では、前の2つのフレーム画像透視図をブランク、ランダムな数値などにセットし、第3フレームの画像透視図から予測することも可能である。
実施例2
図5は本願の実施例2に係る画像透視図の決定方法のフローチャートである。本実施例は、点群データ及び予め生成した画像変換モデルに基づいて画像透視図を合成する場合に適用可能であり、当該方法は、本願の実施例に係る画像透視図の決定装置によって実行することが可能であり、当該装置はソフトウェア及び/又はハードウェアの方式で実現することが可能であり、当該装置は様々なユーザ端末又はサーバに統合することが可能である。
図5を参照し、本願の実施例における方法はステップS210乃至S220を含む。
S210において、プリセット収集システムに基づいて点群データを収集し、点群データの座標データ及び点群収集時点を取得し、点群収集時点に対応するポーズマトリックスを決定し、ポーズマトリックス及び座標データに基づいて点群収集時点での点群透視図を生成する。
ここで、点群収集時点で画像透視図の画像収集時点を模擬し、点群収集時点に対応するポーズマトリックス及び点群データの座標データに基づいて、点群収集時点での点群透視図を合成することが可能である。好ましくは、ポーズマトリックスは、収集した点群データをマッピングし、マッピングの過程でプリセット収集システムのポーズ軌跡を取得するステップと、例示的に、点群収集時点に従ってポーズ軌跡をシーケンスサンプリングし、シーケンスサンプリングの結果によって各点群収集時点が対応するポーズマトリックスを取得するステップと、によって決定することが可能である。
S220において、本願の何れかの実施例に係るモデル生成方法に従って生成された画像変換モデルを取得し、点群透視図を画像変換モデルに入力し、画像変換モデルの出力結果に基づいて点群収集時点での画像透視図を決定する。
上記技術案は、まず、プリセット収集システムにおいて点群収集ディバイスのみを設ければよく、高価な画像収集ディバイスを設ける必要がなく、コストが低い。次に、点群透視図をトレーニングが完了した画像変換モデルに入力するだけで、同一収集時点での画像透視図を予測することが可能であり、いずれの時空間標定を行う必要もなく、操作が簡単である。更に、トレーニングサンプルの品質を向上させることにより、画像変換モデルにより品質の高い画像透視図を得ることを保証することが可能である。
本願の実施例に係る技術案は、プリセット収集システムが収集した点群データに基づき、点群データの座標データ及び点群収集時点を取得することが可能であり、当該点群収集時点で画像透視図の画像収集時点を模擬し、更に、点群収集時点に対応するポーズマトリックスを決定した後、ポーズマトリックス及び座標データに基づいて点群収集時点での点群透視図を生成することが可能であり、即ち三次元のシーンの点の点群データを点群収集時点での仮想カメラの下に投影して点群透視図を形成し、これにより、点群透視図を予め生成した画像変換モデルに入力した後、画像変換モデルの出力結果に基づいて、点群収集時点での画像透視図を決定することが可能である。上記技術案は、点群データによって投影した点群透視図に基づいて画像透視図を誘導し合成することが可能であり、画像透視図の取得の過程で手間がかかるという問題を解決し、品質の高い画像透視図を簡単な操作且つ低いコストで取得するという効果を達成した。
実施例3
図6は本願の実施例3に係るモデル生成装置の構造ブロック図であり、当該装置は上記何れかの実施例に係るモデル生成方法を実施するように設けられる。当該装置と上記各実施例に係るモデル生成方法とは同じ発明の概念に属し、モデル生成装置の実施例で詳しく説明しなかった具体的な内容については、上記モデル生成方法の実施例を参照することができる。図6を参照し、当該装置は、データ収集モジュール310、第1生成モジュール320及び第2生成モジュール330を含むことが可能である。
そのうち、データ収集モジュール310は、プリセット収集システムに基づいて点群データ及びマルチフレームの画像透視図を収集し、点群データの座標データ、及び前記マルチフレームの画像透視図と一つずつ対応する複数の画像収集時点を取得するように設けられ、
第1生成モジュール320は、複数の画像収集時点における各画像収集時点に対応するポーズマトリックスを決定し、前記各画像収集時点が対応するポーズマトリックス及び前記各画像収集時点が対応する座標データに基づいて前記各画像収集時点での点群透視図を生成するように設けられ、
第2生成モジュール330は、前記各画像収集時点での点群透視図及び前記各画像収集時点での画像透視図を1セットのトレーニングサンプルとし、複数のセットのトレーニングサンプルに基づいてオリジナルニューラルネットワークモデルをトレーニングし、点群透視図を画像透視図に変換するための画像変換モデルを生成するように設けられる。
好ましくは、第1生成モジュール320は、
点群データからプリセット収集システムのポーズ軌跡を取得するように設けられるポーズ軌跡取得ユニットと、
複数の画像収集時点に基づきポーズ軌跡をサンプリングし、複数の画像収集時点における各画像収集時点に対応するポーズマトリックスを取得するように設けられるポーズマトリックス取得ユニットと、を含むことが可能である。
好ましくは、第1生成モジュール320は、
画像透視図は、プリセット収集システムにおけるプリセットカメラによって収集し得られ、プリセットカメラは透視カメラ又は広角カメラを含むと、下記の数式により、点群データのワールド座標系での三次元座標データPW_3dを各画像収集時点tで収集したプリセットカメラ座標系での二次元座標データPC_2d(t)に投影し、複数のPC_2d(t)によりtでの点群透視図を生成し、
C_2d(t)=KW→L(t)PW_3d
ここで、MW→L(t)はプリセット収集システムにおける点群収集ディバイスのtでのワールド座標系におけるポーズマトリックスであり、Kはプリセットカメラの内部パラメータマトリックスであり、
画像透視図がプリセット収集システムにおける球面パノラマカメラによるものである場合、下記の数式により、点群データのPW_3dをtで収集した球面パノラマカメラ座標系でのPC_2d(t)に投影し、複数のPC_2d(t)に基づきtでの点群透視図を生成し、
3d=MW→L(t)PW_3d,P3d=[x3d,y3d,z3d
Figure 0007461504000003
ここで、Rは球面パノラマカメラの球体半径である、ように設けられる。
好ましくは、当該装置は更に、
点群透視図における点群データに対応する画素点を取得し、点群データの属性情報を画素点に割り当てるように設けられる属性情報割り当てモジュール、を含むことが可能である。
好ましくは、第2生成モジュール330は、更に、
少なくとも2つの画像収集時点での点群透視図、及び前記少なくとも2つの画像収集時点での前記点群透視図が対応する前記画像透視図を合わせて1セットのトレーニングサンプルとするように設けられる。
好ましくは、第2生成モジュール330は、
複数の画像収集時点における現在の画像収集時点での点群透視図を第1点群透視図とすると共に前記現在の画像収集時点での画像透視図を第1画像透視図とするように設けられる第1取得ユニットと、
現在の画像収集時点の前の少なくとも1つの画像収集時点での点群透視図を第2点群透視図とすると共に前記現在の画像収集時点の前の少なくとも1つの画像収集時点での前記点群透視図が対応する画像透視図を第2画像透視図とするように設けられる第2取得ユニットと、
第1点群透視図、第2点群透視図、第1画像透視図及び第2画像透視図を1セットのトレーニングサンプルとし、そのうち、第1点群透視図、第2点群透視図及び第2画像透視図は実際の入力データで、第1画像透視図は所望の出力データであるように設けられるトレーニングサンプル取得ユニットと、を含むことが可能である。
好ましくは、第2生成モジュール330は、更に、
オリジナルニューラルネットワークモデルは点群畳み込み励起モジュール、画像畳み込み励起モジュール及びマージ処理モジュールを含み、トレーニングサンプルをオリジナルニューラルネットワークモデルに入力するように設けられる入力ユニットと、
点群畳み込み励起モジュールにより第1点群透視図と第2点群透視図とのチャネルカスケードの結果を処理して点群特徴図が得られると共に画像畳み込み励起モジュールにより第2画像透視図を処理して画像特徴図が得られるように設けられる特徴図取得ユニットと、
マージ処理モジュールにより点群特徴図及び画像特徴図をマージ処理し、マージ処理の結果に基づいて第三画像透視図を生成し、第三画像透視図及び第1画像透視図に基づいてオリジナルニューラルネットワークモデルのネットワークパラメータを調節するように設けられるネットワークパラメータ調節ユニットと、を含むことが可能である。
本願の実施例3に係るモデル生成装置は、データ収集モジュールによって、プリセット収集システムが収集した点群データ及びマルチフレームの画像透視図に基づき、点群データの座標データ及びマルチフレームの画像透視図と一つずつ対応する複数の画像収集時点を取得することが可能であり、さらに、第1生成モジュールは、複数の前記画像収集時点における各画像収集時点に対応するポーズマトリックスを決定した後、前記各画像収集時点が対応するポーズマトリックス及び座標データに基づいて前記各画像収集時点での点群透視図を生成することが可能であり、即ち三次元のシーンの点の点群データを画像収集時点での仮想カメラの下に投影して点群透視図を形成し、これにより、第2生成モジュールは、前記各画像収集時点での点群透視図及び前記各画像収集時点での画像透視図を1セットのトレーニングサンプルとし、複数のセットのトレーニングサンプルに基づいてオリジナルニューラルネットワークモデルをトレーニングし、点群透視図を画像透視図に変換するための画像変換モデルを生成することが可能である。上記装置は、点群データによって投影した点群透視図に基づいて画像透視図を誘導し合成することが可能であり、画像透視図の取得の過程は比較的に手間がかかる問題を解決し、品質の高い画像透視図を簡単な操作且つ低いコストで取得するという効果を達成した。
本願の実施例に係るモデル生成装置は、本願の何れかの実施例に係るモデル生成方法を実施することが可能であり、方法の実施に応じる機能モジュールを備える。
注目すべきことは、上記モデル生成装置の実施例において、含まれる各ユニット及びモジュールは、単純に機能論理に従って区分けするが、上記の区分けに制限されてはなく、対応する機能を実現できればよく、また、各機能ユニットの名称も相互に区別しやすいためのものに過ぎなく、本願の保護範囲を限定するためのものではない。
実施例4
図7は本願の実施例4に係る画像透視図の決定装置の構造ブロック図であり、当該装置は上記の何れかの実施例に係る画像透視図の決定方法を実施するように設けられる。当該装置と上記各実施例に係る画像透視図の決定方法とは同じ発明の概念に属し、画像透視図の決定方法の実施例で詳しく説明しなかった具体的な内容については、上記画像透視図の決定方法の実施例を参照することができる。図7を参照し、当該装置は、第3生成モジュール410及び画像透視図決定モジュール420を含むことが可能である。
ここで、第3生成モジュール410は、プリセット収集システムに基づいて点群データを収集し、点群データの座標データ及び点群収集時点を取得し、点群収集時点に対応するポーズマトリックスを決定し、ポーズマトリックス及び座標データに基づいて点群収集時点での点群透視図を生成するように設けられ、
画像透視図決定モジュール420は、本願の何れかの実施例に係るモデル生成方法に従って生成された画像変換モデルを取得し、点群透視図を画像変換モデルに入力し、画像変換モデルの出力結果に基づいて点群収集時点での画像透視図を決定するように設けられる。
本願の実施例4に係る画像透視図の決定装置は、第3生成モジュールによってプリセット収集システムが収集した点群データに基づき、点群データの座標データ及び点群収集時点を取得することが可能であり、当該点群収集時点で画像透視図の画像収集時点を模擬し、且つ、点群収集時点に対応するポーズマトリックスを決定した後、ポーズマトリックス及び座標データに基づいて点群収集時点での点群透視図を生成することが可能であり、即ち三次元のシーンの点の点群データを点群収集時点での仮想カメラの下に投影して点群透視図を形成し、画像透視図決定モジュールは点群透視図を予め生成した画像変換モデルに入力した後、画像変換モデルの出力結果に基づいて、点群収集時点での画像透視図を決定することが可能である。上記装置は、点群データによって投影した点群透視図に基づいて画像透視図を誘導し合成し、画像透視図の取得の過程で手間がかかるという問題を解決し、品質の高い画像透視図を簡単な操作且つ低いコストで取得するという効果を達成した。
本願の実施例に係る画像透視図の決定装置は、本願の何れかの実施例に係る画像透視図の決定方法を実施することが可能であり、方法の実行に応じた機能モジュールを備える。
注目すべきことは、上記画像透視図の決定装置の実施例において、含まれる各ユニット及びモジュールは、単に機能論理に従って区分されたものであるが、上記の区分けに制限されるわけではなく、対応する機能を実現できればよく、また、各機能ユニットの名称も単に相互に区別しやすくするためのものに過ぎず、本願の保護範囲を限定するためのものではない。
実施例5
図8は本願の実施例5に係るディバイスの構造模式図であり、図8に示すように、当該ディバイスはメモリ510、プロセッサ520、入力装置530及び出力装置540を含む。ディバイスのプロセッサ520の数は少なくとも1つであることが可能であり、図8では1つのプロセッサ520の場合を例とし、ディバイスのメモリ510、プロセッサ520、入力装置530及び出力装置540は、バス又は他の方式で接続することが可能であり、図8ではバス550で接続することを例とする。
メモリ510は、コンピュータ可読記憶媒体として、例えば、本願の実施例に係るモデル生成方法が対応するプログラム命令/モジュール(例えば、モデル生成装置におけるデータ収集モジュール310、第1生成モジュール320及び第2生成モジュール330)、又は、例えば、本願の実施例に係る画像透視図の決定方法が対応するプログラム命令/モジュール(例えば、画像透視図の決定装置における第3生成モジュール410及び画像透視図決定モジュール420)のような、ソフトウェアプログラム、コンピュータ実行可能プログラム及びモジュールを記憶するように設けられることが可能である。プロセッサ520は、メモリ510に記憶されるソフトウェアプログラム、命令及びモジュールを実行することにより、ディバイスの各種の機能アプリケーション及びデータ処理を実行し、即ち上記のモデル生成方法又は画像透視図の決定方法を実現する。
メモリ510は、主に、プログラムの記憶領域及びデータの記憶領域を含むことが可能であり、そのうち、プログラムの記憶領域はオペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶することが可能であり、データの記憶領域はディバイスの使用により作成されたデータなどを記憶することが可能である。また、メモリ510は、高速ランダムアクセスメモリを含むことが可能であり、例えば、少なくとも1つの磁気ディスク記憶ディバイス、フラッシュメモリディバイス、又は他の非揮発性メモリディバイスなどの非揮発性メモリを含むことも可能である。いくつかの実例では、メモリ510は、プロセッサ520に対して遠距離で設けられているメモリを含むことが可能であり、これらの遠距離メモリはネットワークによりディバイスに接続することが可能である。上記ネットワークの実例は、インターネット、企業イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びそれらの組み合わせを含むが、それらに限定されない。
入力装置530は、入力された数字又は文字符号情報を受け取り、並びに装置のユーザ設定及び機能制御に係るキー信号の入力を発生するように設けられる。出力装置540は、表示画面などの表示ディバイスを含むことが可能である。
実施例6
本願の実施例6は、コンピュータ実行可能命令を含む記憶媒体を提供し、前記コンピュータ実行可能命令はコンピュータプロセッサによって実行される時にモデル生成方法を実行するために用いられ、当該方法は、
プリセット収集システムに基づいて点群データ及びマルチフレームの画像透視図を収集し、点群データの座標データ、及び前記マルチフレームの画像透視図と1つずつ対応する複数の画像収集時点が得られることと、
複数の画像収集時点における各画像収集時点に対応するポーズマトリックスを決定し、前記各画像収集時点が対応するポーズマトリックス及び座標データに基づいて前記各画像収集時点での点群透視図を生成することと、
各画像収集時点での点群透視図及び画像透視図を1セットのトレーニングサンプルとし、複数のセットのトレーニングサンプルに基づいてオリジナルニューラルネットワークモデルをトレーニングし、点群透視図を画像透視図に変換するための画像変換モデルを生成することと、を含む。
勿論、本願の実施例に係るコンピュータ実行可能命令を含む記憶媒体であって、そのコンピュータ実行可能命令は上記のような方法の操作に限らず、本願の何れかの実施例に係るモデル生成方法の関連操作を実行することも可能である。
実施例7
本願の実施例7は、コンピュータ実行可能命令を含む記憶媒体を提供し、前記コンピュータ実行可能命令はコンピュータプロセッサにより実行する時に画像透視図の決定方法を実行するように用いられ、当該方法は、
プリセット収集システムに基づいて点群データを収集し、点群データの座標データ及び点群収集時点を取得し、点群収集時点に対応するポーズマトリックスを決定し、ポーズマトリックス及び座標データに基づいて点群収集時点での点群透視図を生成することと、
本願の何れかの実施例に係るモデル生成方法に従って生成された画像変換モデルを取得し、点群透視図を画像変換モデルに入力し、画像変換モデルの出力結果に基づいて点群収集時点での画像透視図を決定することと、を含む。
以上の実施形態についての説明から、当業者は、本願はソフトウェア及び必要な汎用ハードウェアをよって実現することが可能であり、勿論ハードウェアによって実現することも可能であること、を明白に理解できる。このような理解によれば、本願の技術案は実質的な、或いは関連技術に貢献する部分はソフトウェア製品の形で表すことが可能であり、当該コンピュータソフトウェア製品は例えば、コンピュータのフロッピー(登録商標)ディスク、読み取り専用メモリ(Read-Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、フラッシュメモリ(FLASH)、ハードディスク又は光ディスクなど、コンピュータ可読記憶媒体に記憶されることが可能であり、1つのコンピュータディバイス(パーソナルコンピュータ、サーバ、又はネットワークディバイスなどであってもよい)に本願の各実施例に記載される方法を実行させるための複数の命令を含む。

Claims (9)

  1. プリセット収集システムに基づいて点群データ及びマルチフレームの画像透視図を収集し、前記点群データの座標データ、及び前記マルチフレームの前記画像透視図と1つずつ対応する複数の画像収集時点が得られることと、
    複数の前記画像収集時点における各画像収集時点に対応するポーズマトリックスを決定し、前記各画像収集時点が対応するポーズマトリックス及び前記座標データに基づいて前記各画像収集時点での点群透視図を生成することと、
    前記各画像収集時点での前記点群透視図及び前記各画像収集時点での前記画像透視図を1セットのトレーニングサンプルとし、複数のセットの前記トレーニングサンプルに基づいてオリジナルニューラルネットワークモデルをトレーニングし、前記点群透視図を前記画像透視図に変換するための画像変換モデルを生成することと、
    含み
    少なくとも2つの画像収集時点での前記点群透視図、及び前記少なくとも2つの画像収集時点での前記点群透視図が対応する前記画像透視図を合わせて1セットのトレーニングサンプルとすることをさらに含む、モデル生成方法であって、
    少なくとも2つの画像収集時点での前記点群透視図、及び前記少なくとも2つの画像収集時点での前記点群透視図が対応する前記画像透視図を合わせて1セットのトレーニングサンプルとすることは、
    複数の前記画像収集時点における現在の画像収集時点での前記点群透視図を第1点群透視図とすると共に前記現在の画像収集時点での前記画像透視図を第1画像透視図とすることと、
    前記現在の画像収集時点の前の少なくとも1つの画像収集時点での前記点群透視図を第2点群透視図とすると共に前記現在の画像収集時点の前の少なくとも1つの画像収集時点での前記点群透視図が対応する前記画像透視図を第2画像透視図とすることと、
    前記第1点群透視図、前記第2点群透視図、前記第1画像透視図及び前記第2画像透視図を1セットのトレーニングサンプルとし、前記第1点群透視図、前記第2点群透視図及び前記第2画像透視図は実際の入力データで、前記第1画像透視図は所望の出力データであることと、
    を含む、モデル生成方法
  2. 前記した複数の前記画像収集時点における各画像収集時点に対応するポーズマトリックスを決定することは、
    前記点群データに基づいて前記プリセット収集システムのポーズ軌跡が得られることと、
    複数の前記画像収集時点に基づいて前記ポーズ軌跡をサンプリングし、複数の前記画像収集時点における各画像収集時点に対応するポーズマトリックスが得られることと、
    を含む、請求項1に記載のモデル生成方法。
  3. 前記点群透視図における前記点群データに対応する画素点を取得し、前記点群データの属性情報を前記画素点に割り当てることをさらに含む、請求項1に記載のモデル生成方法。
  4. 前記オリジナルニューラルネットワークモデルは点群畳み込み励起モジュール、画像畳み込み励起モジュール及びマージ処理モジュールを含み、前記した複数のセットの前記トレーニングサンプルに基づいてオリジナルニューラルネットワークモデルをトレーニングすることは、
    前記トレーニングサンプルを前記オリジナルニューラルネットワークモデルに入力することと、
    前記点群畳み込み励起モジュールは前記第1点群透視図と前記第2点群透視図とのチャネルカスケードの結果を処理して点群特徴図が得られると共に前記画像畳み込み励起モジュールは前記第2画像透視図を処理して画像特徴図が得られることと、
    前記マージ処理モジュールは、前記点群特徴図及び前記画像特徴図をマージ処理し、マージ処理の結果に基づいて第3画像透視図を生成し、前記第3画像透視図及び前記第1画像透視図に基づいて前記オリジナルニューラルネットワークモデルのネットワークパラメータを調節することと、
    を含む、請求項1に記載のモデル生成方法。
  5. プリセット収集システムに基づいて点群データを収集し、前記点群データの座標データ及び点群収集時点を取得し、前記点群収集時点に対応するポーズマトリックスを決定し、前記ポーズマトリックス及び前記座標データに基づいて前記点群収集時点での点群透視図を生成することと、
    請求項1ないし4の何れか1項のモデル生成方法に従って生成された画像変換モデルを取得し、前記点群透視図を前記画像変換モデルに入力し、前記画像変換モデルの出力結果に基づいて前記点群収集時点での画像透視図を決定することと、
    を含む、画像透視図の決定方法。
  6. プリセット収集システムに基づいて点群データ及びマルチフレームの画像透視図を収集し、前記点群データの座標データ、及び前記マルチフレームの画像透視図と1つずつ対応する複数の画像収集時点を取得するように設けられるデータ収集モジュールと、
    複数の前記画像収集時点における各画像収集時点に対応するポーズマトリックスを決定し、前記各画像収集時点が対応するポーズマトリックス及び前記座標データに基づいて前記各画像収集時点での点群透視図を生成するように設けられる第1生成モジュールと、
    前記した各前記画像収集時点での前記点群透視図及び前記した各前記画像収集時点での前記画像透視図を1セットのトレーニングサンプルとし、複数のセットの前記トレーニングサンプルに基づいてオリジナルニューラルネットワークモデルをトレーニングし、前記点群透視図を前記画像透視図に変換するための画像変換モデルを生成するように設けられる第2生成モジュールと、
    含み
    前記第2生成モジュールは、更に、
    少なくとも2つの画像収集時点での前記点群透視図、及び前記少なくとも2つの画像収集時点での前記点群透視図が対応する前記画像透視図を合わせて1セットのトレーニングサンプルとするように設けられ、
    前記第2生成モジュールは、
    複数の前記画像収集時点における現在の画像収集時点での前記点群透視図を第1点群透視図とすると共に前記現在の画像収集時点での前記画像透視図を第1画像透視図とするように設けられる第1取得ユニットと、
    前記現在の画像収集時点の前の少なくとも1つの画像収集時点での前記点群透視図を第2点群透視図とすると共に前記現在の画像収集時点の前の少なくとも1つの画像収集時点での前記点群透視図が対応する前記画像透視図を第2画像透視図とするように設けられる第2取得ユニットと、
    前記第1点群透視図、前記第2点群透視図、前記第1画像透視図及び前記第2画像透視図を1セットのトレーニングサンプルとし、前記第1点群透視図、前記第2点群透視図及び前記第2画像透視図は実際の入力データで、前記第1画像透視図は所望の出力データであるように設けられるトレーニングサンプル取得ユニットと、を含む、
    モデル生成装置。
  7. プリセット収集システムに基づいて点群データを収集し、前記点群データの座標データ及び点群収集時点を取得し、前記点群収集時点に対応するポーズマトリックスを決定し、前記ポーズマトリックス及び前記座標データに基づいて前記点群収集時点での点群透視図を生成するように設けられる生成モジュールと、
    請求項1ないし4の何れか1項のモデル生成方法に従って生成された画像変換モデルを取得し、前記点群透視図を前記画像変換モデルに入力し、前記画像変換モデルの出力結果に基づいて前記点群収集時点での画像透視図を決定するように設けられる画像透視図決定モジュールと、
    を含む、画像透視図の決定装置。
  8. 少なくとも1つのプロセッサと、
    少なくとも1つのプログラムを記憶するように設けられるメモリと、を含み、
    前記少なくとも1つのプログラムが前記少なくとも1つのプロセッサに実行されると、前記少なくとも1つのプロセッサは請求項1ないし4の何れか1つに記載のモデル生成方法を実現する、ディバイス。
  9. コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体にコンピュータプログラムが記憶され、前記コンピュータプログラムがプロセッサに実行されると、請求項1ないし4の何れか1つに記載のモデル生成方法を実現する、コンピュータ可読記憶媒体。
JP2022564397A 2020-06-08 2021-06-08 モデル生成方法、画像透視図の決定方法、装置、ディバイス及び媒体 Active JP7461504B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010514388.2 2020-06-08
CN202010514388.2A CN113763231B (zh) 2020-06-08 2020-06-08 模型生成方法、图像透视图确定方法、装置、设备及介质
PCT/CN2021/098942 WO2021249401A1 (zh) 2020-06-08 2021-06-08 模型生成方法、图像透视图确定方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
JP2023522442A JP2023522442A (ja) 2023-05-30
JP7461504B2 true JP7461504B2 (ja) 2024-04-03

Family

ID=78785406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022564397A Active JP7461504B2 (ja) 2020-06-08 2021-06-08 モデル生成方法、画像透視図の決定方法、装置、ディバイス及び媒体

Country Status (6)

Country Link
US (1) US20230351677A1 (ja)
EP (1) EP4131145A4 (ja)
JP (1) JP7461504B2 (ja)
KR (1) KR20230015446A (ja)
CN (1) CN113763231B (ja)
WO (1) WO2021249401A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11790557B2 (en) * 2021-04-27 2023-10-17 Faro Technologies, Inc. Calibrating system for colorizing point-clouds
CN115049783B (zh) * 2022-05-20 2024-04-02 支付宝(杭州)信息技术有限公司 模型的确定方法、场景重建模型、介质、设备及产品
CN115121913B (zh) * 2022-08-30 2023-01-10 北京博清科技有限公司 激光中心线的提取方法
CN116233391A (zh) * 2023-03-03 2023-06-06 北京有竹居网络技术有限公司 用于图像处理的装置、方法和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019145089A (ja) 2017-12-29 2019-08-29 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 点群データを融合させるための方法及び装置
JP2019185295A (ja) 2018-04-06 2019-10-24 株式会社EmbodyMe 画像処理装置および2次元画像生成用プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI607412B (zh) * 2016-09-10 2017-12-01 財團法人工業技術研究院 多維度尺寸量測系統及其方法
CN107958482B (zh) * 2016-10-17 2021-06-18 杭州海康威视数字技术股份有限公司 一种三维场景模型构建方法及装置
CN106780601B (zh) * 2016-12-01 2020-03-27 北京未动科技有限公司 一种空间位置追踪方法、装置及智能设备
CN109118532B (zh) * 2017-06-23 2020-11-20 百度在线网络技术(北京)有限公司 视觉景深估计方法、装置、设备及存储介质
US10438371B2 (en) * 2017-09-22 2019-10-08 Zoox, Inc. Three-dimensional bounding box from two-dimensional image and point cloud data
CN109087340A (zh) * 2018-06-04 2018-12-25 成都通甲优博科技有限责任公司 一种包含尺度信息的人脸三维重建方法及***
CN110895833A (zh) * 2018-09-13 2020-03-20 北京京东尚科信息技术有限公司 一种室内场景三维建模的方法和装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019145089A (ja) 2017-12-29 2019-08-29 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 点群データを融合させるための方法及び装置
JP2019185295A (ja) 2018-04-06 2019-10-24 株式会社EmbodyMe 画像処理装置および2次元画像生成用プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Stefan Milz,外4名,Points2Pix: 3D Point-Cloud to Image Translation using conditional GANs,[online],2019年09月16日,[2023 年 9月 8日検索],<URL:https://arxiv.org/pdf/1901.09280.pdf>

Also Published As

Publication number Publication date
KR20230015446A (ko) 2023-01-31
EP4131145A1 (en) 2023-02-08
US20230351677A1 (en) 2023-11-02
JP2023522442A (ja) 2023-05-30
CN113763231B (zh) 2024-02-09
EP4131145A4 (en) 2024-05-08
WO2021249401A1 (zh) 2021-12-16
CN113763231A (zh) 2021-12-07

Similar Documents

Publication Publication Date Title
JP7461504B2 (ja) モデル生成方法、画像透視図の決定方法、装置、ディバイス及び媒体
CN112771539B (zh) 采用使用神经网络从二维图像预测的三维数据以用于3d建模应用
CN111062873B (zh) 一种基于多对双目相机的视差图像拼接与可视化方法
WO2022165809A1 (zh) 一种训练深度学习模型的方法和装置
RU2586566C1 (ru) Способ отображения объекта
KR101964282B1 (ko) 3d 모델을 활용한 2d 영상 학습 데이터 생성 시스템 및 그 생성방법
CN108594999B (zh) 用于全景图像展示***的控制方法和装置
KR20180082170A (ko) 3차원 얼굴 모델 획득 방법 및 시스템
TW202143120A (zh) 圖像產生裝置、圖像產生方法、記錄媒體產生方法、學習模型產生裝置、學習模型產生方法、學習模型、資料處理裝置、資料處理方法、推論方法、電子機器產生方法、程式及非暫存性電腦可讀媒體
US20230177822A1 (en) Large scene neural view synthesis
JP2023172882A (ja) 三次元表現方法及び表現装置
KR102482262B1 (ko) 객체 분할과 배경 합성을 이용한 데이터 증강 장치 및 방법
CN115008454A (zh) 一种基于多帧伪标签数据增强的机器人在线手眼标定方法
CN114358112A (zh) 视频融合方法、计算机程序产品、客户端及存储介质
WO2021248432A1 (en) Systems and methods for performing motion transfer using a learning model
WO2019012314A1 (ru) Способ отображения широкоформатного объекта дополненной реальности
CN116543116A (zh) 野外露头三维虚拟可视化建模方法、***、设备及终端
CN115620403A (zh) 活体检测方法、电子设备及存储介质
KR20160039447A (ko) 스테레오 카메라를 이용한 공간분석시스템
CN114972599A (zh) 一种对场景进行虚拟化的方法
KR20190029842A (ko) 지피유 가속 컴퓨팅을 이용한 3차원 복원 클라우드 포인트 생성 방법
WO2023069086A1 (en) System and method for dynamic portrait relighting
Chatzifoti On the popularization of digital close-range photogrammetry: a handbook for new users.
Klomann et al. Improving mobile MR applications using a cloud-based image segmentation approach with synthetic training data
EP4276763A1 (en) Image generation for testing an electronic vehicle guidance system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240322

R150 Certificate of patent or registration of utility model

Ref document number: 7461504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150