JP7327494B2 - 補正方法、補正プログラムおよび情報処理システム - Google Patents

補正方法、補正プログラムおよび情報処理システム Download PDF

Info

Publication number
JP7327494B2
JP7327494B2 JP2021550855A JP2021550855A JP7327494B2 JP 7327494 B2 JP7327494 B2 JP 7327494B2 JP 2021550855 A JP2021550855 A JP 2021550855A JP 2021550855 A JP2021550855 A JP 2021550855A JP 7327494 B2 JP7327494 B2 JP 7327494B2
Authority
JP
Japan
Prior art keywords
pixels
point group
coordinate
coordinate information
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021550855A
Other languages
English (en)
Other versions
JPWO2021064912A5 (ja
JPWO2021064912A1 (ja
Inventor
和浩 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2021064912A1 publication Critical patent/JPWO2021064912A1/ja
Publication of JPWO2021064912A5 publication Critical patent/JPWO2021064912A5/ja
Application granted granted Critical
Publication of JP7327494B2 publication Critical patent/JP7327494B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、補正方法等に関する。
レーザセンサ等の距離測定装置を用いて、被写体の3次元点群を測定し、被写体の姿勢等を認識する技術がある。以下の説明では、被写体の3次元点群を測定するレーザセンサを単に「センサ」と表記する。センサによって測定された3次元点群の情報は、後段の様々な処理で利用される。
ここで、センサによって被写体の3次元点群を測定した際、被写体の輪郭部分で実際の位置よりも奥行き方向に、エッジノイズが発生する。図23は、エッジノイズの一例を説明するための図である。図23に示すように、センサ10が、被写体1の3次元点群を測定すると、3次元点群1aが測定される。3次元点群1aには、エッジノイズ1bが含まれる。
エッジノイズ1bは、測定時に、被写体1の輪郭部分にレーザー光がかすった状態となることで発生する。つまり、エッジノイズ1bは、被写体1の輪郭を示す点であるにもかかわらず、奥行き方向の距離値が、被写体1の距離値よりも遠い位置として測定され、被写体1を構成する3次元点群1aよりも離れてしまう。
3次元点群にエッジノイズが含まれていると、後段の処理において精度低下を招くため、エッジノイズに対処することが求められる。エッジノイズに対処する従来技術として、たとえば、従来技術1、従来技術2がある。
従来技術1は、エッジノイズを削除する技術である。図24は、従来技術1を説明するための図である。従来技術1は、3次元点群1aに含まれる点毎に、他の点との距離を求めることで、点群密度を算出する。たとえば、点群密度は、対象となる点を中心とした所定半径の円に含まれる点の個数を示す。従来技術1は、点群密度が閾値以上の点を残し、点群密度が閾値未満の点を削除する。
図24に示すように、点2aは、点2a周辺に点が多く存在し、点群密度が閾値以上となる。このため、従来技術1は、点2aを残す。一方、点2bは、点2b周辺に存在する点が少なく、点群密度が閾値未満となる。このため、従来技術1は、点2bを削除する。従来技術1は、3次元点群1aの各点に対して、上記処理を繰り返し実行することで、エッジノイズ1bを削除する。
従来技術2は、エッジノイズを補正する技術である。従来技術2では、2枚のRGBによるステレオ画像を撮影し、ステレオ画像を基にして、被写体の輪郭を抽出しておく。従来技術2は、センサによって被写体の深度画像を測定すると、ステレオ画像を用いた被写体の輪郭位置によって、深度画像上の輪郭位置を特定し、輪郭をまたぐ2点間を基準として、深度画像の値を補正する。
国際公開第2019/087404号 特開2012-79251号公報
従来技術1は、点群密度を基にして、点を削除する技術であるが、後段の処理で使用可能な3次元点群の数が減ってしまう。たとえば、センサの解像度が低い場合、または、被写体とセンサとの距離が大きい場合には、3次元点群の数がもともと少ない。さらに、3Dセンサから見える被写体の面積が小さい部分(例えば、人間の腕)に対応する3次元点群は、観測できる数が少ない。よって、被写体の輪郭に係るエッジノイズを単純に除去してしまうと、残りの点群だけでは、被写体の輪郭や形状を正しく維持することができなくなる。
図25は、従来技術1の問題点を説明するための図である。単純に、点群密度を基にして、点を削除すると、エッジノイズ1bだけでなく、点群1cも削除される。点群1cの周辺に点が少なく、点群密度が閾値未満となるためのである。エッジノイズに該当しない点群1cが削除されることにより、3次元点群1aの数が減少し、後段の処理で使用できる点が制限されてしまう。なお、点群1cは、被写体である人間の腕に該当する点群であって、点群1cが削除されたことによって、本来の被写体の腕が維持されていない。
なお、従来技術2は、エッジノイズを補正する技術であるため、3次元点群の数を維持することは可能であるが、深度画像とは別に、ステレオ画像によって、被写体の輪郭を特定することが前提となっている。このため、ステレオ画像を利用できない状況では、エッジノイズを補正することが難しい。
1つの側面では、本発明は、センサが測定した3次元点群のノイズのうち、エッジノイズ相当の点については、被写体の輪郭の点として残すことができる補正方法、補正プログラムおよび情報処理システムを提供することを目的とする。
第1の案では、コンピュータは、次の処理を実行する。コンピュータは、3Dセンサの測定データを基にして、距離画像を生成する。コンピュータは、距離画像に含まれる画素のうち、被写体の輪郭の点群に相当する複数の第1画素を特定する。コンピュータは、距離画像に含まれる画素のうち、複数の第1画素から所定範囲に含まれる複数の第2画素を特定する。コンピュータは、測定データにおいて複数の第1画素に相当する第1点群の第1座標情報を、複数の第2画素に相当する第2点群の第2座標情報に基づき補正する。コンピュータは、第1座標情報を補正した第1点群を含む被写体を構成する点群の座標情報を出力する。
センサが測定した3次元点群のノイズのうち、エッジノイズ相当の点については、被写体の輪郭の点として残すことができる。
図1は、本実施例に係る情報処理システムの一例を示す図である。 図2は、本実施例に係る情報処理システムの処理の一例を説明するための図である。 図3は、背景差分の一例を説明するための図である。 図4は、補正処理の一例を説明するための図である。 図5は、骨格認識の一例を示す図である。 図6は、点群クラスタリングの一例を示す図である。 図7は、フィッティングの一例を示す図である。 図8は、本実施例に係る情報処理装置の構成を示す機能ブロック図である。 図9は、x軸方向の焦点距離fxを説明するための図である。 図10は、y軸方向の焦点距離fyを説明するための図である。 図11は、補正処理部の一例を示す図である。 図12は、2.5D画像を生成する処理を説明するための図である。 図13は、第1画素を特定する処理を説明するための図である。 図14は、距離ixの算出に用いられるwおよびzの関係を示す図である。 図15は、距離iyの算出に用いられるhおよびzの関係を示す図である。 図16は、補正する処理を説明するための図(1)である。 図17は、補正する処理を説明するための図(2)である。 図18は、補正前の点と補正後の点との関係を説明するための図である。 図19は、本実施例に係る補正処理部の処理手順を示すフローチャート(1)である。 図20は、本実施例に係る補正処理部の処理手順を示すフローチャート(2)である。 図21は、本実施例の効果を説明するための図である。 図22は、情報処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。 図23は、エッジノイズの一例を説明するための図である。 図24は、従来技術1を説明するための図である。 図25は、従来技術1の問題点を説明するための図である。
以下に、本発明にかかる補正方法、補正プログラムおよび情報処理システムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例に係る情報処理システムの一例を示す図である。図1に示すように、この情報処理システムは、センサ11a,11b,11c,11dと、情報処理装置100とを有する。センサ11a~11dと、情報処理装置100とは、有線または無線によって接続される。
本実施例では一例として、被写体1が、器具上で演技を行うものとするがこれに限定されるものではない。たとえば、被写体1は、器具の存在しない場所で演技を行ってもよいし、演技以外の動作を行ってもよい。
センサ11aは、被写体1を構成する点群とセンサ11aとの距離を測定する測定装置(レーザーセンサ)である。センサ11aは、測定結果となる距離画像のデータを、情報処理装置100に出力する。たとえば、センサ11aは、ラスタスキャンを実行し、点群とセンサ11aとの距離を測定する。
センサ11b~11dに関する説明は、センサ11aに関する説明と同様である。以下の説明では、センサ11a~11dをまとめて「センサ11」と表記する。
図2は、本実施例に係る情報処理装置の処理の一例を説明するための図である。たとえば、情報処理装置100は、以下に説明するステップS10~S15の処理を実行する。
ステップS10の処理(背景差分)について説明する。情報処理装置100は、背景画像と、センサ11から取得する距離画像との差分を算出することで、背景ノイズを除去し、背景ノイズを除去した距離画像のデータを生成する。背景画像は、被写体1が存在しない状況において、センサ11が測定した距離画像である。
図3は、背景差分の一例を説明するための図である。図3に示すように、情報処理装置100は、背景画像12Bと、距離画像12Aとの差分を算出することで、距離画像12Cを生成する。
情報処理装置100は、距離画像12Cのデータを、3次元点群データ20Aに変換する。3次元点群データ20Aは、距離画像12Cに含まれる点と距離との関係を、点と3次元直交座標系の座標との関係に変換したものである。たとえば、3次元直交座標系には、x軸、y軸、z軸が含まれ、z軸を、センサ11の奥行き方向の軸とする。以下の説明では、3次元直交座標系の座標を「3次元座標」と表記する。
ステップS11の処理(補正処理)について説明する。情報処理装置100は、3次元点群データ20Aに含まれるエッジノイズを補正することで、3次元点群データ20Bを生成する。
図4は、補正処理の一例を説明するための図である。図4に示すように、情報処理装置100は、3次元点群データ20Aに対して補正処理を実行することで、3次元点群データ20Bを生成する。3次元点群データ20Aと、3次元点群データ20Bとを比較すると、輪郭部分13において、エッジノイズの座標が、被写体や器具の表面近くに補正されている。補正処理に関する詳細な説明は後述する。
ステップS12の処理(2.5D(Dimension)変換)について説明する。情報処理装置100は、3次元点群データ20Bを、2次元のマップに投影することで、2.5Dの画像データ21を生成する。画像データ21の各画素は、3次元点群データ20Bの点群にそれぞれ対応付けられる。画像データ21の画素には、対応する点のz軸の値が設定される。
ステップS13Aの処理(認識処理)について説明する。情報処理装置100は、予め学習しておいた学習モデルに、2.5Dの画像データ21を入力することで、関節ヒートマップ22を生成する。関節ヒートマップ22は、被写体1の各関節の位置を示す情報である。
ステップS13Bの処理(点群統合)について説明する。情報処理装置100は、3次元点群データ20B(各センサ11によって測定された複数の3次元点群データ20Bであって、補正処理済みの複数の3次元点群データ20B)を統合して、一つの3次元点群データ20Cを生成する。
なお、情報処理装置100は、上記のステップS13Aの処理と、ステップS13Bの処理とを並行して実行してもよい。
ステップS14Aの処理(骨格認識)について説明する。情報処理装置100は、関節ヒートマップ22に示される各関節の位置を基にして、骨格認識結果23を生成する。たとえば、骨格認識結果23は、各関節座標を接続した情報である。
図5は、骨格認識の一例を示す図である。図5に示す例では、3次元点群データと組み合わせた、骨格認識結果23を示す。たとえば、被写体1の足下のノイズ(マットのノイズなど)が残っていると、骨格認識結果23において、膝下と足先との骨格位置が異常となる。
ステップS14Bの処理(点群クラスタリング)について説明する。情報処理装置100は、3次元点群データ20Cに対して、点群クラスタリングを実行することで、複数のクラスタに分類する。情報処理装置100は、複数のクラスタのうち、点群クラスタの点の個数が閾値未満となるクラスタに含まれる点群を、ノイズとして削除する。なお、点群クラスタの点の個数だけでなく、点群クラスタが構成する多面体の体積が閾値未満となるクラスタに含まれる点群を、ノイズとして削除してもよい。
図6は、点群クラスタリングの一例を示す図である。図6に示すように、3次元点群データ20Cに対して、点群クラスタリングを実行し、ノイズ14を除去することで、3次元点群データ20Dが生成される。
なお、情報処理装置100は、上記のステップS14Aの処理と、ステップS14Bの処理とを並行して実行してもよい。
ステップS15の処理(フィッティング)について説明する。図7は、フィッティングの一例を示す図である。図7に示すように、情報処理装置100は、ステップS14Aで説明した骨格認識結果23に対して、円筒モデル16を当てはめて初期位置を設定する。円筒モデルは、被写体1の各部位を円筒(あるいは楕円柱など)でそれぞれ表現したモデルのデータである。情報処理装置100は、円筒モデル16の各円筒の接続部分の角度を少しずつ変化させ、円筒モデルの表面と、3次元点群データ20Dの各点との距離が近づくような調整(フィッティング)を実行する。
情報処理装置100は、フィッティングを行った円筒モデル16の軸を繋げた骨格モデル24を生成する。
情報処理装置100は、センサ11から距離画像のデータを取得する度に、ステップS10~S15の処理を繰り返し実行し、骨格モデル24を生成する処理を繰り返し実行する。情報処理装置100は、時系列に骨格モデル24を出力し、各時刻の骨格モデル24の関節位置の遷移を基にして、各種競技の技認定、採点等を実行する。
次に、図1に示した情報処理装置100の構成の一例について説明する。図8は、本実施例に係る情報処理装置の構成を示す機能ブロック図である。図8に示すように、この情報処理装置100は、通信部110、入力部120、表示部130、記憶部140、制御部150を有する。
通信部110は、図1に示したセンサ11から距離画像のデータを受信する処理部である。通信部110は、受信した距離画像のデータを、制御部150に出力する。通信部110は、通信装置の一例である。
入力部120は、各種の情報を情報処理装置100に入力する入力装置である。入力部120は、キーボードやマウス、タッチパネル等に対応する。たとえば、ユーザは、入力部120を操作して、表示画面の表示要求等を行う。
表示部130は、制御部150から出力される情報を表示する表示装置である。たとえば、表示部130は、各種競技の技認定、採点結果等を表示する。表示部130は、液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ、タッチパネル等に対応する。
記憶部140は、背景画像テーブル141と、測定テーブル142と、センサパラメータ143とを有する。記憶部140は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
背景画像テーブル141は、被写体1が存在しない状態で、各センサ11a~11dによってそれぞれ測定された背景画像のデータ(距離画像のデータ)を格納するテーブルである。
測定テーブル142は、被写体1が存在している状態で、各センサ11a~11dによってそれぞれ測定された距離画像のデータを格納するテーブルである。
センサパラメータ143は、各センサ11a~11dのパラメータをそれぞれ有するものである。たとえば、センサパラメータ143は、x軸、y軸の画角θx、θy、x軸、y軸の焦点距離fx、fyを含む。また、センサパラメータ143は、width、heighを含む。
図9は、x軸方向の焦点距離fxを説明するための図である。図9は、センサ11を上方から見た場合を示す。たとえば、焦点距離fxと、画角θxとの関係は、式(1)によって示される。式(1)において、widthは、予め設定される横幅であり、後述する2.5D画像の横方向(i軸方向)の画素数に対応する。
fx=width/(2*tan(θx/2))・・・(1)
図10は、y軸方向の焦点距離fyを説明するための図である。図10は、センサ11を横方向から見た場合を示す。たとえば、焦点距離fyと、画角θyとの関係は、式(2)によって示される。式(2)において、heighは、予め設定される高さであり、後述する2.5D画像の縦方向(j軸方向)の画素数に対応する。
fy=height/(2*tan(θy/2))・・・(2)
図8の説明に戻る。制御部150は、取得部151、補正処理部152、フィッティング処理部153、評価部154を有する。制御部150は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジック等によって実現される。
取得部151は、通信部110を介して、センサ11から、距離画像のデータを取得する処理部である。取得部151は、距離画像のデータを、測定テーブル142に格納する。取得部151は、測定テーブル142に距離画像のデータを格納する場合、センサ11a~11dに測定された距離画像のデータを、それぞれ識別可能に分けて、測定テーブル142に格納する。
補正処理部152は、図2のステップS10で説明した背景差分、ステップS11で説明した補正処理を実行する処理部である。
図11は、補正処理部の一例を示す図である。図11に示すように、この補正処理部152は、生成部152a、特定部152b、補正部152c、出力制御部152dを有する。
ここで、補正処理部152は、センサ11a~11dに測定された各距離画像に対して補正処理を実行するが、説明の便宜上、センサ11aに測定された距離画像を補正する場合について説明する。センサ11b~11dに測定された各距離画像を補正する処理は、センサ11aに測定された距離画像を補正する処理と同様である。
生成部152aは、図3で説明したように、センサ11aが測定した距離画像12Aと、センサ11aに対応する背景画像12Bとの差分となる距離画像12Cを算出する処理部である。生成部152aは、距離画像12Aのデータを、測定テーブル142から取得する。生成部152aは、背景画像12Bのデータを、背景画像テーブル141から取得する。
距離画像12Cのデータは、点群に含まれる点と距離との関係をそれぞれ示すデータである。生成部152aは、距離と、3次元座標との関係を定義した変換テーブル(図示略)を用いて、距離画像12Cのデータを、3次元点群データに変換する。3次元点群データは、点群に含まれる点と、3次元座標とをそれぞれ対応付けるものである。生成部152aは、3次元点群データを、特定部152bに出力する。3次元点群データは「測定データ」に対応する。
生成部152aは、センサ11aが測定した距離画像12Aのデータが、測定テーブル142に格納される度に、上記処理を繰り返し実行する。
特定部152bは、3次元点群データを基にして、2.5D画像を生成し、2.5D画像に含まれる画素のうち、被写体1の輪郭の点群に相当する複数の第1画素を特定する処理部である。2.5D画像は「距離画像」に対応する。
まず、特定部152bが、2.5D画像を生成する処理の一例について説明する。図12は、2.5D画像を生成する処理を説明するための図である。図12に示すように、特定部152bは、3次元点群データ30aの各点を、2次元(i軸、j軸)の2.5D画像30bの各画素にマッピングする。2.5D画像30bの画素には、対応する点のz軸の値が設定される。図12では、3次元点群データ30aに含まれる一部の点群の図示を省略する。
たとえば、点31aに対応する画素は、画素31bであり、画素31bには、点31aのz軸の値が設定される。以下の説明では、z軸の値を適宜「距離値」と表記する。2.5D画像の位置(i、j)に対応する距離値Zを式(3)によって定義する。iの値の範囲は「0~width」となる。jの値の範囲は「0~height」となる。
depth[i][j]=Z・・・(3)
続いて、特定部152bが、第1画素を特定する処理について説明する。図13は、第1画素を特定する処理を説明するための図である。特定部152bは、2.5D画像30bを走査し、2.5D画像30bに含まれる距離値が設定された複数の画素の内、輪郭部分31cを抽出する。輪郭部分31cに含まれる画素が「第1画素」に対応する。輪郭部分の幅は、予め定数として与えておいてもよい。
特定部152bは、2.5D画像30bのデータと、輪郭部分31cのデータとを、補正部152cに出力する。特定部152bは、3次元点群データ30aの各点と、2.5D画像30bの各画素とを対応付けたデータを、補正部152cに出力する。
特定部152bは、生成部152aから、3次元点群データを取得する度に、上記処理を繰り返し実行する。
補正部152cは、2.5D画像に含まれる画素のうち、第1画素から所定範囲に含まれる複数の第2画素を特定し、複数の第1画素に相当する第1点群の第1座標情報を、複数の第2画素に相当する第2点群の第2座標情報で補正する処理部である。たとえば、補正部152cは、焦点距離fx、fyを算出する処理、距離ix、iyを算出する処理、補正する処理を順に実行する。
焦点距離fx、fyを算出する処理について説明する。補正部152cは、センサパラメータ143に格納された画角θxと、widthと、式(1)とを基にして、焦点距離fxを算出する。補正部152cは、センサパラメータ143に格納された画角θyと、heightと、式(2)とを基にして、焦点距離fyを算出する。
なお、焦点距離fx、fyは、予め算出されていてもよく、予め算出された焦点距離fx、fyが、センサパラメータ143に含まれていてもよい。焦点距離fx、fyが予め算出されている場合には、補正部152cは、焦点距離fx、fyを算出する処理をスキップする。
続いて、距離ix、iyを算出する処理について説明する。ここで、距離ixは、2.5D画像のi軸の1画素の距離を示す。距離iyは、2.5D画像のj軸の1画素の距離を示す。
補正部152cは、式(4)、式(5)を基にして、距離ixを算出する。図14は、距離ixの算出に用いられるwおよびzの関係を示す図である。wは、センサ11が測定可能な3次元空間の幅を示す。zは、センサ11が測定可能な3次元空間の奥行きを示す。zの値は、予め設定されていてもよい。
w=2×tan(θx/2)/z・・・(4)
ix=w/width・・・(5)
補正部152cは、式(6)、式(7)を基にして、距離iyを算出する。図15は、距離iyの算出に用いられるhおよびzの関係を示す図である。hは、センサ11が測定可能な3次元空間の高さを示す。zは、センサ11が測定可能な3次元空間の奥行きを示す。zの値は、予め設定されていてもよい。
h=2×tan(θx/2)/z・・・(6)
iy=w/height・・・(7)
続いて、補正する処理について説明する。図16は、補正する処理を説明するための図(1)である。補正部152cは、2.5D画像30bと、輪郭部分31cとを基にして、複数の第1画素のうち、一つの第1画素を「注目画素」として選択する。補正部152cは、注目画素を中心とする半径rx、ryに含まれる画素を特定する。半径rx、ryの値は、予め設定されているものとする。
2.5D画像30bの注目画素に対応する、3次元点群データ30aの点が、注目点となる。
図16に示す例では、注目画素を画素Aとする。半径rx、ryの値をそれぞれ「0.04m」とする。式(4)および式(5)によって算出される距離ixを「0.001m」とする。式(6)および式(7)によって算出される距離iyを「0.002m」とする。半径rx、ryの値は適宜変更可能である。たとえば、半径rx、ryの値は「0.05m」であってもよい。
ここで、画素B、C、D、Eのi軸方向の距離をそれぞれ加算した値が、半径rx「0.04m」となる。また、画素F、画素Gのj軸方向の距離をそれぞれ加算した値が、半径ry「0.004m」となる。このため、補正部152cは、画素Aを中心とした半径rx、ryの範囲31dを設定する。範囲31dに含まれる画素を周辺画素とする。周辺画素に対応する、3次元点群データの点を、周辺点とする。
補正部152cは、周辺画素のうち、非輪郭部分の複数の画素を特定する。図17は、補正する処理を説明するための図(2)である。図17において、範囲31dに含まれる画素のうち、非輪郭部分の複数の画素は、範囲31eに含まれる画素となる。
補正部152cは、画素Aに対応する点の3次元座標を、非輪郭部分の複数の画素に対応する3次元座標を基にして補正する。ここで、画素Aに対応する点(注目点)の補正前の3次元座標を「pc[A].x、pc[A].y、pc[A].z」とする。画素Aに対応する点(注目点)の補正後の3次元座標を「pc[A].x’、pc[A].y’、pc[A].z’」とする。
補正部152cは、非輪郭部分の複数の画素に対応するz軸の値の絶対値をそれぞれ特定し、特定した絶対値のうち、最小となる絶対値を、pc[A].z’の値に設定する。または、補正部152cは、非輪郭部分の複数の画素に対応するz軸の値の平均値を算出し、算出した平均値を、pc[A].z’の値に設定する。
補正部152cは、pc[A].z’と、pc[A].zとの比を基にして、pc[A].x’およびpc[A].y’を算出する。たとえば、補正部152cは、式(8)を基にして、pc[A].x’を算出する。補正部152cは、式(9)を基にして、pc[A].y’を算出する。
pc[A].x’=pc[A].x×pc[A].z/pc[A].z’・・・(8)
pc[A].y’=pc[A].y×pc[A].z/pc[A].z’・・・(9)
補正部152cは、複数の第1画素のうち、注目画素として未選択の第1画素を選択して、上記処理を繰り返し実行することで、輪郭部分31cに含まれる複数の第1画素に対応する注目点の3次元座標を補正する処理を繰り返し実行する。係る補正部152cの処理によって、3次元点群データ30aに含まれるエッジノイズの3次元座標が補正される。補正部152cは、3次元座標を補正した3次元点群データ30aを、出力制御部152dに出力する。
図18は、補正前の点と補正後の点との関係を説明するための図である。図18の左側の図は、点を上方から見た図である。図18の右側の図は、点を横方向から見た図である。補正前の点を点Aとする。補正後の点を点Cとする。Z軸の値のみ補正した点を点Bとする。Oは、センサ11の位置である。点A、B、Cの座標は、下記に示すものとなる。
A=(x、y、z)
B=(x、y、z’)
C=(x’、y’、z’)
点AのZ軸の値のみを補正した点Bは、センサ位置Oと、点Aとの直線OA上の存在していないので、適切な位置に補正されていない。点Bは、直線OA上に存在する点Cの位置に補正することが正しい。
三角形ABCと三角形OCDの相似の関係から、式(10)、式(11)、式(12)がそれぞれ導かれる。式(12)は、式(8)に対応するものである。
x:z=x’:z’・・・(10)
z×x’=x×z’・・・(11)
x’=x×z’/z・・・(12)
三角形ABCと三角形OCDの相似の関係から、式(13)、式(14)、式(15)がそれぞれ導かれる。式(15)は、式(9)に対応するものである。
y:z=y’:z’・・・(13)
z×y’=y×z’・・・(14)
y’=y×z’/z・・・(15)
出力制御部152dは、補正部152cから取得する補正された3次元点群データを、フィッティング処理部153に出力する処理部である。
ところで、上記の特定部152bが、補正部152cによって補正された3次元点群データを基にして、再度、2.5D画像を生成して輪郭部分に含まれる第1画素を特定し、補正部152cが、第1画素を再度補正する処理を、L回繰り返し実行してもよい。Lは予め設定される。
図8の説明に戻る。フィッティング処理部153は、図2のS12~S15で説明した2.5D変換、認識処理、点群統合、骨格認識、点群クラスタリング、フィッティングをそれぞれ実行する処理部である。フィッティング処理部153は、骨格モデル24を、評価部154に出力する。フィッティング処理部153は、出力制御部152dから、補正された3次元点群データを取得する度に、上記処理を繰り返し実行し、骨格モデル24を出力する。
評価部154は、時系列に骨格モデル24を取得し、骨格モデルの各関節座標の遷移を基にして、被写体1の演技を評価する処理部である。たとえば、評価部154は、各関節座標の遷移と、技の種別、技の成立不成立を定義したテーブルを用いて、被写体1の演技を評価し、評価結果を表示部130に出力して表示させる。
なお、評価部154が実行する技の評価は、各種の採点競技に適用可能である。採点競技には、体操演技の他に、トランポリン、水泳の飛び込み、フィギュアスケート、空手の型、社交ダンス、スノーボード、スケートボード、スキーエアリアル、サーフィンを含む。また、クラシックバレエ、スキージャンプ、モーグルのエアー、ターン、野球、バスケットボールのフォームチェック等にも適用してもよい。また、剣道、柔道、レスリング、相撲などの競技にも適用してもよい。更に、ウェイトリフティングのバーベルが上がったか否かの評価にも用いることができる。
次に、本実施例に係る情報処理装置100に含まれる、補正処理部152の処理手順の一例について説明する。図19、図20は、本実施例に係る補正処理部の処理手順を示すフローチャートである。図19について説明する。補正処理部152の生成部152aは、測定テーブル142から、距離画像のデータを取得する(ステップS101)。
生成部152aは、距離画像と背景画像との差分を算出し、距離画像(差分画像)のデータを生成する(ステップS102)。生成部152aは、距離画像(差分画像)のデータを、3次元点群データに変換する(ステップS103)。
補正処理部152の特定部152bは、3次元点群データをマッピングすることで、2.5D画像のデータを生成する(ステップS104)。補正処理部152は、ステップS105からステップS121までの処理を、L回繰り返し実行する。
特定部152bは、2.5D画像のデータに対して輪郭抽出を適用する(ステップS106)。補正処理部152の補正部152cは、輪郭部分の注目画素を設定する(ステップS107)。補正部152cは、x軸、y軸それぞれの画角θx、θyから、焦点距離fx、fyを算出する(ステップS108)。補正部152cは、2.5D画素の1画素あたりのx軸、y軸の距離ix、iyを算出する(ステップS109)。
補正部152cは、全注目点に対して、ステップS110からステップS120までの処理を繰り返し実行する。補正部152cは、2.5D画像上の注目画素を基準とする半径rx、ryの矩形に含まれる画素を、周辺画素として抽出し(ステップS111)、図20のステップS112の処理に移行する。
図20の説明に移行する。補正部152cは、全周画素に対して、ステップS112からステップS116までの処理を繰り返し実行する。補正部152cは、周辺画素の属性(輪郭、非輪郭)を特定する(ステップS113)。
補正部152cは、周辺画素の属性(輪郭、非輪郭)を特定する(ステップS113)。補正部152cは、周辺画素の属性が輪郭である場合には(ステップS114,Yes)、ステップS116に移行する。
一方、補正部152cは、周辺画素の属性が輪郭でない場合には(ステップS114,No)、周辺画素のz軸の値をバッファ(図示略)に登録する(ステップS115)。
補正部152cは、バッファ(図示略)に登録された周辺画素(属性=非輪郭)のz軸の各値を基にして、絶対値の最小値または平均値を算出する(ステップS117)。補正部152cは、算出結果(絶対値の最小値または平均値)を基にして、注目点のzの値を補正する(ステップS118)。
補正部152cは、z軸の補正結果を基にして、注目点のx軸の値と、y軸の値とを補正する(ステップS119)。補正処理部152の出力制御部152dは、補正した3次元点群データを、フィッティング処理部153に出力する(ステップS122)。
次に、本実施例に係る情報処理装置100の効果について説明する。情報処理装置100は、2.5D画像において、輪郭に相当する複数の第1画素を特定し、2.5D画像に含まれる画素のうち、第1画素から所定範囲に含まれる複数の第2画素を特定する。情報処理装置100は、複数の第1画素に相当する第1点群の3次元座標を、複数の第2画素に相当する第2点群の3次元座標で補正する。これによって、センサが測定した3次元点群のノイズのうち、エッジノイズ相当の点については、被写体の輪郭の点として残すことができる。
また、3次元点群のノイズのうち、エッジノイズ相当の点を、被写体の輪郭の点として残すことができるので、補正された3次元点群データに対するフィッティングの精度を向上させることができる。
図21は、本実施例の効果を説明するための図である。図21の点群40aは、補正していない3次元点群データを示す。この点群40aに対して、フィッティングを実行した場合の骨格モデルは、骨格モデル41aとなる。骨格モデル41aは、ノイズ50aの影響によって、頭部や左腕の関節位置の精度が低下してしまう。
図21の点群40bは、たとえば、3次元点群データに対して、従来技術1によるノイズ除去を行った点群である。点群40bからは、ノイズ50aおよび点群50bが削除されている。ノイズ50aの除去は期待通りの除去である。しかし、点群50bは、被写体1の脚の部分に対応する点群であるため、被写体1の足の点群が消失している。このため、点群40bに対して、フィッティングを実行した場合の骨格モデルは、骨格モデル41bとなる。骨格モデル41bは、点群40bから足の点群が消失しているため、足の関節位置の精度が低下してしまう。
図21の点群40cは、たとえば、補正処理部152によって補正された後に、図2の点群クラスタリングによって、ノイズ除去された点群である。点群40bからは、点群50bが除去されず、ノイズ50aが除去されている。補正処理部152によって、被写体1の足の点群を残すことができる。このため、点群40cに対して、フィッティングを実行した場合の骨格モデルは、骨格モデル41cとなる。骨格モデル41cは、被写体1の各関節位置を精度よく再現している。
情報処理装置100は、2.5D画像に含まれる画素のうち、注目画素を基準とした半径rx、ryに含まれ、かつ、輪郭の点群に相当しない画素を、第2画素として特定する。情報処理装置100は、複数の第2画素のz軸の値を基にして、絶対値の最小値または平均値を算出し、算出した値によって、注目点の3次元座標(z軸の値)を補正する。これによって、エッジノイズのz軸の値を、被写体1の点群の座標に近づける補正を行うことができる。
情報処理装置100は、補正したz軸の値を基にして、注目点の3次元座標(x軸の値、y座標の値)を補正する。これによって、補正後の注目点の3次元座標を、より適切な位置に補正することができる。
情報処理装置100は、特定部152bが、補正部152cによって補正された3次元点群データを基にして、再度、2.5D画像を生成して輪郭部分に含まれる第1画素を特定し、補正部152cが、第1画素を再度補正する処理を、L回繰り返し実行する。これによって、被写体1の周辺に存在するエッジノイズを補正することができる。
ところで、本実施例では、補正処理部152が輪郭抽出を行う場合に、2.5D画像30bに含まれる距離値が設定された複数の画素の内、最も外側の画素から2画素を、輪郭として抽出したが、これに限定されるものでは無く、3画素であってもよい。
次に、上記実施例に示した情報処理装置100と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図22は、情報処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図22に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203とを有する。また、コンピュータ200は、センサから測定結果を受信する通信装置204と、各種の装置と接続するインタフェース装置205とを有する。コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207とを有する。そして、各装置201~207は、バス208に接続される。
ハードディスク装置207は、取得プログラム207a、補正プログラム207b、フィッティング処理プログラム207c、評価プログラム207dを有する。CPU201は、取得プログラム207a、補正プログラム207b、フィッティング処理プログラム207c、評価プログラム207dを読み出してRAM206に展開する。
取得プログラム207aは、取得プロセス206aとして機能する。補正プログラム207bは、補正プロセス206bとして機能する。フィッティング処理プログラム207cは、フィッティング処理プロセス206cとして機能する。評価プログラム207dは、評価プロセス206dとして機能する。
取得プロセス206aの処理は、取得部151の処理に対応する。補正プロセス206bの処理は、補正処理部152の処理に対応する。補正処理部152は、生成部152a、特定部152b、補正部152c、出力制御部152dを含む。評価プロセス206aの処理は、評価部207dの処理に対応する。
なお、各プログラム207a~207dについては、必ずしも最初からハードディスク装置207に記憶させておかなくてもよい。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200が各プログラム207a~207dを読み出して実行するようにしてもよい。
10、11a,11b,11c,11d センサ
100 情報処理装置
110 通信部
120 入力部
130 表示部
140 記憶部
141 背景画像テーブル
142 測定テーブル
143 センサパラメータ
150 制御部
151 取得部
152 補正処理部
152a 生成部
152b 特定部
152c 補正部
152d 出力制御部
153 フィッティング処理部
154 評価部

Claims (7)

  1. コンピュータが実行する補正方法であって、
    3Dセンサの測定データを基にして、距離画像を生成し、
    前記距離画像に含まれる画素のうち、被写体の輪郭の点群に相当する複数の第1画素を特定し、
    前記距離画像に含まれる画素のうち、前記複数の第1画素から所定範囲に含まれる複数の第2画素を特定し、
    前記測定データにおいて前記複数の第1画素に相当する第1点群の第1座標情報の値を、前記複数の第2画素に相当する第2点群の第2座標情報の値に近づけることで、前記第1座標情報を補正し、
    前記第1座標情報を補正した第1点群を含む前記被写体を構成する点群の座標情報を出力する
    処理を実行することを特徴とする補正方法。
  2. 前記第2画素を特定する処理は、前記距離画像に含まれる画素のうち、前記複数の第1画素から所定範囲内に含まれ、かつ、前記輪郭の点群に相当しない画素を、前記第2画素として特定することを特徴とする請求項1に記載の補正方法。
  3. 前記補正する処理は、前記第2座標情報の絶対値のうちの最小値、または、前記第2座標情報の平均値を基にして、前記第1座標情報を補正することを特徴とする請求項2に記載の補正方法。
  4. 前記補正する処理は、前記第1座標情報に含まれる3次元直交座標系の第1座標、第2座標、第3座標のうち、前記第3座標を補正し、補正前の前記第3座標と、補正後の前記第3座標との比に基づいて、前記第1座標および前記第2座標を更に補正することを特徴とする請求項3に記載の補正方法。
  5. 前記第1座標情報が補正される度に、前記被写体を構成する点群を基にして、前記距離画像を生成する処理、前記第1画素を特定する処理、前記第2画素を特定する処理、前記第1座標を補正する処理を繰り返し実行することを特徴とする請求項4に記載の補正方法。
  6. コンピュータに、
    3Dセンサの測定データを基にして、距離画像を生成し、
    前記距離画像に含まれる画素のうち、被写体の輪郭の点群に相当する複数の第1画素を特定し、
    前記距離画像に含まれる画素のうち、前記複数の第1画素から所定範囲に含まれる複数の第2画素を特定し、
    前記測定データにおいて前記複数の第1画素に相当する第1点群の第1座標情報の値を、前記複数の第2画素に相当する第2点群の第2座標情報の値に近づけることで、前記第1座標情報を補正し、
    前記第1座標情報を補正した第1点群を含む前記被写体を構成する点群の座標情報を出力する
    処理を実行させることを特徴とする補正プログラム。
  7. 3Dセンサと、情報処理装置とを有する情報処理システムであって、
    前記3Dセンサは、測定データを、前記情報処理装置に出力し、
    前記情報処理装置は、
    前記3Dセンサから受け付けた前記測定データを基にして、距離画像を生成し、前記距離画像に含まれる画素のうち、被写体の輪郭の点群に相当する複数の第1画素を特定する特定部と、
    前記測定データにおいて前記距離画像に含まれる画素のうち、前記複数の第1画素から所定範囲に含まれる複数の第2画素を特定し、前記複数の第1画素に相当する第1点群の第1座標情報の値を、前記複数の第2画素に相当する第2点群の第2座標情報の値に近づけることで、前記第1座標情報を補正する補正部と、
    前記第1座標情報を補正した第1点群を含む前記被写体を構成する点群の座標情報を出力する出力制御部と
    を有することを特徴とする情報処理システム。
JP2021550855A 2019-10-02 2019-10-02 補正方法、補正プログラムおよび情報処理システム Active JP7327494B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/038979 WO2021064912A1 (ja) 2019-10-02 2019-10-02 補正方法、補正プログラムおよび情報処理システム

Publications (3)

Publication Number Publication Date
JPWO2021064912A1 JPWO2021064912A1 (ja) 2021-04-08
JPWO2021064912A5 JPWO2021064912A5 (ja) 2022-04-22
JP7327494B2 true JP7327494B2 (ja) 2023-08-16

Family

ID=75337124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021550855A Active JP7327494B2 (ja) 2019-10-02 2019-10-02 補正方法、補正プログラムおよび情報処理システム

Country Status (5)

Country Link
US (1) US20220206156A1 (ja)
EP (1) EP4040103A4 (ja)
JP (1) JP7327494B2 (ja)
CN (1) CN114450550A (ja)
WO (1) WO2021064912A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11816855B2 (en) * 2020-02-11 2023-11-14 Samsung Electronics Co., Ltd. Array-based depth estimation
JP7319751B1 (ja) 2023-04-12 2023-08-02 株式会社Knowhere コンピュータ、プログラム、情報処理方法およびモデル生成方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102243A (ja) 2012-10-24 2014-06-05 Nikon Corp 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、及びそのプログラム
WO2018185807A1 (ja) 2017-04-03 2018-10-11 富士通株式会社 距離情報処理装置、距離情報処理方法および距離情報処理プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7801319B2 (en) * 2006-05-30 2010-09-21 Sonitus Medical, Inc. Methods and apparatus for processing audio signals
JP2010212788A (ja) * 2009-03-06 2010-09-24 Sharp Corp 撮像装置、欠陥画素補正方法、および電子情報機器
JP5560771B2 (ja) * 2010-02-26 2014-07-30 セイコーエプソン株式会社 画像補正装置、画像表示システム、画像補正方法
JP5533529B2 (ja) 2010-10-06 2014-06-25 コニカミノルタ株式会社 画像処理装置及び画像処理システム
US9426444B2 (en) * 2011-06-24 2016-08-23 Softkinetic Software Depth measurement quality enhancement
CN102324041B (zh) * 2011-09-09 2014-12-03 深圳泰山在线科技有限公司 像素归类方法、关节体姿态识别方法及鼠标指令生成方法
JP6874855B2 (ja) 2017-11-06 2021-05-19 富士通株式会社 算出方法、算出プログラムおよび情報処理装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102243A (ja) 2012-10-24 2014-06-05 Nikon Corp 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、及びそのプログラム
WO2018185807A1 (ja) 2017-04-03 2018-10-11 富士通株式会社 距離情報処理装置、距離情報処理方法および距離情報処理プログラム

Also Published As

Publication number Publication date
JPWO2021064912A1 (ja) 2021-04-08
EP4040103A4 (en) 2022-11-02
US20220206156A1 (en) 2022-06-30
EP4040103A1 (en) 2022-08-10
CN114450550A (zh) 2022-05-06
WO2021064912A1 (ja) 2021-04-08

Similar Documents

Publication Publication Date Title
CN105229666B (zh) 3d图像中的运动分析
US10175765B2 (en) Information processing device, information processing method, and computer program
US7974443B2 (en) Visual target tracking using model fitting and exemplar
US10839544B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable storage medium
JP7367764B2 (ja) 骨格認識方法、骨格認識プログラムおよび情報処理装置
JP2018532199A (ja) 眼の特徴を用いる眼ポーズ識別
KR101733116B1 (ko) 고속 스테레오 카메라를 이용한 구형 물체의 비행 정보 측정 시스템 및 방법
US8571303B2 (en) Stereo matching processing system, stereo matching processing method and recording medium
JP7164045B2 (ja) 骨格認識方法、骨格認識プログラムおよび骨格認識システム
US11170246B2 (en) Recognition processing device, recognition processing method, and program
US20220206156A1 (en) Correction method, non-transitory computer-readable storage medium for storing correction program, and information processing device
CN113724378B (zh) 三维建模方法和装置、计算机可读存储介质及计算机设备
JP2015184061A (ja) 抽出装置、方法及びプログラム
JP7024876B2 (ja) 検出装置、処理装置、検出方法、及び処理プログラム
WO2020013021A1 (ja) 検出装置、処理装置、検出方法、及び処理プログラム
CN114694263B (zh) 动作识别方法、装置、设备及存储介质
WO2022137450A1 (ja) 情報処理装置、情報処理方法およびプログラム
US9563816B2 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
JP7375829B2 (ja) 生成方法、生成プログラム及び情報処理システム
WO2023162223A1 (ja) 学習プログラム、生成プログラム、学習方法および生成方法
WO2021014587A1 (ja) 生成方法、生成プログラムおよび情報処理装置
CN114430800B (zh) 生成方法、记录介质和信息处理装置
JP6429240B2 (ja) 形状検出装置、形状検出方法、及びプログラム
KR20220041712A (ko) 라이다 기반 실시간 포인트 영상 처리와 디스플레이 방법 및 그 장치
JP2022138007A (ja) 骨格認識方法、骨格認識プログラムおよび体操採点支援システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230717

R150 Certificate of patent or registration of utility model

Ref document number: 7327494

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150