JP6872128B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP6872128B2
JP6872128B2 JP2017543143A JP2017543143A JP6872128B2 JP 6872128 B2 JP6872128 B2 JP 6872128B2 JP 2017543143 A JP2017543143 A JP 2017543143A JP 2017543143 A JP2017543143 A JP 2017543143A JP 6872128 B2 JP6872128 B2 JP 6872128B2
Authority
JP
Japan
Prior art keywords
image
unit
stereo
main
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017543143A
Other languages
English (en)
Other versions
JPWO2017057054A1 (ja
Inventor
貝野 彰彦
彰彦 貝野
辰吾 鶴見
辰吾 鶴見
江島 公志
公志 江島
嵩明 加藤
嵩明 加藤
福地 正樹
正樹 福地
辰起 柏谷
辰起 柏谷
俊一 本間
俊一 本間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2017057054A1 publication Critical patent/JPWO2017057054A1/ja
Application granted granted Critical
Publication of JP6872128B2 publication Critical patent/JP6872128B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/28Mobile studios
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関し、特に、例えば、自動車などの移動体に搭載して自己位置を推定する場合に用いて好適な情報処理装置、情報処理方法、およびプログラムに関する。
自動車などの移動体に搭載して自己位置を推定する技術としてSLAM(Simultaneous Localization and Mapping)が知られている。
ステレオカメラ等を用いたSLAMによる自己位置推定技術は以下の処理から構成される。すなわち、初めに、ステレオカメラにより撮像された視差の異なるステレオ画像対から特徴があるテクスチャ領域を検出し、テクスチャ領域から特徴点を検出して奥行推定を行う処理、すなわち、特徴点の3D座標を推定する処理が行われる。次に、得られた特徴点を複数フレームに亘ってトラッキングする処理、すなわち、特徴点の2D座標トラッキング処理が行われる。最後に、推定された特徴点の3D座標と、追跡された特徴点の2D座標の組み合わせを尤も適切に表現できるポーズ(自己位置と向き)を推定する処理、すなわち、6DOF(自由度6)の自己位置を推定する処理が行われる(例えば、特許文献1参照)。
特開2008−304268号公報
SLAMによる自己位置推定技術が上述した処理から構成されることにより、一般的には、ステレオカメラにより撮像された画像の大部分がテクスチャのない壁や床によって占められる場合、周辺環境(他の自動車や歩行者など)が動く場合、特徴点の3D座標の空間分布が偏る場合には自己位置推定が困難となる。
特に、屋外で使用される自動車などの移動体にSLAMによる自己位置推定技術を適用する場合には、以下のような問題が発生して自己位置の推定が困難となる事態が起こり得る。
すなわち、例えば、近くに特徴のある被写体が存在せず、遠方の建物がテクスチャとして検出される場合、テクスチャの時間変動が得られない。画像上において周辺環境が移動する場合、自己が動いているのか、周辺環境が動いているのかを区別することができない。自己(自動車)が高速に移動する場合、画面上から特徴点が消失してしまい、トラッキングが困難となる。
本開示はこのような状況に鑑みてなされたものであり、継続的に自己位置を推定できるようにするものである。
本開示の一側面である情報処理装置は、移動体に搭載されたステレオカメラから構成され、所定のフレームレートで動画像を撮像することにより時系列のステレオ主画像対を出力する主撮像部と、前記主撮像部とは撮像方向が異なるように前記移動体に搭載され、所定のフレームレートで動画像を撮像することにより時系列の副画像を出力する1または複数の副撮像部と、前記主撮像部によって撮像されたステレオ主画像対から検出した特徴点の3D座標と、前記特徴点を前記副画像の複数フレームに亘ってトラッキングすることによって得られた、前記特徴点の前記ステレオ主画像対における2D座標とに基づいて前記移動体のポーズを推定する最終ポーズ決定部とを備える。
前記副撮像部は、広角カメラ、魚眼カメラ、または全方位カメラから構成され、所定のフレームレートで動画像を撮像することにより、時系列の前記副画像を出力することができ、前記最終ポーズ決定部は、前記主撮像部によって撮像された前記ステレオ主画像対から検出した特徴点の3D座標を推定する3D推定部と、前記特徴点を前記副画像の複数フレームに亘ってトラッキングし、トラッキング結果を前記ステレオ主画像対における2D座標に変換する2Dトラッキング部と、前記3D推定部によって推定された前記特徴点の3D座標と、前記2Dトラッキング部によって変換された前記特徴点の前記ステレオ主画像対における2D座標とに基づいて最終ポーズを推定するポーズ推定部とを有することができる。
前記3D推定部は、前記主撮像部によって撮像された前記ステレオ主画像対から検出した特徴点の3D座標を推定するとともに、前記特徴点の前記副画像における2D座標を推定することができ、前記2Dトラッキング部は、前記3D推定部によって推定された前記特徴点の前記副画像における2D座標に基づき、前記特徴点を前記副画像の複数フレームに亘ってトラッキングし、トラッキング結果を前記ステレオ主画像対における2D座標に変換することができる。
複数の前記副撮像部は、前記3D推定部による前記特徴点の前記副画像における2D座標推定結果に基づき、選択的に切り替えられて撮像を行うことができる。
本開示の一側面である情報処理方法は、情報処理装置による情報処理方法において、前記情報処理装置による、移動体に搭載されたステレオカメラから構成され、所定のフレームレートで動画像を撮像することにより時系列のステレオ主画像対を出力する主撮像部によって撮像された前記ステレオ主画像対から検出した特徴点の3D座標と、前記主撮像部とは撮像方向が異なるように前記移動体に搭載され、所定のフレームレートで動画像を撮像することにより時系列の副画像を出力する1または複数の副撮像部によって撮像された前記副画像の複数フレームに亘って前記特徴点をトラッキングすることによって得られた、前記特徴点の前記ステレオ主画像対における2D座標とに基づいて前記移動体のポーズを推定する最終ポーズ決定ステップを含む。
本開示の一側面であるプログラムは、情報処理装置の制御用のプログラムにおいて、移動体に搭載されたステレオカメラから構成され、所定のフレームレートで動画像を撮像することにより時系列のステレオ主画像対を出力する主撮像部によって撮像された前記ステレオ主画像対から検出した特徴点の3D座標と、前記主撮像部とは撮像方向が異なるように前記移動体に搭載され、所定のフレームレートで動画像を撮像することにより時系列の副画像を出力する1または複数の副撮像部によって撮像された前記副画像の複数フレームに亘って前記特徴点をトラッキングすることによって得られた、前記特徴点の前記ステレオ主画像対における2D座標とに基づいて前記移動体のポーズを推定する最終ポーズ決定ステップを含む処理を情報処理装置のコンピュータに実行させる。
本開示の一側面においては、移動体に搭載されたステレオカメラから構成され、所定のフレームレートで動画像を撮像することにより時系列のステレオ主画像対を出力する主撮像部によって撮像された前記ステレオ主画像対から検出した特徴点の3D座標と、前記主撮像部とは撮像方向が異なるように前記移動体に搭載され、所定のフレームレートで動画像を撮像することにより時系列の副画像を出力する1または複数の副撮像部によって撮像された前記副画像の複数フレームに亘って前記特徴点をトラッキングすることによって得られた、前記特徴点の前記ステレオ主画像対における2D座標とに基づいて前記移動体のポーズが推定される。
本開示の一側面によれば、継続的に自己位置を推定することができる。
本開示を適用した情報処理装置の第1の構成例を示すブロック図である。 図1の第1乃至第4の撮像部の自動車における配置例を示す図である。 情報処理装置の第1の構成例による最終ポーズ決定処理を説明するフローチャートである。 本開示を適用した情報処理装置の第2の構成例を示すブロック図である。 図4の第1乃至第3の撮像部の自動車における配置例を示す図である。 第1乃至第3の撮像部の代わりに全方位カメラを配置した例を示す図である。 第1乃至第3の撮像部の代わりに下向きカメラを配置した例を示す図である。 情報処理装置の第2の構成例による最終ポーズ決定処理を説明するフローチャートである。 本開示を適用した情報処理装置をヘッドマウントディスプレイに搭載した場合の概念図である。 本開示を適用した情報処理装置を自立型掃除ロボットに搭載した場合の概念図である。 本開示を適用した情報処理装置をドローン(自律型無人飛行機)に搭載した場合の概念図である。 本開示を適用した情報処理装置を3Dモデルや任意視点映像などの作成に応用する場合の概念図である。 汎用のコンピュータの構成例を示すブロック図である。
以下、本開示を実施するための最良の形態(以下、実施の形態と称する)について、図面を参照しながら詳細に説明する。以下においては、本開示の実施の形態である情報処理装置は、屋外で使用される自動車に搭載して使用することを想定して説明する。
<本開示を適用した情報処理装置の第1の構成例>
図1は、本開示を適用した情報処理装置の第1の構成例を示している。
該第1の構成例は、第1の撮像部11−1乃至第4の撮像部11−4、SLAM処理部12−1乃至12−4、および統合部13から構成される。
第1の撮像部11−1は、高解像度ステレオカメラから構成されており、所定のフレームレートで動画像を撮像し、その結果得られる視差が異なるステレオ画像対をSLAM処理部12−1に供給する。第2の撮像部11−2乃至第4の撮像部11−4についても第1の撮像部11−1と同様に構成される。なお、ステレオカメラの代わりに、1台のカメラと被写体までの距離(3D座標)を測定できる偏光センサ、アクティブ系センサ(ToFセンサ、SLセンサなど)を用いてもよい。
図2は、第1の撮像部11−1乃至第4の撮像部11−4の自動車における配置例を示しており、同図Aは側面図を示しており、同図Bは上面図を示している。
第1の撮像部11−1乃至第4の撮像部11−4は、それぞれ異なる方向を撮像範囲とするように配置される。同図の場合、第1の撮像部11−1は、前方を撮像範囲とするように、自動車の前側に配置されている。第2の撮像部11−2は、右側方を撮像範囲とするように、自動車の右側に配置されている。第3の撮像部11−3は、左側方を撮像範囲とするように、自動車の左側面に配置されている。第4の撮像部11−4は、後方を撮像範囲とするように、自動車の後側に配置されている。
なお、第1の撮像部11−1乃至第4の撮像部11−4の配置は、図2の配置例に限定されるものではなく、複数の高解像度ステレオカメラによって自動車の周囲を撮像できるようにすればよい。また、図示は省略するが、路面を撮像範囲とするように、自動車の下部に第2の撮像部11−2乃至第4の撮像部11−4のいずれかを配置するようにしてもよい。
図1に戻る。SLAM処理部12−1は、第1の撮像部11−1から順次所定のフレームレートで供給される、視差が異なるステレオ画像対を対象としてSLAM処理を行い、その結果えられるポーズとその信頼度を統合部13に出力する。ここで、ポーズとは、6DOFの自己位置である。信頼度は、有効な特徴点の数、特徴点の3次元空間分布、直前に得られた最終ポーズとの差分、または、推定における最適化演算における残差のうちの少なくとも一つを含むものとする。
SLAM処理部12−2乃至12−4についてもSLAM処理部12−1と同様、前段から順次所定のフレームレートで供給される、視差が異なるステレオ画像対を対象としてSLAM処理を行い、その結果得られるポーズとその信頼度を統合部13に出力する。
なお、SLAM処理部12−1乃至12−4が行うSLAM処理の一部または全部を、いわゆるクラウド上のサーバに実行させるようにしてもよい。
統合部13は、SLAM処理部12−1乃至12−4から入力されるポーズを、その信頼度に基づいて統合して最終的なポーズを決定する。具体的には、SLAM処理部12−1乃至12−4から入力されるポーズをその信頼度に基づいて重み付け平均したり、信頼度が最も高いポーズを採用したり、SLAM処理部12−1乃至12−4から入力されるポーズを、その信頼度に基づくカルマンフィルタ(Kalman Filter)によって統合したりして最終的なポーズを決定する。
<情報処理装置の第1の構成例による最終ポーズ決定処理>
次に、図3は、情報処理装置の第1の構成例による最終ポーズ決定処理を説明するフローチャートである。
以下、第1の撮像部11−1乃至第4の撮像部11−4のそれぞれに対応するSLAM処理部12−1乃至12−4の組み合わせをそれぞれステレオカメラ系と称する。また、第1の撮像部11−1乃至第4の撮像部11−4を個々に区別する必要が無い場合には撮像部11と称し、SLAM処理部12−1乃至12−4を個々に区別する必要が無い場合にはSLAM処理部12と称する。
ステップS1において、各ステレオカメラ系の撮像部11によって所定のフレームレートで動画像の撮像を開始し、その結果得られる視差が異なるステレオ画像対を対象としてSLAM処理部12に供給する。
ステップS2において、各ステレオカメラ系のSLAM処理部12は、前段の撮像部11から順次所定のフレームレートで供給される、視差が異なるステレオ画像対を対象としてSLAM処理を行い、ステップS3において、その結果えられるポーズとその信頼度を統合部13に出力する。
ステップS4において、統合部13は、各ステレオカメラ系のSLAM処理部12から入力されるポーズを、その信頼度に基づいて統合して最終的なポーズを決定する。具体的には、上述した3種類の統合方法のいずれを採用してもよい。
以上に説明した最終ポーズ決定処理によれば、全てのステレオカメラ系で自己位置が推定され、その結果が統合されるので、仮に1つのステレオカメラ系で自己位置推定ができなかったり、誤差が有ったりしても、継続的に最終的なポーズを推定することができる。
なお、ステレオカメラ系の数は4に限らず、2以上であればよい。当然ながら、その数が増えれば、最終的なポーズの正確性を高めることができる。
<本開示を適用した情報処理装置の第2の構成例>
図4は、本開示を適用した情報処理装置の第2の構成例を示している。
該第2の構成例は、大別して3D推定部21、2Dトラッキング部27、およびポーズ推定部31から構成される。
3D推定部21は、ステレオ撮像部22、特徴点検出部23、奥行推定部24、座標変換部25および保持部26を有する。
ステレオ撮像部22は、自動車の前方を撮像する高解像度ステレオカメラから構成されており、所定のフレームレートで動画像を撮像し、その結果得られる視差が異なるステレオ画像対を特徴点検出部23に供給する。
特徴点検出部23は、ステレオ撮像部22から供給されるステレオ画像対から特徴があるテクスチャ領域を検出し、テクスチャ領域から1以上の特徴点を検出して、検出結果を示す2D特徴点群@cam0を奥行推定部24に出力する。
奥行推定部24は、ステレオ画像対における特徴点の奥行推定を行う処理、すなわち、特徴点の3D座標を推定する処理を行い、処理結果を示す3D特徴点群@cam0を座標変換部25および保持部26に出力する。
座標変換部25は、奥行推定部24から得られる3D特徴点群@cam0に基づき、ステレオ画像対における特徴点の、第1の撮像部28−1(後述)によって撮像される第1の画像における2D座標を推定し、その結果得られる推定2D特徴点群@cam[1]を保持部26に出力する。また、座標変換部25は、奥行推定部24から得られる3D特徴点群@cam0に基づき、ステレオ画像対における特徴点の、第2の撮像部28−2(後述)によって撮像される第2の画像における2D座標を推定し、その結果得られる推定2D特徴点群@cam[2]を保持部26に出力する。さらに、座標変換部25は、奥行推定部24から得られる3D特徴点群@cam0に基づき、ステレオ画像対における特徴点の、第3の撮像部28−3(後述)によって撮像される第3の画像における2D座標を推定し、その結果得られる推定2D特徴点群@cam[3]を保持部26に出力する。
保持部26は、奥行推定部24から入力される3D特徴点群@cam0と、座標変換部25から入力される推定2D特徴点群@cam[i](i=1,2,3)を保持する。
2Dトラッキング部27は、第1の撮像部28−1乃至第3の撮像部28−3、トラッキング部29−1乃至29−3、および座標変換部30−1乃至30−3を有する。
第1の撮像部28−1は、広角カメラまたは魚眼カメラなどの撮像範囲が広いカメラから成り、所定のフレームレートで動画像を撮像し、その結果得られる第1の画像をトラッキング部29−1に供給する。同様に、第2の撮像部28−2は、第2の画像をトラッキング部29−2に供給し、第3の撮像部28−3は、第3の画像をトラッキング部29−3に供給する。上述したように、第1の撮像部28−1乃至第3の撮像部28−3は、視差に基づくキャリブレーションなどが必須となるステレオカメラではなく、それぞれが1台の広角カメラなどで構成することができるので、ステレオカメラを用いた場合に比較して、低コスト化を実現でき、キャリブレーションの手間を省くことができる。
なお、第1の撮像部28−1乃至第3の撮像部28−3から得られる第1乃至第3の画像から有効なテクスチャ範囲を選定し、ステレオ撮像部22を構成する高解像度ステレオカメラの向きやズーム率を制御するようにしてもよい。
図5は、第1の撮像部28−1乃至第3の撮像部28−3の自動車における配置例を示している。
同図に示されるように、第1の撮像部28−1は、例えば、自動車の左側を撮像範囲とする位置に取り付けられる。第2の撮像部28−2は、例えば、自動車の右側を撮像範囲とする位置に取り付けられる。第3の撮像部28−3は、例えば、自動車の後方を撮像範囲とする位置に取り付けられる。
なお、第1の撮像部28−1乃至第3の撮像部28−3の全てに対して同時に撮像を行わせるのではなく、第1の撮像部28−1乃至第3の撮像部28−3を選択的に切り替えて撮像させてもよい。具体的には、ステレオ画像対から検出された特徴点の空間分布(特に奥行方向の分布)が偏らないように選択したり、動きが有る周辺環境を撮像していないものを選択したり、特徴点として有効なテクスチャを撮像しているものを選択したりして撮像させるようにしてもよい。これにより、省電力化を図ることができる。
また、第1の撮像部28−1乃至第3の撮像部28−3を設ける代わりに、図6に示されるように、周囲360度を撮像範囲とする全方位カメラ28を自動車の屋根などに配置してもよい。または、図7に示されるように、第1の撮像部28−1乃至第3の撮像部28−3を設ける代わりに、路面を撮像範囲とする下向きカメラ28を自動車の底部などに配置してもよい。
図4に戻る。トラッキング部29−1は、保持部26から推定2D特徴点群@cam[1]を取得し、取得した推定2D特徴点群@cam[1]に基づいて、ステレオ画像対から検出された特徴点を、第1の撮像部28−1から得られる第1の画像上でトラッキングし、その結果得られる2D特徴点群@cam[1]を座標変換部30−1に出力する。なお、ステレオ画像対から検出された特徴点のうち、第1の画像上に存在しない特徴点については、2D特徴点群@cam[1]から削除する。同様に、トラッキング部29−2は、2D特徴点群@cam[2]を座標変換部30−2に出力し、トラッキング部29−3は、2D特徴点群@cam[3]を座標変換部30−3に出力する。
座標変換部30−1は、トラッキング部29−1から入力された2D特徴点群@cam[1]に基づき、第1の画像上でトラッキングした特徴点の2D座標を、ステレオ画像対における2D座標に変換し、その結果得られる2D特徴点群@cam0-1をポーズ推定部31に出力する。同様に、座標変換部30−2はD特徴点群@cam0-2をポーズ推定部31に出力し、座標変換部30−3はD特徴点群@cam0-3をポーズ推定部31に出力する。
ポーズ推定部31は、保持部26から3D特徴点群@cam0を取得し、取得した3D特徴点群@cam0と、2D特徴点群@cam0-1乃至2D特徴点群@cam0-3に基づいて、3D座標と2D座標との組み合わせが尤も適切に表現できる最終ポーズ(6DOF)を推定する。
<情報処理装置の第2の構成例による最終ポーズ決定処理>
次に、図8は、情報処理装置の第2の構成例による最終ポーズ決定処理を説明するフローチャートである。
前提として、既にステレオ撮像部22は所定のフレームレートで動画像の撮像を開始しており、その結果得られるステレオ画像対を後段に出力しているものとする。
ステップS11において、3D推定部21の特徴点検出部23は、ステレオ画像対から特徴があるテクスチャ領域を検出し、テクスチャ領域から1以上の特徴点を検出して、検出結果を示す2D特徴点群@cam0を奥行推定部24に出力する。ステップS12において、奥行推定部24は、ステレオ画像対における特徴点の3D座標を推定し、その結果を示す3D特徴点群@cam0を座標変換部25および保持部26に出力する。
ステップS13において、座標変換部25は、3D特徴点群@cam0に基づき、ステレオ画像対における特徴点の、第1の乃至第3の画像における2D座標を推定し、その結果得られる推定2D特徴点群@cam[i](i=1,2,3)を保持部26に出力する。
この後、2Dトラッキング部27の第1の撮像部28−1乃至第3の撮像部28−3は、選択的に切り替えられて動画像の撮像を開始する。
ステップS14において、トラッキング部29−i(i=1,2,3)は、保持部26から推定2D特徴点群@cam[i]を取得し、取得した推定2D特徴点群@cam[i]に基づいて、ステレオ画像対から検出された特徴点を、前段から得られる第iの画像上でトラッキングすることによって2D特徴点群@cam[i]を得る。次に、ステップS15において、トラッキング部29−iは、第iの画像上でトラッキングできなかった特徴点の記録を2D特徴点群@cam[i]から削除して座標変換部30−iに出力する。
ステップS16において、座標変換部30−i(i=1,2,3)は、トラッキング部29−iから入力された2D特徴点群@cam[i]に基づき、第iの画像上にトラッキングした特徴点の2D座標を、ステレオ画像対における2D座標に変換し、その結果得られる2D特徴点群@cam0-iをポーズ推定部31に出力する。
ステップS17において、ポーズ推定部31は、保持部26から3D特徴点群@cam0を取得し、取得した3D特徴点群@cam0と、2D特徴点群@cam0-1乃至2D特徴点群@cam0-3に基づいて、3D座標と2D座標との組み合わせが尤も適切に表現できる最終ポーズ(6DOF)を推定する。
以上説明した情報処理装置の第2の構成例による最終ポーズ決定処理によれば、第1の撮像部28−1乃至第3の撮像部28−3のうちのいずれかが、具体的には、ステレオ画像対から検出された特徴点を継続的にトラッキングできるように、また、特徴点の空間分布が偏らないように、周辺環境に影響されない特徴点を検出できるように選択的に切り替えられるので、最終的なポーズを継続的に推定することが可能となる。
<本開示を適用した情報処理装置の応用例>
上述した実施の形態では、車載用途を想定していたが、情報処理装置の第1および第2の構成例は車載用途以外への応用も可能である。
図9は、情報処理装置の第2の構成例をHMD(ヘッドマウントディスプレイ)に搭載した場合の概念図を示している。
同図に示されるHMDを用いれば、ユーザの頭部の位置と姿勢を継続的に推定することができるので、動画再生やAR/VRアプリケーションにおいて、ユーザの状態に応じた映像を提示することが可能となる。
図10は、情報処理装置の第2の構成例を自律型掃除ロボットに搭載した場合の概念図を示している。図11は、情報処理装置の第2の構成例をドローン(自律型無人飛行機)に搭載した場合の概念図を示している。
図10に示される自律型掃除ロボットや図11に示されるドローンによれば、継続的に安定して自己のポーズを推定することができるので、安定した移動や飛行が可能となる。
図示は省略するが、該情報処理装置を小型して保護すべき野生動物などに取り付ければ、位置を継続的に推定できるので、それらの行動解析に資することが可能となる。
図12は、情報処理装置の第2の構成例を3Dモデルや任意視点映像の作成に応用する場合の概念図を示している。同図に示されるように、不動の被写体(同図の場合、建物)の周囲に各撮像部を配置すれば、各撮像部の位置と姿勢を推定できるので、各撮像部によって撮像された画像を用いて3Dモデルや任意視点映像を作成することができる。
ところで、上述した情報処理装置の第1および第2の構成例による一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図13は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
このコンピュータ100において、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、およびドライブ110が接続されている。
入力部106は、キーボード、マウス、マイクロフォンなどよりなる。出力部107は、ディスプレイ、スピーカなどよりなる。記憶部108は、ハードディスクや不揮発性のメモリなどよりなる。通信部109は、ネットワークインタフェースなどよりなる。ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア111を駆動する。
以上のように構成されるコンピュータ100では、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105およびバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
なお、コンピュータ100が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
本開示は以下のような構成も取ることができる。
(1)
移動体に搭載されたステレオカメラから構成され、所定のフレームレートで動画像を撮像することにより時系列のステレオ主画像対を出力する主撮像部と、
前記主撮像部とは撮像方向が異なるように前記移動体に搭載され、所定のフレームレートで動画像を撮像する1または複数の副撮像部と、
前記主撮像部によって撮像されたステレオ主画像対と、前記副撮像部によって撮像された副画像とに基づいて前記移動体のポーズを推定する最終ポーズ決定部と
を備える情報処理装置。
(2)
前記副撮像部は、ステレオカメラから構成され、所定のフレームレートで動画像を撮像することにより時系列のステレオ副画像対を出力し、
前記最終ポーズ決定部は、
前記主撮像部によって撮像された時系列のステレオ主画像対に基づいて前記移動体のポーズを推定する主推定部と、
前記副撮像部によって撮像された時系列のステレオ副画像対に基づいて前記移動体のポーズを推定する副推定部と、
前記主推定部によって推定されたポーズと、前記副推定部によって推定されたポーズとを統合することにより最終ポーズを決定する統合部とを有する
前記(1)に記載の情報処理装置。
(3)
前記主推定部は、前記ステレオ主画像対から検出した特徴点の3D座標と推定するとともに、前記特徴点を前記ステレオ主画像対の一方の複数フレームに亘ってトラッキングすることによって前記移動体のポーズを推定し、推定したポーズとその信頼度を前記統合部に出力し、
前記副推定部は、前記ステレオ副画像対から検出した特徴点の3D座標と推定するとともに、前記特徴点を前記ステレオ副画像対の一方の複数フレームに亘ってトラッキングすることによって前記移動体のポーズを推定し、推定したポーズとその信頼度を前記統合部に出力し、
前記統合部は、前記信頼度に基づいて、前記主推定部によって推定されたポーズと、前記副推定部によって推定されたポーズとを統合することにより最終ポーズを決定する
前記(2)に記載の情報処理装置。
(4)
前記信頼度は、前記ポーズを推定するに際して有効な前記特徴点の数、前記特徴点の3D空間分布、推定された前記ポーズと直近の最終ポーズとの差分、または、推定における最適化演算における残差のうちの少なくとも一つを含む
前記(3)に記載の情報処理装置。
(5)
前記副撮像部は、広角カメラ、魚眼カメラ、または全方位カメラから構成され、所定のフレームレートで動画像を撮像することにより、時系列の副画像を出力し、
前記最終ポーズ決定部は、
前記主撮像部によって撮像された前記ステレオ主画像対から検出した特徴点の3D座標を推定する3D推定部と、
前記特徴点を前記副画像の複数フレームに亘ってトラッキングし、トラッキング結果を前記ステレオ主画像対における2D座標に変換する2Dトラッキング部と、
3D推定部によって推定された前記特徴点の前記3D座標と、前記2Dトラッキング部によって変換された前記特徴点の前記ステレオ主画像対における2D座標とに基づいて最終ポーズを推定するポーズ推定部とを有する
前記(1)に記載の情報処理装置。
(6)
前記3D推定部は、前記主撮像部によって撮像された前記ステレオ主画像対から検出した特徴点の3D座標を推定するとともに、前記特徴点の前記副画像における2D座標を推定し、
前記2Dトラッキング部は、前記3D推定部によって推定された前記特徴点の前記副画像における前記2D座標に基づき、前記特徴点を前記副画像の複数フレームに亘ってトラッキングし、トラッキング結果を前記ステレオ主画像対における2D座標に変換する
前記(5)に記載の情報処理装置。
(7)
複数の前記副撮像部は、前記3D推定部による前記特徴点の前記副画像における前記2D座標に推定結果に基づき、選択的に切り替えられて撮像を行う
前記(5)または(6)に記載の情報処理装置。
(8)
情報処理装置による情報処理方法において、
前記情報処理装置による、
移動体に搭載されたステレオカメラから構成され、所定のフレームレートで動画像を撮像することにより時系列のステレオ主画像対を出力する主撮像部によって撮像されたステレオ主画像対と、前記主撮像部とは撮像方向が異なるように前記移動体に搭載され、所定のフレームレートで動画像を撮像する1または複数の副撮像部によって撮像された副画像とに基づいて前記移動体のポーズを推定する最終ポーズ決定ステップを
含む情報処理方法。
(9)
情報処理装置の制御用のプログラムにおいて、
移動体に搭載されたステレオカメラから構成され、所定のフレームレートで動画像を撮像することにより時系列のステレオ主画像対を出力する主撮像部によって撮像されたステレオ主画像対と、前記主撮像部とは撮像方向が異なるように前記移動体に搭載され、所定のフレームレートで動画像を撮像する1または複数の副撮像部によって撮像された副画像とに基づいて前記移動体のポーズを推定する最終ポーズ決定ステップを
含む処理を情報処理装置のコンピュータに実行させるプログラム。
11−1 第1の撮像部, 11−2 第2の撮像部, 11−3 第3の撮像部, 11−4 第4の撮像部, 12−1乃至12−4 SLAM処理部, 13 統合部, 21 3D推定部, 22 ステレオ撮像部, 23 特徴点検出部, 24 奥行推定部, 25 座標変換部, 26 保持部, 27 2Dトラッキング部, 28−1 第1の撮像部, 28−2 第2の撮像部, 28−3 第3の撮像部, 29−1乃至29−3 トラッキング部, 30−1乃至30−3 座標変換部, 31 ポーズ推定部, 100 コンピュータ, 101 CPU

Claims (6)

  1. 移動体に搭載されたステレオカメラから構成され、所定のフレームレートで動画像を撮像することにより時系列のステレオ主画像対を出力する主撮像部と、
    前記主撮像部とは撮像方向が異なるように前記移動体に搭載され、所定のフレームレートで動画像を撮像することにより時系列の副画像を出力する1または複数の副撮像部と、
    前記主撮像部によって撮像された前記ステレオ主画像対から検出した特徴点の3D座標と、前記特徴点を前記副画像の複数フレームに亘ってトラッキングすることによって得られた、前記特徴点の前記ステレオ主画像対における2D座標とに基づいて前記移動体のポーズを推定する最終ポーズ決定部と
    を備える情報処理装置。
  2. 前記副撮像部は、広角カメラ、魚眼カメラ、または全方位カメラから構成され、所定のフレームレートで動画像を撮像することにより、時系列の前記副画像を出力し、
    前記最終ポーズ決定部は、
    前記主撮像部によって撮像された前記ステレオ主画像対から検出した特徴点の3D座標を推定する3D推定部と、
    前記特徴点を前記副画像の複数フレームに亘ってトラッキングし、トラッキング結果を前記ステレオ主画像対における2D座標に変換する2Dトラッキング部と、
    前記3D推定部によって推定された前記特徴点の3D座標と、前記2Dトラッキング部によって変換された前記特徴点の前記ステレオ主画像対における2D座標とに基づいて最終ポーズを推定するポーズ推定部とを有する
    請求項1に記載の情報処理装置。
  3. 前記3D推定部は、前記主撮像部によって撮像された前記ステレオ主画像対から検出した特徴点の3D座標を推定するとともに、前記特徴点の前記副画像における2D座標を推定し、
    前記2Dトラッキング部は、前記3D推定部によって推定された前記特徴点の前記副画像における2D座標に基づき、前記特徴点を前記副画像の複数フレームに亘ってトラッキングし、トラッキング結果を前記ステレオ主画像対における2D座標に変換する
    請求項に記載の情報処理装置。
  4. 複数の前記副撮像部は、前記3D推定部による前記特徴点の前記副画像における2D座標推定結果に基づき、選択的に切り替えられて撮像を行う
    請求項に記載の情報処理装置。
  5. 情報処理装置による情報処理方法において、
    前記情報処理装置による、
    移動体に搭載されたステレオカメラから構成され、所定のフレームレートで動画像を撮像することにより時系列のステレオ主画像対を出力する主撮像部によって撮像された前記ステレオ主画像対から検出した特徴点の3D座標と、前記主撮像部とは撮像方向が異なるように前記移動体に搭載され、所定のフレームレートで動画像を撮像することにより時系列の副画像を出力する1または複数の副撮像部によって撮像された前記副画像の複数フレームに亘って前記特徴点をトラッキングすることによって得られた、前記特徴点の前記ステレオ主画像対における2D座標とに基づいて前記移動体のポーズを推定する最終ポーズ決定ステップを
    含む情報処理方法。
  6. 情報処理装置の制御用のプログラムにおいて、
    移動体に搭載されたステレオカメラから構成され、所定のフレームレートで動画像を撮像することにより時系列のステレオ主画像対を出力する主撮像部によって撮像された前記ステレオ主画像対から検出した特徴点の3D座標と、前記主撮像部とは撮像方向が異なるように前記移動体に搭載され、所定のフレームレートで動画像を撮像することにより時系列の副画像を出力する1または複数の副撮像部によって撮像された前記副画像の複数フレームに亘って前記特徴点をトラッキングすることによって得られた、前記特徴点の前記ステレオ主画像対における2D座標とに基づいて前記移動体のポーズを推定する最終ポーズ決定ステップを
    含む処理を情報処理装置のコンピュータに実行させるプログラム。
JP2017543143A 2015-09-30 2016-09-16 情報処理装置、情報処理方法、およびプログラム Active JP6872128B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015194554 2015-09-30
JP2015194554 2015-09-30
PCT/JP2016/077427 WO2017057054A1 (ja) 2015-09-30 2016-09-16 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2017057054A1 JPWO2017057054A1 (ja) 2018-08-02
JP6872128B2 true JP6872128B2 (ja) 2021-05-19

Family

ID=58423641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017543143A Active JP6872128B2 (ja) 2015-09-30 2016-09-16 情報処理装置、情報処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US10803600B2 (ja)
EP (1) EP3358294A4 (ja)
JP (1) JP6872128B2 (ja)
CN (1) CN108449945B (ja)
WO (1) WO2017057054A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017057016A1 (ja) 2015-09-29 2017-04-06 ソニー株式会社 計測装置および方法、並びにプログラム
US10970877B2 (en) 2015-09-30 2021-04-06 Sony Corporation Image processing apparatus, image processing method, and program
EP3358294A4 (en) * 2015-09-30 2019-04-10 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
US10587863B2 (en) 2015-09-30 2020-03-10 Sony Corporation Image processing apparatus, image processing method, and program
US10723018B2 (en) * 2016-11-28 2020-07-28 Brain Corporation Systems and methods for remote operating and/or monitoring of a robot
US11257248B2 (en) 2017-08-01 2022-02-22 Sony Corporation Information processing device, information processing method, recording medium, and image capturing apparatus for self-position-posture estimation
DE102017120050A1 (de) * 2017-08-31 2019-02-28 Krones Ag Verfahren zum Planen von Verpackungsanlagen
US11145083B2 (en) 2019-05-21 2021-10-12 Microsoft Technology Licensing, Llc Image-based localization
US11654552B2 (en) * 2019-07-29 2023-05-23 TruPhysics GmbH Backup control based continuous training of robots
JP2021043486A (ja) * 2019-09-06 2021-03-18 株式会社東芝 位置推定装置
JP7249919B2 (ja) * 2019-09-17 2023-03-31 株式会社東芝 推定装置、推定方法及びプログラム
JP7444646B2 (ja) * 2020-03-11 2024-03-06 株式会社メガチップス ポーズデータ生成装置、cgデータ生成システム、ポーズデータ生成方法、および、プログラム
CN113726465B (zh) * 2020-05-26 2022-12-27 华为技术有限公司 时间戳同步方法和设备
WO2022186354A1 (ja) * 2021-03-03 2022-09-09 株式会社Preferred Networks 情報処理装置および自律移動ロボット
WO2024075525A1 (ja) * 2022-10-05 2024-04-11 ソニーグループ株式会社 情報処理装置およびプログラム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3833786B2 (ja) * 1997-08-04 2006-10-18 富士重工業株式会社 移動体の3次元自己位置認識装置
DE10244148A1 (de) * 2002-09-23 2004-04-08 Daimlerchrysler Ag Verfahren und Vorrichtung zur videobasierten Beobachtung und Vermessung der seitlichen Umgebung eines Fahrzeugs
US7576639B2 (en) * 2006-03-14 2009-08-18 Mobileye Technologies, Ltd. Systems and methods for detecting pedestrians in the vicinity of a powered industrial vehicle
JP4361913B2 (ja) * 2006-04-07 2009-11-11 防衛省技術研究本部長 動き量計算装置
US7925049B2 (en) * 2006-08-15 2011-04-12 Sri International Stereo-based visual odometry method and system
JP5380789B2 (ja) 2007-06-06 2014-01-08 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
EP2309225A4 (en) 2008-07-01 2014-10-15 Topcon Corp POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE AND PROGRAM
JP5027747B2 (ja) * 2008-07-01 2012-09-19 株式会社トプコン 位置測定方法、位置測定装置、およびプログラム
JP5448617B2 (ja) * 2008-08-19 2014-03-19 パナソニック株式会社 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ
US8698875B2 (en) * 2009-02-20 2014-04-15 Google Inc. Estimation of panoramic camera orientation relative to a vehicle coordinate frame
JP2011215963A (ja) 2010-03-31 2011-10-27 Sony Corp 電子機器、画像処理方法及びプログラム
US20120114181A1 (en) * 2010-11-01 2012-05-10 Borthwick James R Vehicle pose estimation and load profiling
KR20120070291A (ko) * 2010-12-21 2012-06-29 삼성전자주식회사 보행 로봇 및 그의 동시 위치 인식 및 지도 작성 방법
US9357208B2 (en) * 2011-04-25 2016-05-31 Magna Electronics Inc. Method and system for dynamically calibrating vehicular cameras
JP5892663B2 (ja) * 2011-06-21 2016-03-23 国立大学法人 奈良先端科学技術大学院大学 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、及び移動体
US9516277B2 (en) * 2012-05-02 2016-12-06 GM Global Technology Operations LLC Full speed lane sensing with a surrounding view system
JP5901447B2 (ja) * 2012-06-27 2016-04-13 オリンパス株式会社 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラム
JP6061770B2 (ja) * 2013-04-25 2017-01-18 日本放送協会 カメラ姿勢推定装置及びそのプログラム
US9563951B2 (en) * 2013-05-21 2017-02-07 Magna Electronics Inc. Vehicle vision system with targetless camera calibration
KR102003776B1 (ko) * 2013-08-13 2019-07-26 한화테크윈 주식회사 감시용 카메라의 자세 검출 방법 및 장치
US9201424B1 (en) * 2013-08-27 2015-12-01 Google Inc. Camera calibration using structure from motion techniques
US10061324B2 (en) * 2014-07-30 2018-08-28 Hitachi, Ltd. Autonomous moving device and self position estimation method
JP6433200B2 (ja) * 2014-08-28 2018-12-05 株式会社トプコン 演算装置、演算方法、およびプログラム
US10013761B2 (en) * 2015-03-24 2018-07-03 Intel Corporation Automatic orientation estimation of camera system relative to vehicle
WO2017057016A1 (ja) 2015-09-29 2017-04-06 ソニー株式会社 計測装置および方法、並びにプログラム
US10970877B2 (en) 2015-09-30 2021-04-06 Sony Corporation Image processing apparatus, image processing method, and program
US10587863B2 (en) 2015-09-30 2020-03-10 Sony Corporation Image processing apparatus, image processing method, and program
EP3358294A4 (en) * 2015-09-30 2019-04-10 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
US9727793B2 (en) * 2015-12-15 2017-08-08 Honda Motor Co., Ltd. System and method for image based vehicle localization

Also Published As

Publication number Publication date
US20180286056A1 (en) 2018-10-04
WO2017057054A1 (ja) 2017-04-06
CN108449945A (zh) 2018-08-24
CN108449945B (zh) 2020-12-08
JPWO2017057054A1 (ja) 2018-08-02
EP3358294A4 (en) 2019-04-10
EP3358294A1 (en) 2018-08-08
US10803600B2 (en) 2020-10-13

Similar Documents

Publication Publication Date Title
JP6872128B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US10659768B2 (en) System and method for virtually-augmented visual simultaneous localization and mapping
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP6355052B2 (ja) 撮像装置、画像処理装置、撮像方法および記録媒体
Senior et al. Acquiring multi-scale images by pan-tilt-zoom control and automatic multi-camera calibration
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US7321386B2 (en) Robust stereo-driven video-based surveillance
JP2014138420A (ja) 自律車両用の奥行き検知方法及びシステム
KR101776620B1 (ko) 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP2018522348A (ja) センサーの3次元姿勢を推定する方法及びシステム
JP2007263657A (ja) 3次元座標取得装置
KR20170053007A (ko) 자세 추정 방법 및 자세 추정 장치
JP2014137815A (ja) 歪みのあるカメラ画像を補正するシステム及び方法
JP6499047B2 (ja) 計測装置、方法及びプログラム
JP5105481B2 (ja) 車線検出装置、車線検出方法、及び車線検出プログラム
WO2018131165A1 (ja) 情報処理プログラム、情報処理方法および情報処理装置
KR101207535B1 (ko) 이동 로봇의 이미지 기반 동시적 위치 인식 및 지도 작성 방법
CN113052907B (zh) 一种动态环境移动机器人的定位方法
JP2019016188A (ja) 移動体遠隔操作システムおよび移動体遠隔操作方法
JP2016152027A (ja) 画像処理装置、画像処理方法およびプログラム
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
WO2019188392A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
JP2011090465A (ja) 物***置推定装置および物***置推定プログラム
JP2020030721A (ja) 移動体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210329

R151 Written notification of patent or utility model registration

Ref document number: 6872128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151