JP2022042146A - データ処理装置、データ処理方法およびデータ処理用プログラム - Google Patents

データ処理装置、データ処理方法およびデータ処理用プログラム Download PDF

Info

Publication number
JP2022042146A
JP2022042146A JP2020147407A JP2020147407A JP2022042146A JP 2022042146 A JP2022042146 A JP 2022042146A JP 2020147407 A JP2020147407 A JP 2020147407A JP 2020147407 A JP2020147407 A JP 2020147407A JP 2022042146 A JP2022042146 A JP 2022042146A
Authority
JP
Japan
Prior art keywords
laser scan
point cloud
image
scan point
laser
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020147407A
Other languages
English (en)
Inventor
忠之 伊藤
Tadayuki Ito
剛 佐々木
Takeshi Sasaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2020147407A priority Critical patent/JP2022042146A/ja
Priority to EP21190819.9A priority patent/EP3964859A1/en
Priority to US17/445,399 priority patent/US11551411B2/en
Publication of JP2022042146A publication Critical patent/JP2022042146A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】2つのレーザースキャン点群の間の対応関係の特定を容易に高い精度で行う。【解決手段】第1の時期に取得された第1のレーザースキャン点群および第2の時期に取得された第2のレーザースキャン点群を取得するレーザースキャン点群取得部101と、前記第1のレーザースキャン点群と前記第2のレーザースキャン点群の中で共通し、第1の時期と第2の時期において不変な不動物に関するレーザースキャン点群に基づき、前記第1のレーザースキャン点群と前記第2のレーザースキャン点群との対応関係の特定を行うレーザースキャン点群間の対応関係特定部110とを備えるデータ処理装置100。【選択図】図2

Description

本発明は、レーザースキャナが得た情報を利用する技術に関する。
特許文献1には、車両に搭載したレーザースキャナにより、レーザースキャンを行う技術が記載されている。
特開2016-45150号公報
車両にレーザースキャナを搭載し、当該車両を走行させながらレーザースキャンを行うことで道路設備等のレーザースキャン点群(レーザースキャンデータ)を得、このレーザースキャン点群を各種の診断やメンテナンス等に利用する技術が知られている。
この技術では、時間をおいて、同一対象に対するレーザースキャンを行い、レーザースキャン点群間の比較が行われる。この際、第1のレーザースキャン点群と第2のレーザースキャン点群の対応関係の特定(位置合わせの意味でレジストレーションともいう)を行う必要がある。
ソフトウェア処理により、上記のレーザースキャン点群間の対応関係の特定を行う技術も各種のものが開発されている。しかしながら、無数の点群同士の対応関係の特定は、処理が膨大であるため、処理が終了せず停止したり、誤処理が発生したりする問題があり、実用性に欠けていた。このため、ソフトウェア処理とオペレータによるマニュアル処理を併用することで、膨大な手間をかけて上記の対応関係の特定に係る処理が行なわれているのが現状である。
このような背景において、本発明は、2つのレーザースキャン点群の間の対応関係の特定を容易に高い精度で行うことができる技術の提供を目的とする。
本発明は、第1の時期に取得された第1のレーザースキャン点群および第2の時期に取得された第2のレーザースキャン点群を取得するレーザースキャン点群取得部と、前記第1のレーザースキャン点群と前記第2のレーザースキャン点群の中で共通し、第1の時期と第2の時期において不変な不動物に関するレーザースキャン点群に基づき、前記第1のレーザースキャン点群と前記第2のレーザースキャン点群との対応関係の特定を行うレーザースキャン点群間の対応関係特定部とを備えるデータ処理装置である。
本発明において、前記第1の時期において撮影され前記第1のレーザースキャン点群の対象を撮影した第1の画像、および前記第2の時期において撮影され前記第2のレーザースキャン点群の対象を撮影した第2の画像を取得する画像取得部と、前記第1の画像および前記第2の画像から前記不動物を検出する不動物の検出部とを備える態様が挙げられる。
本発明において、前記第1のレーザースキャン点群および前記第2のレーザースキャン点群の少なくとも一方は、移動しながらのレーザースキャンにより得られたものであり、前記第1の画像および前記第2の画像は、視点の位置を合わせたものが取得される態様が挙げられる。
本発明において、前記第1のレーザースキャン点群に基づき、前記第1の画像を撮影したカメラの位置および姿勢で見た第1の点群画像、および前記第2のレーザースキャン点群に基づき、前記第2の画像を撮影したカメラの位置および姿勢で見た第2の点群画像を作成する点群画像作成部を備える態様が挙げられる。
本発明において、前記第1の画像と前記第1の点群画像とを合成した第1の合成画像および前記第2の画像と前記第2の点群画像とを合成した第2の合成画像を作成する合成画像作成部と、前記第1の合成画像に基づく、前記第1のレーザースキャン点群からの前記不動物に係る第1の部分点群の切り出し、および前記第2の合成画像に基づく、前記第2のレーザースキャン点群からの前記不動物に係る第2の部分点群の切り出しを行う部分点群の切り出し部と、前記第1の部分点群と前記第2の部分点群との対応関係を特定する部分点群間の対応関係特定部と、前記第1の部分点群と前記第2の部分点群との前記対応関係に基づき、前記第1のレーザースキャン点群と前記第2のレーザースキャン点群との対応関係の特定が行われる態様が挙げられる。
本発明において、前記第1の合成画像の視点からの距離が特定の距離より遠い前記第1のレーザースキャン点群は、前記第1の点群画像では存在し、前記第1の合成画像において利用できない状態とされている態様が挙げられる。
本発明において、前記不動物として、前記第1の合成画像に基づき取得された前記不動物の形状および寸法と、前記第2の合成画像に基づき取得された前記不動物の形状および寸法との差が閾値以下であるものが採用される態様が挙げられる。
本発明において、前記不動物は複数であり、前記複数の不動物として、前記第1の合成画像に基づき算出された前記複数の不動物間の距離と、前記第2の合成画像に基づき算出された前記複数の不動物間の距離との差が閾値以下であるものが採用される態様が挙げられる。
本発明は、第1の時期に取得された第1のレーザースキャン点群および第2の時期に取得された第2のレーザースキャン点群を取得するレーザースキャン点群取得ステップと、前記第1のレーザースキャン点群と前記第2のレーザースキャン点群の中で共通し、第1の時期と第2の時期において不変な不動物に関するレーザースキャン点群に基づき、前記第1のレーザースキャン点群と前記第2のレーザースキャン点群との対応関係の特定を行うレーザースキャン点群間の対応関係特定ステップとを有するデータ処理方法として把握することもできる。
本発明は、コンピュータに読み取らせて実行させるプログラムであって、コンピュータを第1の時期に取得された第1のレーザースキャン点群および第2の時期に取得された第2のレーザースキャン点群を取得するレーザースキャン点群取得部と、前記第1のレーザースキャン点群と前記第2のレーザースキャン点群の中で共通し、第1の時期と第2の時期において不変な不動物に関するレーザースキャン点群に基づき、前記第1のレーザースキャン点群と前記第2のレーザースキャン点群との対応関係の特定を行うレーザースキャン点群間の対応関係特定部として動作させるデータ処理用プログラムとして把握することもできる。
本発明によれば、2つのレーザースキャン点群の間の対応関係の特定を容易に高い精度で行うことができる。
実施形態の概要図である。 データ処理装置のブロック図である。 処理の手順の一例を示すフローチャートである。 処理の手順の一例を示すフローチャートである。 撮影した画像の一例を示す図面代用写真である。 図5に対応する点群画像の図面代用写真である。 図5の撮影画像と図5の点群画像を合成した合成画像の図面代用写真である。
発明の実施の形態
(概要)
図1には、実施形態の概要が示されている。車両10は、道路上を走行しながら、計測対象をレーザースキャナ13によりレーザースキャンし、対象物のレーザースキャン点群(レーザースキャンデータ)を得る。図1に示す計測対象は一例であり、計測対象は特に限定されない。計測対象としては、インフラ設備や建築物が挙げられる。崖や堤防等を計測対象とすることもできる。
車両10は、GNSS位置測定装置11、IMU12、レーザースキャナ13、カメラ14を搭載する。車両10におけるGNSS位置測定装置11、IMU12、レーザースキャナ13、カメラ14の位置の関係は既知である。また、車両10におけるIMU12、レーザースキャナ13、カメラ14の姿勢(向き)関係も既知である。つまり、レーザースキャナ13とカメラ14の外部標定要素の関係は既知である。
車両10の代わりに、鉄道、船舶、航空機等の移動体を利用する形態も可能である。移動体は、有人に限定される無人であってもよい。
GNSS位置測定装置11は、GPS衛星等の航法衛星からの航法信号に基づく測位を行う。IMU12は、慣性計測装置であり、加速度と姿勢の変化を計測する。レーザースキャナ13は、レーザースキャンを行い、レーザースキャン点群を取得する。カメラ14は、レーザースキャナ13のレーザースキャン対象に対する連続写真撮影または動画の撮影を行う。
車両10の絶対座標系(グローバル座標系)における位置は、GNSS位置測定装置11とIMU12により計測され特定される。絶対座標系は、GNSSで採用される座標系であり、緯度、経度、標高により位置が記述される。GNSSデータとIMUデータに加えて車両10のホイール測定データを用いて、車両10の位置の計測を行ってもよい。
レーザースキャナ13により得たレーザースキャン点群とカメラ14が撮影した画像は、時刻データと対応させた状態で取得される。
車両10を走行させながらレーザースキャナ13によるレーザースキャンが行われる。レーザースキャンと同時に同じ対象に対するカメラ14による撮影が行われる。撮影は、連射モードによる撮影または動画による撮影となる。つまり、車両10を走行させながら、レーザースキャナ13によるレーザースキャンを行い、且つ、同じ対象に対するカメラ14を用いた連続写真撮影または動画の撮影が行われる。
レーザースキャナ13が得たレーザースキャン点群とカメラ14が撮影した画像データは、データ処理装置100に送られる。
この例では、車両10を走行させながら、計測対象物(例えば、各種のインフラ設備等)の対するレーザースキャナ13によるレーザースキャンとカメラ14による撮影を行い、当該計測対象物に対するレーザースキャン点群と画像データを得る。
このレーザースキャンと撮影は、同じ対象に対して、時間差おいて複数回行われる。例えば、半年に1回や1年に1回といった頻度で行われる。そしてN回目とN+1回目のレーザースキャン点群を比較することで、インフラ設備の変形や劣化の監視が行われる。例えば、高速道路の法面に対する監視を上記の方法で行い、より詳細な点検や補修工事の有無の判断が行われる。
第1のレーザースキャンを行うレーザースキャナと第2のレーザースキャンを行うレーザースキャナとは、同じものであってもよいし、別のものであってもよい。これはカメラについても同じである。
(データ処理装置)
図2には、データ処理装置100のブロック図が示されている。この例において、データ処理装置100は、市販のPC(パーソナル・コンピュータ)を用いて構成されている。利用するPCは、CPU、メモリ、ハードディスク装置、液晶表示装置等のディスプレイ、キーボードやマウス等の各種のユーザーインターフェース、各種の入出力インターフェース、その他通常のPCが備える装置や機能を有している。
このPCには、図2に示す機能部を実現するためのアプリケーションソフトウェアプログラムがインストールされ、図2に示すデータ処理装置100がソフトウェア的に実現されている。データ処理装置100の一部または全部を専用の電子回路で構成することも可能である。例えば、FPGAを用いて、データ処理装置100の一部または全部を構成することも可能である。また、インターネット回線に接続されたデータ処理サーバを用いてデータ処理装置100の一部または全部を構成することも可能である。
データ処理装置100は、レーザースキャン点群の取得部101、座標変換部102、撮影画像群の取得部103、特定の撮影画像選択部104、不動物候補の検出(指定)部105、点群画像の生成部106、合成画像の作成部107、部分点群の切り出し部108、部分点群間の対応関係特定部109、レーザースキャン点群間の対応関係特定部110、差分点群データ算出部111を有する。
レーザースキャン点群の取得部101は、レーザースキャナ13が取得したレーザースキャン点群のデータ(点群データ)を取得する。例えば、第1のタイミングで行った第1のレーザースキャン点群と第2のタイミングで行った第2のレーザースキャン点群がレーザースキャン点群の取得部101で取得される。
座標変換部102は、車両10を移動させながらレーザースキャナ13によって得たレーザースキャナ点群の各点の座標系を絶対座標系に変換する。この場合、車両10は移動しながらレーザースキャナ13によるレーザースキャンが行われる、よって、厳密にいうと、得られるレーザースキャン点群における各点の座標系は、当該点(当該レーザースキャン点)毎に異なっている。
絶対座標系における車両の10の位置と姿勢(レーザースキャナ13の位置と姿勢)は、GNSSデータ、IMUデータ、ホイール測定データ等を用いて、各時刻において計算で求めることができる。つまり、レーザースキャンによって得た各点の取得時刻における、車両の位置と姿勢は計算により求めることができる。
よって、レーザースキャンによって得た各点の取得時刻における、車両の位置と姿勢(レーザースキャナ13の位置と姿勢)に基づいて、上記各点を絶対座標系上に配置することができる。これにより、当該レーザースキャン点群を絶対座標系上で記述することができる。以上の処理が座標変換部102で行われる。
撮影画像群の取得部103は、カメラ14が撮影した画像の画像データを取得する。画像データは、連続撮影した静止画または動画のデータである。動画の場合、該動画を構成するフレーム画像が静止画像として利用される。
特定の撮影画像選択部104は、第1の撮影画像群の中からの第1の撮影画像の選択、および第2の撮影画像群の中からの第2の撮影画像の選択を行う。
不動物候補の検出(指定)部105は、特定の撮影画像選択部104が選択した特定の画像の中から不動物の候補を検出(あるいは指定)する。不動物とは、比較の対象となる第1のレーザースキャンデータと第2のレーザースキャンデータの取得間隔の間において、変化せず、不動と見なせる対象物である。不働物の例としては、電柱、標識、鉄塔、建築物等が挙げられる。不動物は、対象により異なる。例えば、歩道の縁、柵、道路と建物の境界線のような対象も不動物となり得る。
不動物は、第1のレーザースキャン時に撮影した画像と第2のレーザースキャン時に撮影した画像とにおいて、同じと見なせるものが指定される。
不動物候補の指定は、自動および/または手動で行われる。自動で行う方法としては、予め不動物画像のライブラリーを作成しておき、そのライブラリーを参照し、画像認識技術を利用して、カメラ14が撮影した画像の中から不動物候補を抽出する。手動の場合は、指定する範囲を手動で指定する等して、オペレータによる不動物候補の指定が行われる。不動物候補は複数が指定される。
なお不動物候補は、予め定めた距離以内のものが対象となる。これは、距離が遠くなると、距離情報の誤差が大きくなり、後のマッチング時の精度に悪影響が出るからである。
点群画像の生成部106は、カメラ14が撮影した画像の視点(カメラ位置)であり、且つ、当該画像を撮影したカメラ14の姿勢(光軸の方向)で見た点群画像を生成する。ここで、点群画像は、レーザースキャン点群を点の集合として表示した画像である。
上記の点群画像は、以下のようにして生成される。まず、座標変換部102の処理により、レーザースキャン点群は、絶対座標系上で正しく配置されている。ここで、特定の撮影画像選択部103が選択した画像の撮影時におけるカメラ14の絶対座標系上での位置と姿勢は、GNSSデータ、IMUデータ、ホイール測定データ等を用いて計算できる。よって、カメラ14が撮影した画像の一つが指定された場合、その画像の撮影時におけるカメラ14の絶対座標系上での位置と姿勢が判り、その位置においてその姿勢で見たレーザースキャン点群を画像として描画することができる。つまり、カメラ14による画像を取得した視点から、該画像の取得時におけるカメラ14の姿勢で見た点群画像を生成することができる。
図5は、カメラ14が撮影した画像の一例を示す。図6は、図5に対応した点群画像の一例である。図5と図6は、同じ視点から同じ姿勢で見た(同じ方向を見た)画像である。ここで、図5はカメラ14が撮影した画像であり、図6はレーザースキャン点群を点の集合として表示した画像である。
合成画像の作成部107は、カメラ14が撮影した画像と、当該画像の視点から当該画像の撮影時におけるカメラ14の姿勢で見た点群画像を合成した合成画像を作成する。この合成画像は、通常の撮影画像中にレーザースキャン点(レーザースキャン光の反射点)が点として表示された画像となる。上述したように、点群画像は、画像を撮影したカメラ14の位置と姿勢に合わせたものが生成される。つまり、ある画像に着目した場合、その画像と同様な構図で同様な見え方をする対象の点群画像が生成される。よって、当該撮影画像と点群画像は対応関係が確保されており、重畳することができる。図7は、図5のカメラ画像と図6の点群画像を合成(重畳)した合成画像である。
部分点群の切り出し部108は、不動物候補のレーザースキャン点群を部分点群として取得する。この処理は、以下のようにして行われる。例えば、画像中で不動物候補が指定されたら、合成画像の作成部107が作成した合成画像を利用して不動物のレーザースキャン点群を抽出する。この処理では、合成画像中で指定された部分画像に対応するレーザースキャン点群が抽出される。
例えば、図5の一番手前右側の電柱が不動物候補として検出されたとする。この場合、図7の合成画像を用い、当該電柱の画像と重なった部分のレーザースキャン点群が当該電柱に係る部分点群として抽出される。こうして、レーザースキャン点群の中における不動物候補として指定された部分的なレーザースキャン点群が部分点群として抽出される。
なお、予め定めた距離より遠い部分点群として利用しない。図7には、ある距離を超えた範囲はレーザースキャン点が表示されておらず、その領域の部分点群は利用できず、取得できないようにされている。これは、距離が遠くなると点の測位の誤差が増え、不動物候補を利用したマッチング処理の精度が低下するからである。なお、図6の点群画像では、上記図7では利用できないレーザースキャン点群は存在している。
部分点群としては、レーザースキャン点群の密度が対象の形状を表現できる程度のものが採用される。以下、この際の密度の判定の一例を説明する。例えば、不動物候補として電柱を採用するとする。この場合、部分点群が電柱の形状を表現できるか否かを判定する。電柱の形状を表現できない場合、点群の密度が足りないと判定され、部分点群として利用しない。
部分点群間の対応関係特定部109は、第1の時期で得た第1のレーザースキャナ点群に含まれる不動物候補のレーザースキャン点群である第1の部分点群と、第1の時期の後の第2の時期で得た第2のレーザースキャナ点群に含まれる不動物候補のレーザースキャン点群である第2の部分点群との間の対応関係の特定を行う。対応関係の特定は、特徴量等に基づくマッチング手法や点群マッチングにより行われる。
例えば、電柱が不動物候補として採用されたとする。この場合、第1のレーザースキャン点群における当該電柱に係るレーザースキャン点群(第1の部分点群)と、第2のレーザースキャン点群における当該電柱に係るレーザースキャン点群(第2の部分点群)との対応関係の特定が行われる。通常は、複数の不動物に関して、上記の処理が行われる。
レーザースキャン点群間の対応関係特定部110は、部分点群間の対応関係特定部109が特定した2つのレーザースキャン点群間における不動物候補の対応関係に基づき、2つのレーザースキャン点群(第1のレーザースキャン点群と第2のレーザースキャン点群)の対応関係を特定する。
例えば、第1のレーザースキャン点群と第2のレーザースキャン点群の間において、複数の不動物候補の対応関係が特定できているとする。つまり、2つのレーザースキャン点群において、複数の不動物候補の位置関係が特定されているとする。この場合、それら不動物候補の位置を合わせることで、他の点群の対応関係も特定できる。こうして、第1のレーザースキャン点群と第2のレーザースキャン点群の間の対応関係が特定される。
差分点群データ算出部111は、第1のレーザースキャン点群と第2のレーザースキャン点群の差分を算出する。これにより、一致しないレーザースキャン点群が得られる。例えば、第1のレーザースキャンの後にスキャン対象に変形や欠落が生じたとする。この場合、変形や欠落が生じた部分は、第1のレーザースキャン点群と第2のレーザースキャン点群とで一致しない部分となる。この一致しない部分が上記の差分により得られる成分となる。
上記の差分成分を監視することで、インフラ設備における経時変化に伴う変形や欠落を監視することができる。例えば、コンクリート面の変形や欠落といった現象を監視することができる。
(処理の一例)
以下に作業および処理の一例を示す。まず、第1の時期に第1のレーザースキャンを行い、第1のレーザースキャン点群を得る。このレーザースキャンは、車両10を走行させながら、レーザースキャナ13を用いて計測対象(監視対象)に対して行われる。また、第1のレーザースキャンと同時にカメラ14によるレーザースキャン対象に対する撮影が行われ、第1の撮影画像群を得る。
次に、時間をおいて第1のレーザースキャンの場合と同じ対象に対する第2のレーザースキャンと撮影が行われ、第2のレーザースキャン点群と第2の撮影画像群を得る。第2のレーザースキャンは、レーザースキャナ13を用いて第1のレーザースキャンと可能であれば極力同じ条件で行う。第1のレーザースキャンと第2のレーザースキャンの間隔は、計測対象に応じて決定される。例えば、インフラ設備の場合、数か月~1年位の間隔をもってレーザースキャンが行われる。計測の間隔はもっと短くてもよいし、もっと長くてもよい。
第1のレーザースキャンにより、第1のレーザースキャン点群が得られ、第2のレーザースキャンにより、第2のレーザースキャン点群が得られる。また、第1のレーザースキャン点群と同時に第1の撮影画像群が得られ、第2のレーザースキャン点群と同時に第2の撮影画像群が得られる。この段階で、図2および図3のデータ処理装置100を用いた図3および図4に示す処理が行なわれる。
図3および図4の処理を実行するためのプログラムは、処理装置100を構成するPCの記憶装置(半導体メモリやハードディスク装置)に記憶され、当該PCのCPUにより実行される。このプログラムを適当な記憶媒体に記憶する形態も可能である。また、当該プログラムをサーバに記憶させ、そこからダウンロードする形態も可能である。
以下、処理のイメージを簡単に説明する。最初に、第1のレーザースキャン点群に係り、レーザースキャン取得時に撮影した画像から不動物候補を、識別、抽出し、第1のレーザースキャン点群から該不動物候補に対応する第1の部分点群を切り出す。そして、同様な処理を第2のレーザースキャン点群に関しても行い、第1の部分点群に対応する第2の部分点群を第2のレーザースキャン点群から切り出す。そして、第1の部分点群と第2の部分点群の対応関係を求め、この対応関係を利用して第1のレーザースキャン点群と第2のレーザースキャン点群の対応関係を特定する。最後に、第1のレーザースキャン点群と第2のレーザースキャン点群の差分を求め、変化があった場所を特定する。
以下、処理の手順を詳細に説明する。処理が開始されると、まず、第1のレーザースキャン点群と第2のレーザースキャン点群の取得が行われる(ステップS101)。この処理は、図2のレーザースキャン点群取得部101で行われる。
次に、第1のレーザースキャン点群と第2のレーザースキャン点群を絶対座標系上におけるものに座標変換する(ステップS102)。この処理は、図2の座標変換部102で行われる。
また、第1の撮影画像群と第2の撮影画像群の画像データを取得する(ステップS103)。この処理は、撮影画像群の取得部103で行われる。第1の撮影画像群は、第1のレーザースキャンと同時にカメラ14による連続撮影により得た多数の画像であり、第2の撮影画像群は、第2のレーザースキャンと同時にカメラ14による連続撮影により得た多数の画像である。動画を撮影し、該動画を構成するフレーム画像を画像群として取得する形態も可能である。
次に、第1の撮影画像群の中から、不動物を検出するための第1の撮像画像を選択する(ステップS104)。この処理は、特定の撮影画像選択部104で行われる。第1の撮影画像は、不動物の候補が写っている画像を選択する。第1の撮影画像の選択は、手動または自動により行われる。第1の画像として複数を選択することもできる。
次に、ステップS104において選択した第1の撮影画像から不動物候補を検出する(ステップS105)。この処理は、不動物候補の検出部105で行われる。不動物候補の検出は、自動または手動で行われる。手動で行う場合、ユーザが指定したものが検出される。不動物候補は、複数が検出される。
次に、第1の撮影画像の視点から見た第1のレーザースキャン点群の点群画像(第1の点群画像)を生成する(ステップS106)。この処理は、点群画像の生成部106で行われる。
次に、第1の撮影画像と第1の点群画像を合成した第1の合成画像を作成する(ステップS107)。この処理は、合成画像の作成部107で行われる。
次に、第1のレーザースキャン点群の中から、第1の撮影画像上で検出されている不動物候補に対応する点群を第1の部分点群として切り出す(ステップS108)。この処理は、部分点群の切り出し部108で行われる。
次に、第2の撮影画像群の中から第2の撮影画像を選択する(ステップS109)。この処理は、特定の撮影画像選択部104で行われる。この処理では、第1の撮影画像と同じ対象が写っている画像が選択される。第1の撮影画像が複数ある場合、第2の撮影画像もそれぞれ対応するものが選択される。
例えば、第2の撮影画像群の中から、第1の撮影画像のカメラ位置に最も近いカメラ位置の画像を探し出し、この画像を第2の撮影画像として選択する。第2の撮影画像群の中から、カメラ位置とカメラの姿勢が近い画像を第2の撮影画像としてもよい。
次に、第2の撮影画像から不動物候補の検出を行う(ステップS110)。この処理は、不動物候補の検出部105で行われる。この処理では、ステップS105において第1の撮影画像から検出した不動物と同じと推定される対象を不動物として検出する。
次に、第2の撮影画像の視点から見た第2のレーザースキャン点群の点群画像(第2の点群画像)を生成する(ステップS111)。この処理は、点群画像の生成部106で行われる。
次に、第2の撮影画像と第2の点群画像を合成した第2の合成画像を作成する(ステップS112)。この処理は、合成画像の作成部107で行われる。
次に、第2のレーザースキャン点群の中から、第2の撮影画像上で検出されている不動物候補に対応する点群を第2の部分点群として切り出す(ステップS113)。この処理は、部分点群の切り出し部108で行われる。
次に、第1の部分点群と第2の部分点群の対応関係の特定を行う(ステップS114)。この処理は、部分点群間の対応関係特定部109で行われる。
次に、ステップS114で得た第1の部分点群と第2の部分点群の対応関係に基づき、第1のレーザースキャン点群と第2のレーザースキャン点群との対応関係を特定する(ステップS115)。この処理は、レーザースキャン点群間の対応関係特定部110で行われる。
次に、差分点群データの算出を行う(ステップS116)。この処理は、図2の差分データ算出部111で行われる。この処理では、対応関係が特定された第1のレーザースキャン点群と第2のレーザースキャン点群の差分を算出する。すなわち、第1のレーザースキャン点群と第2のレーザースキャン点群を比較し、違う部分を算出する。
レーザースキャン点群の取得は、2回に限定されず、更に3回目、4回目、・・・と引き続き特定の間隔をおいて行うことが可能である。3回以上行なわれる場合のレーザースキャン点群の取得の間隔は同じでなくてもよい。差分の算出は、時間軸上で隣接するレーザースキャン点群に限定されない。例えば、1回目と4回目のレーザースキャン点群を比較するといったことも可能である。
(三次元モデルの場合)
レーザースキャン点群に基づき三次元モデルを作成し、この三次元モデルを比較の対象とする態様も可能である。
(固定スキャナ利用について)
第1および第2のレーザースキャンの少なくとも一方において利用するレーザースキャナとして、固定型のカメラ付きレーザースキャナを用いることもできる。
(不動物の判定)
不動物の誤抽出を抑制するための判定を行ってもよい。以下、一例を説明する。まず、第1の撮影画像と第2の撮影画像において不動物候補が検出されているとする。この不動物候補に対して、2つの画像間での不動物画像の色情報の比較を行い、色の差が閾値以下であるか否かの第1の判定が行われる。この場合、各画像の色を正規化し、違いの比較を行う。
この第1の判定がOKな場合、合成画像から第1の撮影画像における不動物候補と第2の撮影画像における対応する不動物候補の位置情報を取得し、位置情報の差が閾値以下であるか否かの第2の判定が行われる。この第2の判定がOKの場合、不動物候補の形状および寸法に係る情報を、それぞれのレーザースキャン点群から取得し、その差が閾値以下であるか否かの第3の判定が行われる。
第1~第3の判定を全ての不動物候補に対して行う。第1~第3の判定をクリアした不動物候補に対して、次の第4の判定を行う。第4の判定では、複数の不動物候補の相対の位置関係の整合性の比較から、異常なものを除外する。
ここでは、着目している不動物候補と、それと異なる他の不動物候補の三次元位置の関係が、第1のレーザースキャン点群と第2のレーザースキャン点群とで、同じと見なせるか否かの判定が行われる。
まず、第1のレーザースキャン点群と第2のレーザースキャン点群のそれぞれにおいて、2つの不動物候補を選択する。この際、不動物候補間の距離が予め定めた値以下のものを選択する。これは、2つの不動物候補間の距離の精度が重要であり、この距離が長くなると、精度が低下するからである。
ここで、第1のレーザースキャン点群における2つの不動物候補間の距離をL1、第2のレーザースキャン点群における2つの不動物候補間の距離をL2とする。L1,L2としては、2つの不動物候補の重心位置の間の距離、2つの不動物候補における特定の点の間の距離、2つの不動物候補から抽出された複数の点の間の距離の平均値等が採用される。
そして、L1とL2の差を算出し、その値が予め定めた閾値以下であれば、第1のレーザースキャン点群と第2のレーザースキャン点群のそれぞれにおいて選択した2組の不動体候補の対が対応しているものと判定する。
例えば、第1のレーザースキャン点群で電柱1と電柱2が選択され、第2のレーザースキャン点群で電柱1’と電柱2’が選択されたとする。ここで、電柱1と電柱1’が同じと推定された不動物候補であり、電柱2と電柱2’が同じと推定された不動物候補である。ここで、電柱1と電柱2の離間距離L1を算出し、電柱1’と電柱2’の離間距離L2を算出し、L1とL2の差を算出する。この差が閾値以下であれば、上記不動物候補の関係が正当であると判定される。
不動物候補に係るレーザースキャン点群の絶対位置は、GNSSの測位精度に係る誤差を含む。しかしながら、2つの不動物間の距離は、誤差が相殺されるので、GNSSの測位精度の影響は受けない。このことを利用し、第1のレーザースキャン点群において候補とされた2つの不動物と第2のレーザースキャン点群において候補とされた2つの不動物の同定を行う。
仮に、上記第4の判定の結果がNOの場合、選択した2つの不動物候補の少なくとも一方が誤抽出されたものである可能性がある。一つの不動物候補において、上記第4の判定を異なる他の不動物候補を相手に組み合わせを変えて複数回行う。そして、1回以上YESの判定が得られた不動物候補の組を正解として抽出する。こうして、第1のレーザースキャン点群および第2のレーザースキャン点群で共通する不動物候補が選択される。
(不動物の検出の他の例)
地図情報等において、不動物候補となる対象が予め判明している場合は、その位置の近辺を探索し、不動物を検出してもよい。以下、この場合の一例を説明する。まず、地図情報から不動物(例えば、標識)の位置Aの情報を取得する。次に、第1の撮影画像群の中から、位置Aが写っている画像を検索する。この検索において、第1の撮影画像群の画像は、カメラ位置とカメラの姿勢は判っているので、光軸上あるいはその近くに位置Aがある画像が探索される。この探索された撮影画像を第1の撮影画像とする。
次に、第1の撮影画像に対応する第1の点群画像を生成し、更に第1の撮影画像と第1の点群画像を合成した第1の合成画像を作成する。そして、第1の合成画像中の点の中から、位置Aに最も近い点を抽出し、その点と重なる画像を第1の合成画像(あるいは対応する第1の撮影画像)から検出する。
例えば、地図情報上において、不動物として利用できる標識の水平位置が記載されているとする。この場合、その水平位置上で鉛直方向に分布する点が抽出され、その点と重なる画像から標識の画像が特定される。こうして、地図情報を利用した第1の撮影画像中からの不動物の検出が行われる。
上記の処理を要約すると、不動物が記載された地図情報からの不動物の位置の取得、前記不動物の位置に基づく撮影画像群からの前記不動物が写った特定画像の検出、該特定画像に対応する点群画像の生成、前記特定画像と前記点群画像を合成した合成画像の生成、不動物の位置と該合成画像に基づく前記不動物の画像の特定、となる。この処理は、第1のレーザースキャン点群(第1の撮影画像群)および第2のレーザースキャン点群(第2の撮影画像群)において同じである。
10…車両、11…GNSS位置測定装置、12…IMU、13…レーザースキャナ、14…カメラ、100…データ処理装置。




Claims (10)

  1. 第1の時期に取得された第1のレーザースキャン点群および第2の時期に取得された第2のレーザースキャン点群を取得するレーザースキャン点群取得部と、
    前記第1のレーザースキャン点群と前記第2のレーザースキャン点群の中で共通し、第1の時期と第2の時期において不変な不動物に関するレーザースキャン点群に基づき、前記第1のレーザースキャン点群と前記第2のレーザースキャン点群との対応関係の特定を行うレーザースキャン点群間の対応関係特定部と
    を備えるデータ処理装置。
  2. 前記第1の時期において撮影され前記第1のレーザースキャン点群の対象を撮影した第1の画像、および前記第2の時期において撮影され前記第2のレーザースキャン点群の対象を撮影した第2の画像を取得する画像取得部と、
    前記第1の画像および前記第2の画像から前記不動物を検出する不動物の検出部と
    を備える請求項1に記載のデータ処理装置。
  3. 前記第1のレーザースキャン点群および前記第2のレーザースキャン点群の少なくとも一方は、移動しながらのレーザースキャンにより得られたものであり、
    前記第1の画像および前記第2の画像は、視点の位置を合わせたものが取得される請求項2に記載のデータ処理装置。
  4. 前記第1のレーザースキャン点群に基づき、前記第1の画像を撮影したカメラの位置および姿勢で見た第1の点群画像、および前記第2のレーザースキャン点群に基づき、前記第2の画像を撮影したカメラの位置および姿勢で見た第2の点群画像を作成する点群画像作成部を備える請求項2または3に記載のデータ処理装置。
  5. 前記第1の画像と前記第1の点群画像とを合成した第1の合成画像および前記第2の画像と前記第2の点群画像とを合成した第2の合成画像を作成する合成画像作成部と、
    前記第1の合成画像に基づく、前記第1のレーザースキャン点群からの前記不動物に係る第1の部分点群の切り出し、および前記第2の合成画像に基づく、前記第2のレーザースキャン点群からの前記不動物に係る第2の部分点群の切り出しを行う部分点群の切り出し部と、
    前記第1の部分点群と前記第2の部分点群との対応関係を特定する部分点群間の対応関係特定部と、
    前記第1の部分点群と前記第2の部分点群との前記対応関係に基づき、前記第1のレーザースキャン点群と前記第2のレーザースキャン点群との対応関係の特定が行われる請求項4に記載のデータ処理装置。
  6. 前記第1の合成画像の視点からの距離が特定の距離より遠い前記第1のレーザースキャン点群は、前記第1の点群画像では存在し、前記第1の合成画像において利用できない状態とされている請求項5に記載のデータ処理装置。
  7. 前記不動物として、前記第1の合成画像に基づき取得された前記不動物の形状および寸法と、前記第2の合成画像に基づき取得された前記不動物の形状および寸法との差が閾値以下であるものが採用される請求項5または6に記載のデータ処理装置。
  8. 前記不動物は複数であり、
    前記複数の不動物として、前記第1の合成画像に基づき算出された前記複数の不動物間の距離と、前記第2の合成画像に基づき算出された前記複数の不動物間の距離との差が閾値以下であるものが採用される請求項5または6に記載のデータ処理装置。
  9. 第1の時期に取得された第1のレーザースキャン点群および第2の時期に取得された第2のレーザースキャン点群を取得するレーザースキャン点群取得ステップと、
    前記第1のレーザースキャン点群と前記第2のレーザースキャン点群の中で共通し、第1の時期と第2の時期において不変な不動物に関するレーザースキャン点群に基づき、前記第1のレーザースキャン点群と前記第2のレーザースキャン点群との対応関係の特定を行うレーザースキャン点群間の対応関係特定ステップと
    を有するデータ処理方法。
  10. コンピュータに読み取らせて実行させるプログラムであって、
    コンピュータを
    第1の時期に取得された第1のレーザースキャン点群および第2の時期に取得された第2のレーザースキャン点群を取得するレーザースキャン点群取得部と、
    前記第1のレーザースキャン点群と前記第2のレーザースキャン点群の中で共通し、第1の時期と第2の時期において不変な不動物に関するレーザースキャン点群に基づき、前記第1のレーザースキャン点群と前記第2のレーザースキャン点群との対応関係の特定を行うレーザースキャン点群間の対応関係特定部と
    して動作させるデータ処理用プログラム。


JP2020147407A 2020-09-02 2020-09-02 データ処理装置、データ処理方法およびデータ処理用プログラム Pending JP2022042146A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020147407A JP2022042146A (ja) 2020-09-02 2020-09-02 データ処理装置、データ処理方法およびデータ処理用プログラム
EP21190819.9A EP3964859A1 (en) 2020-09-02 2021-08-11 Data processor, data processing method, and data processing program
US17/445,399 US11551411B2 (en) 2020-09-02 2021-08-18 Data processor, data processing method, and data processing program for determining correspondence relationships between laser scanning point clouds

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020147407A JP2022042146A (ja) 2020-09-02 2020-09-02 データ処理装置、データ処理方法およびデータ処理用プログラム

Publications (1)

Publication Number Publication Date
JP2022042146A true JP2022042146A (ja) 2022-03-14

Family

ID=77595276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020147407A Pending JP2022042146A (ja) 2020-09-02 2020-09-02 データ処理装置、データ処理方法およびデータ処理用プログラム

Country Status (3)

Country Link
US (1) US11551411B2 (ja)
EP (1) EP3964859A1 (ja)
JP (1) JP2022042146A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4245412A1 (en) 2022-03-17 2023-09-20 Espec Corp. Environment forming device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022042146A (ja) * 2020-09-02 2022-03-14 株式会社トプコン データ処理装置、データ処理方法およびデータ処理用プログラム
JP2023022517A (ja) * 2021-08-03 2023-02-15 株式会社東芝 計測システム及び計測プログラム
CN114511626B (zh) * 2022-04-20 2022-08-05 杭州灵西机器人智能科技有限公司 基于rgbd相机***的图像处理装置、方法、设备及介质
CN115619780B (zh) * 2022-12-14 2023-03-21 苏州点线空间科技有限公司 一种激光扫描图像质量评估方法及***

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8179393B2 (en) * 2009-02-13 2012-05-15 Harris Corporation Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment
JP6442193B2 (ja) 2014-08-26 2018-12-19 株式会社トプコン 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法およびプログラム
US10459084B2 (en) * 2014-12-30 2019-10-29 Nokia Technologies Oy Range sensing using a hybrid range sensing device
WO2017208503A1 (ja) * 2016-05-30 2017-12-07 三菱電機株式会社 地図データ更新装置、地図データ更新方法および地図データ更新プログラム
US10215858B1 (en) * 2016-06-30 2019-02-26 Google Llc Detection of rigid shaped objects
CN107871129B (zh) * 2016-09-27 2019-05-10 北京百度网讯科技有限公司 用于处理点云数据的方法和装置
KR101858902B1 (ko) * 2017-06-26 2018-05-16 한국도로공사 컴포넌트를 활용한 점군 데이터의 객체 위치정보 추출 시스템
US11618438B2 (en) * 2018-03-26 2023-04-04 International Business Machines Corporation Three-dimensional object localization for obstacle avoidance using one-shot convolutional neural network
CN109345596A (zh) * 2018-09-19 2019-02-15 百度在线网络技术(北京)有限公司 多传感器标定方法、装置、计算机设备、介质和车辆
US10877155B2 (en) * 2018-09-25 2020-12-29 Topcon Corporation Survey data processing device, survey data processing method, and survey data processing program
EP3894788A4 (en) * 2018-12-13 2022-10-05 Continental Automotive GmbH METHOD AND SYSTEM FOR GENERATION OF ENVIRONMENTAL MODEL FOR POSITIONING
US11216663B1 (en) * 2020-12-01 2022-01-04 Pointivo, Inc. Systems and methods for generating of 3D information on a user display from processing of sensor data for objects, components or features of interest in a scene and user navigation thereon
US11420647B2 (en) * 2020-08-13 2022-08-23 Argo AI, LLC Enhanced static object classification using lidar
JP2022042146A (ja) * 2020-09-02 2022-03-14 株式会社トプコン データ処理装置、データ処理方法およびデータ処理用プログラム
US20220180541A1 (en) * 2020-12-07 2022-06-09 Faro Technologies, Inc. Three-dimensional coordinate scanner

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4245412A1 (en) 2022-03-17 2023-09-20 Espec Corp. Environment forming device

Also Published As

Publication number Publication date
US20220068019A1 (en) 2022-03-03
US11551411B2 (en) 2023-01-10
EP3964859A1 (en) 2022-03-09

Similar Documents

Publication Publication Date Title
JP6543520B2 (ja) 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム
JP2022042146A (ja) データ処理装置、データ処理方法およびデータ処理用プログラム
JP6510247B2 (ja) 測量データ処理装置、測量データ処理方法およびプログラム
US20200401617A1 (en) Visual positioning system
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
US9721158B2 (en) 3D terrain mapping system and method
US20080279421A1 (en) Object detection using cooperative sensors and video triangulation
CN103377476A (zh) 使用三维地理弧的多模型数据的图像配准
EP3842735B1 (en) Position coordinates estimation device, position coordinates estimation method, and program
JP6479296B2 (ja) 位置姿勢推定装置および位置姿勢推定方法
US20230138487A1 (en) An Environment Model Using Cross-Sensor Feature Point Referencing
Anai et al. Automatic exterior orientation procedure for low-cost UAV photogrammetry using video image tracking technique and GPS information
US20210304518A1 (en) Method and system for generating an environment model for positioning
US20230351687A1 (en) Method for detecting and modeling of object on surface of road
CN114556449A (zh) 障碍物检测及重识别方法、装置、可移动平台及存储介质
JP4752319B2 (ja) 画像認識装置及び画像認識方法
Beran et al. Navigation of robotics platform using monocular visual odometry
KR100586815B1 (ko) 3차원 위치 추적 시스템 및 방법
JP7117408B1 (ja) 位置算出装置、プログラム及び位置算出方法
US20230342975A1 (en) Fusion enabled re-identification of a target object
JP2024039070A (ja) 地物管理システム
KR20220032332A (ko) Cctv 장치 기반의 침수위 추정 시스템
CN117649619A (zh) 无人机视觉导航定位回收方法、***、装置及可读存储介质
JP2003075153A (ja) 測量データ処理方法
Armenakis GENERATION OF DENSE 3D POINT CLOUDS USING A SMALL QUADCOPTER

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240311

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240604