JP6518952B2 - 車両用表示装置の位置調整方法 - Google Patents

車両用表示装置の位置調整方法 Download PDF

Info

Publication number
JP6518952B2
JP6518952B2 JP2016557667A JP2016557667A JP6518952B2 JP 6518952 B2 JP6518952 B2 JP 6518952B2 JP 2016557667 A JP2016557667 A JP 2016557667A JP 2016557667 A JP2016557667 A JP 2016557667A JP 6518952 B2 JP6518952 B2 JP 6518952B2
Authority
JP
Japan
Prior art keywords
camera
display device
virtual image
viewpoint detection
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016557667A
Other languages
English (en)
Other versions
JPWO2016157799A1 (ja
Inventor
木村 雅之
雅之 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2016157799A1 publication Critical patent/JPWO2016157799A1/ja
Application granted granted Critical
Publication of JP6518952B2 publication Critical patent/JP6518952B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Instrument Panels (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Description

本開示は運転者の視野上に虚像を表示する車両用表示装置に係り、特に虚像の観察者の視点を検知するための視点検知カメラと表示装置の相対的な位置および姿勢を算出する技術に関する。
ヘッドアップディスプレイ(Head Up Display、HUD)を自動車に搭載することで、運転者の視野上に虚像を表示することができ、視線移動が少なくなることで運転者が情報を読み取る際の負担を低減することができる。また、前方障害物をマーキングして強調するなどの拡張現実(Augmented Reality、AR)表示によって、運転者に対してより多くの情報を提供することが可能である。
このようなAR表示を行う際には、運転者から見て描画対象物と描画内容が所定の位置関係にないと煩わしさや誤認識の原因となるため、運転者の視点位置を検出してそれに応じて描画位置を変更することが望ましい。一般的には車室内に視点検知用のカメラを設置し、それによって運転者の視点位置を検出する。
しかし、視点検知用のカメラ、HUDの双方に組み立て時のバラ付きや車体取り付け時のずれなどの誤差要因があり、両者の位置関係が設計時の想定と異なる可能性が高い。従って、取り付け後に何らかの手段で両者の相対姿勢を計測し、描画の際には計測された相対姿勢に基づいて描画を行うことが望ましい。
これに対して特許文献1では運転者の目の位置に鏡を設置し、視点検知用のカメラで撮影された鏡の像を見ながら視点検知用のカメラとHUDの位置関係を調整する手法が開示されている。
特開2009−262666号公報
特許文献1に記載の手法は視点検知用のカメラとHUDの相対姿勢に媒介者である鏡の姿勢が加わるため、正しい相対姿勢を得るためには何らかの手段で正確な鏡の姿勢を知る必要がある。正確な鏡の姿勢を知る手順を踏むのは煩雑であるため、より簡便に相対姿勢を計測することができる手法が求められる。
本開示は、視点検知カメラとHUDの相対姿勢を容易に計測し、HUDの表示位置を調整することが可能な車両用表示装置の表示位置調整方法を提供する。
本開示における表示位置調整方法は、運転者の前方視野上に虚像を表示する表示装置と、運転者を撮影する視点検知カメラと、を備えた車両表示装置の位置調整方法である。そして、虚像および位置調整のための情報を取得するための較正用パターンを撮影可能な位置に測定用カメラを設置すると共に、虚像の視野角、視点検知カメラの画角、および測定用カメラの画角に対して所定の位置に較正用パターンを配置するステップを有する。また、視点検知カメラおよび測定用カメラで較正用パターンを撮影するステップと、測定用カメラで虚像を撮影するステップとを有する。また、視点検知カメラによって撮影された映像と測定用カメラによって撮影された映像とを用いて、測定用カメラと視点検知カメラの相対位置と姿勢の算出、および測定用カメラと表示装置の相対位置と姿勢の算出を行った後、視点検知カメラと表示装置の相対位置と姿勢を姿勢情報として算出するステップを有する。さらに、姿勢情報を用いて表示装置が表示する虚像の位置を調整するステップを有する。
本開示における車両用表示装置の位置調整方法は、視点検知カメラとHUDの相対姿勢を容易に計測し、HUDの表示位置を調整することが可能となる。
図1は、第1の実施の形態における表示位置調整方法の一構成例を示すブロック図である。 図2は、第1の実施の形態における表示位置調整方法の一構成例を示す機能ブロック図である。 図3は、第1の実施の形態における位置調整方法の処理の流れを示すフローチャートである。 図4は、第1の実施の形態における較正用パターンの設置例を示す図である。 図5は、第1の実施の形態における較正用パターンの他の設置例を示す図である。 図6Aは、測定用カメラとHUDの相対姿勢を説明する図である。 図6Bは、測定用カメラとHUDの相対姿勢を説明する図である。 図7Aは、表示位置の調整例を示す図である。 図7Bは、表示位置の調整例を示す図である。 図8は、第2の実施の形態における位置調整方法の処理の流れを示すフローチャートである。 図9は、第2の実施の形態における較正用パターンの設置位置の例を示す図である。 図10Aは、第2の実施の形態における較正用パターンの形状の例を示す図である。 図10Bは、第2の実施の形態における較正用パターンの形状の例を示す図である。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、発明者(ら)は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
(第1の実施の形態)
以下、図1〜図7A、図7Bを用いて、第1の実施の形態を説明する。
[1−1.構成]
[1−1−1.装置構成]
図1は、第1の実施の形態における車両用表示装置100の位置調整方法を説明するための模式図である。
図1に示すように、車両用表示装置100の位置調整には、姿勢判定装置200、較正用パターン300を用いる。
車両用表示装置100は、HUD110、視点検知カメラ120、表示制御ECU(Electronic Control Unit)130を備える。
HUD110は運転者の前方視野上に虚像を表示するもので、ヘッドアップディスプレイによって構成される。HUD110はいわゆるウインドシールド型、コンバイナ型のいずれであっても本方法は適用可能である。
視点検知カメラ120は、運転者の顔を撮影する。撮影した映像は、運転者の視点位置測定に用いられる。視点検知カメラ120は、単眼カメラやステレオカメラなどによって構成される。本実施の形態では、ステレオカメラを用いるものとして説明を進める。視点検知カメラ120は、ダッシュボードやメーター内など、運転者の顔ができるだけ正面に近い方向から撮影出来る場所であれば、どこに設置してもよい。
表示制御ECU130は、視点検知カメラ120の撮影や、HUD110の表示位置など、車両用表示装置100を構成する各構成要素を制御する。
姿勢判定装置200は、測定用カメラ210とPC220とを備える。
測定用カメラ210は、HUD110が表示する虚像の表示位置を調整する時にのみ、車両内に設置されるカメラである。測定用カメラ210は、較正用パターン300およびHUD110が表示した虚像を撮影する。測定用カメラは、例えば、ステレオカメラや距離センサーなどの組み合わせによって構成される。
PC220は、測定用カメラ210が撮影した映像と視点検知カメラ120が撮影した映像より、HUD110の姿勢を判定する。較正用パターン300は、位置調整時にのみ車両内に設置される。
[1−1−2.機能構成]
図2は、車両用表示装置100および姿勢判定装置200の機能ブロック図である。
車両用表示装置100は、図1のHUD110に相当する表示部111、図1の視点検知カメラ120に相当する撮像部121、および図1の表示制御ECU130に相当する視点検出部131、表示制御部132、CPU133、メモリ134、出力I/F135を備える。姿勢判定装置200は、図1の測定用カメラ210に相当する撮像部211、および図1のPC220を構成するCPU221、出力I/F222を備える。また、車両用表示装置100と姿勢判定装置200のデータのやり取りに、本実施の形態では、メモリカード400を用いる。
表示部111は運転者の視野上に虚像を表示する。撮像部121は、運転者の顔を所定の期間、例えば、毎秒30枚撮影する。なお、撮像部121は、距離センサーなどと組み合わせて構成される。
視点検出部131は、撮像部121が所定の期間撮影した映像より、運転者の視点位置を検出する。視点位置の検出は、例えば、撮像部121が撮影した2枚の画像から、視点の視差を求めることで、視点の3次元位置を求めることができる。
表示制御部132は表示部111が表示する虚像の表示位置および表示内容を制御する。また、表示制御部132は姿勢判定装置200が算出した姿勢情報に従って、表示部111の表示位置を制御する。
CPU133は車両用表示装置100全体の動作を制御するためのコントローラである。なお、視点位置の検出には、別途DSP(Digital Signal Processor)やFPGA(Field−Programmable Gate Array)などのハードウェアを用いてもよい。
メモリ134はCPU133のワークメモリや、撮像部121で撮影した映像や、視点検出部131の検出結果などを記憶しておくために用いる。メモリ134は、DRAMなどの揮発性メモリやフラッシュメモリなどの不揮発性メモリからなる。
出力I/F(Interface)135は、撮像部121が撮影した映像を姿勢判定装置200へ出力したり、姿勢判定装置200からの姿勢情報を入力したりするために用いられる。具体的には、出力I/F135は、撮像部121が撮影した映像を可搬可能なメモリカード400に記録したり、メモリカード400から姿勢情報を読み出したりする場合のメモリカードインタフェース等である。
撮像部211は、較正用パターン300や、HUD110が表示した虚像を撮影するのに用いられる。
CPU221は、PC220を構成する各構成要素を制御するためのコントローラであり、プログラムが格納された不揮発性メモリ、プログラムを実行するための一時的な記憶領域である不揮発性メモリ、入出力ポート、プログラムを実行するプロセッサを有する。PC220は、撮像部211が撮影した映像と車両用表示装置100の撮像部121が撮影した映像より、図1のHUD110と視点検知カメラ120の相対位置と姿勢(相対姿勢)を判定し、HUD110の表示位置を調整するための姿勢情報を算出する。
出力I/F222は、車両用表示装置100の撮像部121が撮影した映像を入力したり、CPU221が算出した姿勢情報を出力したりするために用いられる。具体的には、メモリカード400より、撮像部121が撮影した映像を読み出したり、CPU221が算出した姿勢情報をメモリカード400に記録したりする場合のメモリカードインタフェース等である。
メモリカード400は、可搬可能な記録媒体であり、撮像部121で撮影した映像や姿勢判定装置200で算出した姿勢情報の入出力に使用される。
[1−2.動作]
図3は本実施の形態における位置調整方法の処理の流れを示すフローチャートである。図4は、本実施の形態における較正用パターンの設置例を示す図である。図5は、本実施の形態における較正用パターンの他の設置例を示す図である。
[1−2−1.処理の流れ]
まず、測定用カメラ210と較正用パターン300を車両内の所定の位置に設置する(ステップS301)。測定用カメラ210はHUD110が表示する虚像を撮影可能な位置に設置する。較正用パターンは、虚像の視野角と視点検知カメラ120の画角に対して、所定の位置に配置する。
具体的には、較正用パターン300は、図4に示すようにHUD110が表示する虚像Aの視野角θ1、視点検知カメラの画角θ2、測定用カメラの画角θ3の3つの角が重なる範囲B(塗りつぶし領域)内に設置することが望ましい。
ここで、HUD110および視点検知カメラ120の仕様によっては、図4のような位置に較正用パターン300を配置することが困難である可能性も考えられる。そのような場合には図5に示すように、HUD110が表示する虚像Aの視野角θ1と測定用カメラ210の画角θ2の共通範囲α1と、視点検知カメラ120の画角θ3と測定用カメラ210の画角θ2の共通範囲α2に跨るように、較正用パターン300を配置してもよい。ここで、共通範囲α1は、視点検知カメラ120の画角θ2の外に位置し、共通範囲α2は、虚像Aの視野角θ1の外に位置する。
なお、図4、図5において、較正用パターン300は、板状の形をしているが、これに限定されない。較正用パターン300は、共通範囲α1、α2に跨る既知の形状であれば、どのような形状でも構わない。例えば、測定用カメラ210から見て、α1の領域に位置する部分と、α2の領域に位置する部分の奥行きが異なっている形状でも構わない。
次に、測定用カメラ210と視点検知カメラ120のそれぞれで較正用パターン300を撮影する(ステップS302)。車両用表示装置100のCPU133は、視点検知カメラ120に較正用パターン300を撮影させ、撮影した映像をメモリ134に記録させる。同様に、姿勢判定装置200のCPU221は、測定用カメラ210に較正用パターン300を撮影させる。
視点検知カメラ120と測定用カメラ210による撮影が終了すると、較正用パターン300を虚像Aの視野角θ1の外に移動させる。その後、姿勢判定装置200のCPU221は、測定用カメラ210に虚像Aを撮影させる(ステップS303)。この際、虚像Aとしては、虚像Aの各画素が測定用カメラ210のどの位置に写っているかを特定できる特徴的なパターンを備えたものを表示する。ここで、特徴的なパターンの例としては画素ごとに色が異なるパターン、画素ごとに異なるタイミングで輝度や色が変化するパターン、などが考えられる。
次に、姿勢判定装置200のCPU221は、測定用カメラ210と視点検知カメラ120で各々撮影した画像から、測定用カメラ210と視点検知カメラ120の相対姿勢の算出、および測定用カメラ210とHUD110の相対姿勢の算出を行う(ステップS304)。
この時、車両用表示装置100の出力I/F135にメモリカード400を接続し、メモリ134に記録されている視点検知カメラ120が撮影した映像をメモリカード400に記録する。その後、メモリカード400を姿勢判定装置200の出力I/Fに接続させる。姿勢判定装置200のCPU221は、メモリカード400より視点検知カメラ120が撮影した映像を読み出す。CPU221は、視点検知カメラ120が撮影した映像と、測定用カメラ210が撮影した映像を用いて、測定用カメラ210に対する視点検知カメラ120の相対姿勢を算出するとともに、測定用カメラ210に対するHUD110の相対姿勢を算出する。
姿勢判定装置200のCPU221は、測定用カメラ210に対する視点検知カメラ120およびHUD110の相対姿勢から、視点検知カメラ120に対するHUD110の相対姿勢を算出する(ステップS305)。CPU221は、算出結果を姿勢情報として、姿勢判定装置200の出力I/F222を介してメモリカード400に記録する。
車両用表示装置100のCPU133は、車両用表示装置100の出力I/F135を介して、メモリカード400より、姿勢判定装置200で算出された姿勢情報を読み出し、メモリ134に記録させる。CPU133は、記録した姿勢情報に従って、表示制御部132にHUD110が表示する虚像の表示位置を調整させる(ステップS306)。
[1−2−2.測定用カメラと視点検知カメラの間の相対姿勢の測定]
ここでは、姿勢判定装置200が算出する姿勢情報の算出方法について詳細に説明する。
まず、「視点検知カメラ120によって構成される3次元座標系」を「測定用カメラ210によって構成される3次元座標系」に変換する。この変換は(数1)で表される。
(数1)において、(x,y,z)は測定用カメラ210によって構成される3次元座標系上のある点Pの座標を表し、(x,y,z)は視点検知カメラ120によって構成される3次元座標系で点Pを見たときの座標を表す。また、Rc11からRc33は座標系の回転に相当し、(tcx,tcy,tcz)は座標系の原点の平行移動量に相当する。ここで、座標系の回転Rの9個の変数、および座標系原点の平行移動量tの3つの変数、合計12個の変数の値を求めることが、測定用カメラ210と視点検知カメラ120の間の相対姿勢を求めることに相当する。
以下、上記回転Rおよび平行移動量tを求める方法について説明する。
較正用パターン300上のn個の点の座標を測定用カメラ210で測定した結果を(xw1,yw1,zw1)、(xw2,yw2,zw2)、…、(xwn,ywn,zwn)とする。また、較正用パターン300上のn個の点の座標を視点検知カメラ120で測定した結果を(xc1,yc1,zc1)、(xc2,yc2,zc2)、…、(xcn,ycn,zcn)とする。これらを(数1)に代入した結果のうち、行列の1行目部分に着目すると、(数2)のようになる。
(数2)において、未知数はRc11、Rc12、Rc13、tcxの4つであるため、最低4点の座標の組が得られればこの方程式を解くことができる。実際にはカメラでの測定誤差の影響を考慮して4点より多くの点について測定を行い、最小自乗法などの手法で全体の誤差が最小となるように各未知数の値を定める。行列の2行目、3行目部分についても同様にして未知数の値を定めることができるので、説明を省略する。
[1−2−3.測定用カメラとHUDの間の相対姿勢の測定]
まず、較正用パターン300のn個の点について、測定用カメラ210の座標系における3次元位置(xw1,yw1,zw1)、(xw2,yw2,zw2)、…、(xwn wn,zwn)と、画像上の座標(uw1,vw1)、(uw2,vw2)、…、(uwn,vwn)を求める。次いでHUD110が表示した虚像を撮影した画像から、(uw1,vw1)、(uw2,vw2)、…、(uwn,vwn)の位置にHUD110の虚像のどの画素が写っているかを判定する。以下、判定されたHUD110の画素の座標を(uh1,vh1)、(uh2,vh2)、…、(uhn,vhn)とする。
ここでHUD110の画素の3次元位置が分かれば視点検知カメラ120と同様に扱うことができるのだが、HUD110の虚像は視点位置が変化するとウインドシールドやコンバイナ形状の影響で形状に歪みが発生し、ステレオマッチングでは正しい3次元位置を測定できない可能性がある。また、虚像を観測可能な範囲が狭いとステレオカメラの両眼で虚像を観測できない可能性がある。従って以下の方法で虚像の3次元位置を定める。
具体的にはHUD110の光学中心位置および光軸の向き、即ち測定用カメラ210に対する相対姿勢を仮定すると、測定用カメラ210から見てどこに虚像が投影されるかはHUD110の設計スペックから一意に定まる。よって仮定した姿勢が正しいかどうかが判断できれば良いことが分かる。以下では仮定した姿勢が正しいかの判断方法について説明する。
HUD110の画素(uh1,vh1)、(uh2,vh2)、…、(uhn,vhn)を、ある姿勢で空間中に投影した時の、測定用カメラ210の座標系における3次元座標をそれぞれ(xh1,yh1,zh1)、(xh2,yh2,zh2)、…、(xhn,yhn,zhn)とする。姿勢が正しい場合には図6Aのように(xw1,yw1,zw1)と(xh1,yh1,zh1)を結ぶ直線L1、(xw2,yw2,zw2)と(xh2,yh2,zh2)を結ぶ直線L2、…、(xwn,ywn,zwn)と(xhn,yhn,zhn)を結ぶ直線L3がある一点Pで交わる。これは各点が測定用カメラ210の画像上で同じ画素に写っている点同士であることから自明である。
一方で、姿勢が正しくない場合には図6Bのように各直線R1、R2、R3が一点で交わらない。各直線からの距離が最小となる点の座標(X,Y,Z)は以下の(数3)のDを最小化するパラメータti(i=1…n)を求めることで得ることができる。
tiは最小自乗法などの手法で求めることができるので、tiを求めた後に(数3)のDの値自体を最小化するような(xh1,yh1,zh1)、(xh2,yh2,zh2)、…、(xhn,yhn,zhn)が得られる姿勢を同じく最小自乗法などの手法で求めることで、正しい姿勢が得られる。最終的に、HUD110の座標系における3次元位置(x,y,z)を測定用カメラの座標系における3次元位置(x,y,z)に変換するための(数4)が得られる。
最後に、図3のステップS304で得られた測定用カメラ210に対する視点検知カメラ120、およびHUD110の相対姿勢から、視点検知カメラ120に対するHUD110の相対姿勢を算出する(ステップS305)。具体的には(数1)、(数4)から(x,y,z)を消去して、以下の(数5)を得る。
(数5)における行列部分が、視点検知カメラに対するHUDの相対姿勢を表す。すなわち、(数5)の行列部分が姿勢情報に相当する。車両用表示装置100のCPU133は、視点検知カメラ120で得られた運転者の視点の3次元位置をHUD110の座標系における3次元位置に変換するための演算を行う。表示制御部132は、CPU133の演算結果に従って、HUD110の表示位置を調整する。
[1−3.まとめ]
本実施の形態の表示位置調整方法は、運転者の前方視野上に虚像を表示するHUD110と、運転者を撮影する視点検知カメラ120とを備えた車両用表示装置100において、虚像および位置調整のための情報を取得するための較正用パターン300を撮影可能な位置に測定用カメラ210を設置すると共に、虚像の視野角θ1、視点検知カメラの画角θ2、および測定用カメラの画角θ3に対して所定の位置に較正用パターン300を配置する。次に、視点検知カメラ120および測定用カメラ210で較正用パターン300を撮影し、測定用カメラ210で虚像を撮影する。次に視点検知カメラ120によって撮影された映像と測定用カメラ210によって撮影された映像とを用いて、測定用カメラ210と視点検知カメラ120の相対位置と姿勢の算出、および測定用カメラ210とHUD110の相対位置と姿勢の算出を行った後、視点検知カメラ120とHUD110の相対位置と姿勢を姿勢情報として算出する。算出した姿勢情報を用いてHUD110が表示する虚像の位置を調整する。
これにより、HUD110と視点検知カメラ120の相対姿勢を容易に計測することができる。
従って、HUD110の表示位置調整を簡便に行うことができる。
例えば、特許文献1では、視点検知カメラ、HUDの双方に組み立て時のバラ付きや車体取り付け時のずれなどの誤差要因があり、両者の位置関係が設計時の想定と異なる可能性が高い。従って、図7Aに示すように、測定された視点位置Q1と設計時の視点位置Q2にずれが生じる。この場合、視点位置Q1から見て物体Cに重なるように虚像Iを表示しても、真の視点位置Q2からは、虚像Iが物体Cに重なって見えない。これに対して、本開示における技術を適用すると、測定された視点位置Q1から真の視点位置Q2を算出できるので、図7Bに示すように、視点位置Q2から見て物体Cに重なる位置に虚像D2を表示することができる。
(第2の実施の形態)
第1の実施の形態において、較正用パターンは視点検知カメラ、測定用カメラのいずれとも別体であったが、較正用パターンが測定用カメラに取り付けられている場合でも、以下に示す手順で較正を行うことができる。なお、第2の実施の形態における装置の構成は第1の実施の形態と重複するため記載を省略するものとする。その他第1の実施の形態と同様の箇所についても記載を省略する。
[2−1.動作]
図8は本実施の形態における位置調整方法の処理の流れを示すフローチャートである。図9は本実施の形態における較正用パターンの設置例を示す図である。
[2−1−1.処理の流れ]
処理の流れは図3で示した第1の実施の形態における処理の流れとほぼ同一である。大きく異なるのはステップS802で、較正用パターンが測定用カメラに取り付けられているため、視点検知カメラ120のみで較正用パターンを撮影する。較正用パターンは図9に示すように視点検知カメラ120の画角に収まるような形状である必要がある。なお、図9において較正用パターンは測定用カメラ210の下部に取り付けられているが、具体的な位置は必ずしもこの図の通りでなくてもよく、例えば測定用カメラ210の上部や、複数の箇所に取り付けられていてもよい。
[2−1−2.測定用カメラと視点検知カメラの間の相対姿勢の測定]
第1の実施の形態と同様に、まずは「視点検知カメラ120によって構成される3次元座標系」を「測定用カメラ210によって構成される3次元座標系」に変換する。一般に座標系間の変換を行うには、変換したい座標系の原点の位置および座標系の向きを定める必要がある。具体的には変換前の座標系での位置(x,y,z)と変換後の座標系での位置(x1,y1,z1)との間には以下の(数6)が成り立つ。
11からR33は座標系の回転を表す行列で、変換後の座標系の向きが分かれば容易に求めることができる。(t,t,t)は座標系の原点の平行移動量に相当する。
測定用カメラ210によって構成される3次元座標系の原点位置と向きを得るための方法として、例えば図10A、図10Bで示すように較正用パターン300として3つの点を正三角形状に、測定用カメラ210の光学中心(測定用カメラ210によって構成される3次元座標系の原点)がその正三角形の重心に位置するように較正用パターン300を配置し、視点検知カメラ120で較正用パターン300の3つの点の3次元座標を計測する。これによって計測された3次元座標の重心が測定用カメラ210の光学中心の位置を表し、3つの点の3次元座標から決まる面の法線方向が測定用カメラ210の向きを表す。
なお、較正用パターンの例は図10A、図10Bで示したものに限らず、測定用カメラ210の光学中心に対して位置が既知であり、かつ測定用カメラ210の向きを定義可能、即ち同一直線上にない3点以上の座標を定義可能である任意のパターンを用いることができる。
[2−1−3.測定用カメラとHUDの間の相対姿勢の測定]
較正用パターン300が測定用カメラ210の画角内かつHUD110の虚像の視野角内に存在する場合は実施の形態1で用いた方法をそのまま用いることが出来る。この条件を満たさない場合は以下のようにして測定用カメラとHUDの間の相対姿勢を測定する。
第1の実施の形態についての説明でも述べた通り、HUD110の光学中心位置および光軸の向き、即ち測定用カメラ210に対する相対姿勢を仮定すると、測定用カメラ210から見てどこに虚像が投影されるかはHUD110の設計スペックから一意に定まる。虚像のn個(ただしn≧3で、かつ少なくとも1つは同一直線上にない)の画素について、HUD110がある姿勢を取った場合の、測定用カメラ210の画像上での位置(u,v)、(u,v)、…、(u,v)を算出する。これと測定用カメラ210で実際に撮影された画像上での各画素の画像上での位置(u1,v1)、(u1,v1)、…、(u1,v1)から、以下の(数7)で示す値D1が最小となるHUDの姿勢を算出する。
D1の最小化はニュートン法などの数値計算アルゴリズムや、あるいは焼きなまし法(Simulated Annealing)のような確率的アルゴリズムを用いて行うことができる。
[2−2.まとめ]
以上のようにして測定用カメラと視点検知カメラの間の相対姿勢、および測定用カメラとHUDの間の相対姿勢を定めることができれば、実施の形態1と同様の考え方で両者を結びつけ、視点検知カメラとHUDの間の相対姿勢を計測することが出来る。
(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
そこで、以下、他の実施の形態を例示する。
例えば、較正用パターンとして、半透明の物体を用いてもよい。これによって、HUDの虚像を撮影する際に較正用パターンの設置や移動をする必要がなくなり、作業時間を短縮することができる。
また、上記実施の形態で説明した位置調整方法において、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。
なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。
また、上記実施の形態の各処理をハードウェアにより実現してもよいし、ソフトウェアにより実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。なお、上記実施の形態に係るデジタルカメラをハードウェアにより実現する場合、各処理を行うためのタイミング調整を行う必要があるのは言うまでもない。上記実施の形態においては、説明便宜のため、実際のハードウェア設計で生じる各種信号のタイミング調整の詳細については省略している。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、虚像を表示するとともに、虚像の観察者の視点位置を計測して虚像の表示位置を制御する表示装置に適用可能である。
100 車両用表示装置
110 HUD
111 表示部
120 視点検知カメラ
121,211 撮像部
130 表示制御ECU
131 視点検出部
132 表示制御部
133,221 CPU
134 メモリ
135,222 出力I/F
200 姿勢判定装置
210 測定用カメラ
220 PC
300 較正用パターン
400 メモリカード

Claims (7)

  1. 運転者の前方視野上に虚像を表示する表示装置と、
    前記運転者を撮影する視点検知カメラと、
    を備えた車両表示装置の位置調整方法であって、
    前記虚像および位置調整のための情報を取得するための較正用パターンを撮影可能な位置に測定用カメラを設置すると共に、
    前記虚像の視野角、前記視点検知カメラの画角、および前記測定用カメラの画角に対して所定の位置に前記較正用パターンを配置するステップと、
    前記視点検知カメラおよび前記測定用カメラで前記較正用パターンを撮影するステップと、
    前記測定用カメラで前記虚像を撮影するステップと、
    前記視点検知カメラによって撮影された映像と前記測定用カメラによって撮影された映像とを用いて、前記測定用カメラと前記視点検知カメラの相対位置と姿勢を算出するとともに、前記測定用カメラと前記表示装置の相対位置と姿勢を算出し、2つの前記相対位置と姿勢から前記視点検知カメラと前記表示装置の相対位置と姿勢を姿勢情報として算出するステップと、
    前記姿勢情報を用いて前記表示装置が表示する前記虚像の位置を調整するステップとからなる車両用表示装置の位置調整方法。
  2. 前記虚像の視野角と、前記視点検知カメラの画角と、前記測定用カメラの画角が重なる範囲内に前記較正用パターンを設置する請求項1に記載の車両用表示装置の位置調整方法。
  3. 前記虚像の視野角と前記測定用カメラの画角が重なる範囲であり、かつ前記視点検知カメラの画角外である領域と、前記視点検知カメラの画角と前記測定用カメラの画角が重なる範囲であり、かつ前記虚像の視野角の範囲外である領域に跨って、前記較正用パターンを設置する請求項1に記載の車両用表示装置の位置調整方法。
  4. 前記較正用パターンは半透明である請求項2または3のいずれか一項に記載の車両用表示装置の位置調整方法。
  5. 前記視点検知カメラと前記表示装置の相対位置と姿勢を姿勢情報として算出するステップにおいて、前記表示装置によって表示される虚像が、前記測定用カメラで撮影された画像のどの画素に前記虚像のどの画素が写っているかを特定するための特徴的なパターンを備えていることを特徴とする、請求項1から4のいずれか一項に記載の車両用表示装置の位置調整方法。
  6. 前記画素を特定するための特徴的なパターンが、時間的に色や輝度が変化するパターンであることを特徴とする、請求項5に記載の車両用表示装置の位置調整方法。
  7. 運転者の前方視野上に虚像を表示する表示装置と、
    前記運転者を撮影する視点検知カメラと、
    を備えた車両表示装置の位置調整方法であって、
    前記虚像を撮影する測定用カメラを設置すると共に、
    前記測定用カメラに対して所定の位置に取り付けられた位置調整のための情報を取得するための較正用パターンを前記視点検知カメラで撮影するステップと、
    前記測定用カメラで前記虚像を撮影するステップと、
    前記視点検知カメラによって撮影された映像と前記測定用カメラによって撮影された映像とを用いて、前記測定用カメラと前記視点検知カメラの相対位置と姿勢の算出、および前記測定用カメラと前記表示装置の相対位置と姿勢の算出を行い、2つの前記相対位置と姿勢から前記視点検知カメラと前記表示装置の相対位置と姿勢を姿勢情報として算出するステップと、
    前記姿勢情報を用いて前記表示装置が表示する前記虚像の位置を調整するステップとからなる車両用表示装置の位置調整方法。
JP2016557667A 2015-03-27 2016-03-18 車両用表示装置の位置調整方法 Active JP6518952B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015065879 2015-03-27
JP2015065879 2015-03-27
PCT/JP2016/001577 WO2016157799A1 (ja) 2015-03-27 2016-03-18 車両用表示装置の位置調整方法

Publications (2)

Publication Number Publication Date
JPWO2016157799A1 JPWO2016157799A1 (ja) 2018-01-18
JP6518952B2 true JP6518952B2 (ja) 2019-05-29

Family

ID=57005863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016557667A Active JP6518952B2 (ja) 2015-03-27 2016-03-18 車両用表示装置の位置調整方法

Country Status (4)

Country Link
US (1) US9772496B2 (ja)
EP (1) EP3147150B1 (ja)
JP (1) JP6518952B2 (ja)
WO (1) WO2016157799A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10412368B2 (en) 2013-03-15 2019-09-10 Uber Technologies, Inc. Methods, systems, and apparatus for multi-sensory stereo vision for robotics
JP6636252B2 (ja) * 2015-03-19 2020-01-29 株式会社メガチップス 投影システム、プロジェクター装置、撮像装置、および、プログラム
US10116873B1 (en) * 2015-11-09 2018-10-30 Ambarella, Inc. System and method to adjust the field of view displayed on an electronic mirror using real-time, physical cues from the driver in a vehicle
US10077007B2 (en) * 2016-03-14 2018-09-18 Uber Technologies, Inc. Sidepod stereo camera system for an autonomous vehicle
DE102017214934B3 (de) 2017-08-25 2019-02-07 Panasonic Automotive & Industrial Systems Europe GmbH Videobildaufnahmeverfahren, Wiedergabeverfahren, Ausrüstung für ein Fahrzeug, eingerichtet zum Ausführen eines Videobildaufnahmeverfahrens und Testsystem zum Ausführen eines Wiedergabeverfahrens
US10967862B2 (en) 2017-11-07 2021-04-06 Uatc, Llc Road anomaly detection for autonomous vehicle
US11181743B2 (en) * 2017-11-14 2021-11-23 Maxell, Ltd. Head up display apparatus and display control method thereof
KR102436730B1 (ko) * 2017-12-06 2022-08-26 삼성전자주식회사 가상 스크린의 파라미터 추정 방법 및 장치
JP6883244B2 (ja) * 2017-12-06 2021-06-09 株式会社Jvcケンウッド 投影制御装置、ヘッドアップディスプレイ装置、投影制御方法およびプログラム
KR102518661B1 (ko) 2018-10-16 2023-04-06 현대자동차주식회사 Hud 시스템의 이미지 왜곡 보정 방법
KR20200067641A (ko) * 2018-12-04 2020-06-12 삼성전자주식회사 3차원 증강 현실을 위한 캘리브레이션 방법 및 그 장치
CN109801341B (zh) * 2019-01-30 2020-11-03 北京经纬恒润科技有限公司 一种标定靶的位置校验方法及装置
CN109889807A (zh) * 2019-03-14 2019-06-14 百度在线网络技术(北京)有限公司 车载投射调节方法、装置、设备和存储介质
CN111664839B (zh) * 2020-05-20 2022-03-08 重庆大学 车载抬头显示虚像距离测量方法
US11833901B2 (en) 2020-10-12 2023-12-05 GM Global Technology Operations LLC System and method for adjusting a location and distortion of an image projected onto a windshield of a vehicle by a head-up display
CN114494439B (zh) * 2022-01-25 2023-08-15 襄阳达安汽车检测中心有限公司 Hil仿真测试中摄像头位姿校准方法、装置、设备及介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7663502B2 (en) * 1992-05-05 2010-02-16 Intelligent Technologies International, Inc. Asset system control arrangement and method
JP4677104B2 (ja) * 2001-01-10 2011-04-27 矢崎総業株式会社 車両用表示装置
JP2009262666A (ja) * 2008-04-23 2009-11-12 Calsonic Kansei Corp 車両用ヘッドアップディスプレイ装置の調整方法
US8358224B2 (en) * 2009-04-02 2013-01-22 GM Global Technology Operations LLC Point of interest location marking on full windshield head-up display
KR101544524B1 (ko) * 2010-12-16 2015-08-17 한국전자통신연구원 차량용 증강현실 디스플레이 시스템 및 차량용 증강현실 디스플레이 방법
JP2013218346A (ja) * 2013-05-30 2013-10-24 Denso Corp ヘッドアップディスプレイ装置の製造方法および同製造方法に用いるのに適した虚像調整装置

Also Published As

Publication number Publication date
US20160377873A1 (en) 2016-12-29
EP3147150A1 (en) 2017-03-29
JPWO2016157799A1 (ja) 2018-01-18
EP3147150B1 (en) 2018-09-26
EP3147150A4 (en) 2017-10-25
US9772496B2 (en) 2017-09-26
WO2016157799A1 (ja) 2016-10-06

Similar Documents

Publication Publication Date Title
JP6518952B2 (ja) 車両用表示装置の位置調整方法
JP7018566B2 (ja) 撮像装置、画像処理方法及びプログラム
CN112655024B (zh) 一种图像标定方法及装置
JP5491235B2 (ja) カメラキャリブレーション装置
JP6458439B2 (ja) 車載カメラ較正装置、画像生成装置、車載カメラ較正方法、画像生成方法
US8872920B2 (en) Camera calibration apparatus
JP4803450B2 (ja) 車載カメラの校正装置及び当該装置を用いた車両の生産方法
US9866818B2 (en) Image processing apparatus and method, image processing system and program
US8947533B2 (en) Parameter determining device, parameter determining system, parameter determining method, and recording medium
US8396251B2 (en) Method for determining the position of an object from a digital image
US20090070077A1 (en) Three-dimensional model data generating method, and three dimensional model data generating apparatus
US20140114534A1 (en) Dynamic rearview mirror display features
US9082020B2 (en) Apparatus and method for calculating and displaying the height of an object detected in an image on a display
JP5715735B2 (ja) 3次元測定方法、装置、及びシステム、並びに画像処理装置
JP2012253758A (ja) 車両視覚システムの較正方法および車両視覚システム
JP2004198212A (ja) 移動体周辺監視装置
US7409152B2 (en) Three-dimensional image processing apparatus, optical axis adjusting method, and optical axis adjustment supporting method
CN115797467B (zh) 车辆相机标定结果检测方法、装置、设备及存储介质
JP5828024B2 (ja) 3次元測定装置
JP5405809B2 (ja) 車両周辺監視装置およびカメラ位置・姿勢判定方法
CN110194173A (zh) 乘员监视装置
US20220215582A1 (en) Conversion parameter calculation method, displacement amount calculation method, conversion parameter calculation device, and displacement amount calculation device
JPH06167564A (ja) 魚眼レンズを用いた測位方式およびその装置
JPH1079029A (ja) 立体情報検出方法及びその装置
WO2019198399A1 (ja) 画像処理装置および方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180531

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190325

R151 Written notification of patent or utility model registration

Ref document number: 6518952

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151