JP6616842B2 - キャリブレーション方法、携帯機器およびプログラム - Google Patents

キャリブレーション方法、携帯機器およびプログラム Download PDF

Info

Publication number
JP6616842B2
JP6616842B2 JP2017553752A JP2017553752A JP6616842B2 JP 6616842 B2 JP6616842 B2 JP 6616842B2 JP 2017553752 A JP2017553752 A JP 2017553752A JP 2017553752 A JP2017553752 A JP 2017553752A JP 6616842 B2 JP6616842 B2 JP 6616842B2
Authority
JP
Japan
Prior art keywords
electronic device
type electronic
spectacles
calibration
inclination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017553752A
Other languages
English (en)
Other versions
JPWO2017094492A1 (ja
Inventor
幸光 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alps Alpine Co Ltd
Original Assignee
Alps Electric Co Ltd
Alps Alpine Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alps Electric Co Ltd, Alps Alpine Co Ltd filed Critical Alps Electric Co Ltd
Publication of JPWO2017094492A1 publication Critical patent/JPWO2017094492A1/ja
Application granted granted Critical
Publication of JP6616842B2 publication Critical patent/JP6616842B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G12INSTRUMENT DETAILS
    • G12BCONSTRUCTIONAL DETAILS OF INSTRUMENTS, OR COMPARABLE DETAILS OF OTHER APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G12B13/00Calibrating of instruments and apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0223Operational features of calibration, e.g. protocols for calibrating sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、眼鏡型電子機器の加速度センサをキャリブレーションするキャリブレーション方法、携帯機器およびプログラムに関するものである。
加速度センサ等のセンサを備えた眼鏡型電子機器がある。このような眼鏡型電子機器では、搭載する加速度センサで検出した加速度を基に、歩行時の頭の姿勢等を検出し、診断に利用する。
このような歩行時の姿勢は、例えば、歩行時の体軸に対してのずれを、絶対軸(重力)方向を基準に検出することで特定できる。
ところで、加速度センサは、組立時のオフセット誤差や感度に起因する誤差が生じているため、このような誤差を補正するキャリブレーションが必要になる。
このようなキャリブレーションは、例えば、装着者が静止して顔を正面に向けた姿勢をし、その姿勢において眼鏡型電子機器が水平になっていることを前提に行う。
しかしながら、キャリブレーション時に、装着者が顔を正面に向けた姿勢にしても、眼鏡型電子機器の装着ずれ、装着者そのものの絶対軸(重力)からの歪み、意図しない頭の傾き等の要因で、眼鏡型電子機器が水平になっていない場合がある。その場合には、キャリブレーションを適切に行うことができないという問題がある。
本発明はかかる事情に鑑みてなされたものであり、その目的は、眼鏡型電子機器に搭載される加速度センサのキャリブレーションを高精度に行うことができるキャリブレーション方法、携帯機器およびプログラムを提供することを目的とする。
上述した従来技術の問題を解決し、上述した目的を達成するために、本発明のキャリブレーション方法は、携帯機器に搭載された第1の加速度センサが検出した加速度を基に重力方向に対しての所定の傾きを特定する第1の工程と、眼鏡型電子機器を装着した装着者を前記携帯機器で撮像して得られた画像と前記特定した所定の傾きとを基に前記眼鏡型電子機器の傾きを調整するための傾き調整用画像を前記携帯機器のディスプレイに表示する第2の工程と、前記眼鏡型電子機器の傾きの調整が行われたことを条件に、前記眼鏡型電子機器に搭載された第2の加速度センサをキャリブレーションする第3の工程とを有する。
この構成によれば、眼鏡型電子機器の装着者は、携帯機器のディスプレイに表示された傾き調整画像を見ながら、眼鏡型電子機器を正確に所定の傾きに調整できる。そして、眼鏡型電子機器の傾きが調整されたときに、眼鏡型電子機器の第2の加速度センサのキャリブレーションを開始できる。そのため、第2の加速度センサを容易かつ高精度にキャリブレーションできる。
好適には、本発明のキャリブレーション方法の前記第1の工程は、前記重力方向に対しての所定の傾きとして、水平方向を特定し、前記第2の工程は、前記撮像した画像と、前記特定した水平方向の水平線の画像とを同時に含む前記傾き調整用画像を前記ディスプレイに表示する。
この構成似れば、視覚的に把握しやすい水平方向に眼鏡型電子機器を合わせればよく、調整が容易になる。
好適には、本発明のキャリブレーション方法の前記第3の工程は、前記傾き調整画像を表示中に前記携帯機器がキャリブレーション指示を受けると、前記眼鏡型電子機器にキャリブレーション指示を送信し、前記眼鏡型電子機器は前記ャリブレーション指示を受けたことを条件に前記キャリブレーションを行う。
この構成によれば、装着者が傾き調整画像を見て、眼鏡型電子機器が調整された状態のタイミングで眼鏡型電子機器のキャリブレーションを開始できる。
好適には、本発明のキャリブレーション方法の前記第3の工程は、前記携帯機器が、前記撮像した画像内の前記眼鏡型電子機器の特徴点を基に前記眼鏡型電子機器の姿勢を検出し、当該検出した姿勢が前記特定した傾きに対して所定の関係になったと判断した場合に、キャリブレーション指示を前記眼鏡型電子機器に送信し、前記眼鏡型電子機器は前記キャリブレーション指示を受信したことを条件に前記キャリブレーションを行う。
この構成によれば、眼鏡型電子機器が特定の傾きに対しての所定の関係になったことを携帯機器が自動的に検出して、眼鏡型電子機器の加速度センサのキャリブレーションを開始できるので、装着者の負担を軽減できると共に、信頼性の高いキャリブレーション処理を行うことができる。
好適には、本発明のキャリブレーション方法の前記第の工程は、操作者が前記眼鏡型電子機器の操作部を操作して前記眼鏡型電子機器にキャリブレーション指示が入力されたことを条件に、前記眼鏡型電子機器の前記第2の加速度センサをキャリブレーションする。
この構成によれば、眼鏡型電子機器と携帯機器との間の通信が不要のため、簡単な構成で実現できる。
本発明の携帯機器は、眼鏡型電子機器を装着した装着者の画像を撮像する撮像手段と、第1の加速度センサと、前記第1の加速度センサが検出した加速度を基に重力方向に対しての所定の傾きを特定する傾き特定手段と、前記撮像した画像と前記特定した所定の傾きとを基に前記眼鏡型電子機器の傾きを調整するための傾き調整用画像をディスプレイに表示する表示処理手段と、前記眼鏡型電子機器の傾きの調整が行われたことを条件に、前記眼鏡型電子機器に搭載された第2の加速度センサのキャリブレーション指示を前記眼鏡型電子機器に送信するキャリブレーション手段とを有する。
本発明のプログラムは、携帯機器に搭載されたコンピュータで実行されるプログラムであって、前記携帯機器に搭載された第1の加速度センサが検出した加速度を基に重力方向に対しての所定の傾きを特定する第1の手順と、眼鏡型電子機器を装着した装着者を前記携帯機器で撮像して得られた画像と、前記特定した所定の傾きとを基に、前記眼鏡型電子機器の傾きを調整するための傾き調整用画像を前記携帯機器のディスプレイに表示する第2の手順と、前記眼鏡型電子機器の傾きの調整が行われたことを条件に、前記眼鏡型電子機器に搭載された第2の加速度センサのキャリブレーション指示を前記眼鏡型電子機器に送信する第3の手順とを前記コンピュータに実行させる。
本発明によれば、眼鏡型電子機器に搭載される加速度センサのキャリブレーションを高精度に行うことができるキャリブレーション方法、携帯機器およびプログラムを提供することができる。
図1は、本発明の実施形態に係る眼鏡型電子機器の外観斜視図である。 図2は、図1に示す眼鏡型電子機器の機能ブロック図である。 図3は、本発明の実施形態の携帯型電子機器の機能ブロック図である。 図4は、図1に示す眼鏡型電子機器の傾きの調整前において携帯型電子機器に表示された傾き調整画像を説明する図である。 図5は、図1に示す眼鏡型電子機器の傾きの調整後において携帯型電子機器に表示された傾き調整画像を説明する図である。 図6は、本発明の実施形態に係るキャリブレーションの動作例を説明するためのフローチャートである。 図7は、本発明の第3実施形態に係る眼鏡型電子機器の機能ブロック図である。
以下、本発明の実施形態に係るキャリブレーション方法について説明する。
本実施形態のキャリブレーション方法では、携帯型電子機器81の装着者が自画像をカメラで撮像し、ディスプレイ83に傾き調整画像を表示し、それを見ながら装着者が眼鏡型電子機器1の姿勢を水平に調整する。そして、眼鏡型電子機器1が水平になった場合に、眼鏡型電子機器1へのキャリブレーション指示を発行し、眼鏡型電子機器1における加速度センサ71のキャリブレーションが行われる。
以下、本発明の実施形態に係る眼鏡型電子機器1について説明する。
図1は、本発明の実施形態に係る眼鏡型電子機器1の外観斜視図である。図2は、図1に示す眼鏡型電子機器1の機能ブロック図である。
図1に示すように、眼鏡型電子機器1は、例えば、使用者に耳に掛けられるテンプル11,13と、レンズ21,23が固定されるリム31,33と、リム31,33の間に介在するブリッジ35と、鼻パッド41,43とを有する。リム31,33の先端はモダン37,39と呼ばれる。また、テンプル11,13とリム31,33との間には丁番45,47が設けられている。
図2に示すように、鼻パッド41,43の間には、収容ボックス51が設けられている。
また、テンプル11のモダン37側には、収容ボックス53が固定されている。
鼻パッド41の表面には右鼻電極61が設けられ、鼻パッド43の表面には左鼻電極63が設けられる。
右鼻電極61は、使用者が眼鏡型電子機器1を装着した状態で使用者の鼻筋の右側面に接触し(押し付けられ)、当該接触した皮膚の電位である眼電位を検出する。
左鼻電極63は、使用者が眼鏡型電子機器1を装着した状態で使用者の鼻筋の左側面に接触し、当該接触した皮膚の電位である眼電位を検出する。
右鼻電極61と左鼻電極63とは、眼鏡型電子機器1の使用時の使用者の鼻を正面から見たときの左右対称の位置に配置されている。
収容ボックス51には、使用者が眼鏡型電子機器1を装着した状態で使用者の鼻根または眉間に接触し、当該接触した皮膚の電位を検出する眉間電極65が設けられている。
右鼻電極61、左鼻電極63および眉間電極65は、例えば、ステンレスまたはチタンで形成される。
右鼻電極61、左鼻電極63および眉間電極65は、接触対象の人体部位の形状に適した形状で形成されている。
収容ボックス53は、内部に収容空間を有し、当該収容空間内に加速度センサ71、通信部73、バッテリー75および処理部77が収容されている。
収容ボックス51と収容ボックス53とは、プリント基板等の配線で電気的に接続されている。
加速度センサ71は、X,Y,Zの3軸の加速度センサであり、各軸の検出した加速度を処理部77に出力する。加速度センサ71は、所定の検出時間間隔で加速度を検出する。 本実施形態では、加速度センサ71は眼鏡型電子機器1を装着時に、頭の動きを検出するのに適した頭部の耳の周辺に位置する。
通信部73は、Bluetooth(登録商標)等の無線通信であり、右鼻電極61、左鼻電極63および眉間電極65から入力した眼電位や、加速度センサ71から入力した加速度等を、外部装置に送信することができる。
また、通信部73は、後述するように、携帯型電子機器81からキャリブレーション指示信号を携帯型電子機器81から受信する。
処理部77は、右鼻電極61、左鼻電極63および眉間電極65から入力した眼電位、並びに加速度センサ71から入力した加速度を基に、使用者に関する情報を生成する。
右鼻電極61、左鼻電極63および眉間電極65から入力した眼電位(皮膚電位)、並びに加速度センサ71から入力した加速度は、使用者の発汗現象や動きに応じた電位であり、使用者の体調や、精神状態を反映したものである。そのため、眼電位および加速度と、使用者の体調や精神状態とを予め対応付け参照データを用意することで、処理回路77において、入力した使用者の眼電位および加速度と、上記参照データとを比較することで、使用者の体調や精神状態を検出できる。これにより、眼鏡型電子機器1が姿勢診断の機能を発揮する。
眼球は、角膜側が正に帯電しており、網膜側が負に帯電している。したがって、視線が上に移動した場合、眉間電極65の眼電位を基準とした右鼻電極61の眼電位と、眉間電極65を基準とした左鼻電極63の眼電位が負となる。一方、視線が下に移動した場合、眉間電極65の眼電位を基準とした右鼻電極61の眼電位と、眉間電極65の眼電位を基準とした左鼻電極63の眼電位が正となる。
視線が右に移動した場合、眉間電極65を基準とした右鼻電極61の眼電位が負となり、眉間電極65を基準とした左鼻電極63の眼電位が正となる。
視線が左に移動した場合、眉間電極65を基準とした右鼻電極61の眼電位が正となり、眉間電極65を基準とした左鼻電極63の眼電位が負となる。
このように、正の検出用眼電位が示された場合には視線が上を向いたことを検出できる。また、負の検出用眼電位が示された場合には視線が下を向いたことを検出できる。さらに、右鼻電極61からの眼電位が負、左鼻電極63からの眼電位が正である場合には視線が右、右鼻電極61からの眼電位が正、左鼻電極63からの眼電位が負である場合は視線が左に向いたことを検出できる。
処理部77は、加速度センサ71をキャリブレーションする処理を行う。具体的には、処理部77は、通信部73が携帯型電子機器81からキャリブレーション指示信号を受信すると、そのタイミングの姿勢を水平状態であると判断して、加速度センサ71のキャリブレーションを行う。
次に、眼鏡型電子機器1の加速度センサ71をキャリブレーションするために用いられる携帯型電子機器81について説明する。
図3は、本実施形態に係る携帯型電子機器81の機能ブロック図である。
図3に示すように、携帯型電子機器81は、例えば、ディスプレイ83、操作部85、カメラ87、加速度センサ89、通信部91および処理部93を有する
カメラ87は、撮像した画像の画像データを処理部93に出力する。本実施形態では、眼鏡型電子機器1を装着した装着者(使用者)が撮像される。
加速度センサ89は、X,Y,Zの3軸の加速度センサであり、各軸の検出した加速度を処理部93に出力する。
通信部91は、眼鏡型電子機器1との間のBluetooth(登録商標)等の近距離無線通信、並びに、無線LAN通信の機能を備えている。
処理部93は、例えば、傾き特定部101、表示処理部103およびキャリブレーション部105を有する。
傾き特定部101、表示処理部103およびキャリブレーション部105の機能の一部はハードウェアによって実現されてもよいし、処理回路でプログラムを実行することで実現してもよい。
例えば、携帯型電子機器81は、通信部91の無線LAN通信機能を使って、ネットワークからキャリブレーション用のアプリケーションプログラムをダウンロードし、これをメモリ(図示せず)に記憶する。アプリケーションプログラムは、例えば、傾き特定部101、表示処理部103およびキャリブレーション部105の機能を記述しており、これを処理部93に実行させる。
傾き特定部101は、加速度センサ89から入力した加速度を基に、重力方向に対しての所定の傾きを特定する。本実施形態では、傾き特定部101は、水平方向を検出する。
表示処理部103は、図4に示すように、眼鏡型電子機器1を装着した装着者(使用者)を撮像して得られた撮像画像113と、傾き特定部101で特定された水平方向を示す水平線画像115とを含む傾き調整画像の画像データを生成し、これをディスプレイ83に出力する。
キャリブレーション部105は、図5に示すように、上記傾き調整画像がディスプレイ83に表示した状態で、眼鏡型電子機器1の傾きが水平方向に平行(水平線画像115と平行)になったことを条件に、キャリブレーション指示信号を生成し、これを通信部91を介して眼鏡型電子機器1に送信する。
眼鏡型電子機器1は、当該キャリブレーション指示信号を基に、前述したように加速度センサ71のキャリブレーションを行う。
すなわち、携帯型電子機器81をマスタとして、眼鏡型電子機器1のキャリブレーションを行う。
以下、眼鏡型電子機器1および携帯型電子機器81を用いたキャリブレーションの動作例を説明する。
図6は、本発明の実施形態に係るキャリブレーションの動作例を説明するためのフローチャートである。
ステップST1:
眼鏡型電子機器1の装着者は、眼鏡型電子機器1を装着し、正面を向いて眼鏡型電子機器1を静止状態にする。
ステップST2:
装着者は、操作部85を操作して、キャリブレーション用のアプリケーションプログラムを起動する。
ステップST3:
装着者は、眼鏡型電子機器1を含む自分の顔を正面からカメラ87で撮像開始する。
ステップST4:
携帯型電子機器81の傾き特定部101は、加速度センサ89から入力した加速度を基に、重力方向に対しての所定の傾きを特定する。本実施形態では、傾き特定部101は、水平方向を検出する。
ステップST5:
携帯型電子機器81の表示処理部103は、図4に示すように、眼鏡型電子機器1を装着した装着者(使用者)を撮像して得られた撮像画像113と、傾き特定部101で特定された水平方向を示す水平線画像115とを含む傾き調整画像の画像データを生成し、これをディスプレイ83に出力する。これにより、図4に示す傾き調整画像がディスプレイ83に表示される。
ステップST6:
装着者は、ディスプレイ83に表示された傾き調整画像を見ながら、眼鏡型電子機器1が水平線画像115に対して水平になるように、手などで眼鏡型電子機器1の姿勢を調整する。そして、装着者は、眼鏡型電子機器1が水平線画像115に対して水平になったと判断すると、操作部85を操作して、キャリブレーション指示を入力する。処理部93は、キャリブレーション指示が入力されると、通信部91を介してキャリブレーション指示信号を眼鏡型電子機器1に送信する。
ステップST7:
眼鏡型電子機器1の処理部77は、通信部73が携帯型電子機器81からキャリブレーション指示信号を受信したと判断すると、ステップST8に進む。
ステップST8:
眼鏡型電子機器1の処理部77は、通信部73が携帯型電子機器81からキャリブレーション指示信号を受信すると、そのタイミングの姿勢を水平状態であると判断して、加速度センサ71のキャリブレーションを行う。これにより、加速度センサ71のキャリブレーションが行われ、組立時のオフセット誤差や感度に起因する誤差が補正される。
以上説明したように、本実施形態のキャリブレーション方法によれば、キャリブレーションに、図4に示す傾き調整画像が携帯型電子機器81のディスプレイ83に表示されるため、眼鏡型電子機器1の装着者は、傾き調整画像を見ながら手で、水平線画像113に眼鏡型電子機器1の画像が平行になるように眼鏡型電子機器1の姿勢を調整できる。そのため、眼鏡型電子機器1を正確に水平状態にすることができ、その状態でキャリブレーション処理を行うことで、加速度センサ71を高精度にキャリブレーションできる。
すなわち、装着者そのものの絶対軸(重力)からのゆがみがあった場合でも、キャリブレーション時に眼鏡型電子機器1を水平にでききるので、正確なキャリブレーションが可能になる。
また、眼鏡型電子機器1によれば、収容ボックス53内に加速度センサ71、通信部73、バッテリー75および処理部77を収容するため、優れたデザイン性を有すると共に、日常で違和感なく装着できる。
[第2実施形態]
上述した実施形態では、眼鏡型電子機器1が水平線画像115に対して水平になった否かの判断を装着者が行う場合を例示したが、本実施形態では、当該判断を携帯型電子機器81において自動的に行う。
本実施形態では、キャリブレーション部105が、カメラ87で撮像して得られた図4に示す撮像画像113を基に、画像分析を行って眼鏡型電子機器1の姿勢を特定する。具体的には、キャリブレーション部105は、予め記憶した眼鏡型電子機器1の画像の複数の特徴点を撮像画像113内で検出し、当該検出した特徴点の位置関係を基に眼鏡型電子機器1の姿勢を特定する。
そして、キャリブレーション部105は、傾き特定部101が特定した水平方向と、上記特徴点を基に特定した眼鏡型電子機器1の姿勢とを比較し、眼鏡型電子機器1が水平になったか否かを判定する処理を継続して行う。
そして、キャリブレーション部105は、眼鏡型電子機器1が水平になったと判断した場合に通信部91を介してキャリブレーション指示信号を眼鏡型電子機器1に送信する。
眼鏡型電子機器1の処理部77は、通信部73が携帯型電子機器81からキャリブレーション指示信号を受信したと判断すると、加速度センサ71のキャリブレーションを行う。
本実施形態のキャリブレーション方法によれば、キャリブレーション部105において眼鏡型電子機器1が水平になったか否かを判定し、条件を満たせばキャリブレーション指示を眼鏡型電子機器1に自動的に送信するため、装着者の負担を軽減できると共に、信頼性の高いキャリブレーション処理を行うことができる。
[第3実施形態]
上述した第1実施形態では、眼鏡型電子機器1が水平になったと装着者が判断した場合に、装着者が携帯型電子機器81の操作部85を操作してキャリブレーション指示を入力する場合を例示したが、本実施形態では、眼鏡型電子機器301の操作部を装着者が操作をしてキャリブレーション指示を入力する。
図7は、本発明の第3実施形態に係る眼鏡型電子機器301の機能ブロック図である。
図7において、図2と同じ符号を付した構成要素は第1実施形態で説明したものと同じである。
眼鏡型電子機器301は、操作部185を備えている。装着者は、携帯型電子機器81のディスプレイ83に表示された傾き調整画像を見て、眼鏡型電子機器1の像が水平線画像115が示す水平線と一致したと判断すると、操作部185を操作する。これにより、処理部77は、キャリブレーション指示を入力したと判断し、加速度センサ71のキャリブレーション処理を行う。
本実施形態では、眼鏡型電子機器1と携帯型電子機器81との間の通信が不要であり、構成を簡単にできる。
本発明は上述した実施形態には限定されない。
すなわち、当業者は、本発明の技術的範囲またはその均等の範囲内において、上述した実施形態の構成要素に関し、様々な変更、コンビネーション、サブコンビネーション、並びに代替を行ってもよい。
上述した実施形態では、眼鏡型電子機器1が水平になったことを条件に眼鏡型電子機器1の加速度センサ71のキャリブレーションを行う場合を例示したが、水平以外の予め決められた所定の姿勢になった場合にキャリブレーションを行うようにしてもよい。
また、上述した実施形態では、加速度センサ71を、テンプル11のモダン37側に位置する収容ボックス53内に設けた場合を例示したが、眼鏡型電子機器1のその他の箇所に設けてもよい。また、複数の加速度センサを、眼鏡型電子機器1の異なる位置に設けてもよい。
また、上述した実施形態では、本発明をレンズ21,23を備えた眼鏡型電子機器1に適用した場合を例示したが、レンズが無いアイウェア等に適用してもよい。
本発明は、眼鏡型電子機器の加速度センサをキャリブレーションするシステムに適用可能である。
1,301…眼鏡型電子機器
61…右鼻電極
63…左鼻電極
65…眉間電極
71…加速度センサ
73…通信部
75…バッテリー
77…処理部
11,13…テンプル
21,23…レンズ
31,33…リム
37,39…モダン
35…ブリッジ
45,47…丁番
51,53…収容ボックス
81…携帯型電子機器
83…ディスプレイ
85,185…操作部
87…カメラ
89…加速度センサ
91…通信部
93…処理部
101…傾き特定部
103…表示処理部
105…キャリブレーション部
113…撮像画像
115…水平線画像

Claims (7)

  1. 携帯機器に搭載された第1の加速度センサが検出した加速度を基に重力方向に対しての所定の傾きを特定する第1の工程と、
    眼鏡型電子機器を装着した装着者を前記携帯機器で撮像して得られた画像と前記特定した所定の傾きとを基に前記眼鏡型電子機器の傾きを調整するための傾き調整用画像を前記携帯機器のディスプレイに表示する第2の工程と、
    前記眼鏡型電子機器の傾きの調整が行われたことを条件に、前記眼鏡型電子機器に搭載された第2の加速度センサをキャリブレーションする第3の工程と
    を有するキャリブレーション方法。
  2. 前記第1の工程は、前記重力方向に対しての所定の傾きとして、水平方向を特定し、
    前記第2の工程は、前記撮像した画像と、前記特定した水平方向の水平線の画像とを同時に含む前記傾き調整用画像を前記ディスプレイに表示する
    請求項1に記載のキャリブレーション方法。
  3. 前記第3の工程は、
    前記傾き調整画像を表示中に前記携帯機器がキャリブレーション指示を受けたことを、前記眼鏡型電子機器の傾きの調整が行われたことの条件として、前記眼鏡型電子機器にキャリブレーション指示を送信し、前記眼鏡型電子機器は前記キャリブレーション指示を受けたことを条件に前記キャリブレーションを行う
    請求項1または請求項2に記載のキャリブレーション方法。
  4. 前記第3の工程は、
    前記携帯機器が、前記撮像した画像内の前記眼鏡型電子機器の特徴点を基に前記眼鏡型電子機器の姿勢を検出し、当該検出した姿勢が前記特定した傾きに対して所定の関係になったと判断したことを、前記眼鏡型電子機器の傾きの調整が行われたことの条件として、キャリブレーション指示を前記眼鏡型電子機器に送信し、前記眼鏡型電子機器は前記キャリブレーション指示を受信したことを条件に前記キャリブレーションを行う
    請求項1または請求項2に記載のキャリブレーション方法。
  5. 前記第3の工程は、
    操作者が前記眼鏡型電子機器の操作部を操作して前記眼鏡型電子機器にキャリブレーション指示が入力されたことを、前記眼鏡型電子機器の傾きの調整が行われたことの条件として、前記眼鏡型電子機器の前記第2の加速度センサをキャリブレーションする
    請求項1または請求項2に記載のキャリブレーション方法。
  6. 眼鏡型電子機器を装着した装着者の画像を撮像する撮像手段と、
    第1の加速度センサと、
    前記第1の加速度センサが検出した加速度を基に重力方向に対しての所定の傾きを特定する傾き特定手段と、
    前記撮像した画像と前記特定した所定の傾きとを基に前記眼鏡型電子機器の傾きを調整するための傾き調整用画像をディスプレイに表示する表示処理手段と、
    前記眼鏡型電子機器の傾きの調整が行われたことを条件に、前記眼鏡型電子機器に搭載された第2の加速度センサのキャリブレーション指示を前記眼鏡型電子機器に送信するキャリブレーション手段と
    を有する携帯機器。
  7. 携帯機器に搭載されたコンピュータで実行されるプログラムであって、
    前記携帯機器に搭載された第1の加速度センサが検出した加速度を基に重力方向に対しての所定の傾きを特定する第1の手順と、
    眼鏡型電子機器を装着した装着者を前記携帯機器で撮像して得られた画像と、前記特定した所定の傾きとを基に、前記眼鏡型電子機器の傾きを調整するための傾き調整用画像を前記携帯機器のディスプレイに表示する第2の手順と、
    前記眼鏡型電子機器の傾きの調整が行われたことを条件に、前記眼鏡型電子機器に搭載された第2の加速度センサのキャリブレーション指示を前記眼鏡型電子機器に送信する第3の手順と
    を前記コンピュータに実行させるプログラム。
JP2017553752A 2015-11-30 2016-11-15 キャリブレーション方法、携帯機器およびプログラム Active JP6616842B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015233028 2015-11-30
JP2015233028 2015-11-30
PCT/JP2016/083798 WO2017094492A1 (ja) 2015-11-30 2016-11-15 キャリブレーション方法、携帯機器およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2017094492A1 JPWO2017094492A1 (ja) 2018-08-02
JP6616842B2 true JP6616842B2 (ja) 2019-12-04

Family

ID=58796662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017553752A Active JP6616842B2 (ja) 2015-11-30 2016-11-15 キャリブレーション方法、携帯機器およびプログラム

Country Status (4)

Country Link
US (1) US11029754B2 (ja)
EP (1) EP3384845B1 (ja)
JP (1) JP6616842B2 (ja)
WO (1) WO2017094492A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102401168B1 (ko) * 2017-10-27 2022-05-24 삼성전자주식회사 3차원 디스플레이 장치의 파라미터 캘리브레이션 방법 및 장치
US11353725B1 (en) * 2018-12-27 2022-06-07 Snap Inc. Magnetic force electrical contacts
US20230324988A1 (en) * 2020-07-09 2023-10-12 Apple Inc Display calibration
CN114356081A (zh) * 2021-12-20 2022-04-15 歌尔光学科技有限公司 图像校正方法、装置、电子设备及头戴显示设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007008930A2 (en) * 2005-07-13 2007-01-18 Ultimate Balance, Inc. Orientation and motion sensing in athletic training systems, physical rehabilitation and evaluation systems, and hand-held devices
DE102009025215A1 (de) * 2009-06-17 2010-12-30 Carl Zeiss Vision Gmbh Methode und Vorrichtung zur Ermittlung der habituellen Kopfhaltung
WO2012026375A1 (ja) * 2010-08-24 2012-03-01 シャープ株式会社 立体表示装置
US8217856B1 (en) * 2011-07-27 2012-07-10 Google Inc. Head-mounted display that displays a visual representation of physical interaction with an input interface located outside of the field of view
JP5319803B2 (ja) * 2012-02-10 2013-10-16 オリンパス株式会社 頭部装着型表示装置、眼鏡用表示機器及び表示機器用眼鏡モダン
JP6028357B2 (ja) * 2012-03-22 2016-11-16 ソニー株式会社 ヘッドマウントディスプレイ及び手術システム
JP2015202197A (ja) * 2014-04-14 2015-11-16 株式会社ジェイアイエヌ 眼電位情報処理装置、眼電位情報処理システム、装着具及びプログラム

Also Published As

Publication number Publication date
WO2017094492A1 (ja) 2017-06-08
US20180217664A1 (en) 2018-08-02
EP3384845B1 (en) 2019-09-18
EP3384845A1 (en) 2018-10-10
JPWO2017094492A1 (ja) 2018-08-02
EP3384845A4 (en) 2018-12-19
US11029754B2 (en) 2021-06-08

Similar Documents

Publication Publication Date Title
JP6616842B2 (ja) キャリブレーション方法、携帯機器およびプログラム
JP6026444B2 (ja) データ転送速度を設定することにより2つの眼における少なくとも1つのパラメータを決定する方法及び光学的測定装置
CN107431778B (zh) 信息处理装置、信息处理方法和程序
US20160070122A1 (en) Computerized replacement temple for standard eyewear
AU2014276655A1 (en) Method for determining at least one value of a parameter for customising a visual compensation device
JP2018196730A (ja) 眼の位置を監視するための方法およびシステム
US20180064371A1 (en) Posture detection apparatus, glasses-type electronic device, posture detection method, and program
EP3586733B1 (en) Information processing method, information processing device, and program
US10775883B2 (en) Information processing method, information processing apparatus and user equipment
WO2015159851A1 (ja) 検出ユニット、アイウエア、及び眼電位検出システム
EP3462231B1 (en) A method and means for evaluating toric contact lens rotational stability
WO2015159850A1 (ja) 眼電位情報処理装置、眼電位情報処理システム、装着具及びプログラム
US11988901B2 (en) Two-eye tracking based on measurements from a pair of electronic contact lenses
CN113164040A (zh) 补偿附着在用户身体上的传感器的移动
US20220229312A1 (en) Method for determining an oriented 3d representation of the head of a person in a natural visual posture
JP2023554490A (ja) 眼鏡に適応可能な視線追跡キット
JPWO2017163643A1 (ja) 装着性調整値出力メガネシステム、装着性調整値出力メガネ、装着性情報検出メガネ、および装着性調整値出力メガネシステムに用いられるプログラム、並びに調整機能付メガネ
CN110520792B (zh) 成像装置和隐形眼镜
EP4086693A1 (en) Method, processing device and system for determining at least one centration parameter for aligning spectacle lenses in a spectacle frame to eyes of a wearer
JP2019034144A (ja) ウェアラブルデバイス対応眼電位データ処理装置、それを備えた眼鏡型ウェアラブルデバイス、及びウェアラブルデバイス対応眼電位データ処理方法
JP6538203B2 (ja) 眼電位キャリブレーション装置、眼鏡型電子機器、眼電位キャリブレーション方法およびプログラム
JP6557582B2 (ja) 人体電位検出装置、眼鏡型電子機器、人体電位検出方法およびプログラム
BR112019019617B1 (pt) Dispositivo de formação de imagem, método de um dispositivo de formação de imagem, e, mídia de armazenamento não transitório legível por computador

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191108

R150 Certificate of patent or registration of utility model

Ref document number: 6616842

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150