JP7117454B2 - 支援方法、および支援システム - Google Patents

支援方法、および支援システム Download PDF

Info

Publication number
JP7117454B2
JP7117454B2 JP2021511720A JP2021511720A JP7117454B2 JP 7117454 B2 JP7117454 B2 JP 7117454B2 JP 2021511720 A JP2021511720 A JP 2021511720A JP 2021511720 A JP2021511720 A JP 2021511720A JP 7117454 B2 JP7117454 B2 JP 7117454B2
Authority
JP
Japan
Prior art keywords
display
functional component
augmented reality
information terminal
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021511720A
Other languages
English (en)
Other versions
JPWO2020202345A1 (ja
Inventor
大祐 山岡
一彦 田中
祐 瀧口
瞳 ▲濱▼村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JPWO2020202345A1 publication Critical patent/JPWO2020202345A1/ja
Application granted granted Critical
Publication of JP7117454B2 publication Critical patent/JP7117454B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、機能の把握を支援する支援方法および支援システムに関するものである。
近年、車両には、様々な機能が設けられており、それらの機能をユーザに把握させることが求められている。特許文献1には、スマートフォン等の携帯無線通信端末において撮影画像をディスプレイに表示するとともに、当該撮影画像内に含まれる部品の案内(名称)をディスプレイに重畳表示すること、および、ディスプレイに重畳表示された部品の案内を押下した場合に、当該部品の操作マニュアルをディスプレイに表示することが開示されている。
特開2014-215845号公報
特許文献1に記載されたように、部品の案内および操作マニュアルをディスプレイに表示するだけでは、当該部品を操作したときにどのような機能が発揮されるのかなど、当該部品を操作したときに発揮される車両の機能をユーザに容易に把握させることが困難である。
そこで、本発明は、容易に且つ直感的にユーザに機能を把握させることを目的とする。
本発明の一側面としての支援方法は、
カメラおよびディスプレイを有する情報端末を用いて機能の把握を支援する支援方法であって、
前記カメラで得られた撮影画像を前記ディスプレイに表示する第1表示工程と、
前記第1表示工程で前記ディスプレイに表示された撮影画像内に含まれる機能部品を特定する特定工程と、
前記特定工程で特定された前記機能部品に関する機能を把握するユーザの意思が検出された場合、当該機能部品が実際に操作されたときの動作状態を示す拡張現実画像を、前記カメラで得られた前記撮影画像に重ね合わせて前記ディスプレイに表示する第2表示工程と、
を含み、
前記第2表示工程では、前記拡張現実画像として、前記機能部品の実際の操作により現れる不可視の情報を可視化して前記ディスプレイに表示する、ことを特徴とする。
本発明によれば、例えば、機能が実際に発揮されている様子をユーザに認知させることができるため、従来より容易に且つ直感的にユーザに機能を把握させることができる。
添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
支援システムの構成を示すブロック図 情報端末とサーバ装置との間で行われる処理を示すシーケンス図 情報端末の処理部で行われる処理を示すフローチャート ユーザが情報端末のカメラによって車内のハンドルを撮影している様子を示す図 ハンドルの撮影画像を情報端末のディスプレイに表示した例を示す図 拡張現実画像がディスプレイに表示された情報端末によりユーザが車両の機能を把握している様子を示す図 撮像画像と拡張現実画像とがディスプレイに表示された情報端末を示す図 撮像画像と拡張現実画像とがディスプレイに表示された情報端末を示す図
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。
<第1実施形態>
本発明に係る第1実施形態について説明する。図1は、本実施形態の支援システム100の構成を示すブロック図である。本実施形態の支援システムは、ユーザによる車両の機能の把握を支援するためのシステムであり、情報端末10と、サーバ装置20(クラウド)と、ネットワークNTWとを含みうる。ここで、車両としては、例えば四輪車や鞍乗型車両(二輪車、三輪車)などが挙げられ、本実施形態では、車両として四輪車を例示して説明する。また、情報端末10としては、例えばスマートフォンやタブレット端末などが用いられ、本実施形態では、情報端末10としてタブレット端末を用いる例について説明する。スマートフォンおよびタブレット端末は、通話機能以外の様々な機能を有する携帯端末のことであるが、ディスプレイの寸法が互いに異なる。一般的には、タブレット端末の方が、スマートフォンよりディスプレイの寸法が大きい。
まず、情報端末10の構成について説明する。情報端末10は、例えば、処理部11と、記憶部12と、カメラ13と、ディスプレイ14と、位置検知センサ15と、姿勢検知センサ16と、通信部17とを含みうる。情報端末10の各部は、システムバス18を介して相互に通信可能に接続されている。
処理部11は、CPUに代表されるプロセッサ、半導体メモリ等の記憶デバイス、外部デバイスとのインターフェース等を含む。記憶部12には、プロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納されており、処理部11は、記憶部12に記憶されたプログラムをメモリ等の記憶デバイスに読み出して実行することができる。本実施形態の場合、記憶部12には、ユーザによる車両の機能の把握を支援するためのアプリケーションプログラム(支援プログラム)が格納されており、処理部11は、記憶部12に記憶された当該支援プログラムをメモリ等の記憶デバイスに読み出して実行する。
カメラ13は、レンズと撮像素子とを有し、被写体を撮影して撮影画像を取得する。カメラ13は、例えばディスプレイ14が設けられた外面とは反対側の外面に設けられうる。また、ディスプレイ14は、画像の表示によりユーザに対して情報を報知する。本実施形態の場合、ディスプレイ14は、カメラ13で取得された撮影画像をリアルタイムに表示することができる。ここで、本実施形態のディスプレイ14は、例えばタッチパネル式LCD(Liquid Crystal Display)などを含み、画像を表示する機能に加えて、ユーザからの情報の入力を受け付ける機能を有する。しかしながら、それに限られず、画像を表示する機能のみをディスプレイ14に持たせ、当該ディスプレイ14とは独立して入力部(例えばキーボードやマウスなど)を設けてもよい。
位置検知センサ15は、情報端末10の位置および方位を検知する。位置検知センサ15としては、例えば、GPS衛星からの信号を受信して現時点での情報端末10の位置情報を取得するGPSセンサや、地磁気などに基づいて情報端末10のカメラ13が向けられている方位を検知する方位センサなどを用いることができる。本実施形態では、「情報端末10の位置」と記載した場合、情報端末10の位置に加えて、情報端末10の方位をも含むものとする。また、姿勢検知センサ16は、情報端末10の姿勢を検知する。姿勢検知センサ16としては、例えば、加速度センサやジャイロセンサなどを用いることができる。
通信部17は、ネットワークNTWを介してサーバ装置20と通信可能に接続される。具体的には、通信部17は、ネットワークNTWを介してサーバ装置20から情報を受信する受信部としての機能と、ネットワークNTWを介してサーバ装置20に情報を送信する送信部としての機能とを有する。本実施形態の場合、通信部17は、ユーザによりディスプレイ14上で操作された機能部品の種類およびその操作態様を示す情報(操作情報)をサーバ装置20に送信する。また、通信部17は、車両の機能部品が実際に操作されたときの当該車両の動作状態を示す拡張現実(AR;Augmented Reality)画像のデータをサーバ装置20から受信しうる。
また、処理部11の具体的な構成としては、例えば、第1取得部11aと、第2取得部11bと、特定部11cと、検出部11dと、表示制御部11eとが設けられうる。第1取得部11aは、カメラ13で得られた撮影画像のデータを取得する。第2取得部11bは、通信部17を介してサーバ装置20から拡張現実画像のデータを取得する。特定部11cは、例えばパターンマッチング手法などの画像処理を行うことにより撮影画像を解析し、ディスプレイ14に表示された撮影画像内に含まれる車両の機能部品を特定する。検出部11dは、特定部11cにより特定された機能部品に関する機能を把握するユーザの意思を検出する。本実施形態の場合、検出部11dは、当該ユーザの意思として、特定部11cにより特定された機能部品がユーザによりディスプレイ14上で操作されたことを検出するが、例えばユーザの音声や視線などを検出する方式であってもよいし、情報端末10に設けられたボタンの操作を検出する方式であってもよい。また、特定部11dは、操作(機能把握のユーザの意思)が検出された機能部品の種類と当該機能部品の操作の態様とを示す情報を、通信部17を介してサーバ装置20に送信する。表示制御部11eは、第1取得部11aで取得された撮影画像をディスプレイ14に表示する。また、表示制御部11eは、第2取得部11bで拡張現実画像のデータが取得された場合には、位置検知センサ15および姿勢検知センサ16でそれぞれ検知された情報端末10の位置および姿勢に基づいて、当該拡張現実画像を撮影画像に重ね合わせて(重畳させて)ディスプレイ14に表示する。
次に、サーバ装置20の構成について説明する。サーバ装置20は、処理部21と、記憶部22と、通信部23とを含みうる。処理部21は、CPUに代表されるプロセッサ、半導体メモリ等の記憶デバイス、外部デバイスとのインターフェース等を含む。記憶部22には、プロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納されており、処理部21は、記憶部22に記憶されたプログラムをメモリ等の記憶デバイスに読み出して実行することができる。また、通信部23は、ネットワークNTWを介して情報端末10と通信可能に接続される。具体的には、通信部23は、ネットワークNTWを介して情報端末10から情報を受信する受信部としての機能と、ネットワークNTWを介して情報端末10に情報を送信する送信部としての機能とを有する。
本実施形態の場合、記憶部22には、車両に設けられた複数種類の機能部品の各々について、車両の機能部品が実際に操作されたときの車両の動作状態(機能)を示す拡張現実画像のデータが記憶されている。処理部21は、情報端末10の処理部11(検出部11d)で検出された機能部品の種類と当該機能部品の操作の態様とを示す情報を通信部23を介して情報端末10から受信し、受信した当該情報に基づいて、当該機能部品に対応付けられて記憶部22に記憶されている拡張現実画像のデータを通信部23を介して情報端末10に送信する。
[支援システムの処理シーケンス]
次に、支援システム100の処理シーケンスについて説明する。図2は、情報端末10とサーバ装置20との間で行われる処理を示すシーケンス図である。
情報端末10において支援プログラムの実行が開始されると、情報端末10は、カメラ13による撮影を開始し(工程101)、カメラ13で得られた撮影画像をディスプレイ14にリアルタイムに表示する(工程102)。また、情報端末10は、位置検知センサ15による情報端末10の位置の検知と、姿勢検知センサ16による情報端末10の姿勢の検知とを開始する(工程103)。そして、情報端末10は、カメラ13で得られた撮影画像を解析し、ディスプレイ14に表示された撮影画像内に含まれる車両の機能部品を特定する(工程104)。情報端末10は、特定された機能部品がユーザによりディスプレイ14上で操作されたことを検出すると(工程105)、操作が行われた機能部品とその操作態様とを示す操作情報をサーバ装置20に送信する(工程106)。
サーバ装置20の記憶部22には、機能部品が実際に操作されたときの車両の動作状態を示す拡張現実画像(例えば動画)のデータが、車両に設けられた複数の機能部品の各々について記憶されている。情報端末10から操作情報を受信したサーバ装置20は、記憶部22に記憶されている複数の拡張現実画像の中から、操作情報(機能部品、操作態様)に対応する拡張現実画像のデータを選択し(工程107)、選択した拡張現実画像のデータを情報端末10の送信する(工程108)。情報端末10は、サーバ装置20から受信した拡張現実画像を、カメラ13で得られた撮影画像に重ね合わせてディスプレイ14に表示する(工程109)。このとき、情報端末10は、位置検知センサ15で検知されている情報端末10の位置と、姿勢検知センサ16で検知されている情報端末10の姿勢とに基づいて、情報端末10の動きに合わせて拡張現実画像が移動するように、カメラ13での撮影画像と拡張現実画像との位置合わせを行う。
[情報端末での処理]
次に、支援プログラムが実行されたときに情報端末10で行われる処理について説明する。図3は、情報端末10の処理部11で行われる処理を示すフローチャートである。
車両には、運転時に用いられる機能や車内での快適性を向上させるための機能、安全性を向上させるための機能などの様々な機能が設けられ、それらの機能を発揮させるための機能部品が車両(車内)に設けられうる。運転時に用いられる機能としては、例えば、方向指示器(ウィンカ)やワイパー、サイドブレーキ、変速機などが挙げられる。また、快適性を向上させるための機能としては、例えば、エアコンやシートヒータ、オーディオなどが挙げられる。また、安全性を向上させるための機能としては、車間制御付きクルーズコントロール(以下、ACC;Adoptive Cruise Control)や、車線維持支援システム(以下、LKAS;Lane Keeping Assistant System)などが挙げられる。本実施形態の支援システム100は、上述したような車両の様々な機能をユーザに把握させるための支援を行うように構成されうるが、以下では、ACCやLKASなどの安全性機能の把握の支援を行う例について説明する。ここで、ACCおよびLKASの機能を発揮させるための機能部品(スイッチ)は、ハンドルに設けられているものとする。
S11では、処理部11(第1取得部11a)は、カメラ13に撮影を開始させるとともに、カメラ13から撮影画像を取得する。S12では、処理部11(表示制御部11e)は、カメラ13から取得した撮影画像をディスプレイ14に逐次表示する。例えば、図4は、ユーザが情報端末10のカメラ13によって車内のハンドル2を撮影している様子を示している。この場合、情報端末10では、カメラ13で得られたハンドル2の撮影画像がディスプレイ14に逐次表示される。なお、図4は、乗車したユーザから見える車内環境を示しており、ハンドル2の他に、フロントガラス1、フロントピラー3、ダッシュボード4およびメータパネル5も図示されている。
S13では、処理部11(特定部11c)は、ディスプレイ14に表示された撮影画像内に含まれる車両の機能部品の特定を行う。例えば、処理部11は、まず、公知の画像処理を行うことにより、撮影画像内に含まれる部品を認識する。情報端末10の記憶部12には、車両に設けられた複数の機能部品の各々についての特徴情報が記憶されており、処理部11は、認識した部品の特徴との一致度が高い(即ち、一致度が所定値を超える)機能部品があるか否かの調査(判定)を行う。これにより、処理部11は、撮影画像内に含まれる機能部品を特定することができる。
S14では、処理部11は、ディスプレイ14に表示された撮影画像内において機能部品が特定されたか否かを判断する。撮影画像内において機能部品が特定された場合にはS15に進み、機能部品が特定されなかった場合にはS12に戻る。
S15では、処理部11は、S13で特定された機能部品の名称を示す拡張現実画像を、カメラ13で得られた撮影画像に重ね合わせてディスプレイ14に表示する。このとき、処理部11は、位置検知センサ15および姿勢検知センサ16で検知された情報端末10の位置姿勢の情報に基づいて、ディスプレイ14に表示された撮影画像における当該機能部品の位置に整合するように、当該機能部品の名称を示す拡張現実画像をディスプレイ14に表示する。例えば、図5は、ハンドル2の撮影画像を情報端末10のディスプレイ14に表示した例を示している。図5に示す例では、ハンドル2の撮影画像内において、ACCスイッチ2a、LKASスイッチ2b、キャンセルスイッチ2c、および車間距離の設定スイッチ2dが特定され、それらの名称を示す拡張現実画像31~34が、ハンドルの撮影画像に重ね合わせてディスプレイ14に表示されている。
本実施形態の場合、車両に設けられた複数の機能部品の各々についての名称を示す拡張現実画像が記憶部12に記憶されているが、それに限られず、サーバ装置20の記憶部22に記憶されていてもよい。この場合、処理部11は、S12で特定された機能部品の識別情報を通信部17を介してサーバ装置20に送信し、当該機能部品の名称を示す拡張現実画像のデータを通信部17を介してサーバ装置20から受信しうる。
S16では、処理部11は、S13で特定された機能部品がユーザによりディスプレイ14上で操作されたか否かを判断する。ここで、本実施形態の場合、タッチパネル式のディスプレイ14が用いられているため、処理部11は、ユーザの指などによって機能部品がディスプレイ上で操作されたか否かを判断する。しかしながら、それに限られず、例えば、タッチパネル式でないディスプレイを用いる場合には、マウスなどの入力部を介して機能部品がディスプレイ上で操作されたか否かを判断してもよい。ユーザにより機能部品がディスプレイ14上で操作された場合にはS17に進み、機能部品がディスプレイ14上で操作されなかた場合にはS12に戻る。
S17では、処理部11は、ユーザによりディスプレイ14上で操作された機能部品の種類およびその操作態様を示す情報(操作情報)を通信部17を介してサーバ装置20に送信する。S18では、処理部11(第2取得部11b)は、サーバ装置20の記憶部22に記憶されている複数の拡張現実画像の中から、操作情報に対応する拡張現実画像を通信部17を介してサーバ装置20から受信する。
ここで、S18において取得される拡張現実画像は、車両の機能を説明するために、機能部品が実際に操作されたときの車両の動作状態を示す拡張現実画像(例えば動画)であり、例えば、機能部品が実際に操作された場合における車両の状態の変化および車両の周辺環境の変化うち少なくとも一方を含みうる。拡張現実画像に含まれる「車両の状態」とは、例えば、機能部品が実際に操作された場合に車両が行う動作・機能を仮想的に表したものであり、機能部品の実際の操作により現れる不可視の情報を可視化したものも含まれうる。不可視の情報としては、例えば、ACCスイッチ2aが操作された場合に車両から射出されるミリ波レーダやレーザレーダなどの電波が挙げられる。また、拡張現実画像に含まれる「車両の周辺環境」とは、例えば、機能部品が実際に操作された場合に車両の周囲で変化する道路や車線、前方車両などを仮想的に表したものである。
S19では、処理部11(表示制御部11e)は、S18で取得した拡張現実画像を、カメラ13で得られた撮影画像に重ね合わせてディスプレイ14に表示する。このとき、処理部11は、位置検知センサ15および姿勢検知センサ16で検知された情報端末10の位置姿勢の情報に基づいて、情報端末10の動きに合わせて拡張現実画像が移動するように、カメラ13での撮影画像とS18で得られた拡張現実画像との位置合わせを行う。
図6は、S18で取得した拡張現実画像が情報端末10のディスプレイ14に表示され、当該情報端末10によりユーザが車両の機能を把握している様子を示している。具体的には、ユーザは、フロントガラス1を介して情報端末10のカメラ13で車外を撮影しており、情報端末10のディスプレイ14には、機能部品をディスプレイ14上で操作されたときに取得された拡張現実画像が、カメラ13での撮像画像に重ねて表示される。
例えば、図7は、ACCスイッチ2aがディスプレイ14上で操作されたときにS18で得られた拡張現実画像を、カメラ13での撮影画像に重ね合わせて情報端末10のディスプレイ14に表示した例を示している。図7に示す例では、道路41、車線42および前方車両43が拡張現実画像としてディスプレイ14に表示されている。そして、ACCを機能させたときに車両の前部から射出される電波44(例えばミリ波レーダ)が前方車両43に照射されている様子と、ACCの機能の説明45とが拡張現実画像としてディスプレイ14に表示されている。なお、ディスプレイ14に表示されているダッシュボード4は、カメラ13で撮影されている撮影画像である。このような拡張現実画像は、例えば動画であり、情報端末10の位置、方向および姿勢に応じて拡張現実画像の見え方が変わるようにディスプレイ14に表示されうる。また、車間距離の設定スイッチ2dがディスプレイ14上で操作された場合には、その操作によって設定された車間距離に応じて、拡張現実画像としてディスプレイ14に表示されている前方車両43との距離が変更されうる。
また、図8は、LKASスイッチ2bがディスプレイ14上で操作されたときにS18で得られた拡張現実画像を、カメラ13での撮影画像に重ね合わせて情報端末10のディスプレイ14に表示した例を示している。図8に示す例では、道路51、車線52が拡張現実画像としてディスプレイ14に表示されている。そして、LKASを機能させたときに行われる動作、具体的には、車両が車線52からはみ出したことを示す記号53および説明54、その場合にハンドル2の操作を支援する旨の記号55および説明56が拡張現実画像としてディスプレイ14に表示されている。なお、ディスプレイ14に表示されているダッシュボード4は、カメラ13で撮像されている撮像画像である。このような拡張現実画像は、図7に示す例と同様に、例えば動画であり、情報端末10の位置、方向および姿勢に応じて拡張現実画像の見え方が変わるようにディスプレイ14に表示されうる。
このように、本実施形態の支援システム100は、ディスプレイ14に表示された撮影画像内に含まれる機能部品をユーザがディスプレイ14上で操作した場合に、当該機能部品が実際に操作されたときの車両の動作状態を示す拡張現実画像を、撮影画像に重ね合わせてディスプレイ14に表示する。これにより、ユーザは、車両の機能部品を操作することによりどのように車両が機能するのかを視覚的に把握することができる。即ち、本実施形態の支援システム100により、車両の機能をユーザに容易に把握させることが可能となる。
<他の実施形態>
上記実施形態では、拡張現実画像のデータがサーバ装置20の記憶部22に記憶されている例を説明したが、それに限られず、拡張現実画像のデータが情報端末10の記憶部22に記憶されていてもよい。この場合、情報端末10とサーバ装置20との間でデータの送受信を行う必要がなくなるため、オフラインの情報端末10においても上記の支援プログラムを実行することができる。
また、上記実施形態では、ユーザによる車両の機能の把握を支援するための支援システム100について説明したが、当該支援システム100は、車両の機能に限られず、他の物体の機能の把握を支援するために適用可能である。当該物体としては、機能部品の操作により状態が変化するものであればよく、状態の変化は、電気的な変化であってもよいし、機械的な変化であってもよい。
<実施形態のまとめ>
1.上記実施形態の支援方法は、
カメラ(例えば13)およびディスプレイ(例えば14)を有する情報端末(例えば10)を用いて機能の把握を支援する支援方法であって、
前記カメラで得られた撮影画像を前記ディスプレイに表示する第1表示工程と、
前記第1表示工程で前記ディスプレイに表示された撮影画像内に含まれる機能部品(例えば2a~2d)を特定する特定工程と、
前記特定工程で特定された前記機能部品に関する機能を把握するユーザの意思が検出された場合、当該機能部品が実際に操作されたときの動作状態を示す拡張現実画像を、前記カメラで得られた前記撮影画像に重ね合わせて前記ディスプレイに表示する第2表示工程と、を含む。
この構成によれば、機能および機能部品の操作に関するマニュアルを確認しなくても、機能部品を操作することによりどのように機能が発揮されるのかを視覚的に且つ直感的に把握することが可能となる。即ち、ユーザは、当該機能を疑似体験することができるため、当該機能の把握を容易に行うことが可能となる。
2.上記実施形態の支援方法において、
前記第2表示工程では、前記拡張現実画像として、前記機能部品が実際に操作されたときに機能を発揮する物体の状態、および、前記機能部品が実際に操作されたときの前記物体の周辺環境のうち少なくとも一方を前記ディスプレイに表示する。
この構成によれば、物体の機能をより視覚的に把握させることができるため、ユーザにとって物体の機能の把握をより容易に行うことが可能となる。
3.上記実施形態の支援方法において、
前記第2表示工程では、前記拡張現実画像として、前記機能部品の実際の操作により現れる不可視の情報を可視化して前記ディスプレイに表示する。
この構成によれば、どのような方法で機能を発揮させているのかを視覚的に把握することができるため、ユーザにとって機能の把握をより容易に行うことが可能となる。
4.上記実施形態の支援方法において、
前記不可視の情報は、前記機能部品の実際の操作により射出される電波を含む。
この構成によれば、機能を発揮させるために射出される電波を視覚的に表すことにより、ユーザにとって機能の把握をより容易に行うことが可能となる。
5.上記実施形態の支援方法において、
前記第2表示工程では、前記機能部品に関する機能を把握するユーザの意思として、ユーザによる前記ディスプレイ上での前記機能部品の操作を検出する。
この構成によれば、ユーザが機能を把握したいとの意思を的確に検出することが可能となる。
6.上記実施形態の支援方法において、
前記機能部品は、車両に設けられた部品であり、
前記第2表示工程では、前記機能部品が実際に操作されたときの前記車両の動作状態を示す前記拡張現実画像を前記ディスプレイに表示する。
この構成によれば、車両の機能および機能部品の操作に関するマニュアルを確認しなくても、機能部品を操作することによりどのように車両の機能が発揮されるのかを視覚的に且つ直感的に把握することが可能となる。
本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために、以下の請求項を添付する。
10:情報端末、11:処理部、12:記憶部、13:カメラ、14:ディスプレイ、15:位置検知センサ、16:姿勢検知センサ、17:通信部、20:サーバ装置、21:処理部、22:記憶部、23:通信部

Claims (6)

  1. カメラおよびディスプレイを有する情報端末を用いて機能の把握を支援する支援方法であって、
    前記カメラで得られた撮影画像を前記ディスプレイに表示する第1表示工程と、
    前記第1表示工程で前記ディスプレイに表示された撮影画像内に含まれる機能部品を特定する特定工程と、
    前記特定工程で特定された前記機能部品に関する機能を把握するユーザの意思が検出された場合、当該機能部品が実際に操作されたときの動作状態を示す拡張現実画像を、前記カメラで得られた前記撮影画像に重ね合わせて前記ディスプレイに表示する第2表示工程と、
    を含み、
    前記第2表示工程では、前記拡張現実画像として、前記機能部品の実際の操作により現れる不可視の情報を可視化して前記ディスプレイに表示する、ことを特徴とする支援方法。
  2. 前記第2表示工程では、前記拡張現実画像として、前記機能部品が実際に操作されたときに機能を発揮する物体の状態、および、前記機能部品が実際に操作されたときの前記物体の周辺環境のうち少なくとも一方を前記ディスプレイに表示する、ことを特徴とする請求項1に記載の支援方法。
  3. 前記不可視の情報は、前記機能部品の実際の操作により射出される電波を含む、ことを特徴とする請求項1に記載の支援方法。
  4. 前記第2表示工程では、前記機能部品に関する機能を把握するユーザの意思として、ユーザによる前記ディスプレイ上での前記機能部品の操作を検出する、ことを特徴とする請求項1乃至3のいずれか1項に記載の支援方法。
  5. 前記機能部品は、車両に設けられた部品であり、
    前記第2表示工程では、前記機能部品が実際に操作されたときの前記車両の動作状態を示す前記拡張現実画像を前記ディスプレイに表示する、ことを特徴とする請求項1乃至4のいずれか1項に記載の支援方法。
  6. カメラおよびディスプレイを有する情報端末を用いて機能の把握を支援する支援システムであって、
    前記情報端末は、
    前記カメラで得られた撮影画像を前記ディスプレイに表示する第1表示手段と、
    前記第1表示手段により前記ディスプレイに表示された撮影画像内に含まれる機能部品を特定する特定手段と、
    前記特定手段により特定された前記機能部品に関する機能を把握するユーザの意思が検出された場合、当該機能部品が実際に操作されたときの動作状態を示す拡張現実画像を、前記カメラで得られた前記撮影画像に重ね合わせて前記ディスプレイに表示する第2表示手段と、
    を含み、
    前記第2表示手段は、前記拡張現実画像として、前記機能部品の実際の操作により現れる不可視の情報を可視化して前記ディスプレイに表示する、ことを特徴とする支援システム。
JP2021511720A 2019-03-29 2019-03-29 支援方法、および支援システム Active JP7117454B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/014252 WO2020202345A1 (ja) 2019-03-29 2019-03-29 支援方法、および支援システム

Publications (2)

Publication Number Publication Date
JPWO2020202345A1 JPWO2020202345A1 (ja) 2021-12-02
JP7117454B2 true JP7117454B2 (ja) 2022-08-12

Family

ID=72667270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021511720A Active JP7117454B2 (ja) 2019-03-29 2019-03-29 支援方法、および支援システム

Country Status (3)

Country Link
JP (1) JP7117454B2 (ja)
CN (1) CN113396382A (ja)
WO (1) WO2020202345A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015118556A (ja) 2013-12-18 2015-06-25 マイクロソフト コーポレーション コントロールデバイスのための拡張現実オーバーレイ

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015043180A (ja) * 2013-08-26 2015-03-05 ブラザー工業株式会社 画像処理プログラム
KR102105463B1 (ko) * 2013-09-02 2020-04-28 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
KR101667732B1 (ko) * 2015-01-23 2016-10-19 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR101979694B1 (ko) * 2016-11-04 2019-05-17 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 그의 제어방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015118556A (ja) 2013-12-18 2015-06-25 マイクロソフト コーポレーション コントロールデバイスのための拡張現実オーバーレイ

Also Published As

Publication number Publication date
WO2020202345A1 (ja) 2020-10-08
CN113396382A (zh) 2021-09-14
JPWO2020202345A1 (ja) 2021-12-02

Similar Documents

Publication Publication Date Title
EP2826689B1 (en) Mobile terminal
EP3090235B1 (en) Input/output functions related to a portable device in an automotive environment
JP5921320B2 (ja) 表示システム、携帯装置、車載装置、及び、プログラム
WO2015136874A1 (ja) 表示制御装置、表示装置、表示制御プログラム、表示制御方法、及び記録媒体
US20160097651A1 (en) Image display apparatus and operating method of image display apparatus
WO2021082483A1 (en) Method and apparatus for controlling vehicle
CN105966311B (zh) 用于校准摄像机的方法、车辆用的设备和计算机程序产品
US9881482B2 (en) Method and device for displaying information of a system
JP5047650B2 (ja) 車載カメラシステム
JP2007106353A (ja) 車両用情報表示装置及び車両用情報表示システム
JP2010128619A (ja) 入力装置、車両周辺監視装置、アイコンスイッチ選択方法及びプログラム
US20180056787A1 (en) Method for operating a communication device for a motor vehicle during an autonomous drive mode, communication device as well as motor vehicle
CN114764319A (zh) 智能座舱多屏互动***、方法及可读存储介质
CN115793852A (zh) 基于座舱区域获取操作指示的方法、显示方法及相关设备
CN107709931B (zh) 导航***及导航装置
WO2015004784A1 (ja) 車両用情報表示装置及び車両用情報表示方法
JP7117454B2 (ja) 支援方法、および支援システム
US20210034207A1 (en) Operation image display device, operation image display system, and operation image display program
CN109189068B (zh) 泊车控制方法、装置及存储介质
JP2009190675A (ja) 車両用操作装置
JP2022174351A (ja) 自動駐車支援システム
JP6424775B2 (ja) 情報表示装置
JP2014215327A (ja) 情報表示装置、車載器および情報表示システム
US20200231099A1 (en) Image processing apparatus
CN108871356B (zh) 一种行车导航方法、移动终端

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210803

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20210803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220801

R150 Certificate of patent or registration of utility model

Ref document number: 7117454

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150