JPWO2020026402A1 - 車載情報装置および携帯端末との連携方法 - Google Patents

車載情報装置および携帯端末との連携方法 Download PDF

Info

Publication number
JPWO2020026402A1
JPWO2020026402A1 JP2020533988A JP2020533988A JPWO2020026402A1 JP WO2020026402 A1 JPWO2020026402 A1 JP WO2020026402A1 JP 2020533988 A JP2020533988 A JP 2020533988A JP 2020533988 A JP2020533988 A JP 2020533988A JP WO2020026402 A1 JPWO2020026402 A1 JP WO2020026402A1
Authority
JP
Japan
Prior art keywords
occupant
vehicle
operator
mobile terminal
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020533988A
Other languages
English (en)
Other versions
JP7003268B2 (ja
Inventor
直志 宮原
直志 宮原
下谷 光生
光生 下谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2020026402A1 publication Critical patent/JPWO2020026402A1/ja
Application granted granted Critical
Publication of JP7003268B2 publication Critical patent/JP7003268B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/724098Interfacing with an on-board device of a vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/48Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for in-vehicle communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

車載情報装置(10)において、予備動作検出部(15)は、車両に設置された表示装置21の画面(21a)に対する車両の乗員の操作の予備動作を検出する。操作者特定部(16)は、予備動作を行った乗員を操作者として特定する。制御部(17)は、操作者の携帯端末(M)を特定し、操作者の携帯端末(M)に対応する連携開始アイコンを画面(21a)に表示する。操作検出部(14)が連携開始アイコンに対する操作者の操作を検出すると、制御部(17)は、操作者の携帯端末(M)との連携動作を開始する。

Description

本発明は、携帯端末との連携動作が可能な車載情報装置に関するものである。
車両の乗員(搭乗者)の携帯端末との連携動作が可能な車載情報装置が知られている。例えばミラーリングシステムでは、携帯端末で動作するアプリケーションソフトウェア(以下「アプリ」という)の実行画面を車載情報装置の画面に表示するとともに、当該アプリを車載情報装置を用いて遠隔操作することで、当該アプリがあたかも車載情報装置上で動作しているかのように見せている。
また、下記の特許文献1には、複数の乗員の携帯端末と連携可能な車載情報装置が開示されている。特許文献1の車載情報装置は、乗員の座席位置とその乗員の携帯端末のIDとを紐付けする情報を予め記憶しており、連携した携帯端末を所有する乗員の座席を特定することで、当該乗員の座席位置に応じた処理を実施できる。
特開2017−19400号公報
複数の乗員の携帯端末と連携可能な車載情報装置では、車載情報装置の操作者が、車載情報装置と連携させる携帯端末を選択する必要があり、その選択を支援する技術が望まれる。また、プライバシー保護およびセキュリティの観点から、操作者が他の乗員の携帯端末が無断で選択されることを防止する必要がある。
本発明は上記のような課題を解決するためになされたものであり、操作者が車載情報装置に連携させる携帯端末を選択することを支援すると共に、他の乗員の携帯端末が無断で選択されることを防止できる車載情報装置を提供することを目的とする。
本発明に係る車載情報装置は、携帯端末との連携動作のための通信を行う通信部と、車両の乗員を特定可能な情報を含む乗員情報を記憶する乗員情報記憶部と、車両の乗員とその乗員の携帯端末とを紐付けする情報を含む携帯端末情報を記憶する携帯端末情報記憶部と、車両に設置された表示装置の画面に対する車両の乗員の操作を検出する操作検出部と、車両の乗員の画面に対する操作の予備動作を検出する予備動作検出部と、乗員情報に基づいて、予備動作を行った乗員を操作者として特定する操作者特定部と、操作者が特定されると、携帯端末情報に基づいて操作者の携帯端末を特定し、操作者の携帯端末に対応する連携開始アイコンを画面に表示し、操作者による連携開始アイコンの操作が検出されると、操作者の携帯端末との連携動作を開始する制御部と、を備えるものである。
本発明に係る車載情報装置によれば、画面に対する操作の予備動作から操作者が特定され、操作者の携帯端末に対応する連携開始アイコンが画面に表示されるため、操作者は、実際に画面に対する操作を行って携帯端末を選択するよりも迅速かつ容易に自己の携帯端末を選択することができる。また、車載情報装置が操作者を特定することで、操作者以外の乗員の携帯端末が無断で選択されることを防止できる。
本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1に係る車載情報システムの構成を示すブロック図である。 車両内の座席および表示装置の画面の配置例を示す図である。 操作検出部および予備動作検出部の動作を説明するための図である。 車載情報装置が表示装置の画面に表示させる初期画面の例を示す図である。 連携開始アイコンの例を示す図である。 携帯端末の機能選択メニューの例を示す図である。 携帯端末の機能の詳細メニューの例を示す図である。 実施の形態1に係る車載情報装置の動作を示すフローチャートである。 車載情報装置のハードウェア構成の例を示す図である。 車載情報装置のハードウェア構成の例を示す図である。 連携開始アイコンおよび車載情報装置の機能選択アイコンの例を示す図である。 連携開始アイコンの例を示す図である。 連携開始アイコンの例を示す図である。 連携開始アイコンの例を示す図である。 連携開始アイコンの例を示す図である。 連携開始アイコンの例を示す図である。 連携開始アイコンの例を示す図である。 連携開始アイコンの例を示す図である。 連携開始アイコンの例を示す図である。 車載情報装置の操作画面の例を示す図である。 車載情報装置の操作画面の例を示す図である。 複数の連携開始アイコンの例を示す図である。 複数の連携開始アイコンの例を示す図である。 複数の連携開始アイコンの例を示す図である。 車両内の座席および複数の表示装置の画面の配置例を示す図である。 実施の形態2に係る車載情報システムの構成を示すブロック図である。 車両内の座席、表示装置の画面および車内カメラの配置例を示す図である。 車内カメラで撮影される画像の例を示す図である。 実施の形態3に係る車載情報システムの構成を示すブロック図である。 実施の形態4に係る車載情報システムの構成を示すブロック図である。 車両内の座席、表示装置の画面および車内マイクの配置例を示す図である。 実施の形態5に係る車載情報システムの構成を示すブロック図である。 認証用データ取得装置および乗員認証部を説明するための図である。 実施の形態5に係る車載情報装置の動作を示すフローチャートである。 認証・登録処理を示すフローチャートである。 初期動作決定処理を示すフローチャートである。 履歴更新処理を示すフローチャートである。 車載エージェントの例を示す図である。 車載エージェントの例を示す図である。 車載エージェントの例を示す図である。 車載エージェントの例を示す図である。 携帯端末の設定情報入力画面の例を示す図である。
<実施の形態1>
図1は、本発明の実施の形態1に係る車載情報システムの構成を示すブロック図である。図1のように、実施の形態1に車載情報システムは、車両に搭載された車載情報装置10と、それに接続された表示装置21およびセンサ22とを備えている。また、車載情報装置10は、車両の乗員が所有する携帯端末Mとの連携動作が可能である。図1では携帯端末Mを1つのみ示しているが、例えば図2のように、複数の乗員のそれぞれが、車載情報装置10と連携可能な携帯端末Mを車両に持ち込むこともある。図2の例では、携帯端末Mとして、乗員Aの携帯端末MAと、乗員Bの携帯端末MBとが車両に持ち込まれている。
表示装置21は、例えば液晶表示装置などであり、車両に設置された画面21aを有している。画面21aは、図2のように、車両のセンターパネルなど、複数の乗員が操作可能な位置に設置されるものとする。
センサ22は、表示装置21の画面21aに対する操作を行うための指示体の位置を検出するセンサである。本実施の形態では、指示体は乗員の指と仮定する。センサ22は、画面21aの表面への指のタッチ位置を検出するタッチセンサと、画面21aの周囲の空間における指の位置を検出する空間センサとを含んでいる。空間センサの種類に制約はなく、例えば、赤外線センサ、静電容量センサ、ToF(Time of Flight)センサ、画像センサ(カメラ)などを用いることができる。
図1に示すように、車載情報装置10は、通信部11、乗員情報記憶部12、携帯端末情報記憶部13、操作検出部14、予備動作検出部15、操作者特定部16および制御部17を備えている。
通信部11は、車載情報装置10が外部との通信を行うための通信手段である。車載情報装置10が携帯端末Mとの連携動作を行うための通信は、通信部11を通して行われる。
乗員情報記憶部12は、車両の乗員に関する情報である乗員情報を記憶する記憶媒体である。乗員情報には、車両の乗員を特定可能な情報が含まれている。実施の形態1の乗員情報は、乗員個人を識別可能な情報(例えば、指紋情報、虹彩情報、顔情報など)である必要はなく、少なくとも各乗員がどの座席にいる乗員であるのかを特定できる情報であればよい。本実施の形態では、乗員情報は、各乗員の座席位置の情報であるものとする。
携帯端末情報記憶部13は、車載情報装置10と連携可能な携帯端末Mに関する情報である携帯端末情報を記憶する記憶媒体である。携帯端末情報には、乗員とその乗員の携帯端末Mとを紐付けする情報が含まれている。すなわち、携帯端末情報には、携帯端末Mの所有者がどの座席にいる乗員であるのかを特定できる情報が含まれている。
本実施の形態では、各乗員の座席位置の情報と、各乗員とその乗員が所有する携帯端末Mとを紐付けする情報とが、乗員によって事前に(例えば各乗員の搭乗時などに)車載情報装置10に入力され、乗員情報記憶部12および携帯端末情報記憶部13に登録されているものとする。
操作検出部14は、センサ22による乗員の指の位置の検出結果に基づいて、表示装置21の画面21aに対する乗員の操作を検出する。また、予備動作検出部15は、センサ22による乗員の指の位置の検出結果に基づいて、乗員が画面21aに対する操作の準備段階で行う動作(以下「予備動作」という)を検出する。実施の形態1では、画面21aに指を接触させて行うタッチ操作を、画面21aの操作として定義し、タッチ操作を行うために画面21aに指を近づける動作を、その予備動作として定義する。つまり本実施の形態では、操作検出部14は、画面21aに対するタッチ操作を検出し、予備動作検出部15は、画面21aに接近する指の動きを検出する。
例えば図3のように、乗員が指60を画面21aに近づけて、画面21aにタッチする場合、予備動作検出部15は、指60と画面21aとの間の距離が予め定められた閾値Tdよりも小さくなってから、指60が画面21aに到達するまでの、指60の動きを操作の予備動作として検出する。すなわち、画面21aからの距離がTd未満である空間が、予備動作の検出範囲である。また、操作検出部14は、画面21aにおける指60が接触する位置(座標)を検出する。
操作者特定部16は、乗員情報記憶部12に記憶されている乗員情報に基づいて、予備動作検出部15が検出した予備動作を行った乗員を判断し、その乗員を操作者として特定する。本実施の形態では、操作者特定部16は、予備動作を行った乗員がどの座席にいるのか、つまり、どの座席にいる乗員が操作者であるのかを特定する。例えば図2のように、画面21aが車両のセンターパネルに設置されている場合、操作者は、運転席の乗員(運転者)または助手席の乗員である。また、予備動作を行った乗員の指が運転席側または助手席側のどちらから画面21aに接近したかによって、操作者が運転席にいるか助手席にいるかを判断できる。
制御部17は、車載情報装置10で動作するアプリの実行や、携帯端末Mとの連携など、車載情報装置10の種々の動作を制御する。特に、車両の乗員により画面21aに対する操作の予備動作が行われ、操作者特定部16が操作者を特定した場合、制御部17は、携帯端末情報記憶部13に記憶されている携帯端末情報(乗員と携帯端末Mとを紐付けする情報)に基づいて操作者の携帯端末Mを特定し、操作者の携帯端末Mに対応する「連携開始アイコン」を画面21aに表示する。そして、操作検出部14が操作者による画面21a上の連携開始アイコンの操作を検出すると、制御部17は、操作者の携帯端末Mとの連携動作を開始する。
ここで、車載情報装置10はナビゲーション装置であり、通常動作時(携帯端末Mとの連携動作を行われていないとき)には、制御部17が地図アプリを実行して、画面21aに図4のような地図が表示されるものと仮定する。すなわち、図4の画面21aに表示されている地図は、車載情報装置10で動作するアプリによって生成されたものである。以下、車載情報装置10で動作するアプリを「車載アプリ」、携帯端末Mで動作するアプリを「携帯アプリ」という。
図4の状態から、車両の乗員が画面21aに指を近づけると、予備動作検出部15がその指の動きを操作の予備動作として検出し、操作者特定部16が予備動作を行った乗員を操作者として特定する。続いて、制御部17が操作者の携帯端末Mを特定し、操作者の携帯端末Mに対応する連携開始アイコンを画面21aに表示する。例えば、操作者特定部16が運転席の乗員Aを操作者として特定した場合、制御部17は、図5のように、乗員Aの携帯端末MA(Mobile MA)に対応する連携開始アイコン101Aを画面21aに表示する。
そして、操作者が指で画面21a上の連携開始アイコンにタッチすると、操作検出部14がその指の動きを連携開始アイコンの操作として検出し、制御部17が操作者の携帯端末Mとの連携動作を開始する。例えば図5の連携開始アイコン101Aに操作者がタッチすると、制御部17は、携帯端末MAとの連携動作を開始し、図6のような携帯端末MAの機能選択メニュー(実行可能なアプリの一覧)を画面21aに表示する。その後、操作者が図6の機能選択メニューの「Music」のアイコンにタッチすると、携帯端末MAの音楽アプリが起動し、図7のように音楽アプリの詳細メニュー(ここでは楽曲の再生リスト)が表示される。すなわち、図6および図7の画面21aに表示されたメニューは、携帯端末MAで動作する携帯アプリによって生成されたものである。
このように、車載情報装置10と携帯端末Mとの連携動作が行われている間、操作者は、画面21aに表示された携帯アプリの操作画面を操作することで、携帯端末Mで動作する携帯アプリの操作を行うことができる。それにより、操作者は、携帯アプリを車載アプリと同様の操作感覚で操作することができる。
図8は、車載情報装置10の動作を示すフローチャートである。以下、図8を参照しつつ車載情報装置10の動作を説明する。
車載情報装置10が起動すると、制御部17は、表示装置21の画面21aに予め定められた初期画面を表示する(ステップS101)。初期画面はどのようなものでもよく、例えば車載情報装置10がナビゲーション装置である場合は、図4に示したような地図の表示画面でもよい。
続いて、制御部17は、予備動作検出部15により乗員の画面21aに対する操作の予備動作が検出されたか否かを確認する(ステップS102)。画面21aに対する操作の予備動作が検出されなければ(ステップS102でNO)、ステップS102が繰り返される。
画面21aに対する操作の予備動作が検出されると(ステップS102でYES)、操作者特定部16が、その予備動作を行った乗員を、操作者として特定する(ステップS103)。そして、制御部17が、携帯端末情報記憶部13に記憶されている携帯端末情報(乗員と携帯端末Mとを紐付けする情報)に基づいて操作者の携帯端末Mを特定し、操作者の携帯端末Mに対応する連携開始アイコンを画面21aに表示する(ステップS104)。
その後、制御部17は、操作検出部14により操作者の画面21aに対する操作が検出されたか否かを確認する(ステップS105)。操作者の画面21aに対する操作が検出されなければ(ステップS105でNO)、予備動作検出部15が、操作者の指が画面21aから遠ざかったか否か、具体的には、予備動作の検出範囲(図3参照)から出たか否かを確認する(ステップS106)。操作者の指が画面21aから遠ざかっていれば(ステップS106でYES)、ステップS102へ戻り、遠ざかっていなければ(ステップS106でNO)、ステップS105へ戻る。
操作検出部14により操作者の画面21aに対する操作が検出されると(ステップS105でYES)、制御部17は、その操作が連携開始アイコンに対する操作か否かを確認する(ステップS107)。当該操作が連携開始アイコンに対する操作でなかった場合(ステップS107でNO)、制御部17は、当該操作に従った車載情報装置10の動作(例えば車載アプリの実行など)を行い(ステップS108)、ステップS105へ戻る。
一方、操作検出部14により検出された操作が連携開始アイコンに対する操作であった場合(ステップS107でYES)、制御部17は、操作者の携帯端末Mとの連携動作を実施する(ステップS109)。携帯端末Mとの連携動作が行われている間(ステップS110でNO)、画面21aには携帯端末Mで動作する携帯アプリの操作画面が表示され、操作者はその操作画面を操作することで、携帯アプリを車載アプリと同様の操作感覚で操作することができる。携帯端末Mとの連携動作が終了すると(ステップS110でYES)、ステップS102に戻る。
なお、プライバシー保護およびセキュリティの観点から、携帯端末Mとの連携動作が行われている間、画面21aに表示された携帯アプリの操作画面の操作は、その携帯端末Mの所有者のみ、すなわち連携開始アイコンを操作した操作者のみが可能なように、操作の主体を制限するとよい。どの乗員が画面21aに表示された携帯アプリの操作画面を操作したかの判断は、上記した操作者の判断と同様の方法で行うことができる。すなわち、予備動作検出部15が乗員の操作の予備動作を検出し、操作者特定部16が乗員の指の動きからその乗員が誰なのか(どの座席の乗員なのか)を判断することで、その後に行われた操作がどの乗員によるものかを判断できる。
以上のように、実施の形態1に係る車載情報装置10は、画面21aに対する乗員の操作の予備動作から操作者を特定し、操作者の携帯端末Mに対応する連携開始アイコンを画面21aに表示する。操作者が実際に画面21aの操作を行う前に、連携動作の対象が当該操作者の携帯端末Mに絞り込まれるため、操作者は、迅速かつ容易に自己の携帯端末Mを車載情報装置10と連携させることができる。また、車載情報装置10が操作者の携帯端末Mを特定するため、他の乗員の携帯端末Mが無断で連携動作の対象となることを防止できる。
[ハードウェア構成例]
図9および図10は、それぞれ車載情報装置10のハードウェア構成の例を示す図である。図1に示した車載情報装置10の構成要素の各機能は、例えば図9に示す処理回路50により実現される。すなわち、車載情報装置10は、車両に設置された表示装置21の画面21aに対する車両の乗員の操作の予備動作を検出し、予備動作を行った乗員を操作者として特定し、操作者の携帯端末を特定し、操作者の携帯端末に対応する連携開始アイコンを画面21aに表示し、連携開始アイコンに対する操作者の操作を検出し、連携開始アイコンに対する操作者の操作が検出されると、操作者の携帯端末との連携動作を開始するための処理回路50を備える。処理回路50は、専用のハードウェアであってもよいし、メモリに格納されたプログラムを実行するプロセッサ(中央処理装置(CPU:Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)とも呼ばれる)を用いて構成されていてもよい。
処理回路50が専用のハードウェアである場合、処理回路50は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものなどが該当する。車載情報装置10の構成要素の各々の機能が個別の処理回路で実現されてもよいし、それらの機能がまとめて一つの処理回路で実現されてもよい。
図10は、処理回路50がプログラムを実行するプロセッサ51を用いて構成されている場合における車載情報装置10のハードウェア構成の例を示している。この場合、車載情報装置10の構成要素の機能は、ソフトウェア等(ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせ)により実現される。ソフトウェア等はプログラムとして記述され、メモリ52に格納される。プロセッサ51は、メモリ52に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、車載情報装置10は、プロセッサ51により実行されるときに、車両に設置された表示装置21の画面21aに対する車両の乗員の操作の予備動作を検出する処理と、予備動作を行った乗員を操作者として特定する処理と、操作者の携帯端末を特定し、操作者の携帯端末に対応する連携開始アイコンを画面21aに表示する処理と、連携開始アイコンに対する操作者の操作を検出する処理と、連携開始アイコンに対する操作者の操作が検出されると、操作者の携帯端末との連携動作を開始する処理と、が結果的に実行されることになるプログラムを格納するためのメモリ52を備える。換言すれば、このプログラムは、車載情報装置10の構成要素の動作の手順や方法をコンピュータに実行させるものであるともいえる。
ここで、メモリ52は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリー、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)およびそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
以上、車載情報装置10の構成要素の機能が、ハードウェアおよびソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、車載情報装置10の一部の構成要素を専用のハードウェアで実現し、別の一部の構成要素をソフトウェア等で実現する構成であってもよい。例えば、一部の構成要素については専用のハードウェアとしての処理回路50でその機能を実現し、他の一部の構成要素についてはプロセッサ51としての処理回路50がメモリ52に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
以上のように、車載情報装置10は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。
[変形例]
以下、実施の形態1に係る車載情報システムの幾つかの変形例を示す。なお、以下に示す連携開始アイコンの表示例では、特に断りの無い限り、乗員Aが操作者として特定されたものと仮定し、乗員Aの携帯端末MA(Mobile MA)に対応する連携開始アイコン101Aの表示例を示す。
実施の形態1では、操作検出部14は、操作者が画面21a上の連携開始アイコンに触れたときに、連携開始アイコンのタッチ操作が行われたと判断したが、操作者の指の動きから連携開始アイコンのタッチ操作が行われる可能性が高いと判断された時点で、タッチ操作が行われたとみなしてもよい。例えば、操作検出部14が、センサ22の空間センサの出力に基づき、画面21a上の連携開始アイコンと操作者の指との間の距離を検出し、当該距離が一定値以下になった時点で連携開始アイコンのタッチ操作が行われたとみなしてもよい。また、操作検出部14が、センサ22の空間センサの出力に基づき操作者の指の動きを検出し、操作者の指が連携開始アイコンへ向かって移動していることが検出された時点で、連携開始アイコンのタッチ操作が行われたとみなしてもよい。
また、実施の形態1では、画面21aに指を接触させて行うタッチ操作を、画面21aの操作として定義したが、例えば、画面21aに指を接触させずに行う空間ジェスチャ操作を、画面21aの操作として定義してもよい。この場合、操作検出部14が、画面21a上の連携開始アイコンに対する操作者の空間ジェスチャ操作を検出すると、制御部17が、操作者の携帯端末Mに対応する連携開始アイコンを画面21aに表示する。
画面21aに対する全ての操作が空間ジェスチャ操作で行われる場合、センサ22は、空間センサのみを備えていれば足り、必ずしもタッチセンサを有していなくてもよい。また、空間ジェスチャ操作を画面21aの操作として定義する場合、表示装置21は、遠隔操作可能な任意のディスプレイ、例えば、センターディスプレイ、メーターディスプレイ、ヘッドアップディスプレイなどでもよい。
例えばナビゲーション装置において、通常は画面の全体に地図を表示し、空間センサを用いてユーザの手が画面に近づいたことを検知すると、地図上に操作ボタンを重畳表示する技術が知られている。実施の形態1の車載情報システムは、空間センサを含むセンサ22を含んでいるため、その技術を導入してもよい。例えば、車載情報装置10が通常動作時には画面21aに図4のような地図を表示し、その後、予備動作検出部15が画面21aに対する乗員Aの操作の予備動作を検出して操作者特定部16により乗員Aが操作者として特定されると、制御部17が、図11のように乗員Aの携帯端末MAに対応する連携開始アイコン101Aとともに、車載情報装置10の操作ボタンのアイコン110を画面21aに表示させてもよい。
連携開始アイコンの形態は、図5および図11に示したものに限られず、どのようなものでもよい。例えば図12のように、携帯端末MAに対応する連携開始アイコン101Aに、当該携帯端末MAの機能選択メニューを含ませてもよい。この場合、連携開始アイコン101A内の機能選択メニューに対する操作が行われると、制御部17は、図7のような詳細メニューを画面21aに表示する。つまり、連携開始アイコン101Aに対する1回の操作で、車載情報装置10に携帯端末MAとの連携を開始させる操作と、携帯端末MAで実行させる機能の選択操作とを一括して行うことができ、利便性が向上する。
制御部17は、車載情報装置10との連携動作時における携帯端末Mの操作履歴を取得し、それを携帯端末情報に含ませて携帯端末情報記憶部13に記憶させ、その後に同じ携帯端末Mとの連携動作を行うときの初期動作に反映させてもよい。例えば、制御部17が、携帯端末Mの操作履歴から利用頻度の高い機能を特定し、次に同じ携帯端末Mとの連携動作を開始するときに、利用頻度の高い機能を自動的に起動させてもよい。あるいは、制御部17が、携帯端末Mとの前回の連携動作で最後に選択された機能を特定し、次に同じ携帯端末Mとの連携動作を開始するときに、前回の連携動作で最後に選択された機能を自動的に起動させてもよい。その場合、例えば図13や図14のように、連携開始アイコン101Aに、連携動作の開始時に起動する機能を示すサイン(「Music」や「Message」などのテキスト)を含ませてもよい。
また、制御部17は、操作者が車両の運転者か否かに応じて、連携開始アイコンの形態を変更してもよい。運転者は、運転中に画面21aを操作するのは困難であり、画面21aを操作できるタイミングが限られるため、運転者の携帯端末Mに対応する連携開始アイコンは、視認および操作が容易な形態にすることが好ましい。例えば、操作者が助手席の乗員Bのときは図15のように小さいサイズの連携開始アイコン101Bが表示され、操作者が運転席の乗員Aのときは図16のように大きいサイズの連携開始アイコン101Aが表示されてもよい。さらに、図16の状態から、運転席の乗員Aの指が連携開始アイコン101Aに近づいたことが検出されると、制御部17が、図17のように連携開始アイコン101Aを画面21aの全体に表示し、乗員Aが画面21aのどこにタッチしても、乗員Aの携帯端末MAと車載情報装置10との連携動作が開始されるようにしてもよい。
運転者による操作のタイミングが限られるのは、連携開始アイコン以外のアイコンも同様である。そのため、制御部17は、操作者の携帯端末Mとの連携動作中に画面に表示される各種のアイコンの形態も、その操作者が運転者か否かに応じて変更してもよい。例えば、制御部17が画面21aに表示する携帯端末Mの機能選択メニューにおいて、携帯端末Mの所有者が運転者でなければ、図18のように小さいサイズの機能選択ボタンが表示され、携帯端末Mの所有者が運転者であれば、図19のように大きいサイズの機能選択ボタンが表示されてもよい。なお、図19の例では、機能を記号で表現したデザインの機能選択ボタンを用いることで、各ボタンに対応する機能を運転者が直感的に認識できるようにしている。
また、制御部17は、画面21aに表示する携帯端末Mの各機能の詳細メニューに用いるアイコンの形態も、操作者が車両の運転者か否かに応じて変更してもよい。例えば、制御部17が画面21aに表示する、携帯端末Mの音楽アプリの再生リストにおいて、携帯端末Mの所有者が運転者でなければ、図20のように小さいサイズの楽曲選択ボタンが表示され、携帯端末Mの所有者が運転者であれば、図21のように大きなサイズの楽曲選択ボタンが表示されてもよい。なお、図21の例では、カバーアートで楽曲を表現しデザインの楽曲選択ボタンを用いることで、各ボタンに対応する楽曲を運転者が直感的に認識できるようにしている。
さらに、制御部17は、操作者が車両の運転者である場合に、ドライバ・ディストラクションを招く恐れのある特定の機能、車載アプリ、携帯アプリの起動を制限してもよい。
もし、操作者特定部16が操作者である乗員を特定できなかった場合、制御部17は、連携可能な複数の携帯端末Mのそれぞれに対応する複数の連携開始アイコンを画面に表示して、連携する携帯端末Mを乗員に選択させてもよい。例えば、車両内に車載情報装置10との連携が可能な3台の携帯端末MA,MB,MCが存在すれば、制御部17は、図22のように、携帯端末MAに対応する連携開始アイコン101Aと、携帯端末MBに対応する連携開始アイコン101Bと、携帯端末MCに対応する連携開始アイコン101Cとを、画面21aに表示してもよい。この場合、制御部17は、操作者が連携開始アイコン101Aを操作すると携帯端末MAとの連携動作を開始し、操作者が連携開始アイコン101Bを操作すると携帯端末MBとの連携動作を開始し、操作者が連携開始アイコン101Cを操作すると携帯端末MCとの連携動作を開始する。また、図12に示した変形例を応用し、図23のように、連携開始アイコン101A,101B,101Cに、それぞれ携帯端末MA,MB,MCの機能選択メニューを含ませてもよい。
また、操作者特定部16が操作者である乗員を特定できた場合でも、制御部17は、図24のように、操作者の携帯端末MAに対応する連携開始アイコン101Aとともに、連携可能な他の携帯端末MB,MCに対応する連携開始アイコン101B,101Cを、連携開始アイコン101Aとは異なる形態で画面21aに表示してもよい。この場合も、制御部17は、操作者が連携開始アイコン101Aを操作すると携帯端末MAとの連携動作を開始し、操作者が連携開始アイコン101Bを操作すると携帯端末MBとの連携動作を開始し、操作者が連携開始アイコン101Cを操作すると携帯端末MCとの連携動作を開始する。
ただし、図22〜図24の例のように、連携する携帯端末Mを、操作者が選択する場合、他の乗員の携帯端末Mが無断で選択されることを防止する必要がある。そのため、車載情報装置10は、連携開始アイコンを操作した乗員の個人認証を行って(個人認証の詳細は後の実施の形態で説明する)、当該乗員が、選択された携帯端末Mの所有者と判断された場合に限り、選択された携帯端末Mとの連携動作が開始されることが好ましい。
また、連携開始アイコンを操作した乗員が、その連携開始アイコンに対応する携帯端末Mの所有者でない場合でも、制御部17は、当該携帯端末Mの所有者の許可が得られれば、当該携帯端末Mを車載情報装置10と連携させてもよい。当該携帯端末Mの所有者が車載情報装置10に連携の許可を与える方法としては、例えば、画面21aに対する操作による許可の入力、当該携帯端末Mに対する操作による許可の入力、音声入力装置(不図示)を用いた許可の音声入力などがある。そのとき、車載情報装置10が、許可を入力した乗員の個人認証を行って、当該乗員が携帯端末Mの真の所有者であることを確認することが好ましい。
また、図24の変形例のように車載情報装置10と操作者以外の携帯端末Mとの連携を許容する場合、車両に複数の車載情報システムを導入し、図25のように複数の座席のそれぞれに車載情報システムの画面21aを配置してもよい。そうすることにより、それぞれの乗員が、各座席の画面21aを用いて互いの携帯端末Mを遠隔操作できるシステムを構築できる。
図6または図7に示したメニューには、図4のような通常動作時の画面に戻るための「復帰アイコン」を含ませてもよい。操作者は、復帰アイコンにタッチ、あるいは、指を復帰アイコンに近づけることで、画面21aの表示を通常動作時の画面に戻すことができる。また、図6または図7に示したメニューが画面21aに表示された状態で、一定時間、画面21aに対する操作がなければ、画面21aの表示が通常動作時の画面に戻るようにしてもよい。
<実施の形態2>
図26は、本発明の実施の形態2に係る車載情報システムの構成を示すブロック図である。図26の車載情報システムの構成は、図1の構成に対し、車載情報装置10にさらに車内カメラ23を接続させたものである。車内カメラ23は、図27のように画面21aの近傍に配置され、画面21aの操作およびその予備動作を行う乗員の姿を撮影する。図28は車内カメラ23により撮影される画像の例である。
また、実施の形態2では、操作者特定部16は、車内カメラ23が撮影した画像を解析することで、画面21aの操作の予備動作を行った乗員がどの座席にいるのかを判断し、その座席の乗員を操作者として特定する。例えば図27のように運転席が左側にある車両において、予備動作検出部15が画面21aに対する操作の予備動作を検出したときに、図28のように車内カメラ23から見て右側の乗員が画面21aに手を伸ばす様子が撮影された場合、操作者特定部16は運転席の乗員を操作者として特定する。
操作者特定部16が、車内カメラ23が撮影した画像を解析して操作者を特定することで、センサ22が検出した乗員の指の動きから操作者を特定する場合よりも、操作者の特定精度を向上させることができる。
<実施の形態3>
図29は、本発明の実施の形態3に係る車載情報システムの構成を示すブロック図である。図29の構成は、図1の構成に対し、車載情報装置10にさらに車内カメラ23を接続させるとともに、車載情報装置10内に乗員位置判断部18を追加したものである。車内カメラ23は、実施の形態2と同様、画面21aの近傍に配置され、各座席の乗員を撮影する。
実施の形態1では、乗員情報記憶部12に登録される各乗員の座席位置の情報は、乗員によって車載情報装置10に入力されるものであったが、実施の形態3では、乗員位置判断部18が、車内カメラ23が撮影した画像を解析して各乗員の座席位置を判断し、その判断結果を乗員情報記憶部12に登録する。具体的には、乗員位置判断部18は、車内カメラ23が撮影した画像を解析して各座席の乗員の個人識別を行い、各座席の乗員が誰かを判断する。画像解析による個人識別に必要とされる乗員の生体情報、例えば顔情報、虹彩情報などは、乗員情報として予め乗員情報記憶部12に記憶されているものとする。
実施の形態3によれば、各乗員の座席位置の情報が、操作者特定部16により自動的に乗員情報記憶部12に登録されるため、乗員がその情報を入力する手間をなくなり高い利便性が得られる。
なお、実施の形態3は実施の形態2と組み合わせてもよい。すなわち、図29の車内カメラ23が撮影した画像を操作者特定部16にも入力し、予備動作検出部15が乗員の画面21aに対する操作の予備動作を検出したときに、操作者特定部16がその画像を解析して操作者を特定してもよい。
<実施の形態4>
図30は、本発明の実施の形態4に係る車載情報システムの構成を示すブロック図である。図30の構成は、図1の構成に対し、車載情報装置10にさらに車内マイク24を接続させるとともに、車載情報装置10内に乗員位置判断部18を追加したものである。車内マイク24は、図31のように車両の各座席の近傍に配置され、各座席の乗員が発した声を取得する。
実施の形態4では、乗員位置判断部18が、車内マイク24が取得した各座席の乗員の声を解析して各乗員の座席位置を判断し、その判断結果を乗員情報記憶部12に登録する。具体的には、乗員位置判断部18は、車内マイク24が取得した声を解析して各座席の乗員の個人識別を行い、各座席の乗員が誰かを判断する。音声解析による個人識別に必要とされる乗員の生体情報である声紋情報は、乗員情報として予め乗員情報記憶部12に記憶されているものとする。
実施の形態4によれば、実施の形態3と同様に、各乗員の座席位置の情報が、操作者特定部16により自動的に乗員情報記憶部12に登録されるため、乗員がその情報を入力する手間をなくなり高い利便性が得られる。
<実施の形態5>
図32は、本発明の実施の形態5に係る車載情報システムの構成を示すブロック図である。図32の構成は、図1の構成に対し、車載情報装置10にさらに認証用データ取得装置25を接続させるとともに、車載情報装置10内に乗員認証部19を追加したものである。
図33は、認証用データ取得装置25および乗員認証部19を説明するための図である。認証用データ取得装置25は、乗員の個人認証を行うための認証用データ、例えば、顔情報、声紋情報、指紋情報、虹彩情報などの生体情報を取得するためのカメラやマイク、指紋スキャナーなどである。また、実施の形態5では、乗員情報記憶部12には、乗員情報として、乗員の個人認証に用いられる照合用データである個人情報(顔情報、声紋情報、指紋情報、虹彩情報などの生体情報)が予め記憶されている。
乗員認証部19は、認証用データ取得装置25が取得した乗員の認証用データと、乗員情報記憶部12に記憶されている乗員の照合用データとを照合することで、乗員の個人認証を行う。また、乗員認証部19は、携帯端末情報記憶部13に記憶されている携帯端末情報に基づいて、乗員が車両に持ち込んだ携帯端末MのIDと、その乗員と紐付けされた携帯端末のIDとの照合も行い、乗員が他人の携帯端末を不正使用していないかの確認も行う。
なお、乗員認証部19が個人認証に利用する個人情報の種類は、車両のサービス提供者(例えば、カーメーカー、カーディーラー、カーシェアリングサービスベンダーなど)が、セキュリティ性、利便性、コストなどを考慮して設定することができる。これにより、車両のサービス提供者は、自社のサービスに最適なセキュリティと利便性を、最適なコストパフォーマンスで設定することが可能となる。
また、乗員情報記憶部12には、乗員情報として、車載情報装置10の動作に関連する乗員ごとの設定情報も記憶されている。設定情報としては、例えば、乗員の氏名、性別、年齢、生年月日、自宅、職場、よく行く場所、好みの音楽ジャンル、好みのアーティストおよび好みの放送局、携帯端末の機能選択メニューの設定、他のクラウドサービスとの連携可否などの情報などが考えられる。制御部17は、乗員の携帯端末Mとの連携動作に、それらの設定情報を反映させる。
特に、よく行く場所、好みの音楽ジャンル、好みのアーティスト、好みの放送局など、乗員の嗜好を示す嗜好情報は、その乗員の携帯端末Mとの連携を開始するときの初期動作の決定に用いてもよい。例えば、制御部17が、乗員の携帯端末Mとの連携を開始するときに、その乗員がよく行く場所の情報を表示したり、乗員の好みの音楽の再生を開始したりしてもよい。また、各乗員の設定情報は、乗員認証部19が行う個人認証によって承認された乗員の携帯端末Mを用いて編集可能にしてもよい。
さらに、実施の形態5では、携帯端末情報記憶部13に記憶される携帯端末情報には、過去の連携動作における携帯端末Mの操作履歴の情報と、過去の連携動作の初期動作に対する操作者としての乗員の反応履歴の情報とが含まれている。操作者の反応履歴とは、連携動作の初期動作が行われたときの操作者の表情や動作の履歴である。例えば、初期動作が開始されたときに、操作者が困った表情をしたり、初期動作から他の動作に変更する動作したりした場合には、その初期動作は適切なもの(操作者の望むもの)ではなかったと判断できる。
制御部17は、操作者の携帯端末Mの操作履歴および操作者の反応履歴に基づいて、操作者の携帯端末Mとの連携動作の初期動作を決定する。例えば、制御部17が、携帯端末Mの操作履歴および操作者の反応履歴から、利用頻度が高く、且つ、過去に不適切と判断された頻度が低い機能を特定し、次に同じ携帯端末Mとの連携動作を開始するときに、その特定された機能を自動的に起動させてもよい。
図34は、実施の形態5に係る車載情報装置10の動作を示すフローチャートである。図34のフローチャートは、図8のフローに対し、以下のステップS200,S210,S220を追加したものである。
ステップS200は車載情報装置10の起動時に実行され、ステップS200では、車両内の各乗員の個人認証および新たな乗員の登録が行われる。ステップS200の処理を「認証・登録処理」という。
ステップS210は操作者の携帯端末Mとの連携動作が開始される前(ステップS109の前)に実行され、ステップS210では、連携動作を開始するときの初期動作が決定される。ステップS210の処理を「初期動作決定処理」という。
ステップS220は操作者の携帯端末Mとの連携動作が終了した後(ステップS110でYESとなった後)に実行され、ステップS220では、携帯端末Mとの連携動作が開始されたときの操作者の反応や、連携動作中に行われた操作者の操作に基づいて、携帯端末情報記憶部13に記憶された携帯端末Mの操作履歴および乗員の反応履歴の更新が行われる。ステップS220の処理を「履歴更新処理」という。
図35、図36および図37は、それぞれ、認証・登録処理、初期動作決定処理、および履歴更新処理を示すフローチャートである。以下、図34〜図37を参照しつつ、実施の形態5に係る車載情報装置10の動作を説明する。
車載情報装置10が起動すると、図35に示す認証・登録処理が行われる(ステップS200)。認証・登録処理では、まず、乗員認証部19が、車両内の各乗員の個人認証を行う(ステップS201)。制御部17は、個人認証の結果に基づいて、全ての乗員が車載情報装置10に登録済みの乗員(以下「登録乗員」という)か否かを判定する(ステップS202)。全ての乗員が登録乗員であれば(ステップS202でYES)、認証・登録処理は終了する。
初めて車両に乗車した乗員など、未登録の乗員(以下「未登録乗員」という)が存在した場合(ステップS202でNO)、制御部17は、未登録乗員を車載情報装置10に登録するか否か、乗員に対して問い合わせを行う(ステップS203)。乗員から、未登録乗員を登録する旨の応答があれば(ステップS204でYES)、車載情報装置10は、照合用データとなる未登録乗員の個人情報(顔情報、声紋情報、指紋情報、虹彩情報などの生体情報)や、その乗員の設定情報を取得し、当該乗員を登録乗員として登録して(ステップS205)、認証・登録処理を終了する。乗員の個人情報の取得は、認証用データ取得装置25のカメラや指紋スキャナーを用いて行われてもよいし、乗員が前もって携帯端末Mに記憶させている個人情報を車載情報装置10に転送することで行われてもよい。
乗員から、未登録乗員を登録しない旨の応答があった場合には(ステップS204でNO)、車載情報装置10は、未登録乗員を「ゲスト乗員」として設定して(ステップS206)、認証・登録処理を終了する。
図34に戻り、認証・登録処理(ステップS200)が終了すると、制御部17は、表示装置21の画面21aに予め定められた初期画面を表示する(ステップS101)。
続いて、制御部17は、予備動作検出部15により乗員の画面21aに対する操作の予備動作が検出されたか否かを確認する(ステップS102)。画面21aに対する操作の予備動作が検出されなければ(ステップS102でNO)、ステップS102が繰り返される。
画面21aに対する操作の予備動作が検出されると(ステップS102でYES)、操作者特定部16が、その予備動作を行った乗員を、操作者として特定する(ステップS103)。そして、制御部17が、携帯端末情報記憶部13に記憶されている携帯端末情報(乗員と携帯端末Mとを紐付けする情報)に基づいて操作者の携帯端末Mを特定し、操作者の携帯端末Mに対応する連携開始アイコンを画面21aに表示する(ステップS104)。
その後、制御部17は、操作検出部14により操作者の画面21aに対する操作が検出されたか否かを確認する(ステップS105)。操作者の画面21aに対する操作が検出されなければ(ステップS105でNO)、予備動作検出部15が、操作者の指が画面21aから遠ざかったか否か、具体的には、予備動作の検出範囲(図3参照)から出たか否かを確認する(ステップS106)。操作者の指が画面21aから遠ざかっていれば(ステップS106でYES)、ステップS102へ戻り、遠ざかっていなければ(ステップS106でNO)、ステップS105へ戻る。
操作検出部14により操作者の画面21aに対する操作が検出されると(ステップS105でYES)、制御部17は、その操作が連携開始アイコンに対する操作か否かを確認する(ステップS107)。当該操作が連携開始アイコンに対する操作でなかった場合(ステップS107でNO)、制御部17は、当該操作に従った車載情報装置10の動作(例えば車載アプリの実行など)を行い(ステップS108)、ステップS105へ戻る。
一方、操作検出部14により検出された操作が連携開始アイコンに対する操作であった場合(ステップS107でYES)、図36に示す初期動作決定処理が行われる(ステップS210)。初期動作決定処理では、まず、制御部17が、乗員情報記憶部12に記憶されている操作者の乗員情報を参照し、操作者の携帯端末Mの操作履歴および操作者の反応履歴が存在するか否かを確認する(ステップS211)。
操作履歴および反応履歴が存在すれば(ステップS211でYES)、制御部17は、操作履歴および反応履歴に基づいて、操作者の携帯端末Mとの連携動作を開始するときの初期動作を決定して(ステップS212)、初期動作決定処理を終了する。
操作履歴および反応履歴が存在しなければ(ステップS211でNO)、制御部17は、操作者の携帯端末Mとの連携開始時の初期動作を、デフォルトの初期動作(例えば機能選択メニューの表示など)に決定して(ステップS213)、初期動作決定処理を終了する。
図36の初期動作決定処理では、操作履歴および反応履歴に基づいて連携動作の初期動作を決定したが、乗員情報記憶部12に、操作者の嗜好情報(よく行く場所、好みの音楽ジャンル、好みのアーティスト、好みの放送局など)が登録されている場合には、嗜好情報を加味して初期動作を決定してもよい。
図34に戻り、初期動作決定処理(ステップS210)が終了すると、制御部17は、操作者の携帯端末Mとの連携動作を実施する(ステップS109)。この連携動作が開始されるときの初期動作は、初期動作決定処理で決定されたものとなる。また、連携動作には、乗員情報記憶部12に記憶されている乗員ごとの設定情報が反映される。
携帯端末Mとの連携動作が行われている間(ステップS110でNO)、画面21aには携帯端末Mで動作する携帯アプリの操作画面が表示され、操作者はその操作画面を操作することで、携帯アプリを車載アプリと同様の操作感覚で操作することができる。
携帯端末Mとの連携動作が終了すると(ステップS110でYES)、図37に示す履歴更新処理が行われる(ステップS220)。履歴更新処理では、まず、制御部17が、ステップS109で連携した携帯端末Mの所有者が登録乗員か否かを確認する(ステップS221)。
連携した携帯端末Mの所有者が登録乗員であれば(ステップS221でYES)、制御部17は、連携動作中における携帯端末Mの操作履歴に基づいて、携帯端末情報記憶部13に記憶されている当該携帯端末Mの操作履歴を更新する(ステップS222)。さらに、制御部17は、連携開始時の操作者(携帯端末Mの所有者)の反応に基づいて、乗員情報記憶部12に記憶されている当該操作者である乗員の反応履歴を更新する(ステップS223)。
連携した携帯端末Mの所有者が登録乗員でない場合(ステップS221でNO)、すなわち、連携した携帯端末Mの所有者がゲスト乗員である場合、制御部17は、連携動作中における携帯端末Mの操作履歴に基づいて、ゲスト乗員の携帯端末Mの操作履歴を更新する(ステップS224)。さらに、制御部17は、連携開始時のゲスト乗員の反応に基づいて、当該ゲスト乗員の反応履歴を更新する(ステップS225)。なお、ゲスト乗員の携帯端末Mの操作履歴およびゲスト乗員の反応履歴は、事後的にそのゲスト乗員を車載情報装置10に登録する場合に、当該ゲスト乗員の情報として、乗員情報記憶部12および携帯端末情報記憶部13に記憶される。
図34へ戻り、履歴更新処理(ステップS220)が終了すると、ステップS102に戻る。
実施の形態5に係る車載情報装置10は、携帯端末Mとの連携の際に、乗員情報記憶部12に記憶された携帯端末Mの所有者の個人情報を利用できるため、携帯端末Mの所有者の好みに応じたカスタマイズ性の高い動作を行うことができる。また、乗員認証部19が乗員の個人認証を行うため、連携した携帯端末Mの所有者以外の個人情報が車載情報装置10に使用されることを防止でき、高いセキュリティ性が得られる。
[変形例]
実施の形態5の車載情報装置10は、未登録な乗員をゲスト乗員として設定し、未登録乗員の携帯端末Mとの連携を許容したが、未登録乗員の携帯端末Mとの連携を禁止してもよい。
さらに、未登録の搭乗者には、車両の運転を許可しない、あるいは車両への搭乗を許可しないなどとして、セキュリティをさらに向上させてもよい。携帯端末に車両の電子鍵のデータを保存する技術が知られているが、未登録乗員の携帯端末に、車両の使用権限を持つオーナーから受信した電子鍵のデータが保存されている場合、その乗員には運転や搭乗を許可してもよい。
[車載エージェント]
ここでは、車載情報装置10への乗員の登録(図35のステップS205の処理)を容易に行うために、乗員の登録を音声対話形式で行うことが可能な音声エージェント(以下「車載エージェント」という)の例を示す。
例えば、図35に示した認証・登録処理のステップS202で未登録乗員が検出され、ステップS203へ移行すると、制御部17は、図38のように、画面21aに車載エージェントの実行画面を画面21aに表示し、不図示のスピーカから、携帯端末M(スマートフォン)を所有する未登録乗員を車載情報装置10に登録するか否かを問い合わせる音声メッセージを出力する。
当該乗員が、登録を希望する旨の回答を発話すると、図35のステップS205へ移行し、制御部17は、図39のように、当該乗員の携帯端末Mを車載情報装置10に接続(ペアリング)させるように促す音声メッセージを出力する。そして、当該乗員の携帯端末Mが車載情報装置10に接続されたことが確認されると、制御部17は、図40のように、車載情報装置10に登録する乗員情報の設定方法を案内する。
例えば、乗員が図40の「乗員登録情報の設定」ボタンを操作すると、図41のような乗員情報の入力画面が表示され、乗員は、入力画面に入力した乗員情報を乗員情報記憶部12に登録することができる。また、例えば、乗員が図40に表示されたQRコード(登録商標)を携帯端末Mに読み込ませると、携帯端末M上で図42のような乗員情報の入力アプリが起動し、乗員はこの入力アプリの入力画面に乗員情報を入力して車載情報装置10へ転送することで、入力画面に入力した乗員情報を乗員情報記憶部12に登録することができる。
図40および図42に示した入力画面には、乗員の氏名、乗員が車載エージェントに呼んで欲しい呼び名、乗員の性別、年齢、生年月日、自宅および職場、乗員の嗜好情報(よく行く場所、好みの音楽ジャンル、好みのアーティスト、好みの放送局など)、携帯端末との連携開始時の機能選択メニューの設定、他のクラウドサービスとの連携可否を入力可能に構成されている。車載情報装置10に登録できる乗員情報はこれらに限られず、さらに多くの情報を登録できるようにしてもよい。
また、図41の入力画面や図42の入力アプリを、登録乗員も起動できるようにし、登録済みの個人情報の編集に用いることができるようにしてもよい。また、携帯端末Mが車載情報装置10と未接続な状態でも、携帯端末Mのユーザが入力アプリを起動して、乗員情報を編集できるようにしてもよい。車載情報装置10と未接続な状態で入力アプリに入力された乗員情報は、次に携帯端末Mが車載情報装置10と接続したときに自動的に車載情報装置10に転送されて、乗員情報が更新されるようにしてもよい。
なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。
本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
M 携帯端末、10 車載情報装置、11 通信部、12 乗員情報記憶部、13 携帯端末情報記憶部、14 操作検出部、15 予備動作検出部、16 操作者特定部、17 制御部、18 乗員位置判断部、19 乗員認証部、21 表示装置、21a 画面、22 センサ、23 車内カメラ、24 車内マイク、25 認証用データ取得装置、50 処理回路、51 プロセッサ、52 メモリ、60 乗員の指、101A〜101C 連携開始アイコン。
本発明に係る車載情報装置は、携帯端末との連携動作のための通信を行う通信部と、車両の乗員を特定可能な情報であって、車両内における乗員の座席位置の情報および乗員の個人情報を含む乗員情報を記憶する乗員情報記憶部と、車両の乗員とその乗員の携帯端末とを紐付けする情報を含む携帯端末情報を記憶する携帯端末情報記憶部と、個人情報を用いて車両の乗員の個人認証を行う乗員認証部と、車両に設置された表示装置の画面に対する車両の乗員の操作を検出する操作検出部と、車両の乗員の画面に対する操作の予備動作を検出する予備動作検出部と、乗員情報に基づいて、予備動作を行った乗員を操作者として特定するとともに操作者の座席位置を特定する操作者特定部と、操作者が特定されると、携帯端末情報に基づいて操作者の携帯端末を特定し、操作者の携帯端末に対応する連携開始アイコンを画面に表示し、操作者による連携開始アイコンの操作が検出されると、操作者の携帯端末との連携動作を開始する制御部と、を備えるものである。

Claims (21)

  1. 携帯端末との連携動作のための通信を行う通信部と、
    車両の乗員を特定可能な情報を含む乗員情報を記憶する乗員情報記憶部と、
    前記車両の乗員とその乗員の携帯端末とを紐付けする情報を含む携帯端末情報を記憶する携帯端末情報記憶部と、
    前記車両に設置された表示装置の画面に対する前記車両の乗員の操作を検出する操作検出部と、
    前記車両の乗員の前記画面に対する操作の予備動作を検出する予備動作検出部と、
    前記乗員情報に基づいて、前記予備動作を行った乗員を操作者として特定する操作者特定部と、
    前記操作者が特定されると、前記携帯端末情報に基づいて前記操作者の携帯端末を特定し、前記操作者の前記携帯端末に対応する連携開始アイコンを前記画面に表示し、前記操作者による前記連携開始アイコンの操作が検出されると、前記操作者の前記携帯端末との連携動作を開始する制御部と、
    を備える車載情報装置。
  2. 前記乗員情報は、前記車両内における乗員の座席位置の情報を含む、
    請求項1に記載の車載情報装置。
  3. 前記乗員情報は、乗員の生体情報を含む
    請求項1に記載の車載情報装置。
  4. 前記操作者特定部が操作者を特定できない場合、前記制御部は、連携可能な携帯端末に対応する連携開始アイコンを前記画面に表示し、乗員により操作された連携開始アイコンに対応する携帯端末との連携動作を開始する、
    請求項1に記載の車載情報装置。
  5. 前記制御部は、前記操作者の携帯端末に対応する連携開始アイコンと共に、連携可能な他の携帯端末に対応する連携開始アイコンを、前記操作者の携帯端末に対応する前記連携開始アイコンとは異なる態様で前記画面に表示し、乗員により操作された連携開始アイコンに対応する携帯端末との連携動作を開始する、
    請求項1に記載の車載情報装置。
  6. 前記操作検出部は、前記画面に表示された前記連携開始アイコンに対するタッチ操作を検出する、
    請求項1に記載の車載情報装置。
  7. 前記操作検出部は、前記画面に表示された前記連携開始アイコンと指示体との距離を検出し、当該距離が一定値以下になると前記タッチ操作が行われたものとみなす、
    請求項6に記載の車載情報装置。
  8. 前記操作検出部は、指示体の動きを検出し、前記指示体が前記画面に表示された前記連携開始アイコンへ向かって移動していることが検出されると、前記タッチ操作が行われたものとみなす、
    請求項6に記載の車載情報装置。
  9. 前記操作検出部は、前記画面に表示された前記連携開始アイコンに対する空間ジェスチャ操作を検出する、
    請求項1に記載の車載情報装置。
  10. 前記制御部は、前記操作者の前記連携開始アイコンに対する操作が検出されると、前記操作者の携帯端末の機能選択メニューを前記画面に表示し、前記操作者の前記機能選択メニューに対する選択操作が検出されると、選択された機能の詳細メニューを前記画面に表示する、
    請求項1に記載の車載情報装置。
  11. 前記制御部は、前記操作者が特定されると、前記操作者の携帯端末の機能選択メニューを含む連携開始アイコンを前記画面に表示し、前記操作者の前記機能選択メニューに対する選択操作が検出されると、選択された機能の詳細メニューを前記画面に表示する、
    請求項1に記載の車載情報装置。
  12. 前記制御部は、前記操作者が前記車両の運転者か否かに応じて、前記連携開始アイコンの態様を変更する、
    請求項1に記載の車載情報装置。
  13. 前記制御部は、前記操作者が前記車両の運転者か否かに応じて、前記操作者の前記携帯端末との連携動作中に前記画面に表示されるアイコンの態様を変更する、
    請求項1に記載の車載情報装置。
  14. 前記携帯端末情報は、過去の前記連携動作における携帯端末の操作履歴を含み、
    前記制御部は、前記操作者の前記携帯端末の前記操作履歴に基づいて、前記操作者の前記携帯端末との連携動作を開始するときの初期動作を決定する、
    請求項1に記載の車載情報装置。
  15. 前記乗員情報は、乗員の個人情報を含み、
    前記車載情報装置は、前記個人情報を用いて乗員の個人認証を行う乗員認証部をさらに備える、
    請求項1に記載の車載情報装置。
  16. 前記乗員情報は、前記車載情報装置の動作に関連する乗員ごとの設定情報を含む、
    請求項15に記載の車載情報装置。
  17. 前記設定情報は、前記個人認証により承認された乗員の携帯端末を用いて編集可能である、
    請求項16に記載の車載情報装置。
  18. 前記設定情報は、乗員の嗜好を示す嗜好情報を含み、
    前記制御部は、前記操作者の前記嗜好情報に基づいて、前記操作者の前記携帯端末との連携動作を開始するときの初期動作を決定する、
    請求項16に記載の車載情報装置。
  19. 前記携帯端末情報は、過去の前記連携動作における携帯端末の操作履歴を含み、
    前記乗員情報は、過去の前記連携動作の初期動作に対する前記操作者としての乗員の反応履歴を含み、
    前記制御部は、前記操作者の前記携帯端末の前記操作履歴および前記操作者の前記反応履歴に基づいて、前記操作者の前記携帯端末との連携動作を開始するときの初期動作を決定する、
    請求項15に記載の車載情報装置。
  20. 前記個人認証に利用される個人情報の種類は、前記車両のサービス提供者により設定される、
    請求項15に記載の車載情報装置。
  21. 車載情報装置における携帯端末との連携方法であって、
    前記車載情報装置の予備動作検出部が、車両に設置された表示装置の画面に対する前記車両の乗員の操作の予備動作を検出し、
    前記車載情報装置の操作者特定部が、前記予備動作を行った乗員を操作者として特定し、
    前記車載情報装置の制御部が、前記操作者の携帯端末を特定し、前記操作者の携帯端末に対応する連携開始アイコンを前記画面に表示し、
    前記車載情報装置の操作検出部が、前記連携開始アイコンに対する前記操作者の操作を検出し、
    前記連携開始アイコンに対する前記操作者の操作が検出されると、前記制御部が、前記操作者の前記携帯端末との連携動作を開始する、
    携帯端末との連携方法。
JP2020533988A 2018-08-02 2018-08-02 車載情報装置および携帯端末との連携方法 Active JP7003268B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/028997 WO2020026402A1 (ja) 2018-08-02 2018-08-02 車載情報装置および携帯端末との連携方法

Publications (2)

Publication Number Publication Date
JPWO2020026402A1 true JPWO2020026402A1 (ja) 2021-03-11
JP7003268B2 JP7003268B2 (ja) 2022-01-20

Family

ID=69230653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020533988A Active JP7003268B2 (ja) 2018-08-02 2018-08-02 車載情報装置および携帯端末との連携方法

Country Status (3)

Country Link
US (1) US20220012313A1 (ja)
JP (1) JP7003268B2 (ja)
WO (1) WO2020026402A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7310705B2 (ja) * 2020-05-18 2023-07-19 トヨタ自動車株式会社 エージェント制御装置、エージェント制御方法、及びエージェント制御プログラム
WO2023157385A1 (ja) * 2022-02-15 2023-08-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置及び制御プログラム

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006080657A (ja) * 2004-09-07 2006-03-23 Mitsubishi Electric Corp ハンズフリー電話装置
JP2008197934A (ja) * 2007-02-14 2008-08-28 Calsonic Kansei Corp 操作者判別方法
JP2009286342A (ja) * 2008-05-30 2009-12-10 Fujitsu Ten Ltd 生体情報照合装置、生体情報照合システムおよび生体情報照合方法
JP2010191692A (ja) * 2009-02-18 2010-09-02 Mitsubishi Electric Corp タッチパネル装置および入力方向検知装置
JP2012080191A (ja) * 2010-09-30 2012-04-19 Panasonic Corp 車載用電子機器とそれを用いた自動車
JP2014004860A (ja) * 2012-06-21 2014-01-16 Toyota Infotechnology Center Co Ltd 車載端末および通信方法
WO2014118912A1 (ja) * 2013-01-30 2014-08-07 三菱電機株式会社 携帯情報端末と連携した車載情報装置および表示方法
JP2014192679A (ja) * 2013-03-27 2014-10-06 Panasonic Corp 車載機器とそれを搭載した自動車と車載機器を用いた電子機器システム
JP2015082300A (ja) * 2013-10-24 2015-04-27 アルプス電気株式会社 表示入力装置
JP2017045242A (ja) * 2015-08-26 2017-03-02 パイオニア株式会社 情報表示装置
JP2018072030A (ja) * 2016-10-25 2018-05-10 クラリオン株式会社 車載装置、携帯端末特定方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007196852A (ja) * 2006-01-26 2007-08-09 Fujitsu Ten Ltd 認証装置、認証方法及び車両制御装置
JP2007302154A (ja) * 2006-05-12 2007-11-22 Alps Electric Co Ltd 車載用入力装置
JP5148464B2 (ja) * 2008-12-01 2013-02-20 富士通テン株式会社 車載装置
JP2012019473A (ja) * 2010-07-09 2012-01-26 Jvc Kenwood Corp 車載装置、車両用通信システム、車両用通信方法、及び、プログラム
JP2014075069A (ja) * 2012-10-05 2014-04-24 Smk Corp 車載用タッチパネル入力装置
JP6178688B2 (ja) * 2013-09-30 2017-08-09 富士通テン株式会社 通信装置、通信システム、通信方法、サーバ装置、及び、プログラム
JP6428517B2 (ja) * 2015-07-10 2018-11-28 株式会社デンソー 乗員情報取得システム、車載器、携帯端末
JP5910903B1 (ja) * 2015-07-31 2016-04-27 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
WO2017026035A1 (ja) * 2015-08-10 2017-02-16 三菱電機株式会社 操作支援装置および操作支援システム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006080657A (ja) * 2004-09-07 2006-03-23 Mitsubishi Electric Corp ハンズフリー電話装置
JP2008197934A (ja) * 2007-02-14 2008-08-28 Calsonic Kansei Corp 操作者判別方法
JP2009286342A (ja) * 2008-05-30 2009-12-10 Fujitsu Ten Ltd 生体情報照合装置、生体情報照合システムおよび生体情報照合方法
JP2010191692A (ja) * 2009-02-18 2010-09-02 Mitsubishi Electric Corp タッチパネル装置および入力方向検知装置
JP2012080191A (ja) * 2010-09-30 2012-04-19 Panasonic Corp 車載用電子機器とそれを用いた自動車
JP2014004860A (ja) * 2012-06-21 2014-01-16 Toyota Infotechnology Center Co Ltd 車載端末および通信方法
WO2014118912A1 (ja) * 2013-01-30 2014-08-07 三菱電機株式会社 携帯情報端末と連携した車載情報装置および表示方法
JP2014192679A (ja) * 2013-03-27 2014-10-06 Panasonic Corp 車載機器とそれを搭載した自動車と車載機器を用いた電子機器システム
JP2015082300A (ja) * 2013-10-24 2015-04-27 アルプス電気株式会社 表示入力装置
JP2017045242A (ja) * 2015-08-26 2017-03-02 パイオニア株式会社 情報表示装置
JP2018072030A (ja) * 2016-10-25 2018-05-10 クラリオン株式会社 車載装置、携帯端末特定方法

Also Published As

Publication number Publication date
JP7003268B2 (ja) 2022-01-20
WO2020026402A1 (ja) 2020-02-06
US20220012313A1 (en) 2022-01-13

Similar Documents

Publication Publication Date Title
EP3237256B1 (en) Controlling a vehicle
JP6851482B2 (ja) 操作支援装置および操作支援方法
US10042432B2 (en) Programmable onboard interface
JP5596383B2 (ja) 車載機のインターフェース管理システム及びインターフェース管理プログラム
US20200201442A1 (en) Gesture operation device and gesture operation method
CN105182803A (zh) 车辆控制装置及其方法
CN104691449A (zh) 车辆控制设备及其方法
JP2007304646A (ja) 指動作検知制御電子機器
KR20180031607A (ko) 기능들의 세트에 액세스하기 위한 사용자 인터페이스, 기능들의 세트에 액세스하기 위한 사용자 인터페이스를 제공하는 방법 및 컴퓨터 판독 가능한 저장 매체
JP2007118626A (ja) 車載用電子機器制御システム
JP7003268B2 (ja) 車載情報装置および携帯端末との連携方法
CN109562740B (zh) 用于远程访问车辆的个人功能简档的指纹装置和方法
JP2021124292A (ja) 車載情報システム
CN105103087B (zh) 一种用于显示和/或输出帮助的方法和配置给车辆的装置
US9672337B2 (en) Dynamic authentication
CN108351886A (zh) 确定车辆使用者共同兴趣的***
JP2006506681A (ja) ミラーディスプレイメッセージボード
US8428314B2 (en) Fingerprint-initiated navigating method, method for linking a fingerprint and a navigation destination, and navigating device
JP2018028733A (ja) 入力装置、入力装置の制御方法、表示装置および入力プログラム
JP6494110B2 (ja) 車両設定装置
CN113911054A (zh) 车辆个性化配置方法及装置、电子设备和存储介质
CN112446695A (zh) 一种数据处理方法及装置
CN107466401A (zh) 用于车载信息***的多字符串搜索引擎
US20180121218A1 (en) Method for operating an assistance system and assistance system
JP6534586B2 (ja) 判定装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200818

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211228

R150 Certificate of patent or registration of utility model

Ref document number: 7003268

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150