JP7336228B2 - 車両の非接触操作装置、および車両 - Google Patents

車両の非接触操作装置、および車両 Download PDF

Info

Publication number
JP7336228B2
JP7336228B2 JP2019060600A JP2019060600A JP7336228B2 JP 7336228 B2 JP7336228 B2 JP 7336228B2 JP 2019060600 A JP2019060600 A JP 2019060600A JP 2019060600 A JP2019060600 A JP 2019060600A JP 7336228 B2 JP7336228 B2 JP 7336228B2
Authority
JP
Japan
Prior art keywords
occupant
image
vehicle
ecu
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019060600A
Other languages
English (en)
Other versions
JP2020160877A (ja
Inventor
秀幸 佐瀬
武己 小栗
知之 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2019060600A priority Critical patent/JP7336228B2/ja
Priority to CN202010010661.8A priority patent/CN111746436A/zh
Priority to DE102020101286.1A priority patent/DE102020101286A1/de
Priority to US16/751,443 priority patent/US11440407B2/en
Publication of JP2020160877A publication Critical patent/JP2020160877A/ja
Application granted granted Critical
Publication of JP7336228B2 publication Critical patent/JP7336228B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • B60R16/0231Circuits relating to the driving or the functioning of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/31Virtual images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Position Input By Displaying (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Description

本発明は、車両の非接触操作装置に関する。
車両には、各種の操作部材が設けられる。たとえば、車両には、車両の走行を制御するためのスタートスイッチ、ハンドル、シフトレバー、ペダルなどがある。また、車両には、空調装置、ナビゲーション装置、オーディオ装置、映像受信装置、ハンズフリー通話装置、その他の設備機器の操作部材が設けられる。このように、車両には、多数の操作部材が設けられている。これら多数の操作部材は車室の内面に対してレイアウトされるものであるが、近年においては車室のレイアウト面が不足する傾向にある。今後さらに、たとえばゲーム装置、ネットワーク通信装置、エンターテイメント装置などが追加されることを考えた場合、それらの装置の操作部材を増設できなくなる可能性もある。
特開2017-027401号公報
このため、車両では、特許文献1に開示されるように、車両の車室へ投影された映像を操作するような新たな操作装置を用いることが考えられる。
特許文献1では、シートに着座する乗員の前に映像を提示する。また、提示した映像に対応する操作に応じて、超音波場による触覚刺激を乗員の操作部位へ出力する。このため、乗員は、映像への操作について、操作の実感を得ることができる。
しかしながら、車両は走行して移動するものである。走行中の車両には、走行のために加減速し、右左折などにより荷重が作用する。車両が加減速したり、車両に荷重が作用したりすると、乗員の身体は流れるように動くことになる。この場合、映像に対して操作をする乗員のたとえば手や指などは、車両の動きに起因する乗員の動きにより、振れて移動する。
そして、このような走行状態において、特許文献1のように、映像を固定的に投影し、その映像に対する操作を固定的に判定し、操作に対する触覚刺激を固定的に出力すると、乗員が映像に対してしようとしていた操作を正しく判定したり、映像に対して操作をしている操作部位に対して触覚刺激を正しく出力したりできなくなる。
このように、車両では、操作装置を改善することが求められている。
本発明に係る車両の非接触操作装置は、車両の車室の空間へ映像を投影する投影デバイスと、前記投影デバイスにより投影される前記映像を生成および更新する生成部と、前記車室の前記空間に投影されている前記映像に対して設定される入力可能エリアに非接触の操作をする前記車両の乗員の操作部位を検出する操作検出デバイスと、前記車室の前記空間に投影されている前記映像に対する前記乗員の非接触の操作を、前記映像に対する前記乗員の前記操作部位の位置または動きに基づいて判定する操作判定部と、前記車両の動き、または前記車両の動きに起因する前記乗員の動きを検出する動き検出デバイスと、前記車室に乗っている前記乗員に対して配置され、前記映像に対して操作をする前記乗員へ超音波場による触覚刺激を出力可能な刺激出力デバイスと、前記操作判定部により判定された操作に対する応答として、投影されている前記映像に対して前記操作をする前記乗員の操作部位に対して、前記超音波場による前記触覚刺激を出力する刺激応答出力部と、を有し、前記操作判定部は、前記動き検出デバイスの検出に基づいて、前記映像の位置に対する前記入力可能エリアの位置を、前記映像と重なる第1の位置から、前記車両の動きに起因する前記乗員の動きと同じ方向に前記第1の位置よりも前記映像の位置に対してオフセットされた第2の位置に移動して、または、前記動き検出デバイスの検出に基づいて、前記映像のサイズに対する前記入力可能エリアのサイズを、前記映像と重なる第1のサイズから、前記車両の動きに起因する前記乗員の動きの量に対応する拡大率で前記第1のサイズを拡大した第2のサイズにすることで拡大して、前記車室の前記空間に投影される前記映像に対する前記乗員の操作部位による操作を判定し、前記刺激応答出力部は、前記操作判定部が、前記乗員の操作を、前記動き検出デバイスの検出により調整して判定している場合、前記動き検出デバイスにより検出されている前記乗員の操作部位に対して、前記乗員の操作に対する前記触覚刺激の応答を出力するとともに、前記動き検出デバイスの検出により調整されていない、前記操作検出デバイスより検出される前記乗員の操作部位の位置に対して、前記乗員の操作に対する前記触覚刺激の応答を出力して、前記動き検出デバイスの検出により調整しないで判定する場合より広い範囲へ、前記乗員の操作に対する前記触覚刺激の応答を出力する。
好適には、前記操作判定部は、前記投影デバイスにより投影される前記映像に対する前記乗員の動きにより、前記乗員による操作を判定し、前記動き検出デバイスの検出に基づいて、前記操作検出デバイスにより検出される前記乗員の動きを、前記車両の動きに起因する身体、上体、肩、頭部のいずれかの動きを抑制するように調整して、前記乗員による操作を判定する、とよい。
好適には、前記動き検出デバイスは、前記車両の走行状態を検出する、とよい。
好適には、前記動き検出デバイスは、前記乗員を撮像した画像に基づいて、前記車両の動きに起因する前記乗員の動きを検出する、とよい。
本発明に係る車両は、上述したいずれかの非接触操作装置と、前記非接触操作装置とネットワークを通じて接続され、車両を制御する複数の被制御装置と、を有し、複数の前記被制御装置の各々は、前記非接触操作装置が車室に投影する映像に対する乗員の非接触操作に基づいて生成する入力情報を、前記ネットワークを通じて前記非接触操作装置から取得する。
本発明では、車両の動き、または車両の動きに起因する乗員の動きを検出する。そして、前記動き検出デバイスの検出に基づいて、乗員についての、車両の動きに起因する動きを抑制するように調整して、車室の中空に投影される映像に対する乗員の操作部位による操作を判定する。
これにより、本発明では、乗員が、車両の動きによらずに本来的にしようとした、中空に投影される映像に対する非接触の操作を、走行中の車両の動きによらずに、適切に判定することができる。本発明では、乗員の操作を、車両の挙動によって乗員の身体が流れている状態においても、正確に判定することができる。
図1は、本発明の実施形態に係る自動車の模式的な説明図である。 図2は、図1の自動車の制御系の模式的な説明図である。 図3は、図1の自動車に設けられる非接触操作装置の構成図である。 図4は、図3の非接触操作装置の主要構成要素の車室での配置の一例を説明する図である。 図5は、図3の非接触操作装置による非接触投影操作処理の流れを示すフローチャートである。 図6は、第一実施形態での、操作判定処理および判定結果としての応答出力処理の流れを示すフローチャートである。 図7は、図6に対応する操作判定処理および触覚刺激による応答出力処理の一例の説明図である。 図8は、第二実施形態での、操作判定処理および判定結果としての応答出力処理の流れを示すフローチャートである。 図9は、図8に対応する操作判定処理および触覚刺激による応答出力処理の一例の説明図である。 図10は、第三実施形態での、操作判定処理および判定結果としての応答出力処理の流れを示すフローチャートである。 図11は、図10に対応する操作判定処理および触覚刺激による応答出力処理の一例の説明図である。
以下、本発明の実施形態を、図面に基づいて説明する。
[第一実施形態]
図1は、本発明の実施形態に係る自動車1の模式的な説明図である。
図1(A)は上面図、図1(B)は側面図、である。
図1の自動車1は、車両の一例である。自動車1は、乗員が乗車する車室3が設けられる車体2を有する。車室3には、乗員が着座するシート4が設けられる。車室3の前部には、乗員が自動車1の走行を操作するために、ハンドル5、シフトレバー6、ブレーキペダル7、アクセルペダル8、が設けられる。乗員は、図1(B)に示すように、シート4に運転姿勢で着座することにより、これらハンドル5などの操作部材へ手を伸ばして操作することができる。
図2は、図1の自動車1の制御系10の模式的な説明図である。図2には、制御系10を構成する複数の制御装置が、それぞれに組み込まれる制御ECU(Electronic Control Unit)により代表して示されている。
具体的には、図2には、駆動ECU11、操舵ECU12、制動ECU13、自動運転/運転支援ECU14、運転操作ECU15、検出ECU16、空調ECU17、乗員監視ECU18、外通信ECU19、非接触操作装置40の操作ECU20、システムECU21、が図示されている。これら複数の制御ECUは、自動車1で採用されるたとえばCAN(Controller Area Network)やLIN(Local Interconnect Network)といった車ネットワーク26により、中継装置としてのセントラルゲートウェイ(CGW)27に接続される。
そして、各制御モジュールにおいて、制御ECUは、自動車1で用いる電子機器に接続される。起動された制御ECUは、各種の処理を実行し、車ネットワーク26から取得する情報(データ)に基づいてそれぞれに接続されている電子機器の動作を制御する。また、制御ECUは、それぞれに接続されている電子機器の動作状態などの情報(データ)を車ネットワーク26へ出力する。
運転操作ECU15には、乗員が自動車1の走行を制御するために操作するハンドル5、ブレーキペダル7、アクセルペダル8、シフトレバー6などの操作検出センサが接続される。運転操作ECU15は、操作量に応じた制御情報を、車ネットワーク26へ出力する。駆動ECU11、操舵ECU12、制動ECU13は、車ネットワーク26から情報を取得し、自動車1の走行を制御する。
操作ECU20は、車ネットワーク26を通じて運転操作ECU15から情報を取得して、図示外の表示デバイスに表示する。操作ECU20には、表示デバイスとともに、乗員が操作する図示外の操作デバイスが接続される。操作ECU20は、たとえば表示デバイスおよび操作デバイスとともに、操作装置を構成する。操作装置は、後述する非接触操作装置40に組み込まれてよい。操作ECU20は、車ネットワーク26を通じて運転操作ECU15から取得した情報に対して操作デバイスが操作された場合、操作デバイスの入力情報を、車ネットワーク26を通じて運転操作ECU15へ出力する。運転操作ECU15は、車ネットワーク26を通じて入力情報を取得して、入力情報に基づく制御を実行する。
検出ECU16には、自動車1の速度センサ31、衝突などによる自動車1の加速度を検出可能な加速度センサ32、外カメラ33、などが接続される。検出ECU16には、自動車1の速度センサ31および加速度センサ32の値、外カメラ33の画像などを、車ネットワーク26へ出力する。検出ECU16は、外カメラ33の画像に基づいて衝突を予測し、予測結果を車ネットワーク26へ出力してよい。セントラルゲートウェイ27は、情報を中継する。
自動運転/運転支援ECU14は、たとえば自動車1の目的地まで自動車1の走行を制御する。自動運転/運転支援ECU14は、車ネットワーク26を通じて検出ECU16から情報を取得し、安全な走行のための制御情報を、車ネットワーク26へ出力する。駆動ECU11、操舵ECU12、制動ECU13は、車ネットワーク26から情報を取得し、自動車1の走行を制御する。
操作ECU20は、車ネットワーク26を通じて検出ECU16および自動運転/運転支援ECU14から情報を取得して、表示デバイスに表示する。操作ECU20は、車ネットワーク26を通じて検出ECU16および自動運転/運転支援ECU14から取得した情報に対して操作デバイスが操作された場合、操作デバイスの入力情報を、車ネットワーク26へ出力する。検出ECU16および自動運転/運転支援ECU14は、車ネットワーク26を通じて入力情報を取得して、入力情報に基づく制御を実行する。
乗員監視ECU18には、内カメラ34、が接続される。乗員監視ECU18は、内カメラ34の画像に基づいて、自動車1に乗っている乗員を識別し、また、乗員の乗車状態を監視する。乗員監視ECU18は、これらの情報を車ネットワーク26へ出力する。操作ECU20は、車ネットワーク26を通じて乗員監視ECU18の情報を取得して、表示デバイスに表示する。操作ECU20は、車ネットワーク26を通じて取得した情報に対して操作デバイスが操作された場合、操作デバイスの入力情報を、車ネットワーク26へ出力する。乗員監視ECU18は、車ネットワーク26を通じて入力情報を取得して、入力情報に基づく制御を実行する。
空調ECU17は、車室3の温度、湿度などの環境を制御する。空調ECU17は、検出した温度、日射量、湿度などの情報を車ネットワーク26へ出力する。操作ECU20は、車ネットワーク26を通じて空調ECU17の情報を取得して、表示デバイスに表示する。操作ECU20は、車ネットワーク26を通じて取得した情報に対して操作デバイスが操作された場合、操作デバイスの入力情報を、車ネットワーク26へ出力する。空調ECU17は、車ネットワーク26を通じて入力情報を取得して、入力情報に基づく制御を実行する。
外通信ECU19は、たとえば、自動車1の外に存在する通信基地局81、他の自動車82の通信装置と無線通信する。通信基地局81、および他の自動車82の通信装置は、サーバ装置83とともに、交通システム80を構成する。外通信ECU19は、交通システム80の情報を、通信基地局81または他の自動車82の通信装置から受信し、車ネットワーク26へ出力する。操作ECU20は、車ネットワーク26を通じて外通信ECU19の情報を取得して、表示デバイスに表示する。操作ECU20は、車ネットワーク26を通じて取得した情報に対して操作デバイスが操作された場合、操作デバイスの入力情報を、車ネットワーク26へ出力する。外通信ECU19は、車ネットワーク26を通じて入力情報を取得して、入力情報を、通信基地局81、他の自動車82の通信装置へ無線送信する。送信された情報は、交通システム80において、たとえばサーバ装置83や他の自動車82において利用される。これにより、自動車1のたとえば操作ECU20は、外通信ECU19を通じて、交通システム80のサーバ装置83や他の自動車82との間で、情報(データ)を送受することができる。
また、図2に示す制御系10は、自動車1に設けられるバッテリ91から各部へ電力が供給されることにより動作し得る。バッテリ91から各部への電力供給線は、たとえば車ネットワーク26の通信ケーブルとともに自動車1に張り巡らされる。制御系10は、バッテリ91のほかにも、発電機、受電機から電力が供給されてもよい。
このように操作ECU20は、自動車1の車ネットワーク26により、被制御装置としての他の制御装置の制御ECUと接続され、他の制御装置の制御ECUとの間で情報(データ)を送受することができる。また、図2において、操作ECU20以外の複数の被制御装置の各制御ECUは、車ネットワーク26を通じて、非接触操作装置40の操作ECU20から入力情報を取得し、自動車1を制御する。
ところで、自動車1には、各種の操作部材が設けられる。たとえば、自動車1には、自動車1の走行を制御するためのスタートスイッチ、ハンドル5、シフトレバー6、ペダルなどがある。また、自動車1には、空調装置、ナビゲーション装置、オーディオ装置、映像受信装置、ハンズフリー通話装置、その他の設備機器の操作部材が設けられ得る。このように、自動車1には、多数の操作部材が設けられる。これら多数の操作部材は、車室3の内面に対してレイアウトされるものであるが、近年においては車室3のレイアウト面が不足する傾向にある。今後さらに、たとえばゲーム装置、ネットワーク通信装置、エンターテイメント装置などが追加されることを考えた場合、それらの装置の操作部材を増設できなくなる可能性もある。
このため、自動車1では、自動車1の車室3へ投影された映像を操作するような新たな操作装置を開発することが求められている。このような操作装置として、たとえば非接触操作装置40が考えられる。非接触操作装置40は、シート4に着座する乗員の前に映像を投影する。非接触操作装置40は、投影した映像に対応する操作に応じて、入力情報を生成し、車ネットワーク26へ出力し得る。また、非接触操作装置40では、投影した映像に対応する操作に応じて、超音波場による触覚刺激を乗員の操作部位へ出力してもよい。このような触覚刺激による応答が得られることにより、乗員は、車室3の空間に投影された映像への非接触の操作をしているにもかかわらず、実体のある物に対して操作している場合と同様に、操作の実感を得ることができる。
しかしながら、自動車1は走行して移動するものである。走行中の自動車1には、走行のために加減速し、右左折などにより荷重が作用する。自動車1が加減速したり、自動車1に荷重が作用したりすると、乗員の身体は流れるように動くことになる。この場合、映像に対して操作をする乗員のたとえば手や指などは、自動車1の動きに起因する乗員の動きにより、振れて移動する。
そして、このような走行状態において、特許文献1のように、映像を固定的に投影し、その映像に対する操作を固定的に判定し、操作に対する触覚刺激を固定的に出力すると、乗員が映像に対してしようとしていた操作を正しく判定したり、映像に対して操作をしている操作部位に対して触覚刺激を正しく出力したりできなくなる。
このように、自動車1では、操作装置を改善することが求められている。
図3は、図1の自動車1に設けられる非接触操作装置40の構成図である。
図3の非接触操作装置40は、車内通信部41、タイマ42、3D映像投影デバイス43、操作検出デバイス44、刺激出力デバイス45、音出力デバイス46、走行状態検出デバイス48、メモリ47、およびこれらが接続される操作ECU20、を有する。
メモリ47は、たとえば不揮発性メモリ47である。メモリ47は、非接触操作用のプログラム、およびデータを記録する。プログラムには、AIにより処理を実行するものであってもよい。プログラムには、AI処理のための学習プログラムが含まれてよい。データには、非接触操作の際に投影する映像の三次元モデルデータなどが含まれる。三次元モデルデータは、非接触操作のための映像データであり、たとえばモデルの表面を構成する複数のポリゴンデータを有する。
操作ECU20は、たとえば中央処理装置、ASIC、DSPなどのマイクロコンピュータでよい。操作ECU20は、メモリ47から非接触操作用のプログラムを読み込んで実行する。これにより、操作ECU20には、非接触操作装置40の制御部が実現される。非接触操作装置40の制御部は、非接触操作装置40の全体の動作を制御し、非接触操作装置40に非接触操作のための各種の機能を実現する。たとえば、操作ECU20には、非接触操作のための各種の機能として、映像生成部51、操作判定部52、刺激応答出力部53、音応答出力部54、が実現される。
車内通信部41は、車ネットワーク26に接続される。車内通信部41は、車ネットワーク26を通じて、たとえば図中に例示するように空調ECU17、自動運転/運転支援ECU14、外通信ECU19、などの他の制御ECUとの間で情報(データ)を送受する。たとえば、車内通信部41は、空調ECU17から空調操作映像の表示指示を取得し、操作ECU20へ出力する。車内通信部41は、自動運転/運転支援ECU14から、自動運転/運転支援のための設定操作映像の表示指示を取得し、操作ECU20へ出力する。車内通信部41は、外通信ECU19から三次元モデルデータなどのコンテンツデータを取得し、操作ECU20へ出力する。
タイマ42は、経過時間または時刻を計測する。
映像生成部51は、3D映像投影デバイス43により投影される映像を生成および更新する。映像生成部51は、表示指示に基づいて、投影する映像のデータを生成するために、メモリ47または車内通信部41から三次元モデルデータを取得する。映像生成部51は、取得した三次元モデルデータから、三次元モデルを生成する。映像生成部51は、乗員から見た車室3での三次元モデルの投影位置および向きを決定し、三次元モデル(立体モデル)から投影用の映像データを生成する。映像生成部51は、投影用の映像データを3D映像投影デバイス43へ出力する。映像生成部51は、二次元モデルデータから、二次元モデル(平面モデル)を生成して、投影用の映像データを生成してもよい。なお、映像生成部51は、表示指示がない場合でも、メモリ47または車内通信部41から動画や静止画といったコンテンツデータを取得し、そのコンテンツの三次元映像(立体映像)または二次元映像(平面映像)の映像データを生成し、3D映像投影デバイス43へ出力してもよい。
3D映像投影デバイス43は、自動車1の車室3へ乗員により操作可能な映像を投影する。3D映像投影デバイス43は、たとえばディスプレイデバイス、プロジェクタ、でよい。3D映像投影デバイス43は、たとえばホログラム方式、ミラー方式により、車室3についての中空の空間に映像を投影してよい。3D映像投影デバイス43は、乗員が着座するシート4の前に、たとえばダッシュボード、リアミラー、車室3の天井に配置されてよい。自動車1の車室3による空間へ3D(三次元)の映像または2D(二次元)の映像を、車室3の空間へ投影する。これにより、車室3の投影位置には、乗員が三次元モデルを視認できるように、立体的な映像が投影される。
操作検出デバイス44は、乗員の所定の操作部位を検出する。操作検出デバイス44は、自動車1の動きに起因して振れる乗員の身体、上体、肩、頭部などの動きを検出してよい。操作検出デバイス44は、車室3による空間に投影されている映像に対して非接触の操作をする乗員の操作部位を検出してよい。非接触の操作には、たとえば、映像に対する手元操作、映像を移動させる移動操作がある。操作検出デバイス44は、乗員が着座するシート4の前に、たとえばダッシュボード、リアミラー、車室3の天井に配置されてよい。ダッシュボードやリアミラーに乗員監視装置の内カメラ34が配置されている場合、操作検出デバイス44は、内カメラ34と兼用されてよい。操作検出デバイス44は、たとえば2つの撮像素子が並べて配列されたステレオカメラ63でよい。この場合、操作検出デバイス44は、2つの撮像素子の画像により、車室3の中空に投影される映像に対する乗員による操作を検出する。
操作判定部52は、操作検出デバイス44からたとえばステレオカメラ63の画像といった検出情報を取得し、それに基づいて車室3の空間に投影されている映像に対する乗員の非接触の操作を判定する。操作判定部52は、車室3による空間に投影されている映像に対する乗員の操作として、操作部位の位置や動きを判定する。動きには、移動の方向、速度、加速度などの操作部位の運動の情報が含まれる。操作判定部52は、たとえばAI処理により画像から乗員の指先の特徴を含む画素位置を取得し、ステレオカメラ63の画像についての三角測量法により指先の位置情報を生成する。操作判定部52は、時間をずらした撮像結果から、指先の動き、たとえば移動方向、移動速度、移動の加速度などの情報を生成する。操作判定部52は、映像の投影位置を基準として乗員の操作部位の位置や動きを判定して、車室3による空間に投影されている映像に対する乗員の操作を判定する。操作判定部52は、投影される映像への乗員の操作部位の接触の有無、接触までの残距離、接触する深さなどを判定する。操作判定部52は、判定したこれらの操作情報を、操作ECU20の各部へ出力する。操作判定部52は、操作情報を、たとえば映像生成部51、刺激応答出力部53、音応答出力部54、へ出力する。映像生成部51は、乗員の操作に応じて投影用の映像データを更新して3D映像投影デバイス43へ出力する。これにより、3D映像投影デバイス43により車室3に投影される映像は、操作に応答して更新される。
また、操作判定部52は、操作情報に基づいて、車室3の空間に投影されている映像に対する乗員の操作がなされたと判断した場合、その乗員の操作による入力情報を、車内通信部41を通じて自動車1の各部へ出力する。操作判定部52は、たとえば空調温度の設定を変更する操作ボタンを投影している状態で、その操作ボタンが操作された場合、操作ボタンに対応する入力情報を生成し、車内通信部41へ出力する。車内通信部41は、入力情報を、車ネットワーク26を通じて被制御装置としての空調ECU17へ出力する。空調ECU17は、入力情報に基づいて、空調の目標温度を変更し、車室3の温度が目標温度となるように空調制御を実行する。
走行状態検出デバイス48は、自動車1の走行状態を検出する。走行状態検出デバイス48は、自動車1の走行状態として、たとえば、走行による自動車1の動きを検出する。走行による自動車1の動きを示す情報には、自動車1に作用する加重、自動車1の速度、自動車1の加速度、ヨーレート、などがある。
刺激出力デバイス45は、映像に対して操作をする乗員の操作部位に対して配置される。刺激出力デバイス45は、たとえば電気信号により、触覚刺激を出力可能なものであればよい。非接触に触感を与えるデバイスとしては、たとえば超音波の場を生成して、乗員の操作部位へ超音波の場または場の変動を与えることにより、操作部位の皮膚に超音波場による触覚刺激を出力するものがある。刺激出力デバイス45は、たとえば複数の超音波素子65が平面状に配列される素子アレイでよい。刺激出力デバイス45は、車室3に乗っている乗員の操作部位に向けて、たとえば手の下側に離れた位置に設けられればよい。複数の超音波素子65から選択的に超音波を出力することにより、映像に対して操作をする乗員の手のたとえば指先といった局所的な部位には、皮膚が物体に触れているかのような触感が生じ得る。
刺激応答出力部53は、投影されている映像に対して操作をする乗員の操作部位に対して、刺激出力デバイス45から超音波場による触覚刺激を出力する。刺激応答出力部53は、乗員の操作に対する応答として、触覚刺激を出力する。刺激応答出力部53は、刺激出力デバイス45へ電気信号を出力し、操作に応じた超音波を複数の超音波素子65から選択的に出力する。これにより、刺激応答出力部53は、車室3に超音波場を生成することができる。刺激応答出力部53は、操作判定部52により映像と接触していると判断される乗員の操作部位へ局所的に超音波の場または場の変動を与える。人は、超音波場にたとえば手を入れると、手の表面の皮膚により超音波場を感じ取ることができる。これにより、刺激応答出力部53は、車室3による空間に投影されている映像に対して非接触の操作をする乗員の操作部位に対して、超音波場による触感の刺激を操作に対する応答として出力することができる。刺激応答出力部53は、乗員の操作部位についての、たとえば映像と仮想的に接触している面に、超音波の場または場の変動を局所的に与える。
この他にもたとえば、刺激応答出力部53は、複数の圧力出力素子が配列される素子アレイを有してもよい。この場合、刺激応答出力部53は、複数の圧力出力素子の動作を個別に制御することにより、人の皮膚に対して圧力を作用させることができる。これにより、乗員は、操作に応じた感触を得ることができる。
音出力デバイス46は、たとえば音信号により駆動されるスピーカでよい。音出力デバイス46は、車室3に配置されていればよい。
音応答出力部54は、音出力デバイス46へ音信号を出力し、操作に応じた音を音出力デバイス46から出力する。音応答出力部54は、メモリ47に記録されている音声データを選択して取得し、音声データから生成した音信号を音出力デバイス46としてのスピーカへ出力する。これにより、乗員は、操作に応じた音を聞くことができる。
図4は、図3の非接触操作装置40の主要構成要素の車室3での配置の一例を説明する図である。
図4には、図3の3D映像投影デバイス43、操作検出デバイス44、および、刺激出力デバイス45の具体的な組み合わせ例が模式的に示されている。
具体的には、3D映像投影デバイス43として、表示スクリーン61、ハーフミラー62が図示されている。操作検出デバイス44として、ステレオカメラ63が図示されている。刺激出力デバイス45として、素子アレイが図示されている。これらの非接触操作装置40の部材は、自動車1の車室3に設けられる。
刺激出力デバイス45は、中空の四角枠体64を有する。四角枠体64の4つの面のそれぞれには、複数の超音波素子65が配列された素子アレイが設けられる。四角枠体64の上下左右の面の素子アレイを動作させることにより、図示するように四角枠体64の内へ入れた指先には、超音波場を局所的に作用し得る。これにより、人は指先が触られている触感を得ることができる。
ハーフミラー62は、刺激出力デバイス45の中空の四角枠体64の前に設けられる。ハーフミラー62は、乗員と対向するように設けられる。ハーフミラー62の下側には、三次元映像(立体映像)または二次元映像(平面映像)を表示するための表示スクリーン61が配置される。これにより、刺激出力デバイス45についての中空の四角枠体64の内側に、三次元映像(立体映像)または二次元映像(平面映像)が視認可能に投影される。乗員は、刺激出力デバイス45についての中空の四角枠体64の内側において、車室3の中空に投影された映像を視認できる。乗員は、図中に円で示す三次元映像としての球体を、中空の四角枠体64の内側に浮かんでいるように視認することができる。
ステレオカメラ63は、たとえばハーフミラー62についての、刺激出力デバイス45の反対側に設けてよい。ステレオカメラ63の2つの撮像素子は、四角枠体64の内側にいる乗員の指などを撮像し得る。これにより、ステレオカメラ63は、刺激出力デバイス45の中空の四角枠体64に入る指などを撮像することができる。以下、必要に応じて、図4を基準として、四角枠体64の軸心に沿った方向をZ方向とよび、それに垂直な方向をY方向およびX方向とよぶ。ここで、Z方向は、自動車1の前後方向に沿った方向となる。
なお、図3の非接触操作装置40の構成要素は、図4に示すように密集して配置される必要はない。
たとえば、刺激出力デバイス45の中空の四角枠体64は、乗員の前に配置された場合、乗員がハンドル5などを操作する際に操作の邪魔となる可能性がある。中空の四角枠体64は、図1に示すように、車体2の外周面に沿って四角枠状に設けられてよい。この場合、乗員が着座するシート4の前には、四角枠体64などの構造物が設けられなくなる。この場合であっても、3D映像投影デバイス43は、たとえば図中に点線円で示す球体の映像で示すように、車室3に設けられる中空の四角枠体64の内側の空間に映像を投影することができる。乗員は、四角枠体64の内側の操作エリアにおいて操作をすることにより、映像に対して非接触の操作をすることができる。また、中空の四角枠体64は、必ずしも正四角形の枠形状でなくてもよい。素子アレイは、単に車体2の外周に沿って配置されてもよい。素子アレイは、車室3の内面に全体的に配置されてもよい。
ハーフミラー62は、基本的に、刺激出力デバイス45の中空の四角枠体64を間にして、乗員と対向するように設ければよい。また、映像を四角枠体64の内側の中空に投影するためだけであれば、ハーフミラー62の替わりに、フル反射ミラーを用いてもよい。また、刺激出力デバイス45の中空の四角枠体64を間にして、乗員と対向する位置に表示スクリーン61そのものを配置してもよい。この場合、ハーフミラー62またはフル反射ミラーは不要である。このようなハーフミラー62またはフル反射ミラーおよび表示スクリーン61は、たとえばダッシュボード、ルームミラー、ルーフに配置してよい。また、乗員監視装置と一体化して設けてもよい。
ステレオカメラ63などの検出デバイスは、たとえばダッシュボード、ルームミラー、バックミラーに配置してよい。また、検出デバイスは、DMSなどの乗員監視装置の撮像素子と兼用してもよい。ステレオカメラ63などの検出デバイスは、乗員についての指先などの操作部位を撮像できるものであればよい。また、検出デバイスは、画像によらず、たとえば車室3をレーザースキャンして、レーザにより乗員の指先などを検出してもよい。
図5は、図3の非接触操作装置40による非接触投影操作処理の流れを示すフローチャートである。
ステップST1において、操作ECU20は、映像を投影した非接触操作を開始するか否かを判断する。操作ECU20は、たとえば表示指示がある場合、または表示するコンテンツがある場合、非接触操作を開始と判断し、処理をステップST2へ進める。それ以外の場合、操作ECU20は、非接触操作を開始しないと判断し、図5の処理を終了する。
ステップST2において、操作ECU20は、映像生成部51として、最初の3D映像を生成して表示する。操作ECU20は、メモリ47または車内通信部41から取得する三次元モデルデータから三次元モデルを生成し、さらに投影用の映像データを生成する。操作ECU20は、三次元モデルについてあらかじめ設定された映像の最初の投影位置および表示向きの設定に基づいて、三次元モデルから投影用の映像データを生成する。操作ECU20は、生成した三次元モデルをメモリ47に一時的に記録してもよい。この場合、操作ECU20は、映像を更新するための次回の生成処理ではメモリ47から三次元モデルを読み込んで、投影用の映像データを生成することができる。操作ECU20は、生成した投影用の映像データを3D映像投影デバイス43へ出力する。3D映像投影デバイス43は、投影用の映像データによる映像を、車室3の空間に投影する。これにより、たとえば最初の投影位置が、運転姿勢の乗員の前へ投影する標準投影位置である場合、図4に示すように乗員の前の標準投影位置に、三次元モデルが所定の表示向きにより表示される。所定の表示向きは、たとえば三次元モデルに向きがある場合にはその正面とすればよい。運転姿勢の乗員は、そのまま手を伸ばすことにより、映像まで手を伸ばすことができる。
ステップST3において、操作ECU20は、操作判定部52として、映像に対する乗員の操作を検出しているか否かを判断する。操作ECU20は、操作検出デバイス44からたとえばステレオカメラ63の画像といった検出情報を取得し、乗員のたとえば指先といった所定の部位を抽出し、所定の操作部位についてのたとえば車室3での位置の変化や動きの有無に基づいて、映像に対する乗員の操作を検出する。この時点での操作検出では、操作ECU20は、乗員の操作部位が映像を操作していなくても、映像に対する乗員の操作を検出したと判断してよい。映像に対する乗員の操作を検出しない場合、操作ECU20は、本ステップの判断処理を繰り返す。映像に対する乗員の操作を検出した場合、操作ECU20は、処理をステップST4へ進める。
ステップST4において、操作ECU20は、操作判定部52として、映像に対する乗員の操作を判定する。操作ECU20は、映像の表面の投影位置を基準として、乗員の操作部位が映像に接触している状態にあるか否かを判定し、操作部位が映像を操作している状態にある場合にはさらに操作部位の接触形状、位置および動き(方向、速度)を判定する。接触形状は、たとえば接触している指の本数、手の位置などでよい。さらに、操作ECU20は、映像の表面の投影位置を基準として、操作部位が映像に接触するまでの残距離、操作部位が映像に対して接触している深さ、などを判定してもよい。
また、操作ECU20は、操作情報に基づいて、車室3の空間に投影されている映像のたとえばボタンといった所定の映像部分に対する乗員の操作がなされたと判断した場合、その乗員の操作による入力情報を生成する。
ステップST5において、操作ECU20は、操作判定部52として、判定した乗員の操作についての操作情報および操作による入力情報を、装置の内外へ出力する。操作ECU20は、操作情報を、映像生成部51、刺激応答出力部53、音応答出力部54、へ出力する。操作ECU20は、入力情報を、車内通信部41を通じて自動車1の各部に設けられる複数の被制御装置の制御ECUへ出力する。
ステップST6において、操作ECU20は、操作情報に基づいて、操作に対する応答を触覚および音により出力する。
操作ECU20は、刺激応答出力部53として、操作情報に基づいて、映像に接触している状態にある乗員の操作部位の位置を特定し、その位置へ向けて超音波を出力するように、超音波を出力する複数の超音波素子65を選択し、刺激出力デバイス45へ電気信号を出力する。刺激出力デバイス45は、選択された複数の超音波素子65から超音波を出力する。乗員は、超音波による応答により、映像を操作している触感を得ることができる。
操作ECU20は、音応答出力部54として、操作情報に基づいて特定される映像に接触している状態にある乗員の操作部位の動き、および映像の接触箇所に応じて、メモリ47から音声データを選択し、音信号を音出力デバイス46へ出力する。音出力デバイス46は、音信号に基づく音を車室3へ出力する。これにより、乗員は、操作の応答音として、乗員の操作部位の動きおよび映像の接触箇所に応じて異なる音を聞くことができる。
ステップST7において、操作ECU20は、映像生成部51として、操作情報に基づいて、操作に対する応答のために、投影する3D映像を更新する。操作ECU20は、メモリ47に記録してある三次元モデルを読み込んで、投影用の映像データを更新し、3D映像投影デバイス43へ出力する。3D映像投影デバイス43は、更新された映像を、車室3へ投影する。これにより、乗員は、映像の変化により、映像に対して操作をしていることを視覚的に認識することができる。操作ECU20は、操作検出デバイス44により検出される同じ乗員の操作部位の操作情報に応じて、映像と刺激の出力とを同期するように更新する。
ステップST8において、操作ECU20は、非接触操作を終了するか否かを判断する。操作ECU20は、たとえば操作に基づく入力情報を出力し終えている場合、新たな表示指示がない場合、または、表示しているコンテンツが終了する場合、非接触操作を終了と判断し、図5の処理を終了する。それ以外の場合、操作ECU20は、処理をステップST3へ戻す。操作ECU20は、ステップST8において非接触操作を終了と判断するまで、ステップST3からステップST8の処理を繰り返す。この繰返処理の間、操作ECU20は、映像に対する乗員の操作に応じて、乗員の操作部位に対する刺激の応答、音の応答、映像の更新による応答の処理を繰り返す。すなわち、操作ECU20は、操作に応じて映像を更新する際に、超音波場による刺激の出力を、更新される映像に対応させて変更することになる。超音波場による刺激は、映像の更新に追従するように同期的に制御し得る。
図6は、第一実施形態での、操作判定処理および判定結果としての応答出力処理の流れを示すフローチャートである。
図6の処理は、図5において点線四角枠で囲ったステップST4からステップST6の処理に対応する。図6では、ステップST5の入力情報を外部へ出力する処理と、ステップST6の音応答出力処理とについては、省略している。
ステップST11において、操作ECU20は、操作判定のために、操作検出デバイス44から、乗員の操作を取得する。
ステップST12において、操作ECU20は、操作判定のためにさらに、走行状態検出デバイス48から、走行状態を取得する。
ステップST13において、操作ECU20は、自動車1の走行に起因する乗員の振れなどの動きがあるか否かを判断する。
操作ECU20は、たとえば取得した走行状態の加速度または加重が所定値以下である場合、自動車1の走行に起因する乗員の動きがないと判断する。この場合、操作ECU20は、処理をステップST16へ進める。
操作ECU20は、たとえば取得した走行状態の加速度または加重が所定値以下でない場合、自動車1の走行に起因する乗員の動きがあると判断する。この場合、操作ECU20は、処理をステップST14へ進める。
自動車1の動きに起因する動きがない場合でのステップST16において、操作ECU20は、検出される乗員の操作を調整しないで、映像に対する乗員の操作を判定する。
操作ECU20は、操作検出デバイス44により検出されている、映像に対する乗員の操作部位による操作について、映像に対して設定する入力可能エリアを用いて、乗員の操作部位が入力可能エリアに接触している状態にあるか否かを判定し、操作部位が入力可能エリアを操作している状態にある場合にはさらに操作部位の接触形状、位置および動き(方向、速度)を判定する。また、操作ECU20は、操作情報に基づいて、車室3の空間に投影されている映像のたとえばボタンといった所定の映像部分に対する乗員の操作がなされたと判断した場合、その乗員の操作による入力情報を生成する。
ステップST17において、操作ECU20は、ステップST16において判定した操作に対する応答出力を実行する。
操作ECU20は、ステップST16において判定した操作に対する触覚刺激を、ステップST16において判定に使用した操作部位の位置に対して、刺激出力デバイス45から出力する。
自動車1の動きに起因する動きがない場合、操作ECU20は、触覚刺激を、走行状態検出デバイス48の検出により調整されていない乗員の操作部位の位置に対して出力するように、刺激出力デバイス45に指示する。
自動車1の動きに起因する動きがある場合でのステップST14において、操作ECU20は、検出される乗員の操作を調整して、映像に対する乗員の操作を判定する。
操作ECU20は、映像についての入力可能エリアの位置を、走行状態検出デバイス48により検出される乗員についての、自動車1の動きに起因する動きにより補正して、乗員の動きを調整する。そして、操作ECU20は、操作検出デバイス44により検出されている、映像についての乗員の操作について、位置を調整した入力可能エリアに対して操作しているか否かを判定する。これにより、乗員が映像に対してしようとした操作が判定できる。操作ECU20は、位置を調整した操作による入力可能エリアに対する操作を判定することにより、乗員の操作部位が映像に接触している状態にあるか否かを判定し、操作部位が映像を操作している状態にある場合にはさらに操作部位の接触形状、位置および動き(方向、速度)を判定する。また、操作ECU20は、操作情報に基づいて、車室3の空間に投影されている映像のたとえばボタンといった所定の映像部分に対する乗員の操作がなされたと判断した場合、その乗員の操作による入力情報を生成する。
ステップST15において、操作ECU20は、ステップST14において判定した操作に対する触覚刺激の応答出力を実行する。
操作ECU20は、ステップST14において判定した操作に対する触覚刺激を、刺激出力デバイス45から出力する。
自動車1の動きに起因する動きがある場合、操作ECU20は、触覚刺激を、走行状態検出デバイス48の検出により調整されている乗員の操作部位の位置に対してではなく、操作検出デバイス44により実際に検出されている乗員の操作部位に対して出力するように、刺激出力デバイス45に指示する。
操作ECU20は、ステップST14の操作判定において乗員の操作を走行状態検出デバイス48の検出により調整して判定している場合、ステップST16のように走行状態検出デバイス48の検出により調整しないで判定する場合と比べてより広い範囲に対して、乗員の操作に対する触覚刺激の応答を出力する。
図7は、図6に対応する操作判定処理および触覚刺激による応答出力処理の一例の説明図である。
図7において、3D映像投影デバイス43は、操作面にボタン71を有する立方体70の映像を、乗員の前に投影する。
操作判定部52としての操作ECU20は、投影されるボタン71の位置に、図中に破線で示す入力可能エリア72を設定する。操作判定部52は、この入力可能エリアに対する乗員による操作を判定する。操作判定部52は、たとえば乗員の指先が入力可能エリア72に触れるように動くと、ボタン71を操作したと判定する。
そして、乗員について、自動車1の動きに起因する動きがある場合、操作ECU20は、入力可能エリア72を、ボタン71と重なる初期位置から移動させる。入力可能エリア72の初期位置からのオフセット方向は、走行状態検出デバイス48により検出される乗員についての、自動車1の動きに起因する動きと同じ方向とすればよい。入力可能エリア72の初期位置からのオフセット量は、走行状態検出デバイス48により検出される乗員についての、自動車1の動きに起因する動きの量と同じにすればよい。
図7では、ボタン71を操作しようとする指は、自動車1の動きに起因して、図の右上方向へ触れている。この場合、操作ECU20は、入力可能エリア72を初期位置から右上方向へオフセット移動させ、オフセット移動させた後の入力可能エリア73により、乗員によるボタン71の操作を判定する。これにより、操作ECU20は、乗員についての、自動車1の動きに起因する動きを相殺するように抑制して、入力可能エリア73により乗員によるボタン71の操作を判定することができる。なお、オフセット方向は、自動車1に横方向の加速度が作用している場合には、その横方向とし、前後方向の加速度が作用している場合には、その前後方向とすればよい。また、オフセット量は、乗員についての、自動車1の動きに起因する動きの量に比例させてもよい。オフセット量は、自動車1の通常の走行中に作用すると想定される最大の加速度において、数ミリメートル程度のオフセット量としてよい。
以上のように、本実施形態では、自動車1の動き、または自動車1の動きに起因する乗員の全体的な動きを検出する。そして、動き検出デバイスの検出に基づいて、乗員についての、自動車1の動きに起因する動きを抑制するように調整して、操作検出デバイス44の検出に基づく車室3の中空に投影される映像に対する乗員の操作部位による操作を判定する。
これにより、本実施形態では、乗員が、自動車1の動きによらずに本来的にしようとした、中空に投影される映像に対する非接触の操作を、走行中の自動車1の動きによらずに、適切に判定することができる。本実施形態では、乗員の操作を、自動車1の挙動によって乗員の身体が流れている状態においても、正確に判定することができる。
[第二実施形態]
次に、本発明の第二実施形態に係る自動車1の非接触操作装置40を説明する。本実施形態では、上述した実施形態に対応する構成要素に対してと上述した実施形態と同じ符号を使用して、その説明を省略する。
図8は、第二実施形態での、操作判定処理および判定結果としての応答出力処理の流れを示すフローチャートである。
自動車1の動きに起因する動きがある場合でのステップST21において、操作ECU20は、検出される乗員の操作を調整して、映像に対する乗員の操作を判定する。
操作ECU20は、ステップST22と同様に、投影される映像に対して設定される入力可能エリアを用いて、乗員による操作を判定する。なお、ステップST22の処理は、ステップST16と同様である。そして、ステップST21では特に、操作ECU20は、映像についての入力可能エリアの範囲を、走行状態検出デバイス48により検出される乗員についての、自動車1の動きに起因する動きにより補正して、乗員の動きを調整する。操作ECU20は、自動車1の動きに起因する動きの大きさに応じて、入力可能エリアを拡大するように調整する。
そして、操作ECU20は、操作検出デバイス44により検出されている、映像についての乗員の操作について、範囲を拡大した入力可能エリアに対して操作しているか否かを判定する。これにより、乗員が映像に対してしようとした操作が判定できる。操作ECU20は、範囲を拡大した入力可能エリアに対する操作を判定することにより、乗員の操作部位が映像に接触している状態にあるか否かを判定し、操作部位が映像を操作している状態にある場合にはさらに操作部位の接触形状、位置および動き(方向、速度)を判定する。また、操作ECU20は、操作情報に基づいて、車室3の空間に投影されている映像のたとえばボタン71といった所定の映像部分に対する乗員の操作がなされたと判断した場合、その乗員の操作による入力情報を生成する。
その後のステップST15において、操作ECU20は、ステップST21において判定した操作に対する触覚刺激の応答出力を実行する。自動車1の動きに起因する動きがあるため、操作ECU20は、触覚刺激を、走行状態検出デバイス48の検出により調整されている乗員の操作部位の位置に対してではなく、操作検出デバイス44により実際に検出されている乗員の操作部位に対して出力するように、刺激出力デバイス45に指示する。
操作ECU20は、ステップST21の操作判定において乗員の操作を走行状態検出デバイス48の検出により調整して判定している場合、ステップST22のように走行状態検出デバイス48の検出により調整しないで判定する場合と比べてより広い範囲に対して、乗員の操作に対する触覚刺激の応答を出力する。
図9は、図8に対応する操作判定処理および触覚刺激による応答出力処理の一例の説明図である。
図9において、3D映像投影デバイス43は、操作面にボタン71を有する立方体70の映像を、乗員の前に投影する。
操作判定部52としての操作ECU20は、投影されるボタン71の位置に、図中に破線で示す入力可能エリア72を設定する。操作判定部52は、この入力可能エリアに対する乗員による操作を判定する。操作判定部52は、たとえば乗員の指先が入力可能エリア72に触れるように動くと、ボタン71を操作したと判定する。
そして、乗員について、自動車1の動きに起因する動きがある場合、操作ECU20は、入力可能エリア72を、初期サイズから拡大する。入力可能エリア72の初期サイズからの拡大率は、走行状態検出デバイス48により検出される乗員についての、自動車1の動きに起因する動きの量に対応する割合でよい。また、図9では、入力可能エリア72は、上下左右のすべての方向で拡大されている。この他にもたとえば、入力可能エリア72は、走行状態検出デバイス48により検出される乗員についての、自動車1の動きに起因する動きと同じ方向において拡大されてもよい。たとえば縦方向でのみ乗員が動いている場合には、操作ECU20は、入力可能エリア72を上下方向にのみ拡大してよい。
図9では、ボタン71を操作しようとする指は、自動車1の動きに起因して、図の右上方向へ触れている。この場合、操作ECU20は、入力可能エリア72を初期サイズから拡大し、拡大後の入力可能エリア74により、乗員によるボタン71の操作を判定する。これにより、操作ECU20は、乗員についての、自動車1の動きに起因する動きの影響を抑制して、入力可能エリア74により乗員によるボタン71の操作を判定することができる。
以上のように、本実施形態では、自動車1の動き、または自動車1の動きに起因する乗員の全体的な動きを検出する。そして、動き検出デバイスの検出に基づいて、乗員についての、自動車1の動きに起因する動きを抑制するように調整して、操作検出デバイス44の検出に基づく車室3の中空に投影される映像に対する乗員の操作部位による操作を判定する。
これにより、本実施形態では、乗員が、自動車1の動きによらずに本来的にしようとした、中空に投影される映像に対する非接触の操作を、走行中の自動車1の動きによらずに、適切に判定することができる。本実施形態では、乗員の操作を、自動車1の挙動によって乗員の身体が流れている状態においても、正確に判定することができる。
[第三実施形態]
次に、本発明の第三実施形態に係る自動車1の非接触操作装置40を説明する。本実施形態では、上述した実施形態に対応する構成要素に対してと上述した実施形態と同じ符号を使用して、その説明を省略する。
本実施形態では、操作検出デバイス44、または走行状態検出デバイス48は、乗員などを撮像することにより、走行中の自動車1の動きに起因する乗員の全体的な動きを検出する。
図10は、第三実施形態での、操作判定処理および判定結果としての応答出力処理の流れを示すフローチャートである。
自動車1の動きに起因する動きがある場合でのステップST31おいて、操作ECU20は、検出される乗員の操作を調整して、映像に対する乗員の操作を判定する。
操作ECU20は、ステップST32と同様に、投影される映像に対する乗員の操作部位の動きにより、乗員による操作を判定する。なお、ステップST32の処理は、ステップST16と同様である。そして、ステップST31では特に、操作ECU20は、操作検出デバイス44により検出されている、映像についての入力可能エリアに対する乗員の操作を、操作検出デバイス44または走行状態検出デバイス48により検出される乗員についての、自動車1の動きに起因する動きを相殺するように、補正して、調整する。これにより、乗員が映像に対してしようとした操作が得られる。操作ECU20は、調整した操作により、映像に対する操作を判定することにより、乗員の操作部位が映像に接触している状態にあるか否かを判定し、操作部位が映像を操作している状態にある場合にはさらに操作部位の接触形状、位置および動き(方向、速度)を判定する。また、操作ECU20は、操作情報に基づいて、車室3の空間に投影されている映像のたとえばボタン71といった所定の映像部分に対する乗員の操作がなされたと判断した場合、その乗員の操作による入力情報を生成する。
その後のステップST15において、操作ECU20は、ステップST31において判定した操作に対する触覚刺激の応答出力を実行する。自動車1の動きに起因する動きがあるため、操作ECU20は、触覚刺激を、走行状態検出デバイス48の検出により調整されている乗員の操作部位の位置に対してではなく、操作検出デバイス44により実際に検出されている乗員の操作部位に対して出力するように、刺激出力デバイス45に指示する。
操作ECU20は、ステップST31の操作判定において乗員の操作を走行状態検出デバイス48の検出により調整して判定している場合、ステップST32のように走行状態検出デバイス48の検出により調整しないで判定する場合と比べてより広い範囲に対して、乗員の操作に対する触覚刺激の応答を出力する。
図11は、図10に対応する操作判定処理および触覚刺激による応答出力処理の一例の説明図である。
図11において、3D映像投影デバイス43は、球体75の映像を、乗員の前に投影する。
操作判定部52としての操作ECU20は、投影される球体75に対する乗員による操作を判定する。操作判定部52は、たとえば乗員の指先が球体75の表面に触れるように動くと、映像を操作したと判定する。
そして、乗員について、自動車1の動きに起因する動きがある場合、操作ECU20は、映像としての球体75を操作する乗員の指先の位置を、乗員についての、自動車1の動きに起因する動きを相殺するように、補正して、調整する。
たとえば、操作ECU20は、操作の前後の映像中の撮像位置の違いに基づいて、自動車1の動きに起因する乗員の頭部の移動方向および移動量を演算する。そして、操作ECU20は、乗員の指先の位置を、頭部の移動方向と逆向きに、頭部の移動量にて補正する。
図11では、乗員の頭部は、自動車1の動きに起因して、自動車1の前方向である図の左方向へ振れるように移動している。この場合、操作ECU20は、映像としての球体75を操作しようとする乗員の指先の位置を、自動車1の後方向である図の左方向へ、頭部の移動量で補正する。操作ECU20は、調整した指先の位置により、映像に対する操作を判定する。
以上のように、本実施形態では、自動車1の動き、または自動車1の動きに起因する乗員の全体的な動きを検出する。そして、動き検出デバイスの検出に基づいて、乗員についての、自動車1の動きに起因する動きを抑制するように調整して、操作検出デバイス44の検出に基づく車室3の中空に投影される映像に対する乗員の操作部位による操作を判定する。
これにより、本実施形態では、乗員が、自動車1の動きによらずに本来的にしようとした、中空に投影される映像に対する非接触の操作を、走行中の自動車1の動きによらずに、適切に判定することができる。本実施形態では、乗員の操作を、自動車1の挙動によって乗員の身体が流れている状態においても、正確に判定することができる。
以上の実施形態は、本発明の好適な実施形態の例であるが、本発明は、これに限定されるのもではなく、発明の要旨を逸脱しない範囲において種々の変形または変更が可能である。
1…自動車(車両)、2…車体、3…車室、4…シート、10…制御系、20…操作ECU、40…非接触操作装置、43…3D映像投影デバイス(投影デバイス)、44…操作検出デバイス、45…刺激出力デバイス、46…音出力デバイス、48…走行状態検出デバイス(動き検出デバイス)、51…映像生成部(生成部)、52…操作判定部、53…刺激応答出力部、54…音応答出力部、61…表示スクリーン、62…ハーフミラー、63…ステレオカメラ、64…四角枠体、65…超音波素子、70…立方体、71…ボタン(映像の一部)、72,73,74…入力可能エリア、75…球体7(映像)

Claims (5)

  1. 車両の車室の空間へ映像を投影する投影デバイスと、
    前記投影デバイスにより投影される前記映像を生成および更新する生成部と、
    前記車室の前記空間に投影されている前記映像に対して設定される入力可能エリアに非接触の操作をする前記車両の乗員の操作部位を検出する操作検出デバイスと、
    前記車室の前記空間に投影されている前記映像に対する前記乗員の非接触の操作を、前記映像に対する前記乗員の前記操作部位の位置または動きに基づいて判定する操作判定部と、
    前記車両の動き、または前記車両の動きに起因する前記乗員の動きを検出する動き検出デバイスと、
    前記車室に乗っている前記乗員に対して配置され、前記映像に対して操作をする前記乗員へ超音波場による触覚刺激を出力可能な刺激出力デバイスと、
    前記操作判定部により判定された操作に対する応答として、投影されている前記映像に対して前記操作をする前記乗員の操作部位に対して、前記超音波場による前記触覚刺激を出力する刺激応答出力部と、
    を有し、
    前記操作判定部は、
    前記動き検出デバイスの検出に基づいて、前記映像の位置に対する前記入力可能エリアの位置を、前記映像と重なる第1の位置から、前記車両の動きに起因する前記乗員の動きと同じ方向に前記第1の位置よりも前記映像の位置に対してオフセットされた第2の位置に移動して、または、前記動き検出デバイスの検出に基づいて、前記映像のサイズに対する前記入力可能エリアのサイズを、前記映像と重なる第1のサイズから、前記車両の動きに起因する前記乗員の動きの量に対応する拡大率で前記第1のサイズを拡大した第2のサイズにすることで拡大して、前記車室の前記空間に投影される前記映像に対する前記乗員の操作部位による操作を判定し、
    前記刺激応答出力部は、
    前記操作判定部が、前記乗員の操作を、前記動き検出デバイスの検出により調整して判定している場合、
    前記動き検出デバイスにより検出されている前記乗員の操作部位に対して、前記乗員の操作に対する前記触覚刺激の応答を出力するとともに、
    前記動き検出デバイスの検出により調整されていない、前記操作検出デバイスより検出される前記乗員の操作部位の位置に対して、前記乗員の操作に対する前記触覚刺激の応答を出力して、
    前記動き検出デバイスの検出により調整しないで判定する場合より広い範囲へ、前記乗員の操作に対する前記触覚刺激の応答を出力する、
    車両の非接触操作装置。
  2. 前記操作判定部は、
    前記投影デバイスにより投影される前記映像に対する前記乗員の動きにより、前記乗員による操作を判定し、
    前記動き検出デバイスの検出に基づいて、前記操作検出デバイスにより検出される前記乗員の動きを、前記車両の動きに起因する身体、上体、肩、頭部のいずれかの動きを抑制するように調整して、前記乗員による操作を判定する、
    請求項1記載の、車両の非接触操作装置。
  3. 前記動き検出デバイスは、前記車両の走行状態を検出する、
    請求項1または2記載の、車両の非接触操作装置。
  4. 前記動き検出デバイスは、前記乗員を撮像した画像に基づいて、前記車両の動きに起因する前記乗員の動きを検出する、
    請求項1からのいずれか一項記載の、車両の非接触操作装置。
  5. 請求項1からのいずれか一項記載の非接触操作装置と、
    前記非接触操作装置とネットワークを通じて接続され、前記車両を制御する複数の被制御装置と、
    を有し、
    複数の前記被制御装置の各々は、前記非接触操作装置が車室に投影する映像に対する乗員の非接触操作に基づいて生成する入力情報を、前記ネットワークを通じて前記非接触操作装置から取得する、
    車両。
JP2019060600A 2019-03-27 2019-03-27 車両の非接触操作装置、および車両 Active JP7336228B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019060600A JP7336228B2 (ja) 2019-03-27 2019-03-27 車両の非接触操作装置、および車両
CN202010010661.8A CN111746436A (zh) 2019-03-27 2020-01-06 车辆的非接触操作装置和车辆
DE102020101286.1A DE102020101286A1 (de) 2019-03-27 2020-01-21 Berührungsfreie betriebsvorrichtung für fahrzeuge und fahrzeug
US16/751,443 US11440407B2 (en) 2019-03-27 2020-01-24 Non-contact operating apparatus for vehicle and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019060600A JP7336228B2 (ja) 2019-03-27 2019-03-27 車両の非接触操作装置、および車両

Publications (2)

Publication Number Publication Date
JP2020160877A JP2020160877A (ja) 2020-10-01
JP7336228B2 true JP7336228B2 (ja) 2023-08-31

Family

ID=72607516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019060600A Active JP7336228B2 (ja) 2019-03-27 2019-03-27 車両の非接触操作装置、および車両

Country Status (4)

Country Link
US (1) US11440407B2 (ja)
JP (1) JP7336228B2 (ja)
CN (1) CN111746436A (ja)
DE (1) DE102020101286A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112977469A (zh) * 2021-03-12 2021-06-18 乐视致新信息技术(武汉)有限公司 基于车载全息投影的导航装置及其控制方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293419A (ja) 2004-04-02 2005-10-20 Alpine Electronics Inc 空間入力システム
JP2009009261A (ja) 2007-06-27 2009-01-15 Pioneer Electronic Corp タッチパネル表示装置およびタッチパネル制御方法
JP2010070066A (ja) 2008-09-18 2010-04-02 Toshiba Corp ヘッドアップディスプレイ
JP2012068706A (ja) 2010-09-21 2012-04-05 Alpine Electronics Inc 車載用ナビゲーション装置及び車載用ナビゲーション装置の手書き入力方法
JP2016095311A (ja) 2015-12-04 2016-05-26 パイオニア株式会社 画像認識装置、画像認識方法、画像認識プログラム、及び記録媒体
JP2017027401A (ja) 2015-07-23 2017-02-02 株式会社デンソー 表示操作装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5028912A (en) * 1988-02-03 1991-07-02 Yazaki Corporation Display apparatus for automotive vehicle
US20110144857A1 (en) * 2009-12-14 2011-06-16 Theodore Charles Wingrove Anticipatory and adaptive automobile hmi
DE102015120799A1 (de) * 2015-12-01 2017-06-01 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Kraftfahrzeug
JP6323960B2 (ja) * 2016-08-02 2018-05-16 本田技研工業株式会社 入力装置
KR102395288B1 (ko) * 2017-05-18 2022-05-09 현대자동차주식회사 홀로그램 표시 제어 장치 및 방법, 그리고 차량 시스템
US20190005610A1 (en) * 2017-06-28 2019-01-03 The Boeing Company Motion-adapting displays within vehicles

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293419A (ja) 2004-04-02 2005-10-20 Alpine Electronics Inc 空間入力システム
JP2009009261A (ja) 2007-06-27 2009-01-15 Pioneer Electronic Corp タッチパネル表示装置およびタッチパネル制御方法
JP2010070066A (ja) 2008-09-18 2010-04-02 Toshiba Corp ヘッドアップディスプレイ
JP2012068706A (ja) 2010-09-21 2012-04-05 Alpine Electronics Inc 車載用ナビゲーション装置及び車載用ナビゲーション装置の手書き入力方法
JP2017027401A (ja) 2015-07-23 2017-02-02 株式会社デンソー 表示操作装置
JP2016095311A (ja) 2015-12-04 2016-05-26 パイオニア株式会社 画像認識装置、画像認識方法、画像認識プログラム、及び記録媒体

Also Published As

Publication number Publication date
CN111746436A (zh) 2020-10-09
JP2020160877A (ja) 2020-10-01
US20200307378A1 (en) 2020-10-01
US11440407B2 (en) 2022-09-13
DE102020101286A1 (de) 2020-10-01

Similar Documents

Publication Publication Date Title
US10099576B2 (en) Vehicle seat adjustment system
JP6244822B2 (ja) 車載用表示システム
WO2019124158A1 (ja) 情報処理装置、情報処理方法、プログラム、表示システム、及び移動体
JP2020104680A (ja) 室内監視装置
JP7336228B2 (ja) 車両の非接触操作装置、および車両
JP7070212B2 (ja) 車両用運動支援装置
JP7063652B2 (ja) 車両遠隔操作装置、車両遠隔操作システム及び車両遠隔操作方法
KR102559138B1 (ko) 차량용 비 접촉식 제어 시스템
JP7377615B2 (ja) 車両の非接触操作装置、および車両
JP2006047478A (ja) バーチャルリアリティ演出装置、バーチャルリアリティ演出制御装置及びバーチャルリアリティ演出制御プログラム
JP7304184B2 (ja) 車両の非接触操作装置、および車両
JP4493575B2 (ja) 移動体シミュレータ装置およびその制御方法並びに制御プログラム
US20230311720A1 (en) Vehicle seat
JP7290972B2 (ja) 車両の同乗者コミュニケーション装置
JP6962035B2 (ja) 周辺監視装置
JP2020003953A (ja) 画像照射方法及びユーザインタフェース装置
JP7333185B2 (ja) 車両の接近警報装置
JP2023044589A (ja) シート状態調整システム
JP6539621B2 (ja) 車両用シート調整装置
KR20220103850A (ko) 차량의 거동 예측을 통한 멀미 저감 방법
JP2016141303A (ja) 視界支援装置
JP2022038647A (ja) 車両用表示装置
JP2019023775A (ja) 情報提示装置
JP2021054254A (ja) 表示制御装置、ヘッドアップディスプレイ装置、方法、及びコンピュータ・プログラム
JP2010018111A (ja) 車両用操作装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20221223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R150 Certificate of patent or registration of utility model

Ref document number: 7336228

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150