JP7343645B2 - 車両に基づくインタラクション方法、装置、機器、媒体および車両 - Google Patents

車両に基づくインタラクション方法、装置、機器、媒体および車両 Download PDF

Info

Publication number
JP7343645B2
JP7343645B2 JP2022054980A JP2022054980A JP7343645B2 JP 7343645 B2 JP7343645 B2 JP 7343645B2 JP 2022054980 A JP2022054980 A JP 2022054980A JP 2022054980 A JP2022054980 A JP 2022054980A JP 7343645 B2 JP7343645 B2 JP 7343645B2
Authority
JP
Japan
Prior art keywords
vehicle
interaction
external
information
approaching object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022054980A
Other languages
English (en)
Other versions
JP2022173071A (ja
Inventor
国▲輝▼ 周
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Original Assignee
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Intelligent Connectivity Beijing Technology Co Ltd filed Critical Apollo Intelligent Connectivity Beijing Technology Co Ltd
Publication of JP2022173071A publication Critical patent/JP2022173071A/ja
Application granted granted Critical
Publication of JP7343645B2 publication Critical patent/JP7343645B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0816Indicating performance data, e.g. occurrence of a malfunction
    • G07C5/0825Indicating performance data, e.g. occurrence of a malfunction using optical means
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0816Indicating performance data, e.g. occurrence of a malfunction
    • G07C5/0833Indicating performance data, e.g. occurrence of a malfunction using audio means
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/46Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/21Voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/90Services for handling of emergency or hazardous situations, e.g. earthquake and tsunami warning systems [ETWS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本開示は、データ処理の技術分野に関し、具体的には、インテリジェント車載機器の技術およびIoV技術に関する。
インテリジェント車載機器の技術およびIoV技術の発展に伴い、車両のヒューマン-コンピュータインタラクション機能は、ますますユーザにより注目される。ヒューマン-コンピュータインタラクションとは、ヒトとコンピュータとの間で何らかの対話言語を使用し、一定のインタラクション方式で確定されたタスクを行うためのヒトとコンピュータとの間の情報交換過程である。車両のヒューマン-コンピュータインタラクションは、ヒトと車両との間のインタラクションを実現することを目的とする。車両のヒューマン-コンピュータインタラクション機能をどのように豊かにするかは、車載機器の知能性およびユーザエクスペリエンスに対して重大な意義を持つ。
本開示の実施例は、車両のインタラクション機能を豊かにし、インテリジェント車両のインタラクション使用シーンを拡張することができる車両に基づくインタラクション方法、装置、機器、媒体および車両を提供する。
態様1において、本開示の実施例は、
車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報を取得することと、
前記車両インタラクション指示情報のインタラクションタイプを認識し、インタラクションタイプ認識結果を取得することと、
前記インタラクションタイプ認識結果がターゲットインタラクションタイプであると確定した場合、関連車両のユーザに車両インタラクション情報を送信することとを含む、
車両に基づくインタラクション方法を提供する。
態様2において、本開示の実施例は、
車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報を取得するための車両インタラクション指示情報取得モジュールと、
前記車両インタラクション指示情報のインタラクションタイプを認識し、インタラクションタイプ認識結果を取得するためのインタラクションタイプ認識結果取得モジュールと、
前記インタラクションタイプ認識結果がターゲットインタラクションタイプであると確定した場合、関連車両のユーザに車両インタラクション情報を送信するための車両インタラクション情報送信モジュールとを備える、
車両に基づくインタラクション装置を提供する。
態様3において、本開示の実施例は、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信接続されたメモリとを備える電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、
前記命令は、前記少なくとも1つのプロセッサが態様1の実施例に係る車両に基づくインタラクション方法を実行可能であるように、前記少なくとも1つのプロセッサにより実行される、
電子機器を提供する。
態様4において、本開示の実施例は、
コンピュータ命令が記憶された非一時的なコンピュータ可読記憶媒体であって、
前記コンピュータ命令は、態様1の実施例に係る車両に基づくインタラクション方法を前記コンピュータに実行させることに用いられる、
非一時的なコンピュータ可読記憶媒体を更に提供する。
態様5において、本開示の実施例は、
プロセッサにより実行されると、態様1の実施例に係る車両に基づくインタラクション方法を実現する、
コンピュータプログラムを更に提供する。
態様6において、本開示の実施例は、
車体を備える車両であって、
態様3に記載の電子機器と、車体に設けられた少なくとも1つの車両レーダと、車体外部に設けられた車両カメラとを更に備える、
ことを特徴とする車両を提供する。
本開示の実施例は、車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報を取得した後、車両インタラクション指示情報のインタラクションタイプを認識し、インタラクションタイプ認識結果を取得し、インタラクションタイプ認識結果がターゲットインタラクションタイプであると確定した場合、関連車両のユーザに車両インタラクション情報を送信することにより、従来の車両インタラクション機能が完璧ではない等の問題を解決し、車両のインタラクション機能を豊かにし、インテリジェント車両のインタラクション使用シーンを拡張する。
本開示に記載された内容は、本開示の実施例のキーとなるまたは重要な特徴を標識するためのものではなく、本開示の範囲を限定するものでもないことが理解されるべきである。本開示の他の特徴は、以下の明細書により容易に理解することができる。
図面は本形態をより良く理解するためのものであり、本開示を限定するものではない。
本開示の実施例に係る車両に基づくインタラクション方法のフローチャートである。 本開示の実施例に係る車両に基づくインタラクション方法のフローチャートである。 本開示の実施例に係る車両に基づくインタラクションシステムの構造模式図である。 本開示の実施例に係る車両に基づくインタラクション装置の構造図である。 本開示の実施例の車両に基づくインタラクション方法を実現するための電子機器の構造模式図である。
以下、図面を参照しながら本開示の例示的な実施例を詳細に説明する。ここで、理解の便宜上、本開示の実施例に係る様々な細かい内容まで含まれているが、例示的なものに過ぎないと理解すべきである。従って、当業者であれば理解するであろうが、本開示の範囲から逸脱しない限り、ここで説明する実施例に対して様々な変更や修正を行うことができる。同様に、以下の説明において、公知されている機能および構造の説明は、明確且つ簡潔にするために省略している。
車両の普及に伴い、特に、インテリジェント車両が人々の生活に入ってき、インテリジェントインタラクションは、徐々に人々に認められるようになった。いくつかのシーンにおいて、車両オーナが車をロックして離れた後、外界がいくつかの問題を解決するために車両オーナとタイムリーに連絡する必要があるが、外界が車両オーナの連絡先をタイムリーに取得できない場合、外界要素は、通常、暴力的に問題を解決することで車両オーナの車両の損傷を引き起してしまう。1つの典型的なシーンは、車両オーナが車をロックして離れた後、別の車両の移動を妨げる可能性があり、妨げられた車両は、車両オーナと連絡して車を移動させようとするが、車両オーナの任意の有効な連絡先を取得できない。極端な場合、妨げられた車両オーナは車両にぶつかってから離れ、車両オーナの財産が損なわれる。別の典型的なシーンは救急警報であり、例えば、車両オーナが赤ちゃんを車内に閉じ込めて離れ、赤ちゃんに生命危険状況が発生したことが他の人に発見されると、車両オーナの任意の有効な連絡先を取得できないと、多くの場合、窓を割って赤ちゃんを救出するしかできないため、車両オーナの財産が損なわれる。
一例において、図1は、本開示の実施例に係る車両に基づくインタラクション方法のフローチャートであり、本実施例は、車両外部オブジェクトが車両を介して関連車両のユーザと遠隔インタラクションを行う場合に適用でき、該方法は、車両に基づくインタラクション装置で実行でき、該装置は、ソフトウェアおよび/またはハードウェアの方式で実現でき、一般的に、電子機器に集積できる。該電子機器は車載端末機器であってもよい。それに対応し、図1に示すように、該方法は、以下のような操作を含む。
S110において、車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報を取得する。
ここで、車両外部接近オブジェクトは、車両外部の車両に接近するオブジェクトであってもよい、外部のユーザ(外部ユーザと略称する)であってもよいし、外部車両等の任意の車両に接近するオブジェクトタイプであってもよく、本開示の実施例は、車両外部接近オブジェクトの具体的なオブジェクトタイプを限定しない。車両インタラクション指示情報は、インタラクションを行う必要があることを車両に指示する情報であってもよく、その情報タイプは、文字、音声、画像、または映像等であってもよく、本開示の実施例は、車両インタラクション指示情報の情報タイプを限定しない。
本開示の実施例において、車両外部に車両に接近する車両外部接近オブジェクトが存在する場合、車両外部接近オブジェクトは、車両を介して車両インタラクション指示情報をトリガすることができる。それに対応し、車両は、車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報を受信することができる。例示的には、車両外部接近オブジェクトが接近している外部車両である場合、車両インタラクション指示情報は、車両によって収集された外部車両の接近情報であってもよく、例えば、車両は、外部車両Aと車両との間の距離が1mであることを探知すると、「外部障害物が車両の衝突範囲内にある」という警報文字情報を車両インタラクション指示情報とすることができる。車両外部接近オブジェクトが接近している外部ユーザである場合、車両インタラクション指示情報は、外部ユーザが車両に入力した情報であってもよく、例えば、外部ユーザが車両に入力した音声または画像等の形式の命令情報等であってもよい。即ち、車両インタラクション指示情報は、車両外部接近オブジェクトのタイプおよび具体的なインタラクションのニーズに応じて設定でき、本開示の実施例は、車両インタラクション指示情報の具体的なタイプおよび内容を限定しない。
なお、車両は、音声形式の車両インタラクション指示情報を収集するように、外部にマイク等のような外部音声情報を収集する音声収集装置を設けてもよい。
好ましくは、車両に基づくインタラクション方法を実行する車両は、ロック状態での車両であってもよいし、ロック状態ではなくて車内に人がいない車両であってもよく、本開示の実施例は、車両に基づくインタラクション方法を実行する車両のタイプを限定しない。車両は、具体的に、車載システムにより車両に基づくインタラクション方法を実行することができることが理解できる。
S120において、前記車両インタラクション指示情報のインタラクションタイプを認識し、インタラクションタイプ認識結果を取得する。
ここで、インタラクションタイプ認識結果は、車両が車両インタラクション指示情報のインタラクションタイプを認識して得た結果であってもよい。
それに対応し、車両は、車両インタラクション指示情報を受信した後、車両インタラクション指示情報のインタラクションタイプを認識し、車両インタラクション指示情報のインタラクションタイプ認識結果を確認することができる。
車両インタラクション指示情報のタイプが異なり、車両インタラクション指示情報のインタラクションタイプを認識する方式も異なることが理解できる。例えば、車両インタラクション指示情報が文字情報である場合、車両は、直接文字を認識し、車両インタラクション指示情報の意味を取得することができる。例示的には、車両インタラクション指示情報が「外部障害物が車両の衝突範囲内にある」という警報文字情報であると仮定すれば、該車両インタラクション指示情報のインタラクションタイプ認識結果は、「障害物が近距離に接近し、緊急避難が必要である」であってもよい。車両インタラクション指示情報が音声情報である場合、車両は、直接音声情報を音声認識し、外部ユーザの意図を取得し、車両インタラクション指示情報に対応する音声命令を生成することができる。例示的には、車両インタラクション指示情報は、外部ユーザが車両に入力した「車両オーナに連絡する必要がある」という音声情報であると仮定すれば、該車両インタラクション指示情報のインタラクションタイプ認識結果は、「外部ユーザは車両オーナへの連絡を要求する」であってもよい。車両インタラクション指示情報が画像または映像情報である場合、車両は、画像または映像情報を画像認識し、外部ユーザの意図を取得し、画像認識結果で表される意味を車両インタラクション指示情報とすることができる。例示的には、車両インタラクション指示情報は外部ユーザが車両に入力したあるジェスチャ動作であり、且つ車両は該ジェスチャ動作に対応する命令が車両オーナに連絡することであると予め設定したと仮定すれば、該車両インタラクション指示情報のインタラクションタイプ認識結果は、「外部ユーザは車両オーナへの連絡を要求する」であってもよい。
S130において、前記インタラクションタイプ認識結果がターゲットインタラクションタイプであると確定した場合、関連車両のユーザに車両インタラクション情報を送信する。
ここで、ターゲットインタラクションタイプは、関連車両のユーザとインタラクションする必要があるタイプを表すことができる。関連車両のユーザは、車両オーナまたは車両オーナが指定した連絡先等のような車両に対して操作権限を持つユーザであってもよく、本開示の実施例は、関連車両のユーザの具体的なユーザタイプを限定しない。車両インタラクション情報は、関連車両のユーザに外界要求インタラクションを提示する情報であってもよく、そのタイプは文字、音声、画像または映像等であってもよく、本開示の実施例は、車両インタラクション情報の具体的な情報タイプを限定しない。
それに対応し、車両は、インタラクションタイプ認識結果がターゲットインタラクションタイプであると確定した場合、関連車両のユーザに車両インタラクション情報を送信することができる。
例示的には、車両は、インタラクションタイプ認識結果が「外部ユーザは車両オーナへの連絡を要求する」であると確定した場合、外界が車両を介して関連車両のユーザとのインタラクションを要求することを表し、該インタラクションタイプ認識結果がターゲットインタラクションタイプであると確定できる。
それに対応し、関連車両のユーザに送信される車両インタラクション情報は、様々な情報タイプ方式であってもよい。例えば、車両は、システムが予め設定したテキスト形式の車両インタラクション情報に基づいてメッセージまたは通知等の方式で関連車両のユーザに送信してもよい。または、車両は、外界の映像データをリアルタイムに収集し、映像データをクラウドにアップロードしてもよい。クラウドは、関連車両のユーザに情報提示を送信し、車両インタラクション情報が送信されたことを関連車両のユーザに提示し、車両によって収集された映像データをインタラクション情報として関連車両のユーザに提供することができる。
これにより見られるように、車両外部障害物が車両に接近して車両の衝突を引き起こす可能性があるシーンにおいて、車両は、外部障害物の接近状況に応じて車両インタラクション指示情報を自動的に生成し、車両インタラクション指示情報に基づいて更に関連車両のユーザに車両インタラクション情報を送信することができる。この場合、関連車両のユーザは、外部障害物の車両への接近状況をリアルタイムに把握することができ、例えば、車両が取得した外部の映像データにより車両周囲状況を観察し、緊急避難するように車両を遠隔制御する。または、関連車両のユーザは、車両を介して接近している障害物に警告情報を送信し、周囲状況を監視していることを障害物に提示することもできる。または、関連車両のユーザは、駐車現場に到着して処理することもできる。即ち、関連車両のユーザは、車両インタラクション情報に基づいて対応するフィードバックを行うことができる。外部ユーザが関連車両のユーザにタイムリーに連絡する必要があるシーンにおいて、例えば、車両が離れるために車を移動する必要がある、または赤ちゃんは車内で危険がある等のシーンにおいて、外部ユーザが車両に車両インタラクション指示情報を入力することができれば、車両は、車両インタラクション指示情報に基づいて更に関連車両のユーザに車両インタラクション情報を送信することができる。この場合、関連車両のユーザは、外部ユーザがインタラクションを要求することを知り、関連車両のユーザは、車両周囲または車内の状況をリアルタイムに把握することができ、例えば、車両が取得した外部および内部の映像データにより車両周囲および車内の状況を観察し、車内に赤ちゃんが閉じ込められて命の危険があることを確定した場合、アンロックするように車両を速やかに制御することができる。車を移動する必要があることを確定した場合、関連車両のユーザは、移動するように車両を遠隔制御することができる。または、関連車両のユーザは、駐車現場に到着して処理することもできる。即ち、関連車両のユーザは、車両インタラクション情報に基づいて対応するフィードバックを行うことができる。
以上をまとめ、本開示の実施例に係る車両に基づくインタラクション方法は、車両外部接近オブジェクトが車両の関連車両のユーザと車両を介して遠隔インタラクションを行うことを実現することができ、車両の知能性を更に向上させ、車両の安全防護アプリケーションの利便性を高め、車両のインタラクション機能を豊かにし、インテリジェント車両のインタラクション使用シーンを拡張する。
本開示の実施例は、車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報を取得した後、車両インタラクション指示情報のインタラクションタイプを認識し、インタラクションタイプ認識結果を取得し、インタラクションタイプ認識結果がターゲットインタラクションタイプであると確定した場合、関連車両のユーザに車両インタラクション情報を送信することにより、従来の車両インタラクション機能が完璧ではない等の問題を解決し、車両のインタラクション機能を豊かにし、インテリジェント車両のインタラクション使用シーンを拡張する。
一例において、図2は、本開示の実施例に係る車両に基づくインタラクション方法のフローチャートであり、本開示の実施例は、上記各実施例の技術案の基に最適化して改良し、車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報を取得するおよび関連車両のユーザに車両インタラクション情報を送信する様々な具体的な好ましい実現形態を与える。
図2に示す車両に基づくインタラクション方法は、以下のステップを含む。
S210において、車両外部監視モジュールによって収集された車両外部監視情報を取得する。
ここで、前記車両外部監視モジュールは、車両レーダおよび/または車両カメラを含んでもよいが、これらに限定されず、外部監視情報を取得できる任意のモジュールは、いずれも車両外部監視モジュールとすることができ、本開示の実施例は、車両外部監視モジュールの具体的なタイプを限定しない。好ましくは、車両レーダは、超音波レーダ等のタイプであってもよく、車両カメラは、車両外部の画像または映像を取得するための車両外部に設けられたカメラであってもよい。車両外部監視情報は、車両外部の監視情報であってもよいし、車両レーダが探知した情報であってもよいし、車両カメラが取得した外部画像または映像情報であってもよく、本開示の実施例は、これについて限定しない。
本開示の実施例において、車両は、車両外部をリアルタイムに監視するために、車両外部監視モジュールにより車両外部監視情報の収集を実施することができる。
好ましくは、車両は、赤ちゃんが閉じ込められたまたは不審者がいる等の車内に異常状況が存在することを確定した場合、処理するように関連車両のユーザにタイムリーに提示するために、車両内部監視モジュール(例えば、車両内部カメラ等)により車両内部を監視することもできる。
S220において、前記車両外部監視情報に基づいて前記車両外部接近オブジェクトを確定する。
それに対応し、車両は、車両外部監視情報に基づいて車両外部接近オブジェクトを確定することができる。具体的には、車両は、車両外部監視情報により車両の所定範囲内に障害物が存在することを確定した場合、車両外部に車両外部接近オブジェクトが存在することを確定することができる。
上記形態において、車両によって収集された車両外部監視情報に基づいて車両外部接近オブジェクトを確定し、車両が無人制御の状態(例えば、ロック状態)で車両外部接近オブジェクトを自律的に確定し、車両外部接近オブジェクトに基づいて車両に基づくインタラクション機能を自動的にトリガすることを実現することができる。
本開示の1つの好ましい実施例において、前記車両外部監視モジュールによって収集された車両外部監視情報を取得することは、前記車両レーダが第1所定範囲内で収集した第1車両外部監視情報を取得すること、および/または、前記車両カメラが第2所定範囲内で収集した第2車両外部監視情報を取得することを含んでもよい。
ここで、第1所定範囲および第2所定範囲は実際の必要に応じることができ、例えば、第1所定範囲は10m等であってもよく、第2所定範囲は5m等であってもよく、本開示の実施例は、第1所定範囲および第2所定範囲の具体的な数値を限定しない。好ましくは、第1所定範囲は第2所定範囲よりも大きくなってもよい。第1車両外部監視情報は、車両レーダによって収集されたレーダ監視情報であってもよく、第2車両外部監視情報は車両カメラによって収集された画像または映像情報であってもよい。
本開示の1つの好ましい実施例において、前記車両カメラが第2所定範囲内で収集した第2車両外部監視情報を取得することは、前記車両外部接近オブジェクトが第2所定範囲内に位置することを確定した場合、前記車両カメラによってリアルタイムに収集された前記車両外部接近オブジェクトの外部オブジェクト画像データを取得することと、前記車両外部接近オブジェクトが車両インタラクション範囲内に位置することを確定した場合、前記外部オブジェクト画像データを画像認識することとを含んでもよい。
ここで、車両インタラクション範囲は、カメラを用いて収集した画像データを画像認識する範囲であってもよく、具体的には、実際の必要に応じて設定することができ、本開示の実施例は、これについて限定しない。外部オブジェクト画像データは、車両カメラによって収集された車両外部接近オブジェクトの活動データであってもよい。車両外部接近オブジェクトがカメラの監視範囲内に位置する場合、外部オブジェクト画像データは、車両外部接近オブジェクトの具体的な活動情報を含んでもよいことが理解できる。車両外部接近オブジェクトがカメラの監視範囲外に位置する場合、外部オブジェクト画像データは、車両外部接近オブジェクトの具体的な活動情報を含まない。通常、車両外部に複数のカメラが設けられ、各カメラは、車両の異なる角度の画像データを収集することができ、全てのカメラにより収集された画像データは、車両周囲の全ての角度の範囲をカバーすることができる。従い、通常、少なくとも1つの車両カメラにより収集された外部オブジェクト画像データには、車両外部接近オブジェクトの活動情報が含まれる。
本開示の実施例において、好ましくは、車両レーダにより第1所定範囲内で第1車両外部監視情報を収集し、車両カメラにより第2所定範囲内で第2車両外部監視情報を収集することができる。車両カメラにより第2所定範囲内で第2車両外部監視情報を収集する過程において、車両は、車両外部接近オブジェクトが第2所定範囲内に位置するが、車両インタラクション範囲外に位置することを確定した場合、車両カメラがリアルタイムに収集して記憶する車両外部接近オブジェクトの外部オブジェクト画像データに基づくことができる。車両は、車両外部接近オブジェクトが車両インタラクション範囲内に位置することを確定した場合、車両は、車両外部接近オブジェクトが車両に衝突する活動傾向を有し、または車両外部接近オブジェクトが車両カメラに対してジェスチャ動作を実行する等のような車両外部接近オブジェクトの具体的な活動内容を確定するために、外部オブジェクト画像データを収集し続け、車両カメラによって収集された外部オブジェクト画像データを画像認識するように車両カメラを制御することができる。
1つの具体的な例において、車両オーナが車をロックして離れた後、車両は、常に超音波レーダ探知機能をオンにし、超音波レーダにより第1所定範囲内で、接近している他の車両または歩行者等のような車両に接近する車両外部接近オブジェクトを探知する。好ましくは、超音波レーダの探知は、車両外部接近オブジェクトの距離の近さに応じてそれぞれ車載ホストコンピュータに異なる警報信号をフィードバックすることができ、例えば、車両外部接近オブジェクトが車両より5mの範囲に接近すると、レベル1の警報をトリガし、車両外部接近オブジェクトが車両より1mの範囲に接近すると、レベル2の警報をトリガする。好ましくは、超音波レーダがレベル1の警報をトリガすると、車両外部接近オブジェクトが第2所定範囲内に位置することを確定できる。この場合、車両は、車両カメラをオンにして車両外部接近オブジェクトの第2所定範囲内の外部オブジェクト画像データを収集して第2車両外部監視情報とすることができる。超音波レーダがレベル2の警報をトリガすると、車両外部接近オブジェクトが車両インタラクション範囲内に位置することを確定できる。この場合、車両は、車両カメラによって収集された外部オブジェクト画像データを画像認識し、画像認識結果を記憶することができる。車両の安全防護対策を更に向上させるために、車両は、車両外部接近オブジェクトが車両インタラクション範囲内に位置することを確定した場合、車両は、車両外部接近オブジェクトが車両外部情報を監視していることを提示するために、規則的に点滅するようにランプを制御することもできる。
車両レーダが低い消費電力を有するため、車両がロック状態にあっても、車両レーダにより車両外部監視情報を収集しても過剰な電力を消費しない。車両レーダが車両外部接近オブジェクトしか探知できず、車両外部接近オブジェクトのタイプを認識できないことを考慮するため、車両レーダにより車両外部接近オブジェクトと車両との距離が近すぎることを確定した場合、カメラにより車両外部接近オブジェクトの活動情報を収集し、カメラによって収集された情報に基づいて車両外部接近オブジェクトの具体的な活動状態を正確に取得することができる。これにより分かるように、上記車両レーダと車両カメラとを組み合わせて車両外部監視情報を収集する方式は、車両の低消費電力のニーズを満たすだけでなく、更に車両外部監視情報の収集ニーズを満たすこともできる。
それと同時に、車両外部接近オブジェクトが第2所定範囲内に位置する場合、車両カメラのみで外部オブジェクト画像データを収集する。外部ユーザが、通常、車両付近で、音声命令を送信するまたはジェスチャ動作を実行する等のような車両インタラクション指示情報をトリガすることを考慮した上、車両は、車両外部接近オブジェクトが車両インタラクション範囲内に位置することを確定した場合のみに画像認識機能をオンにし、車両インタラクション指示情報を取得し、車両の消費電力を更に低減する。
S230において、車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報を取得する。
本開示の1つの好ましい実施例において、前記車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報を取得することは、前記車両外部接近オブジェクトが第1車両外部接近オブジェクトであり、且つ前記第1車両外部接近オブジェクトが車両インタラクション範囲内に位置することを確定した場合、前記第1車両外部接近オブジェクトの車両接近距離をリアルタイムに取得することと、前記車両接近距離に基づいて前記車両インタラクション指示情報を生成することとを含んでもよい。
ここで、第1車両外部接近オブジェクトは、車両、動物または他の障害物等のような外部ユーザ以外のオブジェクトであってもよい。車両接近距離は、第1車両外部接近オブジェクトと車両との間の距離であってもよい。
好ましくは、車両は、車両外部接近オブジェクトが第1車両外部接近オブジェクトであると確定し、且つ、第1車両外部接近オブジェクトが車両インタラクション範囲内に位置することを確定した場合、第1車両外部接近オブジェクトの車両接近距離を車両レーダによりリアルタイムに取得し、車両接近距離に基づいて前記車両インタラクション指示情報を生成することができる。例えば、車両接近距離が1mよりも小さい場合、生成された車両インタラクション指示情報は「外部障害物が車両の衝突範囲内にある」であってもよく、車両接近距離が負の値である場合、生成された車両インタラクション指示情報は「外部障害物が車両に衝突した」であってもよい。
上記技術案は、車両接近距離により車両インタラクション指示情報を生成し、関連車両のユーザは第1車両外部接近オブジェクトの車両に接近する状態をリアルタイムに把握することができる。
本開示の1つの好ましい実施例において、車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報を取得することは、前記車両外部接近オブジェクトが第2車両外部接近オブジェクトであり、且つ前記第2車両外部接近オブジェクトが車両インタラクション範囲内に位置することを確定した場合、前記第2車両外部接近オブジェクトが車両インタラクション案内情報に基づいて入力したオブジェクトインタラクション意図命令情報を取得することと、前記オブジェクトインタラクション意図命令情報を前記車両インタラクション指示情報として確定することとを含んでもよく、ここで、前記オブジェクトインタラクション意図命令情報は、ジェスチャ動作命令情報および/または音声命令情報を含む。
ここで、第2車両外部接近オブジェクトは外部ユーザであってもよい。車両インタラクション案内情報は、入力車両インタラクション指示情報を入力するように外部ユーザを案内する情報であってもよく、その情報タイプは、文字、音声、画像または映像等であってもよく、本開示の実施例は、これについて限定しない。オブジェクトインタラクション意図命令情報は、第2車両外部接近オブジェクトが車両インタラクション案内情報に基づいて入力した情報であってもよい。
好ましくは、車両は、車両外部接近オブジェクトが第2車両外部接近オブジェクトであると確定し、且つ第2車両外部接近オブジェクトが車両インタラクション範囲内に位置することを確定した場合、第2車両外部接近オブジェクトである外部ユーザは、車両を介して車両インタラクション案内情報を取得することができる。例えば、関連車両のユーザは、車両のフロントウィンドウに警告標識を貼り付け、警告標識の標語は「車両の真正面から1mの位置に立ち、左手がいいねのジェスチャをし、右手がokのジェスチャをしてください。正しく認識できれば、ランプが2回点滅し、既にメッセージを送信してできるだけ早く車を移動することを車両オーナに伝えたことを操作者に提示する」であり、該警告標識の標語は、車両インタラクション案内情報とすることができる。または、車両は、更に音声アナウンスまたは音声映像等の方式により外部ユーザに車両インタラクション案内情報を表示することもでき、本開示の実施例は、これについて限定しない。それに対応し、外部ユーザは、車両インタラクション案内情報の案内に応じてオブジェクトインタラクション意図命令情報を車両に入力することができ、例えば、車両インタラクション案内情報に基づいて関連する音声命令情報を入力したり、対応するジェスチャ動作等を実行したりする。この場合、車両は、オブジェクトインタラクション意図命令情報を取得し、オブジェクトインタラクション意図命令情報を車両インタラクション指示情報として確定することができる。
上記技術案は、車両インタラクション案内情報を用いて車両インタラクション指示情報をトリガするように第2車両外部接近オブジェクトを案内することにより、車両を中間媒体とし、外部ユーザが車両を介して外界とのインタラクションのニーズがあることを関連車両のユーザに通知することを実現でき、関連車両のユーザは、外界とのインタラクションのニーズをリアルタイムに取得することができる。
S240において、前記車両インタラクション指示情報のインタラクションタイプを認識し、インタラクションタイプ認識結果を取得する。
一部のシーンにおいて、車両外部接近オブジェクトが外部ユーザである場合、外部ユーザによってトリガされた車両インタラクション指示情報は正確でない可能性があることが理解できる。例えば、車両は、車両インタラクション案内情報により、予め設定されたジェスチャ動作を実行するように外部ユーザを案内するが、外部ユーザが実行したジェスチャ動作が予め設定されたジェスチャ動作にマッチングしない場合、インタラクションタイプ認識結果がターゲットインタラクションタイプでないことを確定し、この場合、車両のインタラクション機能をトリガできない。
S250において、前記インタラクションタイプ認識結果がターゲットインタラクションタイプであると確定した場合、関連車両のユーザに車両インタラクション情報を送信する。
本開示の1つの好ましい実施例において、前記関連車両のユーザに車両インタラクション情報を送信することは、所定の車両インタラクション情報を取得し、前記所定の車両インタラクション情報を前記関連車両のユーザに送信すること、および/または、車両監視情報を取得し、前記車両監視情報をクラウドにアップロードし、前記クラウドにより前記車両監視情報を前記関連車両のユーザに送信することを含んでもよく、ここで、前記車両監視情報は、車両内部監視情報および/または車両外部監視情報を含む。
ここで、所定の車両インタラクション情報は、車載システムが予め設定した車両インタラクション情報であってもよい。車両監視情報は、車両が取得した内部または外部の監視情報であってもよい。
本開示の実施例において、様々な好ましい形態を用いて関連車両のユーザに車両インタラクション情報を送信することができる。例えば、車両は、直接システムに記憶された所定の車両インタラクション情報を取得し、所定の車両インタラクション情報を関連車両のユーザに送信することができる。例えば、所定の車両インタラクション情報は、「障害物が近距離に車両に接近し、緊急避難が必要である」または「外部ユーザは車両オーナへの連絡を要求する」等であってもよい。車両は、更に車両内部監視情報および/または車両外部監視情報等の車両監視情報を取得し、車両監視情報をクラウドにアップロードすることもできる。クラウドは、車両監視情報を直接車両インタラクション情報として関連車両のユーザに送信することができる。
上記技術案は、様々な好ましい形態を用いて関連車両のユーザに車両インタラクション情報を送信し、車両インタラクション情報を送信する方式を豊かにする。
本開示の1つの好ましい実施例において、車両に基づくインタラクション方法は、インタラクションタイプ認識結果に基づいて前記車両外部接近オブジェクトが第2車両外部接近オブジェクトであると確定した場合、前記第2車両外部接近オブジェクトのオブジェクトIDを取得することと、前記関連車両のユーザが前記オブジェクトIDに基づいて送信したインタラクションマスク命令を受信することと、前記インタラクションマスク命令に基づき、ターゲット第2車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報の取得を拒否することとを更に含んでもよい。
ここで、オブジェクトIDは、第2車両外部接近オブジェクトである外部ユーザの身分を識別することに使用できる。インタラクションマスク命令は、第2車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報の受信を禁止するように車両に指示する命令であってもよい。ターゲット第2車両外部接近オブジェクトは、関連車両のユーザにより指定された第2車両外部接近オブジェクトであってもよい。
一部の外部ユーザが上記車両に基づくインタラクション方法を用いて関連車両のユーザに嫌がらせをする可能性があることを考慮し、関連車両のユーザのプライバシー保護を実現するために、車両は、各外部ユーザに対して対応するオブジェクトIDを設けて各外部ユーザを一意に識別することができ、例えば、外部ユーザの顔認識結果を用いて対応するオブジェクトID等を確定する。ある外部ユーザに不正行為が存在すれば、関連車両のユーザは、該外部ユーザのオブジェクトIDに対してインタラクションマスク命令を設定して車両に送信することにより、該外部ユーザによってトリガされた車両インタラクション指示情報の受信を拒否するように車両に指示することができる。車両は、インタラクションマスク命令を受信すると、インタラクションマスク命令に応じてターゲット第2車両外部接近オブジェクトを確定し、即ち、ターゲット外部ユーザを確定することにより、ターゲット第2車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報の取得を拒否することができ、ターゲット第2車両外部接近オブジェクトは、車両を介して関連車両のユーザとインタラクションすることができなくなる。または、関連車両のユーザは、車両に基づくインタラクション機能を直接オフにしてもよい。
図3は、本開示の実施例に係る車両に基づくインタラクションシステムの構造模式図であり、1つの具体的な例において、図3に示すように、車両に基づくインタラクションシステムは、緊急時に車両オーナと自律的にインタラクションを行う方式を実現することができ、超音波レーダ探知モジュール、映像画像認識モジュール、車両警報モジュール、情報伝達モジュール、および車両オーナプライバシー保護モジュール等の様々な機能モジュールのタイプを含んでもよく、車をロックして離れた状態で車両オーナの車両財産安全を保証するニーズを全面的に満たす。
ここで、超音波レーダ探知機能は、主に、車両オーナが車をロックして離れた後、接近している他の車両または歩行者等のような車両に接近する障害物を探知することに用いられる。このモジュールの主な機能は、障害物を探知し、障害物の距離の近さに応じてそれぞれ車載ホストコンピュータに異なる警報信号をフィードバックすることであり、例えば、障害物が車両より5mの範囲に接近すると、レベル1の警報をトリガし、障害物が車両より1mの範囲に接近すると、レベル2の警報をトリガする。
車両警報モジュールは、異なる警報レベルに応じて処理を行うことに用いられる。レベル1の警報は車載カメラを喚起して認識録画を行い、レベル2の警報は映像録画の画像を認識して記憶するとともに、ランプが点滅して車両が監視していることを歩行者に提示する。
画像認識モジュールは、主に、歩行者のジェスチャ動作を認識し、例えば、フロントウィンドウに警告標識を貼り付け、「車両の真正面から1mの位置に立ち、左手がいいねのジェスチャをし、右手がokのジェスチャをしてください。正しく認識できれば、ランプが2回点滅し、既にメッセージを送信してできるだけ早く車を移動することを車両オーナに伝えたことを操作者に提示する」ことを歩行者に提示し、歩行者は、指導に応じて車両オーナに通知する。
情報伝達モジュールは、主に、他の人・車両が離れるために車を移動する必要がある、または赤ちゃんは車内で危険がある等のことをメッセージ等の形式で車両オーナに警告する。該モジュールは、映像データをクラウドに伝送することもでき、車両オーナは、映像データにより車周囲の状況および車内の状況を観察し、対応するフィードバックを行うことができる。
プライバシー保護モジュールは、主に、車両オーナのプライバシーを保護し、歩行者が該機能を介して車両オーナに嫌がらせをすれば、車両オーナは、該機能をオフにしたり、画像認識技術を用いてマスクする必要がある人を認識し、ハラッサーがマスクされた後、ジェスチャにより該機能をトリガすることができない。
上記技術案は、車両レーダおよび/または車両カメラ等の方式を用いて車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報を取得し、車両インタラクション指示情報に基づいて関連車両のユーザとの間接的なインタラクションを実現し、電話番号漏洩等のような従来方式による車両ユーザのプライバシー漏洩の問題を回避することができるだけでなく、更に、車両のインタラクション機能を豊かにし、インテリジェント車両のインタラクション使用シーンを拡張する。
本開示の技術案において、関するユーザの個人情報(例えば、顔情報、音声情報等)の取得、記憶および適用等は、いずれも関連法律法規の規定に該当し、且つ公序良俗に反しない。
なお、以上の各実施例における各技術特徴間の任意の組み合わせも本開示の保護範囲に属する。
一例において、図4は、本開示の実施例に係る車両に基づくインタラクション装置の構造図であり、本開示の実施例は、車両外部オブジェクトが車両を介して関連車両のユーザと遠隔インタラクションを行う場合に適用でき、該装置は、ソフトウェアおよび/またはハードウェアで実現され、具体的に電子機器に構成される。該電子機器は車載端末機器であってもよい。
図4に示す車両に基づくインタラクション装置300は、車両インタラクション指示情報取得モジュール310と、インタラクションタイプ認識結果取得モジュール320と、車両インタラクション情報送信モジュール330とを備える。
車両インタラクション指示情報取得モジュール310は、車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報を取得することに用いられる。
インタラクションタイプ認識結果取得モジュール320は、前記車両インタラクション指示情報のインタラクションタイプを認識し、インタラクションタイプ認識結果を取得することに用いられる。
車両インタラクション情報送信モジュール330は、前記インタラクションタイプ認識結果がターゲットインタラクションタイプであると確定した場合、関連車両のユーザに車両インタラクション情報を送信することに用いられる。
本開示の実施例は、車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報を取得した後、車両インタラクション指示情報のインタラクションタイプを認識し、インタラクションタイプ認識結果を取得し、インタラクションタイプ認識結果がターゲットインタラクションタイプであると確定した場合、関連車両のユーザに車両インタラクション情報を送信することにより、従来の車両インタラクション機能が完璧ではない等の問題を解決し、車両のインタラクション機能を豊かにし、インテリジェント車両のインタラクション使用シーンを拡張する。
好ましくは、車両に基づくインタラクション装置は、車両外部監視モジュールによって収集された車両外部監視情報を取得するための車両外部監視情報取得モジュールと、前記車両外部監視情報に基づいて前記車両外部接近オブジェクトを確定するための車両外部接近オブジェクト確定モジュールとを更に備えてもよく、ここで、前記車両外部監視モジュールは、車両レーダおよび/または車両カメラを含む。
好ましくは、車両外部監視情報取得モジュールは、具体的に、前記車両レーダが第1所定範囲内で収集した第1車両外部監視情報を取得すること、および/または、前記車両カメラが第2所定範囲内で収集した第2車両外部監視情報を取得することに用いられる。
好ましくは、車両外部監視情報取得モジュールは、具体的に、前記車両外部接近オブジェクトが第2所定範囲内に位置することを確定した場合、前記車両カメラによってリアルタイムに収集された前記車両外部接近オブジェクトの外部オブジェクト画像データを取得することと、前記車両外部接近オブジェクトが車両インタラクション範囲内に位置することを確定した場合、前記外部オブジェクト画像データを画像認識することとに用いられる。
好ましくは、車両インタラクション指示情報取得モジュール310は、具体的に、前記車両外部接近オブジェクトが第1車両外部接近オブジェクトであり、且つ前記第1車両外部接近オブジェクトが車両インタラクション範囲内に位置することを確定した場合、前記第1車両外部接近オブジェクトの車両接近距離をリアルタイムに取得することと、前記車両接近距離に基づいて前記車両インタラクション指示情報を生成することとに用いられる。
好ましくは、車両インタラクション指示情報取得モジュール310は、具体的に、前記車両外部接近オブジェクトが第2車両外部接近オブジェクトであり、且つ前記第2車両外部接近オブジェクトが車両インタラクション範囲内に位置することを確定した場合、前記第2車両外部接近オブジェクトが車両インタラクション案内情報に基づいて入力したオブジェクトインタラクション意図命令情報を取得することと、前記オブジェクトインタラクション意図命令情報を前記車両インタラクション指示情報として確定することとに用いられ、ここで、前記オブジェクトインタラクション意図命令情報は、ジェスチャ動作情報および/または音声命令情報を含む。
好ましくは、車両インタラクション情報送信モジュール330は、具体的に、所定の車両インタラクション情報を取得し、前記所定の車両インタラクション情報を前記関連車両のユーザに送信すること、および/または、車両監視情報を取得し、前記車両監視情報をクラウドにアップロードし、前記クラウドにより前記車両監視情報を前記関連車両のユーザに送信することに用いられ、ここで、前記車両監視情報は、車両内部監視情報および/または車両外部監視情報を含む。
好ましくは、車両に基づくインタラクション装置は、インタラクションタイプ認識結果に基づいて前記車両外部接近オブジェクトが第2車両外部接近オブジェクトであると確定した場合、前記第2車両外部接近オブジェクトのオブジェクトIDを取得するためのオブジェクトID取得モジュールと、前記関連車両のユーザが前記オブジェクトIDに基づいて送信したインタラクションマスク命令を受信するためのインタラクションマスク命令受信モジュールと、前記インタラクションマスク命令に基づき、ターゲット第2車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報の取得を拒否するための車両インタラクション指示情報取得拒否モジュールとを備えてもよい。
上記車両に基づくインタラクション装置は、本開示のいずれかの実施例に係る車両に基づくインタラクション方法を実行することができ、方法の実行に対応する機能モジュールおよび有益な効果を備える。本実施例で詳しく説明されていない技術詳細は、本開示のいずれかの実施例に係る車両に基づくインタラクション方法を参照することができる。
上記車両に基づくインタラクション装置が本開示の実施例における車両に基づくインタラクション方法を実行できる装置であるため、本開示の実施例に係る車両に基づくインタラクション方法に基づき、当業者は、本実施例の車両に基づくインタラクション装置の具体的な実施形態およびその様々な変形を知ることができるため、ここで、該車両に基づくインタラクション装置が、本開示の実施例における車両に基づくインタラクション方法をどのように実現するかについて詳細に説明しない。当業者が本開示の実施例における車両に基づくインタラクション方法を実施するために使用する装置であれば、本開示の保護オブジェクトとする範囲に属する。
一例において、本開示は、電子機器と、可読記憶媒体と、コンピュータプログラム製品とを更に提供する。
図5は、本開示の実施例の実施に使用可能な例示的な電子機器400の模式的なブロック図を示す。電子機器は、ラップトップ型コンピュータ、デスクトップ型コンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピュータのような様々な形式のデジタルコンピュータを表すことを目的とする。電子機器は、携帯端末、携帯電話、スマートフォン、ウェララブル機器および他の類似する計算装置のような様々な形式の移動装置を表すこともできる。本開示に示されたコンポーネント、それらの接続、関係、およびそれらの機能は例示的なものに過ぎず、本開示に記載および/または要求される本開示の実現を限定するものではない。
図5に示すように、機器400は、計算ユニット401を備え、読み出し専用メモリ(ROM)402に記憶されたコンピュータプログラム、または記憶ユニット408からランダムアクセスメモリ(RAM)403にロードされたコンピュータプログラムに基づき、様々な適当な動作および処理を実行することができる。RAM 403には、機器400の操作に必要な様々なプログラムおよびデータが記憶されてもよい。計算ユニット401、ROM 402およびRAM 403は、バス404を介して互いに接続されている。入力/出力(I/O)インタフェース405もバス404に接続されている。
機器400における複数のコンポーネントはI/Oインタフェース405に接続され、キーボード、マウス等のような入力ユニット406と、各種のディスプレイ、スピーカ等のような出力ユニット407と、磁気ディスク、光ディスク等のような記憶ユニット408と、ネットワークカード、モデム、無線通信送受信機等のような通信ユニット409とを備える。通信ユニット409は、機器400がインターネットのようなコンピュータネットワークおよび/または様々な電気通信ネットワークを介して他のデバイスと情報/データを交換することを許容する。
計算ユニット401は、処理および計算能力を有する汎用および/または専用の処理アセンブリであってもよい。計算ユニット401のいくつかの例は、中央処理ユニット(CPU)、グラフィックス処理ユニット(GPU)、各種の専用の人工知能(AI)コンピューティングチップ、各種の機械学習モデルアルゴリズムを実行する計算ユニット、デジタルシグナルプロセッサ(DSP)、および任意の適当なプロセッサ、コントローラ、マイクロコントローラ等を含んでもよいが、これらに限定されない。計算ユニット401は、上記様々な方法および処理、例えば、車両に基づくインタラクション方法を実行する。例えば、いくつかの実施例において、車両に基づくインタラクション方法は、コンピュータソフトウェアプログラムとして実現でき、有形的に記憶ユニット408のような機器可読媒体に含まれている。いくつかの実施例において、コンピュータプログラムの一部または全ては、ROM 402および/または通信ユニット409を介して機器400にロードおよび/またはインストールされ得る。コンピュータプログラムがRAM 403にロードされて計算ユニット401により実行されると、上記車両に基づくインタラクション方法の1つまたは複数のステップを実行することができる。あるいは、他の実施例において、計算ユニット401は、他の任意の適当な方式(例えば、ファームウェアを介して)により、車両に基づくインタラクション方法を実行するように構成され得る。
本開示に記載されたシステムおよび技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準パーツ(ASSP)、システムオンチップのシステム(SOC)、複合プログラマブルロジックデバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組み合わせで実現できる。これらの様々な実施形態は以下を含んでもよい。1つまたは複数のコンピュータプログラムに実施され、該1つまたは複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムで実行および/または解釈することができ、該プログラマブルプロセッサは、ストレージシステム、少なくとも1つの入力装置、および少なくとも1つの出力装置からデータおよび命令を受信し、且つデータおよび命令を、該ストレージシステム、該少なくとも1つの入力装置、および該少なくとも1つの出力装置に伝送することができる専用または汎用のプログラマブルプロセッサであってもよい。
本開示の方法を実施するためのプログラムコードは、1つまたは複数のプログラミング言語の任意の組み合わせでコードできる。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ、または他のプログラマブルデータ処理装置のプロセッサまたはコントローラに提供でき、これにより、プログラムコードがプロセッサまたはコントローラにより実行されると、フローチャートおよび/またはブロック図で規定された機能/操作が実施される。プログラムコードは、完全に機器で実行されてもよいし、一部が機器で実行されてもよいし、独立したソフトウェアパッケージとして一部が機器で実行されて一部がリモート機器で実行されてもよいし、完全にリモート機器またはサーバで実行されてもよい。
本開示の明細書において、機器可読媒体は、命令実行システム、装置またはデバイスに使用される、または命令実行システム、装置またはデバイスと合わせて使用されるプログラムを含有または記憶できる有形的な媒体であってもよい。機器可読媒体は、機器可読信号媒体または機器可読記憶媒体であってもよい。機器可読媒体は、電子の、磁気の、光の、電磁気の、赤外線の、または半導体のシステム、装置またはデバイス、または上記内容の任意の適当な組み合わせを含んでもよいが、これらに限定されない。機器可読記憶媒体の更なる具体的な例は、1つまたは複数の線による電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラマブル読み出し専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み出し専用ディスク(CD-ROM)、光記憶デバイス、磁気記憶デバイス、または上記内容の任意の適当な組み合わせを含む。
ユーザとのインタラクションを提供するために、ここで説明するシステムおよび技術をコンピュータで実施することができ、該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)と、ユーザがそれにより入力をコンピュータに提供することができるキーボードおよび指向装置(例えば、マウスまたはトラックボール)とを有する。他の種類の装置は、更にユーザとのインタラクションを提供するために使用できる。例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、且つ、任意の形式(音入力、音声入力または、触覚入力を含む)でユーザからの入力を受信することができる。
ここで説明するシステムおよび技術を、バックグラウンドコンポーネントを含むコンピュータシステム(例えば、データサーバとする)、または中間コンポーネントを含むコンピュータシステム(例えば、アプリケーションサーバ)、またはフロントエンドコンポーネントを含むコンピュータシステム(例えば、ユーザがそれによりここで説明するシステムおよび技術の実施形態とインタラクションできるグラフィカルユーザインタフェースまたはネットワークブラウザを有するユーザコンピュータ)、またはこのようなバックグラウンドコンポーネント、中間コンポーネント、またはフロントエンドコンポーネントの任意の組み合わせを含むコンピュータシステムに実施することができる。任意の形式または媒体のデジタルデータ通信(例えば、通信ネットワーク)により、システムのコンポーネントを互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、ブロックチェーンネットワーク、およびインターネットを含む。
コンピュータシステムはクライアントおよびサーバを含んでもよい。クライアントとサーバとは、一般的に互いに離れ、且つ、通常、通信ネットワークを介してインタラクションを行う。対応するコンピュータで実行されて互いにクライアント-サーバ関係を持つコンピュータプログラムにより、クライアントとサーバとの関係を生成する。サーバはクラウドサーバであってもよく、クラウドコンピューティングサーバまたはクラウドホストとも呼ばれ、クラウドコンピューティングサービス体系における1つのホスト製品であり、従来の物理ホストおよびVPSサービスに存在する管理しにくく、トラフィックの拡張性が弱いという欠陥を解決するために使用される。
本開示の実施例は、車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報を取得した後、車両インタラクション指示情報のインタラクションタイプを認識し、インタラクションタイプ認識結果を取得し、インタラクションタイプ認識結果がターゲットインタラクションタイプであると確定した場合、関連車両のユーザに車両インタラクション情報を送信することにより、従来の車両インタラクション機能が完璧ではない等の問題を解決し、車両のインタラクション機能を豊かにし、インテリジェント車両のインタラクション使用シーンを拡張する。
上記実施例の基に、本開示の実施例は、車体を備える車両を更に提供し、上記実施例に記載の電子機器と、車体に設けられた少なくとも1つの車両レーダと、車体外部に設けられた車両カメラとを更に備える。好ましくは、車両は、車体外部に設けられた音声収集モジュールと情報表示モジュールとを更に備えてもよい。好ましくは、情報表示モジュールは、文字、音声、画像または映像等のタイプの情報を表示することに使用できる。
上記に示す様々な形式のフローを用い、ステップを並べ替え、追加または削除することができることを理解すべきである。例えば、本発明に記載された各ステップは、並列に実行されてもよいし、順に実行されてもよいし、異なる順序で実行されてもよく、本開示に開示された技術案の所望する結果を達成できる限り、本開示はここで限定しない。
上記具体的な実施形態は、本開示の保護範囲を限定するものではない。当業者は、設計要求および他の要因に基づき、様々な修正、組み合わせ、サブ組み合わせおよび代替が可能であることを理解すべできる。本発明の精神および原則内で行われる任意の修正、均等置換および改良等は、いずれも本開示の保護範囲内に含まれているべきである。

Claims (14)

  1. 車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報を取得することと、
    前記車両インタラクション指示情報のインタラクションタイプを認識し、インタラクションタイプ認識結果を取得することと、
    前記インタラクションタイプ認識結果がターゲットインタラクションタイプであると確定した場合、関連車両のユーザに車両インタラクション情報を送信することとを含み、
    車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報を取得することは、
    前記車両外部接近オブジェクトが第2車両外部接近オブジェクトであり、且つ前記第2車両外部接近オブジェクトが車両インタラクション範囲内に位置することを確定した場合、前記第2車両外部接近オブジェクトが車両インタラクション案内情報に基づいて入力したオブジェクトインタラクション意図命令情報を取得することと、
    前記オブジェクトインタラクション意図命令情報を前記車両インタラクション指示情報として確定することとを含み、
    前記第2車両外部接近オブジェクトは、車両外部のユーザを含み、
    前記オブジェクトインタラクション意図命令情報は、ジェスチャ動作情報および/または音声命令情報を含む
    車両に基づくインタラクション方法。
  2. 車両外部監視モジュールによって収集された車両外部監視情報を取得することと、
    前記車両外部監視情報に基づいて前記車両外部接近オブジェクトを確定することとを更に含み、
    前記車両外部監視モジュールは、車両レーダおよび/または車両カメラを含む、
    請求項1に記載の車両に基づくインタラクション方法。
  3. 車両外部監視モジュールによって収集された車両外部監視情報を取得することは、
    前記車両レーダが第1所定範囲内で収集した第1車両外部監視情報を取得すること、および/または
    前記車両カメラが第2所定範囲内で収集した第2車両外部監視情報を取得することを含む、
    請求項2に記載の車両に基づくインタラクション方法。
  4. 前記車両カメラが第2所定範囲内で収集した第2車両外部監視情報を取得することは、
    前記車両外部接近オブジェクトが第2所定範囲内に位置することを確定した場合、前記車両カメラによってリアルタイムに収集された前記車両外部接近オブジェクトの外部オブジェクト画像データを取得することと、
    前記車両外部接近オブジェクトが車両インタラクション範囲内に位置することを確定した場合、前記外部オブジェクト画像データを画像認識することとを含む、
    請求項3に記載の車両に基づくインタラクション方法。
  5. 車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報を取得することは、
    前記車両外部接近オブジェクトが第1車両外部接近オブジェクトであり、且つ前記第1車両外部接近オブジェクトが車両インタラクション範囲内に位置することを確定した場合、前記第1車両外部接近オブジェクトの車両接近距離をリアルタイムに取得することと、
    前記車両接近距離に基づいて前記車両インタラクション指示情報を生成することとを含む、
    請求項1から4のいずれか1項に記載の車両に基づくインタラクション方法。
  6. 関連車両のユーザに車両インタラクション情報を送信することは、
    所定の車両インタラクション情報を取得し、前記所定の車両インタラクション情報を前記関連車両のユーザに送信すること、および/または
    車両監視情報を取得し、前記車両監視情報をクラウドにアップロードし、前記クラウドにより前記車両監視情報を前記関連車両のユーザに送信することを含み、
    前記車両監視情報は、車両内部監視情報および/または車両外部監視情報を含む、
    請求項1からのいずれか1項に記載の車両に基づくインタラクション方法。
  7. インタラクションタイプ認識結果に基づいて前記車両外部接近オブジェクトが第2車両外部接近オブジェクトであると確定した場合、前記第2車両外部接近オブジェクトのオブジェクトIDを取得することと、
    前記関連車両のユーザが前記オブジェクトIDに基づいて送信したインタラクションマスク命令を受信することと、
    前記インタラクションマスク命令に基づき、前記第2車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報の取得を拒否することとを更に含む、
    請求項1からのいずれか1項に記載の車両に基づくインタラクション方法。
  8. 車両外部接近オブジェクトによってトリガされた車両インタラクション指示情報を取得するための車両インタラクション指示情報取得モジュールと、
    前記車両インタラクション指示情報のインタラクションタイプを認識し、インタラクションタイプ認識結果を取得するためのインタラクションタイプ認識結果取得モジュールと、
    前記インタラクションタイプ認識結果がターゲットインタラクションタイプであると確定した場合、関連車両のユーザに車両インタラクション情報を送信するための車両インタラクション情報送信モジュールとを備え
    前記車両インタラクション指示情報取得モジュールは、
    前記車両外部接近オブジェクトが第2車両外部接近オブジェクトであり、且つ前記第2車両外部接近オブジェクトが車両インタラクション範囲内に位置することを確定した場合、前記第2車両外部接近オブジェクトが車両インタラクション案内情報に基づいて入力したオブジェクトインタラクション意図命令情報を取得することと、
    前記オブジェクトインタラクション意図命令情報を前記車両インタラクション指示情報として確定することとに用いられ、
    前記第2車両外部接近オブジェクトは、車両外部のユーザを含み、
    前記オブジェクトインタラクション意図命令情報は、ジェスチャ動作情報および/または音声命令情報を含む
    車両に基づくインタラクション装置。
  9. 車両外部監視モジュールによって収集された車両外部監視情報を取得するための車両外部監視情報取得モジュールと、
    前記車両外部監視情報に基づいて前記車両外部接近オブジェクトを確定するための車両外部接近オブジェクト確定モジュールとを更に備え、
    前記車両外部監視モジュールは、車両レーダおよび/または車両カメラを含む、
    請求項に記載の車両に基づくインタラクション装置。
  10. 前記車両外部監視情報取得モジュールは、
    前記車両レーダが第1所定範囲内で収集した第1車両外部監視情報を取得すること、および/または
    前記車両カメラが第2所定範囲内で収集した第2車両外部監視情報を取得することに用いられる、
    請求項に記載の車両に基づくインタラクション装置。
  11. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信接続されたメモリとを備える
    電子機器であって、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、
    前記命令は、前記少なくとも1つのプロセッサが請求項1からのいずれか1項に記載の車両に基づくインタラクション方法を実行可能であるように、前記少なくとも1つのプロセッサにより実行される、
    電子機器。
  12. コンピュータ命令が記憶された非一時的なコンピュータ可読記憶媒体であって、
    前記コンピュータ命令は、コンピュータに、請求項1からのいずれか1項に記載の車両に基づくインタラクション方法を実行させることに用いられる、
    非一時的なコンピュータ可読記憶媒体。
  13. プロセッサにより実行されると、請求項1からのいずれか1項に記載の車両に基づくインタラクション方法を実現する、
    コンピュータプログラム。
  14. 車体を備える車両であって、
    請求項11に記載の電子機器と、車体に設けられた少なくとも1つの車両レーダと、車体外部に設けられた車両カメラとを更に備える、ことを特徴とする、
    車両。
JP2022054980A 2021-05-07 2022-03-30 車両に基づくインタラクション方法、装置、機器、媒体および車両 Active JP7343645B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110495987.9 2021-05-07
CN202110495987.9A CN113240825B (zh) 2021-05-07 2021-05-07 一种基于车辆的交互方法、装置、设备、介质及车辆

Publications (2)

Publication Number Publication Date
JP2022173071A JP2022173071A (ja) 2022-11-17
JP7343645B2 true JP7343645B2 (ja) 2023-09-12

Family

ID=77132616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022054980A Active JP7343645B2 (ja) 2021-05-07 2022-03-30 車両に基づくインタラクション方法、装置、機器、媒体および車両

Country Status (5)

Country Link
US (1) US20220212686A1 (ja)
EP (1) EP4030793A3 (ja)
JP (1) JP7343645B2 (ja)
KR (1) KR20220047225A (ja)
CN (1) CN113240825B (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005227965A (ja) 2004-02-12 2005-08-25 Fujitsu Ten Ltd 車両監視装置および携帯端末
JP2007251556A (ja) 2006-03-15 2007-09-27 Omron Corp 監視装置および方法、画像処理装置および方法、並びにプログラム
US20180037193A1 (en) 2011-04-22 2018-02-08 Emerging Automotive, Llc Methods and Systems for Vehicle Security and Remote Access and Safety Control Interfaces and Notifications
JP2019077330A (ja) 2017-10-24 2019-05-23 圭史朗 金森 監視装置、監視システム、監視方法及び監視プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130155237A1 (en) * 2011-12-16 2013-06-20 Microsoft Corporation Interacting with a mobile device within a vehicle using gestures
CN111722779A (zh) * 2019-03-22 2020-09-29 上海博泰悦臻网络技术服务有限公司 人机交互方法、终端及计算机可读存储介质
CN111625086A (zh) * 2020-04-24 2020-09-04 爱驰汽车有限公司 基于用户动作的车辆交互方法、***、设备及存储介质
CN111688698B (zh) * 2020-06-19 2021-05-25 山东交通学院 一种智能汽车的挪车方法及***
CN111899545B (zh) * 2020-07-29 2021-11-16 Tcl通讯(宁波)有限公司 一种行车提醒方法、装置、存储介质及移动终端
CN112235748B (zh) * 2020-09-24 2023-03-14 浙江吉利控股集团有限公司 一种挪车提醒方法、装置及计算机存储介质
CN112130547B (zh) * 2020-09-28 2024-05-03 广州小鹏汽车科技有限公司 一种车辆交互的方法和装置
CN112543312A (zh) * 2020-12-02 2021-03-23 中国联合网络通信集团有限公司 运输车辆监测方法、装置、车辆及存储介质
JP7468411B2 (ja) * 2021-03-05 2024-04-16 トヨタ自動車株式会社 自動運転車両、配車管理装置、及び端末機器

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005227965A (ja) 2004-02-12 2005-08-25 Fujitsu Ten Ltd 車両監視装置および携帯端末
JP2007251556A (ja) 2006-03-15 2007-09-27 Omron Corp 監視装置および方法、画像処理装置および方法、並びにプログラム
US20180037193A1 (en) 2011-04-22 2018-02-08 Emerging Automotive, Llc Methods and Systems for Vehicle Security and Remote Access and Safety Control Interfaces and Notifications
JP2019077330A (ja) 2017-10-24 2019-05-23 圭史朗 金森 監視装置、監視システム、監視方法及び監視プログラム

Also Published As

Publication number Publication date
JP2022173071A (ja) 2022-11-17
KR20220047225A (ko) 2022-04-15
CN113240825A (zh) 2021-08-10
US20220212686A1 (en) 2022-07-07
CN113240825B (zh) 2023-04-18
EP4030793A2 (en) 2022-07-20
EP4030793A3 (en) 2022-11-02

Similar Documents

Publication Publication Date Title
RU2689902C2 (ru) Способ обнаружения физических угроз, приближающихся к транспортному средству (варианты), и транспортное средство
US10386835B2 (en) System and method for externally interfacing with an autonomous vehicle
CN112141119B (zh) 智能驾驶控制方法及装置、车辆、电子设备和存储介质
WO2020125406A1 (zh) 安全监护方法、装置、终端及计算机可读存储介质
EP2905704B1 (en) Self-monitoring and alert system for intelligent vehicle
EP3756966A1 (en) Method and apparatus for controlling unmanned vehicle
US10424204B1 (en) Collision warnings provided by stationary vehicles
CN107194248B (zh) 无人驾驶车辆的反黑客劫持方法、装置、设备及存储介质
CN113721621B (zh) 车辆控制方法、装置、电子设备以及存储介质
CN107072867A (zh) 一种盲人安全出行实现方法、***以及可穿戴设备
US20200202699A1 (en) Perimeter Breach Warning System
CN110113729A (zh) 车载设备的通信方法以及车载设备
CN108806151A (zh) 监控报警方法、装置、服务器和存储介质
CN112991684A (zh) 一种驾驶预警的方法及装置
CN113807117A (zh) 一种车辆安检方法、***、装置、设备及存储介质
JP7343645B2 (ja) 車両に基づくインタラクション方法、装置、機器、媒体および車両
CN111385410B (zh) 终端设备的控制方法、装置及存储介质
CN114553725B (zh) 一种机房监控告警方法、装置、电子设备及存储介质
CN116740874A (zh) 一种入侵检测方法及相关装置
CN114333417A (zh) 一种车辆安全检测方法、装置、电子设备及存储介质
KR20230100368A (ko) 주차 경고를 제공하기 위한 서비스 제공 시스템 및 방법, 그리고 이를 위한 서비스 제공 장치 및 컴퓨터 프로그램이 기록된 비휘발성 기록매체
CN112839064A (zh) 车辆的智能控制方法及装置
CN110503522B (zh) 跟踪订单生成方法、存储介质和电子设备
CN114809833B (zh) 开启车门的控制方法、车门控制装置及车门控制***
CN117622186A (zh) 一种车辆自主交互控制方法及车辆

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230831

R150 Certificate of patent or registration of utility model

Ref document number: 7343645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150