JP2021508902A - 衝突制御方法及び装置、電子機器並びに記憶媒体 - Google Patents

衝突制御方法及び装置、電子機器並びに記憶媒体 Download PDF

Info

Publication number
JP2021508902A
JP2021508902A JP2020555289A JP2020555289A JP2021508902A JP 2021508902 A JP2021508902 A JP 2021508902A JP 2020555289 A JP2020555289 A JP 2020555289A JP 2020555289 A JP2020555289 A JP 2020555289A JP 2021508902 A JP2021508902 A JP 2021508902A
Authority
JP
Japan
Prior art keywords
target object
danger level
state
level
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020555289A
Other languages
English (en)
Inventor
源洋 ▲トォン▼
源洋 ▲トォン▼
▲寧▼元 毛
▲寧▼元 毛
文志 ▲劉▼
文志 ▲劉▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sensetime Technology Co Ltd
Original Assignee
Shenzhen Sensetime Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Sensetime Technology Co Ltd filed Critical Shenzhen Sensetime Technology Co Ltd
Publication of JP2021508902A publication Critical patent/JP2021508902A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4046Behavior, e.g. aggressive or erratic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4047Attentiveness, e.g. distracted by mobile phone
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

本開示は衝突制御方法及び装置、電子機器並びに記憶媒体に関し、前記方法は、現在対象物が撮像した画像中の目標対象物を検出することと、前記目標対象物の危険レベルを特定することと、前記危険レベルに対応する衝突制御を実行することとを含む。

Description

関連出願の相互参照
本出願は、2018年4月28日に中国特許局に提出された、出願番号201810403429.3、発明名称が「衝突制御方法及び装置、電子機器並びに記憶媒体」の中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
本開示はコンピュータビジョンの技術分野に関し、特に衝突制御方法及び装置、電子機器並びに記憶媒体に関する。
車両のインテリジェントドライブの場合、コンピュータビジョン技術を使用して歩行者、他の車両などの目標を検知し、検知した目標を車両のインテリジェントドライブの制御に用いる必要がある。
本開示は衝突制御の技術的解決手段を提供する。
本開示の一方面によれば、
現在対象物が撮像した画像中の目標対象物を検出することと、
前記目標対象物の危険レベルを特定することと、
前記危険レベルに対応する衝突制御を実行することと、を含む衝突制御方法を提供する。
本開示の一方面によれば、
現在対象物が撮像した画像中の目標対象物を検出するための検出モジュールと、
前記目標対象物の危険レベルを特定するための特定モジュールと、
前記危険レベルに対応する衝突制御を実行するための実行モジュールと、を含む衝突制御装置を提供する。
本開示の一方面によれば、
プロセッサと、
プロセッサにより実行可能なコマンドを記憶するためのメモリと、を含み、
前記プロセッサは、前記実行可能なコマンドを直接的または間接的に呼び出すことによって上記衝突制御方法を実行する電子機器を提供する。
本開示の一方面によれば、コンピュータプログラム命令が記憶されているコンピュータ読取可能な記憶媒体であって、前記コンピュータプログラム命令はプロセッサによって実行されると、上記衝突制御方法を実現させるコンピュータ読取可能な記憶媒体を提供する。
本開示の一方面によれば、電子機器内で実行されると、前記電子機器のプロセッサに、上記衝突制御方法を実現させるためのコンピュータ読取可能なコードを含むコンピュータプログラムを提供する。
本開示の実施例では、現在対象物が撮像した画像中の目標対象物を検出し、目標対象物の危険レベルを特定し、対応する衝突制御を行うことによって、目標対象物に対する正確且つ適切な衝突制御を達成する。
本開示の他の特徴及び方面は、以下、図面を参照しながら例示的な実施例について詳細に説明することにより明らかになる。
明細書の一部として明細書に含まれる図面は、明細書と共に本開示の例示的な実施例、特徴及び方面を示し、本開示の原理を解釈するために用いられる。
本開示の一実施例による衝突制御方法のフローチャートを示す。 本開示の一実施例による衝突制御方法のフローチャートを示す。 本開示の一実施例による衝突制御方法のフローチャートを示す。 本開示の一実施例による衝突制御方法のフローチャートを示す。 本開示の一実施例による衝突制御方法のフローチャートを示す。 本開示の一実施例による衝突制御装置のブロック図を示す。 本開示の一実施例による電子機器のブロック図を示す。
以下に図面を参照しながら本開示の様々な例示的実施例、特徴および方面を詳細に説明する。図面において、同じ符号が同じまたは類似する機能の要素を表す。図面において実施例の様々な方面を示したが、特に断らない限り、比例に従って図面を描く必要がない。
ここの用語「例示的」とは、「例、実施例として用いられることまたは説明的なもの」を意味する。ここで「例示的」に説明されるいかなる実施例も他の実施例より好ましい又は優れるものであると理解すべきではない。
また、本開示をより効果的に説明するために、以下の具体的な実施形態において様々な具体的な詳細を示す。当業者であれば、何らかの具体的な詳細がなくても、本開示は同様に実施できるということを理解すべきである。いくつかの実施例では、本開示の趣旨を強調するように、当業者に既知の方法、手段、要素および回路について、詳細な説明を省略する。
図1は本開示の一実施例による衝突制御方法のフローチャートを示す。図1に示すように、前記方法は以下のステップを含む。
ステップS10、現在対象物が撮像した画像中の目標対象物を検出する。
目標対象物は、いかなるタイプの対象物であってもよい。例えば、目標対象物は、歩行者、車両、動物、植物、障害物、ロボット及び建築物の少なくとも1つを含むことができる。目標対象物は、単一の対象物タイプの1つまたは複数の目標対象物であってもよく、複数の対象物タイプの複数の目標対象物であってもよい。例えば、車両だけを目標対象物としてもよく、目標対象物は1つの車両であってもよく、複数の車両であってもよい。また、車両および歩行者をともに目標対象物としてもよい。目標対象物は複数の車両および複数の歩行者である。必要に応じて、設定された対象物タイプを目標対象物としてもよく、設定された対象物個体を目標対象物としてもよい。
現在対象物は、移動可能な対象物を含んでもよく、移動不可能な対象物を含んでもよい。現在対象物は、走行対象物、例えば走行中の車両であってもよく、静止対象物、例えば建築物、路側の監視装置であってもよい。
現在対象物は、人、自動車、非自動車、ロボット及びウェアブルデバイスなどを含んでもよい。現在対象物が車両である場合、本開示の実施例は自動運転、支援運転などの技術分野で応用され得る。現在対象物が路側に配置される監視装置である場合、本開示の実施例は目標対象物の監視装置への衝突を防止することに使用され得る。本開示はこれを限定しない。
現在対象物に撮像装置を配置し、設定方向の画像を撮像することができる。現在対象物は、その前方、後方、側方など任意の1つまたは複数の方向の画像を撮像することができる。本開示はこれを限定しない。
現在対象物が撮像した画像は、撮像装置によって撮像された単一フレームの画像を含んでもよく、撮像装置によって撮像されたビデオストリーム内のフレーム画像を含んでもよい。
現在対象物は、単眼カメラ、RGBカメラ、赤外線カメラ、双眼カメラなどの様々なビジョンセンサによって画像を撮像することができる。単眼カメラを使用する場合、システムコストが低く、応答が速い。RGBカメラまたは赤外線カメラを使用する場合、特別な環境で画像を撮像することができる。双眼カメラを使用する場合、目標対象物のより豊かな情報を取得することができる。衝突防止の要求、環境、現在対象物のタイプおよびコストなどに応じて、異なる撮像装置を選択することができる。本開示はこれを限定しない。
現在対象物が撮像した画像中の目標対象物を検出した結果は、目標対象物の特徴を含んでもよく、目標対象物の状態などを含んでもよい。例えば、検出結果として、目標対象物が高齢者であり、目標対象物の状態は、行動速度が遅いこと、うつむいて携帯電話を見ていることなどを含む。本開示はこれを限定しない。
ステップS20、前記目標対象物の危険レベルを特定する。
現在対象物が撮像した画像中の目標対象物は、現在対象物に危険をもたらす可能性があり、例えば、車両の前方カメラによって撮像された目標対象物は車両に衝突される危険がある。例えば、現在対象物に向かって高速に移動する目標対象物は危険レベルが高く、目標対象物の前方に位置し且つ移動速度が遅い目標対象物は危険レベルが高いなど、異なる目標対象物は異なる危険レベルを有する。目標対象物と危険レベルとの間の対応関係、例えば目標対象物の特徴または状態と危険レベルとの対応関係を確立し、該対応関係に基づいて、目標対象物の危険レベルを特定することができる。
一例では、目標対象物の危険レベルは、危険、安全などのように区分けしてもよく、第1の危険レベル、第2の危険レベル、第3の危険レベルなどのように区分けしてもよい。
一枚の画像から検出された目標対象物に基づいて、前記目標対象物の危険レベルを特定してもよく、例えば、検出結果として目標対象物の特徴が高齢者であり、高齢者の危険レベルは高い。複数の画像から検出された目標対象物の状態に基づいて、前記目標対象物の危険レベルを特定してもよく、例えば、検出結果として目標対象物が現在対象物へ高速に近づいている場合、危険レベルは高い。
ステップS30、前記危険レベルに対応する衝突制御を実行する。
危険レベルによって異なる衝突制御を行って、警告するまたは危険を回避するようにしてもよい。危険レベルと衝突制御との間の対応関係を確立し、特定された危険レベルに基づいて、対応する衝突制御を特定することができる。
本開示の実施例では、現在対象物が撮像した画像中の目標対象物を検出し、目標対象物の危険レベルを特定し、対応する衝突制御を行うことによって、目標対象物に対する正確且つ適切な衝突制御を達成する。
可能な実施形態では、現在対象物が撮像した画像中の目標対象物を検出することは、ニューラルネットワークによって、現在対象物が撮像した画像中の目標対象物を検出することを含んでもよい。
様々な目標対象物を含む画像からなるトレーニング画像セットを使ってニューラルネットワークをトレーニングし、トレーニングされたニューラルネットワークによって、撮像された画像中の目標対象物を識別することができる。ニューラルネットワークのトレーニング過程、およびニューラルネットワークによって目標対象物を検出する過程は、関連技術によって実現できる。
ニューラルネットワークは、RFCN(Region―based Fully Convolutional Networks、領域ベースの完全畳み込みネットワーク)、SSD(Single Shot multibox Detector、シングルショットマルチボックス検出器)、RCNN(Regions with CNN、領域ベースの畳み込みニューラルネットワーク)、FastRCNN(Fast RCNN、高速の領域ベースの畳み込みニューラルネットワーク)、FasterRCNN(Faster RCNN、より高速の領域ベースの畳み込みニューラルネットワーク)、SPPNet(Spatial Pyramid Pooling Convolutional Networks、空間ピラミッドプーリング畳み込みネットワーク)、DPM Deformable Parts Models、変形可能パーツモデル)、OverFeat(同じ畳み込みネットワークに基づく複数のタスク)、YOLO(You Only Look Once、画像を1度だけ見る)などの構築方式に基づいたものであってもよいが、本開示はこれを限定しない。
例えば、BP(error back propagation、エラーバックプロパゲーション)などのタイプのニューラルネットワークに基づく画像追跡技術によって、連続した複数フレームのビデオ画像中の同一の目標対象物を追跡することで、目標対象物の運動状態および行動状態を検出することができ、例えば目標対象物が現在対象物(例えば、車両)の左前方から右前方へ移動し、前方を目視することなどを検出した。
さらなる例として、RCNN(Regions with CNN features)などのタイプのニューラルネットワークに基づく双眼測距技術によって、双眼カメラによって撮像された画像を使って目標対象物と現在対象物との距離を決定することができる。
本実施例では、ニューラルネットワークによって目標対象物を検出し、ニューラルネットワークの強力且つ正確な検出機能によって画像から目標対象物を迅速且つ正確に検出することができる。
図2は本開示の一実施例による衝突制御方法のフローチャートを示す。図2に示すように、ステップS10は、
現在対象物が撮像した画像中の目標対象物の状態を検出するステップS11を含んでもよい。
ステップS20は、
前記目標対象物の状態に基づいて、前記目標対象物の危険レベルを特定するステップS21を含んでもよい。
目標対象物の状態は任意のタイプの状態であって、例えば、目標対象物の静的な動作や動的な状態であってもよい。目標対象物自身の属性状態などであってもよい。
可能な実施形態では、撮像された一枚の静止画像から目標対象物の静的状態を検出するようにしてもよい。例えば、一枚の静止画像から、目標対象物である歩行者の静的状態がうつむいて携帯電話を見ている状態であり、または歩行者が高齢者であることを検出した。また、複数の関連している画像から目標対象物の動的状態を検出するようにしてもよい。例えば、ビデオストリーム内の複数のフレーム画像から、目標対象物である車両の状態が高速走行の状態であることを検出した。
可能な実施形態では、前記目標対象物が歩行者である場合、前記目標対象物の状態は、運動状態、肢体状態および属性状態の1つまたは任意の組み合わせを含んでもよい。運動状態は、位置(例えば、目標対象物の現在対象物に対する相対位置)、速度(例えば、目標対象物の現在対象物に対する相対速度)、加速度及び移動方向(例えば、目標対象物の現在対象物に対する移動方向、例えば直進または旋回)の1つまたは任意の組み合わせを含んでもよい。肢体状態は、携帯電話を見ていること、電話すること、うつむくこと、タバコを吸うこと及び物を拾うことなど四肢の協働を必要とする行動の1つまたは任意の組み合わせを含んでもよい。属性状態は、年齢状態及び身体状態の1つまたは任意の組み合わせを含んでもよく、例えば、高齢者または子供であるか否か、動作不自由者であるか否かである。
歩行者の状態に基づいて、歩行者の危険レベルを特定することができる。前記歩行者の危険レベルは、1つの状態によって歩行者の危険レベルを取得すしてもよく、複数の状態の組み合わせによって歩行者の危険レベルを取得してもよい。例えば、歩行者の位置のみによって歩行者の危険レベルを特定してもよい。距離が5メートルよりも小さい歩行者を危険として設定し、距離が5メートルより大きい歩行者を安全として設定する。また、歩行者の速度、および歩行者が電話しているか否かなど様々な状態を統合して、歩行者の危険レベルを取得してもよい。速度がNメートル/秒より大きく、且つ電話している歩行者を第1の危険レベルとして特定し、速度がNメートル/秒より小さく、且つ電話している歩行者を第2の危険レベルとして特定し、速度がNメートル/秒より大きく、且つ電話していない歩行者を第3の危険レベルとして特定し、速度がNメートル/秒より小さく、且つ電話していない歩行者を第4の危険レベルとして特定する。本開示はこれを限定しない。
可能な実施形態では、前記目標対象物が車両である場合、前記目標対象物の状態は、運動状態、行動状態および属性状態の1つまたは任意の組み合わせを含んでもよい。運動状態は、位置、速度、加速度及び方向の1つまたは任意の組み合わせを含んでもよい。行動状態は、危険運転状態の1つまたは任意の組み合わせを含んでもよい。属性状態は、自動車、非自動車及び車種の1つまたは任意の組み合わせを含んでもよい。
車両の状態に基づいて車両の危険レベルを特定することができる。前記車両の危険レベルは、1つの状態によって車両の危険レベルを取得してもよく、複数の状態の組み合わせによって車両の危険レベルを取得してもよい。例えば、車両の速度に基づいて車両の危険レベルを特定してもよい。車速がNメートル/秒より低い車両を安全として特定し、車速がMメートル/秒より高い車両を危険として特定する。また、車両の車種、車両が危険運転状態であるか否かなど様々な状態を統合して、車両の危険レベルを取得してもよい。例えば、車両の速度がMメートル/秒より高く、車両の車種が古く、車両走行中に左右に揺れるなどの危険運転状態である場合、車両の危険レベルを第1の危険レベルとして特定し、車両の車速がNメートル/秒より低く、車の走行方向と現在対象物との進行方向が交差する場合、車両の危険レベルを第2の危険レベルとして特定する。本開示はこれを限定しない。
目標対象物の状態はさらに正常状態および異常状態を含んでもよい。一例では、異常状態は、運動状態、肢体状態および属性状態の1つのまたは複数に基づいて特定されてもよい。例えば、歩行者が現在対象物の前方に位置し、且つ速度が閾値よりも小さい場合、異常状態として特定することができる。さらなる例として、歩行者が現在対象物の前方に位置し、且つ移動方向が頻繁に変わる場合、異常状態として特定できるなどが挙げられる。異常状態以外の状態を正常状態として特定することができる。
本実施例では、目標対象物の状態に基づいて目標対象物の危険レベルを特定することによって、目標対象物の豊富な状態を利用して、必要に応じて、異なる危険レベルを設定することができ、衝突制御はより正確になり、柔軟性がより高くなる。
図3は本開示の一実施例による衝突制御方法のフローチャートを示す。図3に示すように、現在対象物は走行対象物(例えば、車両)を含み、ステップS30は、
前記危険レベルに対応する衝突警告を実行する、および/または前記危険レベルに対応する、走行方向の変更、走行速度の変更及び停止の少なくとも1つを含む運転制御を実行するステップS31を含んでもよい。
異なる危険レベルに対して異なる衝突警告、例えば異なる音声または表示内容、異なる音量レベル、異なる振動強度などを設定することができる。特定された危険レベルに基づいて、対応する衝突警告をトリガすることにより、現在対象物の使用者が種々の危険レベルを容易に区別することができる。
例えば、危険レベルが前述の第2の危険レベルであり、すなわち正常状態の目標対象物と現在対象物との距離が第1の閾値よりも大きく、危険度が低いことが検出された場合、第2の危険レベルに対応して実行される衝突警告は「前方3メートル以外に歩行者がいて、避けてください」という音声放送であってもよく、小音量の警報音であってもよい。危険レベルが前述の第3の危険レベルであり、すなわち異常状態の目標対象物と現在対象物との距離が第2の閾値以下であり、危険度が高いことが検出された場合、第3の危険レベルに対応して実行される衝突警告は「前方5メートル以内に動作緩慢の歩行者がいて、直ちに避けてください!」という音声放送であってもよく、大音量の警報音であってもよい。
異なるタイプの衝突警告は、単独で実行されてもよく、組み合わせて実行されてもよい。
また、前記危険レベルに対応する運転制御を実行することもできる。例えば、危険レベルに基づいて、対応する運転制御方式を特定し、該運転制御方式に対応する運転コマンドを車両の制御システムに伝送して、運転制御を実現することができる。
例えば、危険レベルが前述の第2の危険レベルであり、すなわち正常状態の目標対象物と現在対象物との距離が第1の閾値よりも大きく、危険度が低いことが検出された場合、第2の危険レベルに対応して実行される運転制御は、速度低減であって、例えば速度を10%低下させてもよい。危険レベルが前述の第3の危険レベルであり、すなわち異常状態の目標対象物と現在対象物との距離が第2の閾値以下であり、危険度が高いことが検出された場合、第3の危険レベルに対応して実行される運転制御は、より大幅な速度低減であって、例えば速度を50%低下させて、またはブレーキしてもよい。
衝突警告と運転制御は、いずれか一つが実行されてもよく、ともに実行されてもよい。
可能な実施形態では、運転制御を実行することにより、自動運転または支援運転の機能を有する車両を制御できる。運転制御は、現在の走行対象物の運動状態および/または運動方向を変えるための制御動作を含んでもよい。例えば、現在の走行対象物に対して、走行方向の変更、走行速度の変更及び停止など現在の走行対象物の運動方向および/または運動状態を変えれる制御動作を行うことを含んでもよい。例えば、一実際の応用シーンでは、自動運転または支援運転の機能を有する現在車両の元の運動方向は、所在車線内で直進し、衝突時間に基づいて、現在車両は前方の疑似衝突対象物と衝突する場合、運転制御によって自動運転または支援運転の機能を有する現在車両の走行方向を変え、自動運転または支援運転の機能を有する現在車両に車線を変更させ、衝突を回避することができる。この途中で、前方の疑似衝突対象物は加速して遠ざかる場合、運転制御によって自動運転または支援運転の機能を有する現在車両の走行方向を変えて、自動運転または支援運転の機能を有する現在車両を元の運動方向に維持させ、そのまま所在車線内で直進させることができる。
本実施例では、危険レベルに基づいて、対応する衝突警告および/または運転制御を特定することにより、衝突制御はより適切で、より正確になる。
可能な実施形態では、前記現在対象物は静止対象物を含み、前記ステップS30は、前記危険レベルに対応する衝突警告を実行することを含む。
現在対象物が静止対象物である場合、上記と類似の方式で危険レベルに対応する衝突警告を実行して、危険を報知することができる。
可能な実施形態では、現在対象物上のコントローラによって上記衝突制御方法を実現することができる。
図4は本開示の一実施例による衝突制御方法のフローチャートを示す。図4に示すように、前記衝突制御方法におけるステップS20は、
前記目標対象物と前記現在対象物との間の距離を決定するステップS21と、
前記目標対象物の状態および前記距離に基づいて、前記目標対象物の危険レベルを特定するステップS22と、を含む。
可能な実施形態では、2つの目標対象物は、現在対象物からの距離が等しいが、2つの目標対象物の状態が異なる場合、2つの目標対象物の危険レベルが異なる。例えば、現在対象物から約10メートル離れる歩行者である場合、走行状態での歩行者は危険レベルが高く、立ち止まっている状態での歩行者は危険レベルが低い。高齢者は危険レベルが高く、若者は危険レベルが低い。
目標対象物と現在対象物との間の距離、および目標対象物の状態を統合して、目標対象物の危険レベルを特定することができる。
可能な実施形態では、前記目標対象物の状態は正常状態を含み、前記危険レベルは第1の危険レベルおよび第2の危険レベルを含み、前記目標対象物の状態および前記距離に基づいて前記目標対象物の危険レベルを特定することは、前記目標対象物の状態が正常状態であり、且つ前記距離が第1の距離閾値以下である場合、前記目標対象物の危険レベルを第1の危険レベルとして特定すること、または、前記目標対象物の状態が正常状態であり、且つ前記距離が第1の距離閾値よりも大きい場合、前記目標対象物の危険レベルを第2の危険レベルとして特定することを含むようにしてもよい。
ここで、第1の危険レベルは第2の危険レベルよりも危険度が高いようにしてもよい。
可能な実施形態では、前記目標対象物の状態は異常状態を含み、前記危険レベルは第3の危険レベルおよび第4の危険レベルを含み、前記目標対象物の状態および前記距離に基づいて前記目標対象物の危険レベルを特定することは、前記目標対象物の状態が異常状態であり、且つ前記距離が第2の距離閾値以下である場合、前記目標対象物の危険レベルを第3の危険レベルとして特定すること、または、前記目標対象物の状態が異常状態であり、且つ前記距離が第2の距離閾値よりも大きい場合、前記目標対象物の危険レベルを第4の危険レベルとして特定することを含むようにしてもよい。
ここで、第3の危険レベルは第4の危険レベルよりも危険度が高いようにしてもよい。
第1の距離閾値は第2の距離閾値よりも小さいようにしてもよい。例えば、正常状態での歩行者について、その危険性が低いので、小さい距離閾値(第1の距離閾値)、例えば5メートルを設定することができる。異常状態での歩行者(例えば、動作緩慢、酔っ払い、身障者、高齢者など)について、なるべく早く衝突制御を行うように、大きい距離閾値(第2の距離閾値)、例えば10メートルを設定することができる。
本実施例では、目標対象物の状態および距離を組み合わせて危険レベルを特定することによって、危険レベルの特定はより正確になる。
図5は本開示の一実施例による衝突制御方法のフローチャートを示す。図5に示すように、前記衝突制御方法におけるステップS20は、
前記目標対象物と前記現在対象物との間の衝突時間を予測するステップS23と、
前記目標対象物の状態および前記衝突時間に基づいて、前記目標対象物の危険レベルを特定するステップS24と、を含む。
可能な実施形態では、目標対象物と現在対象物との間の相対移動方向、相対移動方向における距離S、および相対速度Vに基づいて、目標対象物と現在対象物との間の衝突時間Tを決定することができる。目標対象物と現在対象物が互いに向かって移動する場合、T=S/V。
可能な実施形態では、前記目標対象物の状態は正常状態を含み、前記危険レベルは第5の危険レベルおよび第6の危険レベルを含み、前記目標対象物の状態および前記衝突時間に基づいて前記目標対象物の危険レベルを特定することは、前記目標対象物の状態が正常状態であり、且つ前記衝突時間が第1の時間閾値以下である場合、前記目標対象物の危険レベルを第5の危険レベルとして特定すること、または、前記目標対象物の状態が正常状態であり、且つ前記衝突時間が第1の時間閾値よりも大きい場合、前記目標対象物の危険レベルを第6の危険レベルとして特定することを含むようにしてもよい。
ここで、第6の危険レベルは第5の危険レベルよりも危険度が小さいようにしてもよい。
可能な実施形態では、前記目標対象物の状態は異常状態を含み、前記危険レベルは第7の危険レベルおよび第8の危険レベルを含み、前記目標対象物の状態および前記衝突時間に基づいて前記目標対象物の危険レベルを特定することは、前記目標対象物の状態が異常状態であり、且つ前記衝突時間が第2の時間閾値以下である場合、前記目標対象物の危険レベルを第7の危険レベルとして特定すること、または、前記目標対象物の状態が異常状態であり、且つ前記衝突時間が第2の時間閾値よりも大きい場合、前記目標対象物の危険レベルを第8の危険レベルとして特定することを含むようにしてもよい。
ここで、第8の危険レベルは第7の危険レベルよりも危険度が小さいようにしてもよい。
第1の時間閾値は第2の時間閾値よりも小さいようにしてもよい。例えば、正常状態での歩行者について、その危険性が低いので、小さい時間閾値(第1の時間閾値)、例えば1分を設定することができる。異常状態での歩行者(例えば、動作緩慢、酔っ払い、身障者、高齢者など)について、なるべく早く衝突制御を行うように、大きい時間閾値(第2の時間閾値)、例えば3分を設定することができる。
本実施例では、目標対象物の状態および衝突時間を組み合わせて危険レベルを特定することによって、危険レベルの特定はより正確になる。
本開示で言及された上記各方法の実施例は、原理と論理に違反しない限り、相互に組み合わせて実施例を形成することができることが理解され、紙数に限りがあるので、本願では詳細な説明を省略する。
また、本開示は画像処理装置、電子機器、コンピュータ読取可能な記憶媒体およびプログラムをさらに提供し、それらはいずれも本開示で提供される画像処理方法のいずれか1つを実現するために利用可能であり、それに対応する技術的解決手段及び説明は、方法部分の対応する記載を参照すればよく、ここで省略する。
図6は本開示の一実施例による衝突制御装置のブロック図を示す。図6に示すように、前記衝突制御装置は、
現在対象物が撮像した画像中の目標対象物を検出するための検出モジュール10と、
前記目標対象物の危険レベルを特定するための特定モジュール20と、
前記危険レベルに対応する衝突制御を実行するための実行モジュール30と、を含む。
本開示の実施例では、現在対象物が撮像した画像中の目標対象物を検出し、目標対象物の危険レベルを特定し、対応する衝突制御を行うことによって、目標対象物に対する正確且つ適切な衝突制御を達成する。
可能な実施形態では、前記検出モジュールは、ニューラルネットワークによって、現在対象物が撮像した画像中の目標対象物を検出するために用いられる。
本実施例では、ニューラルネットワークによって目標対象物を検出し、ニューラルネットワークの強力且つ正確な検出機能によって画像から目標対象物を迅速且つ正確に検出することができる。
可能な実施形態では、前記検出モジュールは、現在対象物が撮像した画像中の目標対象物の状態を検出するために用いられる。
前記特定モジュールは、前記目標対象物の状態に基づいて、前記目標対象物の危険レベルを特定するために用いられる。
本実施例では、目標対象物の状態に基づいて目標対象物の危険レベルを特定することにより、目標対象物の豊富な状態を利用して、必要に応じて、異なる危険レベルを設定することができ、衝突制御はより正確になり、柔軟性がより高くなる。
可能な実施形態では、前記現在対象物は走行対象物を含み、前記実行モジュールは、
前記危険レベルに対応する衝突警告を実行すること、および/または前記危険レベルに対応する、走行方向の変更、走行速度の変更及び停止の少なくとも1つを含む運転制御を実行することに用いられる。
可能な実施形態では、前記現在対象物は静止対象物を含み、前記実行モジュールは、前記危険レベルに対応する衝突警告を実行するために用いられる。
本実施例では、危険レベルに基づいて、対応する衝突警告および/または運転制御を特定することにより、衝突制御はより適切で、より正確になる。
可能な実施形態では、前記特定モジュールは、
前記目標対象物と前記現在対象物との間の距離を決定することと、
前記目標対象物の状態および前記距離に基づいて、前記目標対象物の危険レベルを特定することに用いられる。
本実施例では、目標対象物の状態および距離を組み合わせて危険レベルを特定することにより、危険レベルの特定はより正確になる。
可能な実施形態では、前記目標対象物の状態は正常状態を含み、前記危険レベルは第1の危険レベルおよび第2の危険レベルを含み、前記目標対象物の状態および前記距離に基づいて前記目標対象物の危険レベルを特定することは、
前記目標対象物の状態が正常状態であり、且つ前記距離が第1の距離閾値以下である場合、前記目標対象物の危険レベルを第1の危険レベルとして特定すること、または
前記目標対象物の状態が正常状態であり、且つ前記距離が第1の距離閾値よりも大きい場合、前記目標対象物の危険レベルを第2の危険レベルとして特定することを含む。
可能な実施形態では、前記目標対象物の状態は異常状態を含み、前記危険レベルは第3の危険レベルおよび第4の危険レベルを含み、前記目標対象物の状態および前記距離に基づいて前記目標対象物の危険レベルを特定することは、
前記目標対象物の状態が異常状態であり、且つ前記距離が第2の距離閾値以下である場合、前記目標対象物の危険レベルを第3の危険レベルとして特定すること、または
前記目標対象物の状態が異常状態であり、且つ前記距離が第2の距離閾値よりも大きい場合、前記目標対象物の危険レベルを第4の危険レベルとして特定することを含む。
可能な実施形態では、前記特定モジュールは、
前記目標対象物と前記現在対象物との間の衝突時間を予測することと、
前記目標対象物の状態および前記衝突時間に基づいて、前記目標対象物の危険レベルを特定することに用いられる。
可能な実施形態では、前記目標対象物の状態は正常状態を含み、前記危険レベルは第5の危険レベルおよび第6の危険レベルを含み、前記目標対象物の状態および前記衝突時間に基づいて前記目標対象物の危険レベルを特定することは、
前記目標対象物の状態が正常状態であり、且つ前記衝突時間が第1の時間閾値以下である場合、前記目標対象物の危険レベルを第5の危険レベルとして特定すること、または
前記目標対象物の状態が正常状態であり、且つ前記衝突時間が第1の時間閾値よりも大きい場合、前記目標対象物の危険レベルを第6の危険レベルとして特定することを含む。
可能な実施形態では、前記目標対象物の状態は異常状態を含み、前記危険レベルは第7の危険レベルおよび第8の危険レベルを含み、前記目標対象物の状態および前記衝突時間に基づいて前記目標対象物の危険レベルを特定することは、
前記目標対象物の状態が異常状態であり、且つ前記衝突時間が第2の時間閾値以下である場合、前記目標対象物の危険レベルを第7の危険レベルとして特定すること、または
前記目標対象物の状態が異常状態であり、且つ前記衝突時間が第2の時間閾値よりも大きい場合、前記目標対象物の危険レベルを第8の危険レベルとして特定することを含む。
可能な実施形態では、前記目標対象物は、歩行者、車両、動物、植物、障害物、ロボット及び建築物の少なくとも1つを含む。
可能な実施形態では、前記目標対象物が歩行者である場合、前記目標対象物の状態は、運動状態、肢体状態および属性状態の1つまたは任意の組み合わせを含む。
ここで、前記運動状態は、位置、速度、加速度及び移動方向の1つまたは任意の組み合わせを含む。
前記肢体状態は、物を拾うこと、及びうつむくことの1つまたは任意の組み合わせを含む。
前記属性状態は、年齢状態及び身体状態の1つまたは任意の組み合わせを含む。
可能な実施形態では、前記目標対象物が車両である場合、前記目標対象物の状態は、運動状態、行動状態および属性状態の1つまたは任意の組み合わせを含む。
ここで、前記運動状態は、位置、速度、加速度及び方向の1つまたは任意の組み合わせを含む。
前記行動状態は、危険運転状態の1つまたは任意の組み合わせを含む。
前記属性状態は、自動車、非自動車及び車種の1つまたは任意の組み合わせを含む。
本開示の実施例では、現在対象物が撮像した画像中の目標対象物を検出し、目標対象物の危険レベルを特定し、対応する衝突制御を行うことによって、目標対象物に対する正確且つ適切な衝突制御を達成する。
本開示の実施例は、プロセッサにより実行されると、上記衝突制御方法を実現させるコンピュータプログラム命令が記憶されているコンピュータ読取可能な記憶媒体をさらに提供する。コンピュータ読取可能な記憶媒体は非揮発性コンピュータ読み取り可能な記憶媒体であってもよい。
本開示の実施例は、電子機器内で実行されると、前記電子機器のプロセッサに上記衝突制御方法を実現させるためのコンピュータ読取可能なコードを含むコンピュータプログラムをさらに提供する。
本開示の実施例は、プロセッサと、プロセッサにより実行可能なコマンドを記憶するためのメモリとを含み、前記プロセッサは前記実行可能コマンドを直接的または間接的に呼び出すことによって上記衝突制御方法を実行する、電子機器をさらに提供する。
図7は本開示の一実施例による電子機器のブロック図を示す。電子機器は端末、サーバ又は他の形態の装置として提供されてもよい。前記電子機器は衝突制御のための装置800を含む。例えば、装置800は携帯電話、コンピュータ、デジタル放送端末、メッセージ送受信装置、ゲームコンソール、タブレット装置、医療機器、フィットネス器具、パーソナル・デジタル・アシスタント、車載装置などの端末であってもよい。
図7に示すように、装置800は処理コンポーネント802、メモリ804、電源コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、入力/出力(I/O)インタフェース812、センサコンポーネント814、および通信コンポーネント816のうちの一つ以上を含んでもよい。
処理コンポーネント802は通常、装置800の全体的な動作、例えば表示、電話の呼び出し、データ通信、カメラ動作および記録動作に関連する動作を制御する。処理コンポーネント802は、命令を実行して上記方法の全てまたは一部のステップを実行するための一つ以上のプロセッサ820を含んでもよい。また、処理コンポーネント802は、他のコンポーネントとのインタラクションのための一つ以上のモジュールを含んでもよい。例えば、処理コンポーネント802は、マルチメディアコンポーネント808とのインタラクションのために、マルチメディアモジュールを含んでもよい。
メモリ804は、装置800での動作をサポートするための様々なタイプのデータを記憶するように構成される。これらのデータは、例として、装置800において操作されるあらゆるアプリケーションプログラムまたは方法の命令、連絡先データ、電話帳データ、メッセージ、ピクチャー、ビデオなどを含む。メモリ804は、例えば静的ランダムアクセスメモリ(SRAM)、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM)、消去可能なプログラマブル読み取り専用メモリ(EPROM)、プログラマブル読み取り専用メモリ(PROM)、読み取り専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスクまたは光ディスクなどのあらゆるタイプの揮発性または非揮発性記憶装置またはそれらの組み合わせによって実現できる。
電源コンポーネント806は装置800の各コンポーネントに電力を供給する。電源コンポーネント806は電源管理システム、一つ以上の電源、および装置800のための電力生成、管理および配分に関連する他のコンポーネントを含んでもよい。
マルチメディアコンポーネント808は前記装置800とユーザとの間で出力インタフェースを提供するスクリーンを含む。いくつかの実施例では、スクリーンは液晶ディスプレイ(LCD)及びタッチパネル(TP)を含んでもよい。スクリーンがタッチパネルを含む場合、ユーザからの入力信号を受信するために、タッチスクリーンとして実現してもよい。タッチパネルは、タッチ、スライドおよびタッチパネルでのジェスチャを検知するために、一つ以上のタッチセンサを含む。前記タッチセンサは、タッチまたはスライド動作の境界のみならず、前記タッチまたはスライド操作に関連する持続時間および圧力を検出するようにしてもよい。いくつかの実施例では、マルチメディアコンポーネント808は前面カメラおよび/または後面カメラを含む。装置800が動作モード、例えば撮影モードまたは撮像モードになる場合、前面カメラおよび/または後面カメラは外部のマルチメディアデータを受信するようにしてもよい。各前面カメラおよび後面カメラは固定された光学レンズ系、または焦点距離および光学ズーム機能を有するものであってもよい。
オーディオコンポーネント810はオーディオ信号を出力および/または入力するように構成される。例えば、オーディオコンポーネント810は、マイク(MIC)を含み、マイク(MIC)は装置800が動作モード、例えば呼び出しモード、記録モードおよび音声認識モードになる場合、外部のオーディオ信号を受信するように構成される。受信されたオーディオ信号はさらにメモリ804に記憶されるか、または通信コンポーネント816によって送信されてもよい。いくつかの実施例では、オーディオコンポーネント810はさらに、オーディオ信号を出力するためのスピーカーを含む。
I/Oインタフェース812は処理コンポーネント802と周辺インタフェースモジュールとの間でインタフェースを提供し、上記周辺インタフェースモジュールはキーボード、クリックホイール、ボタンなどであってもよい。これらのボタンはホームボタン、音量ボタン、スタートボタンおよびロックボタンを含んでもよいが、これらに限定されない。
センサコンポーネント814は装置800の各面の状態評価のために一つ以上のセンサを含む。例えば、センサコンポーネント814は装置800のオン/オフ状態、例えば装置800の表示装置およびキーパッドであるコンポーネントの相対的位置決めを検出することができる。センサコンポーネント814はさらに、装置800または装置800のあるコンポーネントの位置の変化、ユーザと装置800との接触の有無、装置800の方位または加減速および装置800の温度変化を検出することができる。センサコンポーネント814は、いかなる物理的接触もない場合に近傍の物体の存在を検出するように構成された近接センサを含んでもよい。センサコンポーネント814はさらに、CMOSまたはCCDイメージセンサのような、イメージングアプリケーションにおいて使用される光センサを含んでもよい。いくつかの実施例では、該センサコンポーネント814は加速度センサ、ジャイロスコープセンサ、磁気センサ、圧力センサまたは温度センサを含んでもよい。
通信コンポーネント816は装置800と他の装置との間の有線または無線通信を実現するように構成される。装置800は通信規格に基づく無線ネットワーク、例えばWi-Fi、2Gまたは3G、またはそれらの組み合わせにアクセスできる。一例示的実施例では、通信コンポーネント816は放送チャネル経由で外部の放送管理システムからの放送信号または放送関連情報を受信する。一例示的実施例では、前記通信コンポーネント816は近距離通信を促進させるために、近距離無線通信(NFC)モジュールをさらに含む。例えば、NFCモジュールでは無線周波数識別(RFID)技術、赤外線データ協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(BT)技術および他の技術によって実現できる。
例示的な実施例では、装置800は、一つ以上の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサまたは他の電子要素によって実現され、上記方法を実行するために用いられることができる。
例示的な実施例では、さらに、非揮発性コンピュータ読み取り可能な記憶媒体、例えば、コンピュータプログラム命令を含むメモリ804が提供され、上記コンピュータプログラム命令は装置800のプロセッサ820によって実行されると、上記方法を実行させることができる。
本開示はシステム、方法および/またはコンピュータプログラム製品であってもよい。コンピュータプログラム製品はプロセッサに本開示の各方面を実現させるためのコンピュータ読み取り可能なプログラム命令を有しているコンピュータ読み取り可能な記憶媒体を含んでもよい。
コンピュータ読み取り可能な記憶媒体は命令実行装置において使用される命令を保存および記憶可能な有形装置であってもよい。コンピュータ読み取り可能な記憶媒体は例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置または上記の任意の適当な組み合わせであってもよいが、これらに限定されない。コンピュータ読み取り可能な記憶媒体のさらに具体的な例(非包括的リスト)としては、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュメモリ)、静的ランダムアクセスメモリ(SRAM)、携帯型コンパクトディスク読み取り専用メモリ(CD−ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピーディスク、例えば命令が記憶されているせん孔カードまたはスロット内突起構造ような機械的符号化装置、および上記の任意の適当な組み合わせを含む。ここで使用されるコンピュータ読み取り可能な記憶媒体は瞬時信号自体、例えば無線電波または他の自由に伝播される電磁波、導波路または他の伝送媒体を経由して伝播される電磁波(例えば、光ファイバーケーブルを通過するパルス光)、または電線を経由して伝送される電気信号と解釈されるものではない。
ここで記述したコンピュータ読み取り可能なプログラム命令はコンピュータ読み取り可能な記憶媒体から各計算/処理機器にダウンロードされてもよいし、または、ネットワーク、例えばインターネット、ローカルエリアネットワーク、広域ネットワークおよび/または無線ネットワークを介して外部のコンピュータまたは外部記憶装置にダウンロードされてもよい。ネットワークは銅伝送ケーブル、光ファイバー伝送、無線伝送、ルーター、ファイアウォール、交換機、ゲートウェイコンピュータおよび/またはエッジサーバを含んでもよい。各計算/処理機器内のネットワークアダプタカードまたはネットワークインタフェースは、ネットワークからコンピュータ読み取り可能プログラム命令を受信して転送して、各計算/処理機器内のコンピュータ読み取り可能な記憶媒体に記憶させる。
本開示の動作を実行するためのコンピュータプログラム命令はアセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械語命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、C++などのオブジェクト指向プログラミング言語、および「C」言語または類似するプログラミング言語などの一般的な手続き型プログラミング言語を含む一つ以上のプログラミング言語の任意の組み合わせで書かれたソースコードまたは目標コードであってもよい。コンピュータ読み取り可能プログラム命令は、完全にユーザのコンピュータにおいて実行されてもよく、部分的にユーザのコンピュータにおいて実行されてもよく、スタンドアロンソフトウェアパッケージとして実行されてもよく、部分的にユーザのコンピュータにおいてかつ部分的にリモートコンピュータにおいて実行されてもよく、または完全にリモートコンピュータもしくはサーバにおいて実行されてもよい。リモートコンピュータに関与する場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む任意の種類のネットワークを経由してユーザのコンピュータに接続されてもよく、または、(例えばインターネットサービスプロバイダを利用してインターネットを経由して)外部コンピュータに接続されてもよい。いくつかの実施例では、コンピュータ読み取り可能プログラム命令の状態情報を利用して、例えばプログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)またはプログラマブル論理アレイ(PLA)などの電子回路をパーソナライズし、該電子回路によりコンピュータ読み取り可能なプログラム命令を実行することにより、本開示の各方面を実現するようにしてもよい。
ここで本開示の実施例に係る方法、装置(システム)およびコンピュータプログラム製品のフローチャートおよび/またはブロック図を参照しながら本開示の各態様を説明したが、フローチャートおよび/またはブロック図の各ブロックおよびフローチャートおよび/またはブロック図の各ブロックの組み合わせは、いずれもコンピュータ読み取り可能プログラム命令によって実現できることを理解すべきである。
これらのコンピュータ読み取り可能なプログラム命令は、汎用コンピュータ、専用コンピュータまたは他のプログラマブルデータ処理装置のプロセッサへ提供されて、これらの命令がコンピュータまたは他のプログラマブルデータ処理装置のプロセッサによって実行されると、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現するように機械を製造してもよい。また、これらのコンピュータ読み取り可能なプログラム命令は、コンピュータ読み取り可能な記憶媒体に記憶し、コンピュータ、プログラマブルデータ処理装置および/または他の機器を特定の方式で動作させるようにしてもよい。命令を記憶しているコンピュータ読み取り可能な記憶媒体には、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作の各方面を実現するための命令を有する製品を含む
コンピュータ読み取り可能なプログラムはコンピュータ、他のプログラマブルデータ処理装置、または他の機器にロードし、コンピュータ、他のプログラマブルデータ処理装置または他の機器において一連の動作ステップを実行させることにより、コンピュータにより実現されるプロセスを生成し、コンピュータ、他のプログラマブルデータ処理装置、または他の機器において実行される命令によりフローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現する。
図面のうち、フローチャートおよびブロック図は本開示の複数の実施例に係るシステム、方法およびコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能および動作を示す。この点では、フローチャートまたはブロック図における各ブロックは一つのモジュール、プログラムセグメントまたは命令の一部分を代表することができ、前記モジュール、プログラムセグメントまたは命令の一部分は指定された論理機能を実現するための一つ以上の実行可能命令を含む。いくつかの代替としての実現形態では、ブロックに表記される機能は図面に付した順序と異なって実現してもよい。例えば、二つの連続的なブロックは実質的に同時に実行してもよく、また、係る機能によって、逆な順序で実行してもよい場合がある。なお、ブロック図および/またはフローチャートにおける各ブロック、およびブロック図および/またはフローチャートにおけるブロックの組み合わせは、指定される機能または動作を実行するハードウェアに基づく専用システムによって実現されてもよいし、または専用ハードウェアとコンピュータ命令との組み合わせによって実現されてもよい。
以上、本開示の各実施例を記述したが、上記説明は例示的なものに過ぎず、網羅的なものではなく、かつ開示された各実施例に限定されるものでもない。当業者にとって、説明された各実施例の範囲および精神から逸脱することなく、様々な修正および変更が自明である。本明細書に選ばれた用語は、各実施例の原理、実際の適用または市場における技術への技術的改善を好適に解釈するか、または他の当業者に本文に開示された各実施例を理解させるためのものである。
関連出願の相互参照
本出願は、2018年4月28日に中国特許局に提出された、出願番号201810403429.3、発明名称が「衝突制御方法及び装置、電子機器並びに記憶媒体」の中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
本開示はコンピュータビジョンの技術分野に関し、特に衝突制御方法及び装置、電子機器並びに記憶媒体に関する。
車両のインテリジェントドライブの場合、コンピュータビジョン技術を使用して歩行者、他の車両などの目標を検知し、検知した目標を車両のインテリジェントドライブの制御に用いる必要がある。
本開示は衝突制御の技術的解決手段を提供する。
本開示の一方面によれば、
現在対象物が撮像した画像中の目標対象物を検出することと、
前記目標対象物の危険レベルを特定することと、
前記危険レベルに対応する衝突制御を実行することと、を含む衝突制御方法を提供する。
本開示の一方面によれば、
現在対象物が撮像した画像中の目標対象物を検出するための検出モジュールと、
前記目標対象物の危険レベルを特定するための特定モジュールと、
前記危険レベルに対応する衝突制御を実行するための実行モジュールと、を含む衝突制御装置を提供する。
本開示の一方面によれば、
プロセッサと、
プロセッサにより実行可能なコマンドを記憶するためのメモリと、を含み、
前記プロセッサは、前記実行可能なコマンドを直接的または間接的に呼び出すことによって上記衝突制御方法を実行する電子機器を提供する。
本開示の一方面によれば、コンピュータプログラム命令が記憶されているコンピュータ読取可能な記憶媒体であって、前記コンピュータプログラム命令はプロセッサによって実行されると、上記衝突制御方法を実現させるコンピュータ読取可能な記憶媒体を提供する。
本開示の一方面によれば、電子機器内で実行されると、前記電子機器のプロセッサに、上記衝突制御方法を実現させるためのコンピュータ読取可能なコードを含むコンピュータプログラムを提供する。
本開示の実施例では、現在対象物が撮像した画像中の目標対象物を検出し、目標対象物の危険レベルを特定し、対応する衝突制御を行うことによって、目標対象物に対する正確且つ適切な衝突制御を達成する。
本開示の他の特徴及び方面は、以下、図面を参照しながら例示的な実施例について詳細に説明することにより明らかになる。
明細書の一部として明細書に含まれる図面は、明細書と共に本開示の例示的な実施例、特徴及び方面を示し、本開示の原理を解釈するために用いられる。
本開示の一実施例による衝突制御方法のフローチャートを示す。 本開示の一実施例による衝突制御方法のフローチャートを示す。 本開示の一実施例による衝突制御方法のフローチャートを示す。 本開示の一実施例による衝突制御方法のフローチャートを示す。 本開示の一実施例による衝突制御方法のフローチャートを示す。 本開示の一実施例による衝突制御装置のブロック図を示す。 本開示の一実施例による電子機器のブロック図を示す。
以下に図面を参照しながら本開示の様々な例示的実施例、特徴および方面を詳細に説明する。図面において、同じ符号が同じまたは類似する機能の要素を表す。図面において実施例の様々な方面を示したが、特に断らない限り、比例に従って図面を描く必要がない。
ここの用語「例示的」とは、「例、実施例として用いられることまたは説明的なもの」を意味する。ここで「例示的」に説明されるいかなる実施例も他の実施例より好ましい又は優れるものであると理解すべきではない。
また、本開示をより効果的に説明するために、以下の具体的な実施形態において様々な具体的な詳細を示す。当業者であれば、何らかの具体的な詳細がなくても、本開示は同様に実施できるということを理解すべきである。いくつかの実施例では、本開示の趣旨を強調するように、当業者に既知の方法、手段、要素および回路について、詳細な説明を省略する。
図1は本開示の一実施例による衝突制御方法のフローチャートを示す。図1に示すように、前記方法は以下のステップを含む。
ステップS10、現在対象物が撮像した画像中の目標対象物を検出する。
目標対象物は、いかなるタイプの対象物であってもよい。例えば、目標対象物は、歩行者、車両、動物、植物、障害物、ロボット及び建築物の少なくとも1つを含むことができる。目標対象物は、単一の対象物タイプの1つまたは複数の目標対象物であってもよく、複数の対象物タイプの複数の目標対象物であってもよい。例えば、車両だけを目標対象物としてもよく、目標対象物は1つの車両であってもよく、複数の車両であってもよい。また、車両および歩行者をともに目標対象物としてもよい。目標対象物は複数の車両および複数の歩行者である。必要に応じて、設定された対象物タイプを目標対象物としてもよく、設定された対象物個体を目標対象物としてもよい。
現在対象物は、移動可能な対象物を含んでもよく、移動不可能な対象物を含んでもよい。現在対象物は、走行対象物、例えば走行中の車両であってもよく、静止対象物、例えば建築物、路側の監視装置であってもよい。
現在対象物は、人、自動車、非自動車、ロボット及びウェアブルデバイスなどを含んでもよい。現在対象物が車両である場合、本開示の実施例は自動運転、支援運転などの技術分野で応用され得る。現在対象物が路側に配置される監視装置である場合、本開示の実施例は目標対象物の監視装置への衝突を防止することに使用され得る。本開示はこれを限定しない。
現在対象物に撮像装置を配置し、設定方向の画像を撮像することができる。現在対象物は、その前方、後方、側方など任意の1つまたは複数の方向の画像を撮像することができる。本開示はこれを限定しない。
現在対象物が撮像した画像は、撮像装置によって撮像された単一フレームの画像を含んでもよく、撮像装置によって撮像されたビデオストリーム内のフレーム画像を含んでもよい。
現在対象物は、単眼カメラ、RGBカメラ、赤外線カメラ、双眼カメラなどの様々なビジョンセンサによって画像を撮像することができる。単眼カメラを使用する場合、システムコストが低く、応答が速い。RGBカメラまたは赤外線カメラを使用する場合、特別な環境で画像を撮像することができる。双眼カメラを使用する場合、目標対象物のより豊かな情報を取得することができる。衝突防止の要求、環境、現在対象物のタイプおよびコストなどに応じて、異なる撮像装置を選択することができる。本開示はこれを限定しない。
現在対象物が撮像した画像中の目標対象物を検出した結果は、目標対象物の特徴を含んでもよく、目標対象物の状態などを含んでもよい。例えば、検出結果として、目標対象物が高齢者であり、目標対象物の状態は、行動速度が遅いこと、うつむいて携帯電話を見ていることなどを含む。本開示はこれを限定しない。
ステップS20、前記目標対象物の危険レベルを特定する。
現在対象物が撮像した画像中の目標対象物は、現在対象物に危険をもたらす可能性があり、例えば、車両の前方カメラによって撮像された目標対象物は車両に衝突される危険がある。例えば、現在対象物に向かって高速に移動する目標対象物は危険レベルが高く、目標対象物の前方に位置し且つ移動速度が遅い目標対象物は危険レベルが高いなど、異なる目標対象物は異なる危険レベルを有する。目標対象物と危険レベルとの間の対応関係、例えば目標対象物の特徴または状態と危険レベルとの対応関係を確立し、該対応関係に基づいて、目標対象物の危険レベルを特定することができる。
一例では、目標対象物の危険レベルは、危険、安全などのように区分けしてもよく、第1の危険レベル、第2の危険レベル、第3の危険レベルなどのように区分けしてもよい。
一枚の画像から検出された目標対象物に基づいて、前記目標対象物の危険レベルを特定してもよく、例えば、検出結果として目標対象物の特徴が高齢者であり、高齢者の危険レベルは高い。複数の画像から検出された目標対象物の状態に基づいて、前記目標対象物の危険レベルを特定してもよく、例えば、検出結果として目標対象物が現在対象物へ高速に近づいている場合、危険レベルは高い。
ステップS30、前記危険レベルに対応する衝突制御を実行する。
危険レベルによって異なる衝突制御を行って、警告するまたは危険を回避するようにしてもよい。危険レベルと衝突制御との間の対応関係を確立し、特定された危険レベルに基づいて、対応する衝突制御を特定することができる。
本開示の実施例では、現在対象物が撮像した画像中の目標対象物を検出し、目標対象物の危険レベルを特定し、対応する衝突制御を行うことによって、目標対象物に対する正確且つ適切な衝突制御を達成する。
可能な実施形態では、現在対象物が撮像した画像中の目標対象物を検出することは、ニューラルネットワークによって、現在対象物が撮像した画像中の目標対象物を検出することを含んでもよい。
様々な目標対象物を含む画像からなるトレーニング画像セットを使ってニューラルネットワークをトレーニングし、トレーニングされたニューラルネットワークによって、撮像された画像中の目標対象物を識別することができる。ニューラルネットワークのトレーニング過程、およびニューラルネットワークによって目標対象物を検出する過程は、関連技術によって実現できる。
ニューラルネットワークは、RFCN(Region―based Fully Convolutional Networks、領域ベースの完全畳み込みネットワーク)、SSD(Single Shot multibox Detector、シングルショットマルチボックス検出器)、RCNN(Regions with CNN、領域ベースの畳み込みニューラルネットワーク)、FastRCNN(Fast RCNN、高速の領域ベースの畳み込みニューラルネットワーク)、FasterRCNN(Faster RCNN、より高速の領域ベースの畳み込みニューラルネットワーク)、SPPNet(Spatial Pyramid Pooling Convolutional Networks、空間ピラミッドプーリング畳み込みネットワーク)、DPM Deformable Parts Models、変形可能パーツモデル)、OverFeat(同じ畳み込みネットワークに基づく複数のタスク)、YOLO(You Only Look Once、画像を1度だけ見る)などの構築方式に基づいたものであってもよいが、本開示はこれを限定しない。
例えば、BP(error back propagation、エラーバックプロパゲーション)などのタイプのニューラルネットワークに基づく画像追跡技術によって、連続した複数フレームのビデオ画像中の同一の目標対象物を追跡することで、目標対象物の運動状態および行動状態を検出することができ、例えば目標対象物が現在対象物(例えば、車両)の左前方から右前方へ移動し、前方を目視することなどを検出した。
さらなる例として、RCNN(Regions with CNN features)などのタイプのニューラルネットワークに基づく双眼測距技術によって、双眼カメラによって撮像された画像を使って目標対象物と現在対象物との距離を決定することができる。
本実施例では、ニューラルネットワークによって目標対象物を検出し、ニューラルネットワークの強力且つ正確な検出機能によって画像から目標対象物を迅速且つ正確に検出することができる。
図2は本開示の一実施例による衝突制御方法のフローチャートを示す。図2に示すように、ステップS10は、
現在対象物が撮像した画像中の目標対象物の状態を検出するステップS11を含んでもよい。
ステップS20は、
前記目標対象物の状態に基づいて、前記目標対象物の危険レベルを特定するステップS21を含んでもよい。
目標対象物の状態は任意のタイプの状態であって、例えば、目標対象物の静的な動作や動的な状態であってもよい。目標対象物自身の属性状態などであってもよい。
可能な実施形態では、撮像された一枚の静止画像から目標対象物の静的状態を検出するようにしてもよい。例えば、一枚の静止画像から、目標対象物である歩行者の静的状態がうつむいて携帯電話を見ている状態であり、または歩行者が高齢者であることを検出した。また、複数の関連している画像から目標対象物の動的状態を検出するようにしてもよい。例えば、ビデオストリーム内の複数のフレーム画像から、目標対象物である車両の状態が高速走行の状態であることを検出した。
可能な実施形態では、前記目標対象物が歩行者である場合、前記目標対象物の状態は、運動状態、肢体状態および属性状態の1つまたは任意の組み合わせを含んでもよい。運動状態は、位置(例えば、目標対象物の現在対象物に対する相対位置)、速度(例えば、目標対象物の現在対象物に対する相対速度)、加速度及び移動方向(例えば、目標対象物の現在対象物に対する移動方向、例えば直進または旋回)の1つまたは任意の組み合わせを含んでもよい。肢体状態は、携帯電話を見ていること、電話すること、うつむくこと、タバコを吸うこと及び物を拾うことなど四肢の協働を必要とする行動の1つまたは任意の組み合わせを含んでもよい。属性状態は、年齢状態及び身体状態の1つまたは任意の組み合わせを含んでもよく、例えば、高齢者または子供であるか否か、動作不自由者であるか否かである。
歩行者の状態に基づいて、歩行者の危険レベルを特定することができる。前記歩行者の危険レベルは、1つの状態によって歩行者の危険レベルを取得すしてもよく、複数の状態の組み合わせによって歩行者の危険レベルを取得してもよい。例えば、歩行者の位置のみによって歩行者の危険レベルを特定してもよい。距離が5メートルよりも小さい歩行者を危険として設定し、距離が5メートルより大きい歩行者を安全として設定する。また、歩行者の速度、および歩行者が電話しているか否かなど様々な状態を統合して、歩行者の危険レベルを取得してもよい。速度がNメートル/秒より大きく、且つ電話している歩行者を第1の危険レベルとして特定し、速度がNメートル/秒より小さく、且つ電話している歩行者を第2の危険レベルとして特定し、速度がNメートル/秒より大きく、且つ電話していない歩行者を第3の危険レベルとして特定し、速度がNメートル/秒より小さく、且つ電話していない歩行者を第4の危険レベルとして特定する。本開示はこれを限定しない。
可能な実施形態では、前記目標対象物が車両である場合、前記目標対象物の状態は、運動状態、行動状態および属性状態の1つまたは任意の組み合わせを含んでもよい。運動状態は、位置、速度、加速度及び方向の1つまたは任意の組み合わせを含んでもよい。行動状態は、危険運転状態の1つまたは任意の組み合わせを含んでもよい。属性状態は、自動車、非自動車及び車種の1つまたは任意の組み合わせを含んでもよい。
車両の状態に基づいて車両の危険レベルを特定することができる。前記車両の危険レベルは、1つの状態によって車両の危険レベルを取得してもよく、複数の状態の組み合わせによって車両の危険レベルを取得してもよい。例えば、車両の速度に基づいて車両の危険レベルを特定してもよい。車速がNメートル/秒より低い車両を安全として特定し、車速がMメートル/秒より高い車両を危険として特定する。また、車両の車種、車両が危険運転状態であるか否かなど様々な状態を統合して、車両の危険レベルを取得してもよい。例えば、車両の速度がMメートル/秒より高く、車両の車種が古く、車両走行中に左右に揺れるなどの危険運転状態である場合、車両の危険レベルを第1の危険レベルとして特定し、車両の車速がNメートル/秒より低く、車の走行方向と現在対象物との進行方向が交差する場合、車両の危険レベルを第2の危険レベルとして特定する。本開示はこれを限定しない。
目標対象物の状態はさらに正常状態および異常状態を含んでもよい。一例では、異常状態は、運動状態、肢体状態および属性状態の1つまたは複数に基づいて特定されてもよい。例えば、歩行者が現在対象物の前方に位置し、且つ速度が閾値よりも小さい場合、異常状態として特定することができる。さらなる例として、歩行者が現在対象物の前方に位置し、且つ移動方向が頻繁に変わる場合、異常状態として特定できるなどが挙げられる。異常状態以外の状態を正常状態として特定することができる。
本実施例では、目標対象物の状態に基づいて目標対象物の危険レベルを特定することによって、目標対象物の豊富な状態を利用して、必要に応じて、異なる危険レベルを設定することができ、衝突制御はより正確になり、柔軟性がより高くなる。
図3は本開示の一実施例による衝突制御方法のフローチャートを示す。図3に示すように、現在対象物は走行対象物(例えば、車両)を含み、ステップS30は、
前記危険レベルに対応する衝突警告を実行する、および/または前記危険レベルに対応する、走行方向の変更、走行速度の変更及び停止の少なくとも1つを含む運転制御を実行するステップS31を含んでもよい。
異なる危険レベルに対して異なる衝突警告、例えば異なる音声または表示内容、異なる音量レベル、異なる振動強度などを設定することができる。特定された危険レベルに基づいて、対応する衝突警告をトリガすることにより、現在対象物の使用者が種々の危険レベルを容易に区別することができる。
例えば、危険レベルが前述の第2の危険レベルであり、すなわち正常状態の目標対象物と現在対象物との距離が第1の閾値よりも大きく、危険度が低いことが検出された場合、第2の危険レベルに対応して実行される衝突警告は「前方3メートル以外に歩行者がいて、避けてください」という音声放送であってもよく、小音量の警報音であってもよい。危険レベルが前述の第3の危険レベルであり、すなわち異常状態の目標対象物と現在対象物との距離が第2の閾値以下であり、危険度が高いことが検出された場合、第3の危険レベルに対応して実行される衝突警告は「前方5メートル以内に動作緩慢の歩行者がいて、直ちに避けてください!」という音声放送であってもよく、大音量の警報音であってもよい。
異なるタイプの衝突警告は、単独で実行されてもよく、組み合わせて実行されてもよい。
また、前記危険レベルに対応する運転制御を実行することもできる。例えば、危険レベルに基づいて、対応する運転制御方式を特定し、該運転制御方式に対応する運転コマンドを車両の制御システムに伝送して、運転制御を実現することができる。
例えば、危険レベルが前述の第2の危険レベルであり、すなわち正常状態の目標対象物と現在対象物との距離が第1の閾値よりも大きく、危険度が低いことが検出された場合、第2の危険レベルに対応して実行される運転制御は、速度低減であって、例えば速度を10%低下させてもよい。危険レベルが前述の第3の危険レベルであり、すなわち異常状態の目標対象物と現在対象物との距離が第2の閾値以下であり、危険度が高いことが検出された場合、第3の危険レベルに対応して実行される運転制御は、より大幅な速度低減であって、例えば速度を50%低下させて、またはブレーキしてもよい。
衝突警告と運転制御は、いずれか一つが実行されてもよく、ともに実行されてもよい。
可能な実施形態では、運転制御を実行することにより、自動運転または支援運転の機能を有する車両を制御できる。運転制御は、現在の走行対象物の運動状態および/または運動方向を変えるための制御動作を含んでもよい。例えば、現在の走行対象物に対して、走行方向の変更、走行速度の変更及び停止など現在の走行対象物の運動方向および/または運動状態を変えれる制御動作を行うことを含んでもよい。例えば、一実際の応用シーンでは、自動運転または支援運転の機能を有する現在車両の元の運動方向は、所在車線内で直進し、衝突時間に基づいて、現在車両は前方の疑似衝突対象物と衝突する場合、運転制御によって自動運転または支援運転の機能を有する現在車両の走行方向を変え、自動運転または支援運転の機能を有する現在車両に車線を変更させ、衝突を回避することができる。この途中で、前方の疑似衝突対象物は加速して遠ざかる場合、運転制御によって自動運転または支援運転の機能を有する現在車両の走行方向を変えて、自動運転または支援運転の機能を有する現在車両を元の運動方向に維持させ、そのまま所在車線内で直進させることができる。
本実施例では、危険レベルに基づいて、対応する衝突警告および/または運転制御を特定することにより、衝突制御はより適切で、より正確になる。
可能な実施形態では、前記現在対象物は静止対象物を含み、前記ステップS30は、前記危険レベルに対応する衝突警告を実行することを含む。
現在対象物が静止対象物である場合、上記と類似の方式で危険レベルに対応する衝突警告を実行して、危険を報知することができる。
可能な実施形態では、現在対象物上のコントローラによって上記衝突制御方法を実現することができる。
図4は本開示の一実施例による衝突制御方法のフローチャートを示す。図4に示すように、前記衝突制御方法におけるステップS20は、
前記目標対象物と前記現在対象物との間の距離を決定するステップS21と、
前記目標対象物の状態および前記距離に基づいて、前記目標対象物の危険レベルを特定するステップS22と、を含む。
可能な実施形態では、2つの目標対象物は、現在対象物からの距離が等しいが、2つの目標対象物の状態が異なる場合、2つの目標対象物の危険レベルが異なる。例えば、現在対象物から約10メートル離れる歩行者である場合、走行状態での歩行者は危険レベルが高く、立ち止まっている状態での歩行者は危険レベルが低い。高齢者は危険レベルが高く、若者は危険レベルが低い。
目標対象物と現在対象物との間の距離、および目標対象物の状態を統合して、目標対象物の危険レベルを特定することができる。
可能な実施形態では、前記目標対象物の状態は正常状態を含み、前記危険レベルは第1の危険レベルおよび第2の危険レベルを含み、前記目標対象物の状態および前記距離に基づいて前記目標対象物の危険レベルを特定することは、前記目標対象物の状態が正常状態であり、且つ前記距離が第1の距離閾値以下である場合、前記目標対象物の危険レベルを第1の危険レベルとして特定すること、または、前記目標対象物の状態が正常状態であり、且つ前記距離が第1の距離閾値よりも大きい場合、前記目標対象物の危険レベルを第2の危険レベルとして特定することを含むようにしてもよい。
ここで、第1の危険レベルは第2の危険レベルよりも危険度が高いようにしてもよい。
可能な実施形態では、前記目標対象物の状態は異常状態を含み、前記危険レベルは第3の危険レベルおよび第4の危険レベルを含み、前記目標対象物の状態および前記距離に基づいて前記目標対象物の危険レベルを特定することは、前記目標対象物の状態が異常状態であり、且つ前記距離が第2の距離閾値以下である場合、前記目標対象物の危険レベルを第3の危険レベルとして特定すること、または、前記目標対象物の状態が異常状態であり、且つ前記距離が第2の距離閾値よりも大きい場合、前記目標対象物の危険レベルを第4の危険レベルとして特定することを含むようにしてもよい。
ここで、第3の危険レベルは第4の危険レベルよりも危険度が高いようにしてもよい。
第1の距離閾値は第2の距離閾値よりも小さいようにしてもよい。例えば、正常状態での歩行者について、その危険性が低いので、小さい距離閾値(第1の距離閾値)、例えば5メートルを設定することができる。異常状態での歩行者(例えば、動作緩慢、酔っ払い、身障者、高齢者など)について、なるべく早く衝突制御を行うように、大きい距離閾値(第2の距離閾値)、例えば10メートルを設定することができる。
本実施例では、目標対象物の状態および距離を組み合わせて危険レベルを特定することによって、危険レベルの特定はより正確になる。
図5は本開示の一実施例による衝突制御方法のフローチャートを示す。図5に示すように、前記衝突制御方法におけるステップS20は、
前記目標対象物と前記現在対象物との間の衝突時間を予測するステップS23と、
前記目標対象物の状態および前記衝突時間に基づいて、前記目標対象物の危険レベルを特定するステップS24と、を含む。
可能な実施形態では、目標対象物と現在対象物との間の相対移動方向、相対移動方向における距離S、および相対速度Vに基づいて、目標対象物と現在対象物との間の衝突時間Tを決定することができる。目標対象物と現在対象物が互いに向かって移動する場合、T=S/V。
可能な実施形態では、前記目標対象物の状態は正常状態を含み、前記危険レベルは第5の危険レベルおよび第6の危険レベルを含み、前記目標対象物の状態および前記衝突時間に基づいて前記目標対象物の危険レベルを特定することは、前記目標対象物の状態が正常状態であり、且つ前記衝突時間が第1の時間閾値以下である場合、前記目標対象物の危険レベルを第5の危険レベルとして特定すること、または、前記目標対象物の状態が正常状態であり、且つ前記衝突時間が第1の時間閾値よりも大きい場合、前記目標対象物の危険レベルを第6の危険レベルとして特定することを含むようにしてもよい。
ここで、第6の危険レベルは第5の危険レベルよりも危険度が小さいようにしてもよい。
可能な実施形態では、前記目標対象物の状態は異常状態を含み、前記危険レベルは第7の危険レベルおよび第8の危険レベルを含み、前記目標対象物の状態および前記衝突時間に基づいて前記目標対象物の危険レベルを特定することは、前記目標対象物の状態が異常状態であり、且つ前記衝突時間が第2の時間閾値以下である場合、前記目標対象物の危険レベルを第7の危険レベルとして特定すること、または、前記目標対象物の状態が異常状態であり、且つ前記衝突時間が第2の時間閾値よりも大きい場合、前記目標対象物の危険レベルを第8の危険レベルとして特定することを含むようにしてもよい。
ここで、第8の危険レベルは第7の危険レベルよりも危険度が小さいようにしてもよい。
第1の時間閾値は第2の時間閾値よりも小さいようにしてもよい。例えば、正常状態での歩行者について、その危険性が低いので、小さい時間閾値(第1の時間閾値)、例えば1分を設定することができる。異常状態での歩行者(例えば、動作緩慢、酔っ払い、身障者、高齢者など)について、なるべく早く衝突制御を行うように、大きい時間閾値(第2の時間閾値)、例えば3分を設定することができる。
本実施例では、目標対象物の状態および衝突時間を組み合わせて危険レベルを特定することによって、危険レベルの特定はより正確になる。
本開示で言及された上記各方法の実施例は、原理と論理に違反しない限り、相互に組み合わせて実施例を形成することができることが理解され、紙数に限りがあるので、本願では詳細な説明を省略する。
また、本開示は衝突制御装置、電子機器、コンピュータ読取可能な記憶媒体およびプログラムをさらに提供し、それらはいずれも本開示で提供される衝突制御方法のいずれか1つを実現するために利用可能であり、それに対応する技術的解決手段及び説明は、方法部分の対応する記載を参照すればよく、ここで省略する。
図6は本開示の一実施例による衝突制御装置のブロック図を示す。図6に示すように、前記衝突制御装置は、
現在対象物が撮像した画像中の目標対象物を検出するための検出モジュール10と、
前記目標対象物の危険レベルを特定するための特定モジュール20と、
前記危険レベルに対応する衝突制御を実行するための実行モジュール30と、を含む。
本開示の実施例では、現在対象物が撮像した画像中の目標対象物を検出し、目標対象物の危険レベルを特定し、対応する衝突制御を行うことによって、目標対象物に対する正確且つ適切な衝突制御を達成する。
可能な実施形態では、前記検出モジュールは、ニューラルネットワークによって、現在対象物が撮像した画像中の目標対象物を検出するために用いられる。
本実施例では、ニューラルネットワークによって目標対象物を検出し、ニューラルネットワークの強力且つ正確な検出機能によって画像から目標対象物を迅速且つ正確に検出することができる。
可能な実施形態では、前記検出モジュールは、現在対象物が撮像した画像中の目標対象物の状態を検出するために用いられる。
前記特定モジュールは、前記目標対象物の状態に基づいて、前記目標対象物の危険レベルを特定するために用いられる。
本実施例では、目標対象物の状態に基づいて目標対象物の危険レベルを特定することにより、目標対象物の豊富な状態を利用して、必要に応じて、異なる危険レベルを設定することができ、衝突制御はより正確になり、柔軟性がより高くなる。
可能な実施形態では、前記現在対象物は走行対象物を含み、前記実行モジュールは、
前記危険レベルに対応する衝突警告を実行すること、および/または前記危険レベルに対応する、走行方向の変更、走行速度の変更及び停止の少なくとも1つを含む運転制御を実行することに用いられる。
可能な実施形態では、前記現在対象物は静止対象物を含み、前記実行モジュールは、前記危険レベルに対応する衝突警告を実行するために用いられる。
本実施例では、危険レベルに基づいて、対応する衝突警告および/または運転制御を特定することにより、衝突制御はより適切で、より正確になる。
可能な実施形態では、前記特定モジュールは、
前記目標対象物と前記現在対象物との間の距離を決定することと、
前記目標対象物の状態および前記距離に基づいて、前記目標対象物の危険レベルを特定することに用いられる。
本実施例では、目標対象物の状態および距離を組み合わせて危険レベルを特定することにより、危険レベルの特定はより正確になる。
可能な実施形態では、前記目標対象物の状態は正常状態を含み、前記危険レベルは第1の危険レベルおよび第2の危険レベルを含み、前記目標対象物の状態および前記距離に基づいて前記目標対象物の危険レベルを特定することは、
前記目標対象物の状態が正常状態であり、且つ前記距離が第1の距離閾値以下である場合、前記目標対象物の危険レベルを第1の危険レベルとして特定すること、または
前記目標対象物の状態が正常状態であり、且つ前記距離が第1の距離閾値よりも大きい場合、前記目標対象物の危険レベルを第2の危険レベルとして特定することを含む。
可能な実施形態では、前記目標対象物の状態は異常状態を含み、前記危険レベルは第3の危険レベルおよび第4の危険レベルを含み、前記目標対象物の状態および前記距離に基づいて前記目標対象物の危険レベルを特定することは、
前記目標対象物の状態が異常状態であり、且つ前記距離が第2の距離閾値以下である場合、前記目標対象物の危険レベルを第3の危険レベルとして特定すること、または
前記目標対象物の状態が異常状態であり、且つ前記距離が第2の距離閾値よりも大きい場合、前記目標対象物の危険レベルを第4の危険レベルとして特定することを含む。
可能な実施形態では、前記特定モジュールは、
前記目標対象物と前記現在対象物との間の衝突時間を予測することと、
前記目標対象物の状態および前記衝突時間に基づいて、前記目標対象物の危険レベルを特定することに用いられる。
可能な実施形態では、前記目標対象物の状態は正常状態を含み、前記危険レベルは第5の危険レベルおよび第6の危険レベルを含み、前記目標対象物の状態および前記衝突時間に基づいて前記目標対象物の危険レベルを特定することは、
前記目標対象物の状態が正常状態であり、且つ前記衝突時間が第1の時間閾値以下である場合、前記目標対象物の危険レベルを第5の危険レベルとして特定すること、または
前記目標対象物の状態が正常状態であり、且つ前記衝突時間が第1の時間閾値よりも大きい場合、前記目標対象物の危険レベルを第6の危険レベルとして特定することを含む。
可能な実施形態では、前記目標対象物の状態は異常状態を含み、前記危険レベルは第7の危険レベルおよび第8の危険レベルを含み、前記目標対象物の状態および前記衝突時間に基づいて前記目標対象物の危険レベルを特定することは、
前記目標対象物の状態が異常状態であり、且つ前記衝突時間が第2の時間閾値以下である場合、前記目標対象物の危険レベルを第7の危険レベルとして特定すること、または
前記目標対象物の状態が異常状態であり、且つ前記衝突時間が第2の時間閾値よりも大きい場合、前記目標対象物の危険レベルを第8の危険レベルとして特定することを含む。
可能な実施形態では、前記目標対象物は、歩行者、車両、動物、植物、障害物、ロボット及び建築物の少なくとも1つを含む。
可能な実施形態では、前記目標対象物が歩行者である場合、前記目標対象物の状態は、運動状態、肢体状態および属性状態の1つまたは任意の組み合わせを含む。
ここで、前記運動状態は、位置、速度、加速度及び移動方向の1つまたは任意の組み合わせを含む。
前記肢体状態は、物を拾うこと、及びうつむくことの1つまたは任意の組み合わせを含む。
前記属性状態は、年齢状態及び身体状態の1つまたは任意の組み合わせを含む。
可能な実施形態では、前記目標対象物が車両である場合、前記目標対象物の状態は、運動状態、行動状態および属性状態の1つまたは任意の組み合わせを含む。
ここで、前記運動状態は、位置、速度、加速度及び方向の1つまたは任意の組み合わせを含む。
前記行動状態は、危険運転状態の1つまたは任意の組み合わせを含む。
前記属性状態は、自動車、非自動車及び車種の1つまたは任意の組み合わせを含む。
本開示の実施例では、現在対象物が撮像した画像中の目標対象物を検出し、目標対象物の危険レベルを特定し、対応する衝突制御を行うことによって、目標対象物に対する正確且つ適切な衝突制御を達成する。
本開示の実施例は、プロセッサにより実行されると、上記衝突制御方法を実現させるコンピュータプログラム命令が記憶されているコンピュータ読取可能な記憶媒体をさらに提供する。コンピュータ読取可能な記憶媒体は非揮発性コンピュータ読み取り可能な記憶媒体であってもよい。
本開示の実施例は、電子機器内で実行されると、前記電子機器のプロセッサに上記衝突制御方法を実現させるためのコンピュータ読取可能なコードを含むコンピュータプログラムをさらに提供する。
本開示の実施例は、プロセッサと、プロセッサにより実行可能なコマンドを記憶するためのメモリとを含み、前記プロセッサは前記実行可能コマンドを直接的または間接的に呼び出すことによって上記衝突制御方法を実行する、電子機器をさらに提供する。
図7は本開示の一実施例による電子機器のブロック図を示す。電子機器は端末、サーバ又は他の形態の装置として提供されてもよい。前記電子機器は衝突制御のための装置800を含む。例えば、装置800は携帯電話、コンピュータ、デジタル放送端末、メッセージ送受信装置、ゲームコンソール、タブレット装置、医療機器、フィットネス器具、パーソナル・デジタル・アシスタント、車載装置などの端末であってもよい。
図7に示すように、装置800は処理コンポーネント802、メモリ804、電源コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、入力/出力(I/O)インタフェース812、センサコンポーネント814、および通信コンポーネント816のうちの一つ以上を含んでもよい。
処理コンポーネント802は通常、装置800の全体的な動作、例えば表示、電話の呼び出し、データ通信、カメラ動作および記録動作に関連する動作を制御する。処理コンポーネント802は、命令を実行して上記方法の全てまたは一部のステップを実行するための一つ以上のプロセッサ820を含んでもよい。また、処理コンポーネント802は、他のコンポーネントとのインタラクションのための一つ以上のモジュールを含んでもよい。例えば、処理コンポーネント802は、マルチメディアコンポーネント808とのインタラクションのために、マルチメディアモジュールを含んでもよい。
メモリ804は、装置800での動作をサポートするための様々なタイプのデータを記憶するように構成される。これらのデータは、例として、装置800において操作されるあらゆるアプリケーションプログラムまたは方法の命令、連絡先データ、電話帳データ、メッセージ、ピクチャー、ビデオなどを含む。メモリ804は、例えば静的ランダムアクセスメモリ(SRAM)、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM)、消去可能なプログラマブル読み取り専用メモリ(EPROM)、プログラマブル読み取り専用メモリ(PROM)、読み取り専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスクまたは光ディスクなどのあらゆるタイプの揮発性または非揮発性記憶装置またはそれらの組み合わせによって実現できる。
電源コンポーネント806は装置800の各コンポーネントに電力を供給する。電源コンポーネント806は電源管理システム、一つ以上の電源、および装置800のための電力生成、管理および配分に関連する他のコンポーネントを含んでもよい。
マルチメディアコンポーネント808は前記装置800とユーザとの間で出力インタフェースを提供するスクリーンを含む。いくつかの実施例では、スクリーンは液晶ディスプレイ(LCD)及びタッチパネル(TP)を含んでもよい。スクリーンがタッチパネルを含む場合、ユーザからの入力信号を受信するために、タッチスクリーンとして実現してもよい。タッチパネルは、タッチ、スライドおよびタッチパネルでのジェスチャを検知するために、一つ以上のタッチセンサを含む。前記タッチセンサは、タッチまたはスライド動作の境界のみならず、前記タッチまたはスライド操作に関連する持続時間および圧力を検出するようにしてもよい。いくつかの実施例では、マルチメディアコンポーネント808は前面カメラおよび/または後面カメラを含む。装置800が動作モード、例えば撮影モードまたは撮像モードになる場合、前面カメラおよび/または後面カメラは外部のマルチメディアデータを受信するようにしてもよい。各前面カメラおよび後面カメラは固定された光学レンズ系、または焦点距離および光学ズーム機能を有するものであってもよい。
オーディオコンポーネント810はオーディオ信号を出力および/または入力するように構成される。例えば、オーディオコンポーネント810は、マイク(MIC)を含み、マイク(MIC)は装置800が動作モード、例えば呼び出しモード、記録モードおよび音声認識モードになる場合、外部のオーディオ信号を受信するように構成される。受信されたオーディオ信号はさらにメモリ804に記憶されるか、または通信コンポーネント816によって送信されてもよい。いくつかの実施例では、オーディオコンポーネント810はさらに、オーディオ信号を出力するためのスピーカーを含む。
I/Oインタフェース812は処理コンポーネント802と周辺インタフェースモジュールとの間でインタフェースを提供し、上記周辺インタフェースモジュールはキーボード、クリックホイール、ボタンなどであってもよい。これらのボタンはホームボタン、音量ボタン、スタートボタンおよびロックボタンを含んでもよいが、これらに限定されない。
センサコンポーネント814は装置800の各面の状態評価のために一つ以上のセンサを含む。例えば、センサコンポーネント814は装置800のオン/オフ状態、例えば装置800の表示装置およびキーパッドであるコンポーネントの相対的位置決めを検出することができる。センサコンポーネント814はさらに、装置800または装置800のあるコンポーネントの位置の変化、ユーザと装置800との接触の有無、装置800の方位または加減速および装置800の温度変化を検出することができる。センサコンポーネント814は、いかなる物理的接触もない場合に近傍の物体の存在を検出するように構成された近接センサを含んでもよい。センサコンポーネント814はさらに、CMOSまたはCCDイメージセンサのような、イメージングアプリケーションにおいて使用される光センサを含んでもよい。いくつかの実施例では、該センサコンポーネント814は加速度センサ、ジャイロスコープセンサ、磁気センサ、圧力センサまたは温度センサを含んでもよい。
通信コンポーネント816は装置800と他の装置との間の有線または無線通信を実現するように構成される。装置800は通信規格に基づく無線ネットワーク、例えばWi-Fi、2Gまたは3G、またはそれらの組み合わせにアクセスできる。一例示的実施例では、通信コンポーネント816は放送チャネル経由で外部の放送管理システムからの放送信号または放送関連情報を受信する。一例示的実施例では、前記通信コンポーネント816は近距離通信を促進させるために、近距離無線通信(NFC)モジュールをさらに含む。例えば、NFCモジュールでは無線周波数識別(RFID)技術、赤外線データ協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(BT)技術および他の技術によって実現できる。
例示的な実施例では、装置800は、一つ以上の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサまたは他の電子要素によって実現され、上記方法を実行するために用いられることができる。
例示的な実施例では、さらに、非揮発性コンピュータ読み取り可能な記憶媒体、例えば、コンピュータプログラム命令を含むメモリ804が提供され、上記コンピュータプログラム命令は装置800のプロセッサ820によって実行されると、上記方法を実行させることができる。
本開示はシステム、方法および/またはコンピュータプログラム製品であってもよい。コンピュータプログラム製品はプロセッサに本開示の各方面を実現させるためのコンピュータ読み取り可能なプログラム命令を有しているコンピュータ読み取り可能な記憶媒体を含んでもよい。
コンピュータ読み取り可能な記憶媒体は命令実行装置において使用される命令を保存および記憶可能な有形装置であってもよい。コンピュータ読み取り可能な記憶媒体は例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置または上記の任意の適当な組み合わせであってもよいが、これらに限定されない。コンピュータ読み取り可能な記憶媒体のさらに具体的な例(非包括的リスト)としては、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュメモリ)、静的ランダムアクセスメモリ(SRAM)、携帯型コンパクトディスク読み取り専用メモリ(CD−ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピーディスク、例えば命令が記憶されているせん孔カードまたはスロット内突起構造ような機械的符号化装置、および上記の任意の適当な組み合わせを含む。ここで使用されるコンピュータ読み取り可能な記憶媒体は瞬時信号自体、例えば無線電波または他の自由に伝播される電磁波、導波路または他の伝送媒体を経由して伝播される電磁波(例えば、光ファイバーケーブルを通過するパルス光)、または電線を経由して伝送される電気信号と解釈されるものではない。
ここで記述したコンピュータ読み取り可能なプログラム命令はコンピュータ読み取り可能な記憶媒体から各計算/処理機器にダウンロードされてもよいし、または、ネットワーク、例えばインターネット、ローカルエリアネットワーク、広域ネットワークおよび/または無線ネットワークを介して外部のコンピュータまたは外部記憶装置にダウンロードされてもよい。ネットワークは銅伝送ケーブル、光ファイバー伝送、無線伝送、ルーター、ファイアウォール、交換機、ゲートウェイコンピュータおよび/またはエッジサーバを含んでもよい。各計算/処理機器内のネットワークアダプタカードまたはネットワークインタフェースは、ネットワークからコンピュータ読み取り可能プログラム命令を受信して転送して、各計算/処理機器内のコンピュータ読み取り可能な記憶媒体に記憶させる。
本開示の動作を実行するためのコンピュータプログラム命令はアセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械語命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、C++などのオブジェクト指向プログラミング言語、および「C」言語または類似するプログラミング言語などの一般的な手続き型プログラミング言語を含む一つ以上のプログラミング言語の任意の組み合わせで書かれたソースコードまたは目標コードであってもよい。コンピュータ読み取り可能プログラム命令は、完全にユーザのコンピュータにおいて実行されてもよく、部分的にユーザのコンピュータにおいて実行されてもよく、スタンドアロンソフトウェアパッケージとして実行されてもよく、部分的にユーザのコンピュータにおいてかつ部分的にリモートコンピュータにおいて実行されてもよく、または完全にリモートコンピュータもしくはサーバにおいて実行されてもよい。リモートコンピュータに関与する場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む任意の種類のネットワークを経由してユーザのコンピュータに接続されてもよく、または、(例えばインターネットサービスプロバイダを利用してインターネットを経由して)外部コンピュータに接続されてもよい。いくつかの実施例では、コンピュータ読み取り可能プログラム命令の状態情報を利用して、例えばプログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)またはプログラマブル論理アレイ(PLA)などの電子回路をパーソナライズし、該電子回路によりコンピュータ読み取り可能なプログラム命令を実行することにより、本開示の各方面を実現するようにしてもよい。
ここで本開示の実施例に係る方法、装置(システム)およびコンピュータプログラム製品のフローチャートおよび/またはブロック図を参照しながら本開示の各態様を説明したが、フローチャートおよび/またはブロック図の各ブロックおよびフローチャートおよび/またはブロック図の各ブロックの組み合わせは、いずれもコンピュータ読み取り可能プログラム命令によって実現できることを理解すべきである。
これらのコンピュータ読み取り可能なプログラム命令は、汎用コンピュータ、専用コンピュータまたは他のプログラマブルデータ処理装置のプロセッサへ提供されて、これらの命令がコンピュータまたは他のプログラマブルデータ処理装置のプロセッサによって実行されると、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現するように機械を製造してもよい。また、これらのコンピュータ読み取り可能なプログラム命令は、コンピュータ読み取り可能な記憶媒体に記憶し、コンピュータ、プログラマブルデータ処理装置および/または他の機器を特定の方式で動作させるようにしてもよい。命令を記憶しているコンピュータ読み取り可能な記憶媒体には、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作の各方面を実現するための命令を有する製品を含む
コンピュータ読み取り可能なプログラムはコンピュータ、他のプログラマブルデータ処理装置、または他の機器にロードし、コンピュータ、他のプログラマブルデータ処理装置または他の機器において一連の動作ステップを実行させることにより、コンピュータにより実現されるプロセスを生成し、コンピュータ、他のプログラマブルデータ処理装置、または他の機器において実行される命令によりフローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現する。
図面のうち、フローチャートおよびブロック図は本開示の複数の実施例に係るシステム、方法およびコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能および動作を示す。この点では、フローチャートまたはブロック図における各ブロックは一つのモジュール、プログラムセグメントまたは命令の一部分を代表することができ、前記モジュール、プログラムセグメントまたは命令の一部分は指定された論理機能を実現するための一つ以上の実行可能命令を含む。いくつかの代替としての実現形態では、ブロックに表記される機能は図面に付した順序と異なって実現してもよい。例えば、二つの連続的なブロックは実質的に同時に実行してもよく、また、係る機能によって、逆な順序で実行してもよい場合がある。なお、ブロック図および/またはフローチャートにおける各ブロック、およびブロック図および/またはフローチャートにおけるブロックの組み合わせは、指定される機能または動作を実行するハードウェアに基づく専用システムによって実現されてもよいし、または専用ハードウェアとコンピュータ命令との組み合わせによって実現されてもよい。
以上、本開示の各実施例を記述したが、上記説明は例示的なものに過ぎず、網羅的なものではなく、かつ開示された各実施例に限定されるものでもない。当業者にとって、説明された各実施例の範囲および精神から逸脱することなく、様々な修正および変更が自明である。本明細書に選ばれた用語は、各実施例の原理、実際の適用または市場における技術への技術的改善を好適に解釈するか、または他の当業者に本文に開示された各実施例を理解させるためのものである。

Claims (31)

  1. 現在対象物が撮像した画像中の目標対象物を検出することと、
    前記目標対象物の危険レベルを特定することと、
    前記危険レベルに対応する衝突制御を実行することと、を含むことを特徴とする衝突制御方法。
  2. 前記現在対象物が撮像した画像中の目標対象物を検出することは、
    ニューラルネットワークによって、現在対象物が撮像した画像中の目標対象物を検出することを含むことを特徴とする請求項1に記載の方法。
  3. 前記現在対象物が撮像した画像中の目標対象物を検出することは、
    現在対象物が撮像した画像中の目標対象物の状態を検出することを含み、
    前記目標対象物の危険レベルを特定することは、
    前記目標対象物の状態に基づいて、前記目標対象物の危険レベルを特定することを含む、ことを特徴とする請求項1または2に記載の方法。
  4. 前記現在対象物は走行対象物を含み、
    前記危険レベルに対応する衝突制御を実行することは、
    前記危険レベルに対応する衝突警告を実行すること、および/または
    前記危険レベルに対応する、走行方向の変更、走行速度の変更及び停止の少なくとも一つを含む運転制御を実行することを含むことを特徴とする請求項1〜3のいずれか1項に記載の方法。
  5. 前記現在対象物は静止対象物を含み、
    前記危険レベルに対応する衝突制御を実行することは、
    前記危険レベルに対応する衝突警告を実行することを含むことを特徴とする請求項1〜3のいずれか1項に記載の方法。
  6. 前記目標対象物の危険レベルを特定することは、
    前記目標対象物と前記現在対象物との間の距離を決定することと、
    前記目標対象物の状態および前記距離に基づいて、前記目標対象物の危険レベルを特定することと、を含むことを特徴とする請求項3〜5のいずれか1項に記載の方法。
  7. 前記目標対象物の状態は正常状態を含み、
    前記危険レベルは第1の危険レベルおよび第2の危険レベルを含み、
    前記目標対象物の状態および前記距離に基づいて前記目標対象物の危険レベルを特定することは、
    前記目標対象物の状態が正常状態であり、且つ前記距離が第1の距離閾値以下である場合、前記目標対象物の危険レベルを第1の危険レベルとして特定すること、または
    前記目標対象物の状態が正常状態であり、且つ前記距離が第1の距離閾値よりも大きい場合、前記目標対象物の危険レベルを第2の危険レベルとして特定することを含むことを特徴とする請求項6に記載の方法。
  8. 前記目標対象物の状態は異常状態を含み、
    前記危険レベルは第3の危険レベルおよび第4の危険レベルを含み、
    前記目標対象物の状態および前記距離に基づいて前記目標対象物の危険レベルを特定することは、
    前記目標対象物の状態が異常状態であり、且つ前記距離が第2の距離閾値以下である場合、前記目標対象物の危険レベルを第3の危険レベルとして特定すること、または
    前記目標対象物の状態が異常状態であり、且つ前記距離が第2の距離閾値よりも大きい場合、前記目標対象物の危険レベルを第4の危険レベルとして特定することを含むことを特徴とする請求項6に記載の方法。
  9. 前記目標対象物の危険レベルを特定することは、
    前記目標対象物と前記現在対象物との間の衝突時間を予測することと、
    前記目標対象物の状態および前記衝突時間に基づいて、前記目標対象物の危険レベルを特定することと、を含むことを特徴とする請求項3〜5のいずれか1項に記載の方法。
  10. 前記目標対象物の状態は正常状態を含み、
    前記危険レベルは第5の危険レベルおよび第6の危険レベルを含み、
    前記目標対象物の状態および前記衝突時間に基づいて前記目標対象物の危険レベルを特定することは、
    前記目標対象物の状態が正常状態であり、且つ前記衝突時間が第1の時間閾値以下である場合、前記目標対象物の危険レベルを第5の危険レベルとして特定すること、または
    前記目標対象物の状態が正常状態であり、且つ前記衝突時間が第1の時間閾値よりも大きい場合、前記目標対象物の危険レベルを第6の危険レベルとして特定することを含むことを特徴とする請求項9に記載の方法。
  11. 前記目標対象物の状態は異常状態を含み、
    前記危険レベルは第7の危険レベルおよび第8の危険レベルを含み、
    前記目標対象物の状態および前記衝突時間に基づいて前記目標対象物の危険レベルを特定することは、
    前記目標対象物の状態が異常状態であり、且つ前記衝突時間が第2の時間閾値以下である場合、前記目標対象物の危険レベルを第7の危険レベルとして特定すること、または
    前記目標対象物の状態が異常状態であり、且つ前記衝突時間が第2の時間閾値よりも大きい場合、前記目標対象物の危険レベルを第8の危険レベルとして特定することを含むことを特徴とする請求項9に記載の方法。
  12. 前記目標対象物は、歩行者、車両、動物、植物、障害物、ロボット及び建築物の少なくとも1つを含むことを特徴とする請求項1〜11のいずれか1項に記載の方法。
  13. 前記目標対象物が歩行者である場合、前記目標対象物の状態は、
    位置、速度、加速度及び移動方向の1つまたは任意の組み合わせを含む運動状態と、
    物を拾うこと、及びうつむくことの1つまたは任意の組み合わせを含む肢体状態と、
    年齢状態及び身体状態の1つまたは任意の組み合わせを含む属性状態と、の1つまたは任意の組み合わせを含む、ことを特徴とする請求項1〜12のいずれか1項に記載の方法。
  14. 前記目標対象物が車両である場合、前記目標対象物の状態は、
    位置、速度、加速度及び方向の1つまたは任意の組み合わせを含む運動状態と、
    危険運転状態の1つまたは任意の組み合わせを含む行動状態と、
    自動車、非自動車及び車種の1つまたは任意の組み合わせを含む属性状態と、の1つまたは任意の組み合わせを含む、ことを特徴とする請求項1〜12のいずれか1項に記載の方法。
  15. 現在対象物が撮像した画像中の目標対象物を検出するための検出モジュールと、
    前記目標対象物の危険レベルを特定するための特定モジュールと、
    前記危険レベルに対応する衝突制御を実行するための実行モジュールと、を含むことを特徴とする衝突制御装置。
  16. 前記検出モジュールは、ニューラルネットワークによって、現在対象物が撮像した画像中の目標対象物を検出するために用いられることを特徴とする請求項15に記載の装置。
  17. 前記検出モジュールは、現在対象物が撮像した画像中の目標対象物の状態を検出するために用いられて、
    前記特定モジュールは、前記目標対象物の状態に基づいて前記目標対象物の危険レベルを特定するために用いられることを特徴とする請求項15または16に記載の装置。
  18. 前記現在対象物は走行対象物を含み、
    前記実行モジュールは、
    前記危険レベルに対応する衝突警告を実行すること、および/または
    前記危険レベルに対応する、走行方向の変更、走行速度の変更及び停止の少なくとも1つを含む運転制御を実行することに用いられることを特徴とする請求項15〜17のいずれか1項に記載の装置。
  19. 前記現在対象物は静止対象物を含み、
    前記実行モジュールは、前記危険レベルに対応する衝突警告を実行するために用いられることを特徴とする請求項15〜17のいずれか1項に記載の装置。
  20. 前記特定モジュールは、
    前記目標対象物と前記現在対象物との間の距離を決定することと、
    前記目標対象物の状態および前記距離に基づいて前記目標対象物の危険レベルを特定することに用いられることを特徴とする請求項17〜19のいずれか1項に記載の装置。
  21. 前記目標対象物の状態は正常状態を含み、
    前記危険レベルは第1の危険レベルおよび第2の危険レベルを含み、
    前記目標対象物の状態および前記距離に基づいて前記目標対象物の危険レベルを特定することは、
    前記目標対象物の状態が正常状態であり、且つ前記距離が第1の距離閾値以下である場合、前記目標対象物の危険レベルを第1の危険レベルとして特定すること、または
    前記目標対象物の状態が正常状態であり、且つ前記距離が第1の距離閾値よりも大きい場合、前記目標対象物の危険レベルを第2の危険レベルとして特定することを含むことを特徴とする請求項20に記載の装置。
  22. 前記目標対象物の状態は異常状態を含み、
    前記危険レベルは第3の危険レベルおよび第4の危険レベルを含み、
    前記目標対象物の状態および前記距離に基づいて前記目標対象物の危険レベルを特定することは、
    前記目標対象物の状態が異常状態であり、且つ前記距離が第2の距離閾値以下である場合、前記目標対象物の危険レベルを第3の危険レベルとして特定すること、または
    前記目標対象物の状態が異常状態であり、且つ前記距離が第2の距離閾値よりも大きい場合、前記目標対象物の危険レベルを第4の危険レベルとして特定することを含むことを特徴とする請求項20に記載の装置。
  23. 前記特定モジュールは、
    前記目標対象物と前記現在対象物との間の衝突時間を予測することと、
    前記目標対象物の状態および前記衝突時間に基づいて前記目標対象物の危険レベルを特定することに用いられることを特徴とする請求項17〜19のいずれか1項に記載の装置。
  24. 前記目標対象物の状態は正常状態を含み、
    前記危険レベルは第5の危険レベルおよび第6の危険レベルを含み、
    前記目標対象物の状態および前記衝突時間に基づいて前記目標対象物の危険レベルを特定することは、
    前記目標対象物の状態が正常状態であり、且つ前記衝突時間が第1の時間閾値以下である場合、前記目標対象物の危険レベルを第5の危険レベルとして特定すること、または
    前記目標対象物の状態が正常状態であり、且つ前記衝突時間が第1の時間閾値よりも大きい場合、前記目標対象物の危険レベルを第6の危険レベルとして特定することを含むことを特徴とする請求項23に記載の装置。
  25. 前記目標対象物の状態は異常状態を含み、
    前記危険レベルは第7の危険レベルおよび第8の危険レベルを含み、
    前記目標対象物の状態および前記衝突時間に基づいて前記目標対象物の危険レベルを特定することは、
    前記目標対象物の状態が異常状態であり、且つ前記衝突時間が第2の時間閾値以下である場合、前記目標対象物の危険レベルを第7の危険レベルとして特定すること、または
    前記目標対象物の状態が異常状態であり、且つ前記衝突時間が第2の時間閾値よりも大きい場合、前記目標対象物の危険レベルを第8の危険レベルとして特定することを含むことを特徴とする請求項23に記載の装置。
  26. 前記目標対象物は、歩行者、車両、動物、植物、障害物、ロボット及び建築物の少なくとも1つを含むことを特徴とする請求項15〜25のいずれか1項に記載の装置。
  27. 前記目標対象物が歩行者である場合、
    前記目標対象物の状態は、
    位置、速度、加速度及び移動方向の1つまたは任意の組み合わせを含む運動状態と、
    物を拾うこと、及びうつむくことの1つまたは任意の組み合わせを含む肢体状態と、
    年齢状態及び身体状態の1つまたは任意の組み合わせを含む属性状態と、の1つまたは任意の組み合わせを含む、ことを特徴とする請求項15〜26のいずれか1項に記載の装置。
  28. 前記目標対象物が車両である場合、
    前記目標対象物の状態は、
    位置、速度、加速度及び方向の1つまたは任意の組み合わせを含む運動状態と、
    危険運転状態の1つまたは任意の組み合わせを含む行動状態と、
    自動車、非自動車及び車種の1つまたは任意の組み合わせを含む属性状態と、の1つまたは任意の組み合わせを含む、ことを特徴とする請求項15〜26のいずれか1項に記載の装置。
  29. プロセッサと、
    プロセッサにより実行可能なコマンドを記憶するためのメモリとを含み、
    前記プロセッサは、前記実行可能なコマンドを直接的または間接的に呼び出すことによって請求項1〜14のいずれか1項に記載の方法を実行することを特徴とする電子機器。
  30. コンピュータプログラム命令が記憶されているコンピュータ読取可能な記憶媒体であって、前記コンピュータプログラム命令は、プロセッサによって実行されると、請求項1〜14のいずれか1項に記載の方法を実現させることを特徴とするコンピュータ読取可能な記憶媒体。
  31. 電子機器内で実行されると、前記電子機器のプロセッサに、請求項1〜14のいずれか1項に記載の方法を実行させるためのコンピュータ読取可能なコードを含むコンピュータプログラム。
JP2020555289A 2018-04-28 2019-04-26 衝突制御方法及び装置、電子機器並びに記憶媒体 Pending JP2021508902A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810403429.3 2018-04-28
CN201810403429.3A CN108583571A (zh) 2018-04-28 2018-04-28 碰撞控制方法及装置、电子设备和存储介质
PCT/CN2019/084529 WO2019206273A1 (zh) 2018-04-28 2019-04-26 碰撞控制方法及装置、电子设备和存储介质

Publications (1)

Publication Number Publication Date
JP2021508902A true JP2021508902A (ja) 2021-03-11

Family

ID=63619319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020555289A Pending JP2021508902A (ja) 2018-04-28 2019-04-26 衝突制御方法及び装置、電子機器並びに記憶媒体

Country Status (5)

Country Link
US (1) US20200317190A1 (ja)
JP (1) JP2021508902A (ja)
CN (1) CN108583571A (ja)
SG (1) SG11202005729TA (ja)
WO (1) WO2019206273A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022203150A1 (ko) * 2021-03-23 2022-09-29 삼성전자주식회사 로봇 및 그 제어 방법

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108583571A (zh) * 2018-04-28 2018-09-28 深圳市商汤科技有限公司 碰撞控制方法及装置、电子设备和存储介质
KR102637599B1 (ko) * 2018-10-08 2024-02-19 주식회사 에이치엘클레무브 차량간 통신 정보를 이용한 차선변경 제어장치 및 방법과, 그를 위한 성향 정보 산출 장치
CN111186432B (zh) * 2018-11-13 2021-05-28 杭州海康威视数字技术股份有限公司 一种车辆盲区预警的方法及装置
CN109733391A (zh) * 2018-12-10 2019-05-10 北京百度网讯科技有限公司 车辆的控制方法、装置、设备、车辆及存储介质
CN109508004A (zh) * 2018-12-10 2019-03-22 鄂尔多斯市普渡科技有限公司 一种用于无人驾驶汽车的障碍物优先等级避让***及方法
CN109814573B (zh) * 2019-02-21 2022-08-02 百度在线网络技术(北京)有限公司 无人驾驶控制方法、装置、设备及计算机可读存储介质
CN109951686A (zh) * 2019-03-21 2019-06-28 山推工程机械股份有限公司 一种工程机械作业安全监控方法及其监控***
US11260852B2 (en) * 2019-03-26 2022-03-01 GM Global Technology Operations LLC Collision behavior recognition and avoidance
CN110356392A (zh) * 2019-05-31 2019-10-22 惠州市德赛西威汽车电子股份有限公司 一种安全行驶智能辅助方法及***
CN110304056B (zh) * 2019-07-29 2021-06-04 广州小鹏汽车科技有限公司 车辆及其控制方法与装置
CN110349425B (zh) * 2019-08-13 2020-11-13 浙江吉利汽车研究院有限公司 一种用于车路协同自动驾驶***的重要目标生成方法
CN112758088A (zh) * 2019-11-05 2021-05-07 深圳市大富科技股份有限公司 危险源的提醒方法及高级驾驶辅助***
CN112925301B (zh) * 2019-12-05 2024-05-17 杭州海康机器人股份有限公司 用于agv避险的控制方法和agv
CN111292261B (zh) * 2020-01-17 2023-04-18 杭州电子科技大学 一种基于多传感器融合的集装箱检测及锁定方法
CN111497836A (zh) * 2020-04-30 2020-08-07 上海芯物科技有限公司 车辆驾驶中的非机动车避让方法、装置、车辆及存储介质
CN111968102B (zh) * 2020-08-27 2023-04-07 中冶赛迪信息技术(重庆)有限公司 一种目标设备检测方法、***、介质及电子终端
CN112339699B (zh) * 2020-11-05 2023-01-17 南昌智能新能源汽车研究院 一种防侧碰***
CN112356815B (zh) * 2020-12-01 2023-04-25 吉林大学 一种基于单目相机的行人主动避撞***及方法
CN112562410A (zh) * 2020-12-03 2021-03-26 齐鲁工业大学 一种车辆跟驰安全距离智能报警***
CN112633474B (zh) * 2020-12-20 2022-04-05 东南大学 一种重型营运车辆的后向防撞驾驶决策方法
CN112977447B (zh) * 2021-03-01 2022-04-26 恒大新能源汽车投资控股集团有限公司 一种车辆控制方法、装置、设备及存储介质
CN113022539B (zh) * 2021-03-26 2022-10-04 浙江吉利控股集团有限公司 一种动物驱离方法、***、存储介质及设备
CN113341824A (zh) * 2021-06-17 2021-09-03 鄂尔多斯市普渡科技有限公司 一种开放式自动驾驶避障控制***及控制方法
CN113469037A (zh) * 2021-06-30 2021-10-01 广州大学 一种基于机器视觉的水下无人机智能避障方法和***
US20230031289A1 (en) * 2021-07-30 2023-02-02 Toyota Research Institute, Inc. Monocular 2d semantic keypoint detection and tracking
CN113805171B (zh) * 2021-10-14 2023-09-26 中国第一汽车股份有限公司 一种危险目标判断方法、装置、设备和存储介质
CN113780255B (zh) * 2021-11-12 2022-02-22 北京世纪好未来教育科技有限公司 危险评估方法、装置、设备及存储介质
DE102022200674A1 (de) * 2022-01-21 2023-07-27 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Betreiben eines Fahrzeugs

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080285799A1 (en) * 2007-05-16 2008-11-20 Institute Of Technology, National Defense University Apparatus and method for detecting obstacle through stereovision
JP2010182236A (ja) * 2009-02-09 2010-08-19 Toyota Motor Corp 移動領域予測装置
EP2388160A1 (en) * 2010-05-17 2011-11-23 Volvo Car Corporation Motor vehicle distance information system and method
CN105679096A (zh) * 2016-03-23 2016-06-15 深圳祖师汇科技股份有限公司 一种前车碰撞预警判定方法及装置
CN106032142A (zh) * 2015-03-18 2016-10-19 小米科技有限责任公司 车辆控制方法及装置
US20170057497A1 (en) * 2015-08-28 2017-03-02 Delphi Technologies, Inc. Pedestrian-intent-detection for automated vehicles
CN107564333A (zh) * 2016-06-30 2018-01-09 张家港市丰乐汽车设备有限公司 一种车辆速度警示方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5314037A (en) * 1993-01-22 1994-05-24 Shaw David C H Automobile collision avoidance system
JP4171501B2 (ja) * 2006-04-25 2008-10-22 本田技研工業株式会社 車両の周辺監視装置
CN102685516A (zh) * 2011-03-07 2012-09-19 李慧盈 立体视觉主动安全辅助驾驶方法
WO2013133463A1 (en) * 2012-03-09 2013-09-12 Lg Electronics Inc. Image display device and method thereof
KR102028720B1 (ko) * 2012-07-10 2019-11-08 삼성전자주식회사 위험 요소에 대한 정보를 디스플레이하는 투명 디스플레이 장치 및 그 방법
JP6429368B2 (ja) * 2013-08-02 2018-11-28 本田技研工業株式会社 歩車間通信システムおよび方法
CN105216792A (zh) * 2014-06-12 2016-01-06 株式会社日立制作所 对周围环境中的障碍物目标进行识别跟踪的方法和设备
JP6453695B2 (ja) * 2015-03-31 2019-01-16 株式会社デンソー 運転支援装置、及び運転支援方法
KR102573303B1 (ko) * 2016-09-01 2023-08-31 삼성전자 주식회사 자율 주행 방법 및 장치
JP6597690B2 (ja) * 2017-03-24 2019-10-30 株式会社デンソー 運転支援装置
JP2018195301A (ja) * 2017-05-15 2018-12-06 キヤノン株式会社 制御装置及び制御方法
CN108583571A (zh) * 2018-04-28 2018-09-28 深圳市商汤科技有限公司 碰撞控制方法及装置、电子设备和存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080285799A1 (en) * 2007-05-16 2008-11-20 Institute Of Technology, National Defense University Apparatus and method for detecting obstacle through stereovision
JP2010182236A (ja) * 2009-02-09 2010-08-19 Toyota Motor Corp 移動領域予測装置
EP2388160A1 (en) * 2010-05-17 2011-11-23 Volvo Car Corporation Motor vehicle distance information system and method
CN106032142A (zh) * 2015-03-18 2016-10-19 小米科技有限责任公司 车辆控制方法及装置
US20170057497A1 (en) * 2015-08-28 2017-03-02 Delphi Technologies, Inc. Pedestrian-intent-detection for automated vehicles
CN105679096A (zh) * 2016-03-23 2016-06-15 深圳祖师汇科技股份有限公司 一种前车碰撞预警判定方法及装置
CN107564333A (zh) * 2016-06-30 2018-01-09 张家港市丰乐汽车设备有限公司 一种车辆速度警示方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022203150A1 (ko) * 2021-03-23 2022-09-29 삼성전자주식회사 로봇 및 그 제어 방법

Also Published As

Publication number Publication date
SG11202005729TA (en) 2020-07-29
US20200317190A1 (en) 2020-10-08
WO2019206273A1 (zh) 2019-10-31
CN108583571A (zh) 2018-09-28

Similar Documents

Publication Publication Date Title
JP2021508902A (ja) 衝突制御方法及び装置、電子機器並びに記憶媒体
JP2021509516A (ja) 衝突制御方法及び装置、電子機器並びに記憶媒体
JP7007497B2 (ja) 測距方法、知能制御方法及び装置、電子機器ならびに記憶媒体
CN109571468B (zh) 安防巡检机器人及安防巡检方法
KR102466521B1 (ko) 보행자 정보 시스템
US20210365696A1 (en) Vehicle Intelligent Driving Control Method and Device and Storage Medium
US10160448B2 (en) Object tracking using sensor fusion within a probabilistic framework
RU2656933C2 (ru) Способ и устройство для предупреждения о встречном транспортном средстве
JP2023542992A (ja) インテリジェントドライブ制御方法及び装置、車両、電子機器並びに記憶媒体
CN111216127A (zh) 一种机器人控制方法、装置、服务器及介质
JP2021536069A (ja) 信号表示灯の状態検出方法及び装置、運転制御方法及び装置
US11455836B2 (en) Dynamic motion detection method and apparatus, and storage medium
WO2021057244A1 (zh) 光强调节方法及装置、电子设备和存储介质
CN108687759B (zh) 移动装置、移动装置的控制方法以及记录介质
CN107485335B (zh) 识别方法、装置、电子设备及存储介质
US11303799B2 (en) Control device and control method
CN109919126B (zh) 一种移动物体探测方法、装置及存储介质
CN114291110B (zh) 车辆控制方法、装置、电子设备及存储介质
CN115891989A (zh) 车辆的控制方法、***、装置以及车辆
CN114495072A (zh) 乘员状态检测方法及装置、电子设备和存储介质
KR20220031168A (ko) 디스플레이장치 및 그 제어방법
CN115071704B (zh) 轨迹预测方法、装置、介质、设备、芯片和车辆
KR102247911B1 (ko) 인공 지능 로봇 및 인공 지능 서버
CN114312821A (zh) 车辆控制方法、装置、终端设备及存储介质
JP2018136244A (ja) サービス提供システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220526

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221011