JP7500001B2 - Physique determination device and physique determination method - Google Patents
Physique determination device and physique determination method Download PDFInfo
- Publication number
- JP7500001B2 JP7500001B2 JP2024521443A JP2024521443A JP7500001B2 JP 7500001 B2 JP7500001 B2 JP 7500001B2 JP 2024521443 A JP2024521443 A JP 2024521443A JP 2024521443 A JP2024521443 A JP 2024521443A JP 7500001 B2 JP7500001 B2 JP 7500001B2
- Authority
- JP
- Japan
- Prior art keywords
- occupant
- seat
- physique
- unit
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 28
- 238000003384 imaging method Methods 0.000 claims description 292
- 238000001514 detection method Methods 0.000 claims description 69
- 238000012937 correction Methods 0.000 claims description 38
- 238000009434 installation Methods 0.000 claims description 13
- 230000001815 facial effect Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 description 32
- 210000003128 head Anatomy 0.000 description 27
- 210000001624 hip Anatomy 0.000 description 24
- 238000010801 machine learning Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 2
- 210000000544 articulatio talocruralis Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 210000002310 elbow joint Anatomy 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000000629 knee joint Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000000323 shoulder joint Anatomy 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/015—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Seats For Vehicles (AREA)
- Image Processing (AREA)
- Air Bags (AREA)
Description
本開示は、乗員の体格判定装置および体格判定方法に関する。 The present disclosure relates to an occupant physical build determination device and a method for determining physical build.
車両において、エアバッグの制御、シートベルトの制御、または、幼児置き去り検知等を行うため、車両の乗員を撮像した撮像画像に基づいて当該乗員の体格を判定する技術が知られている。
ここで、乗員が座席の背もたれから離れている場合、言い換えれば、乗員と座席の背もたれとの間に距離がある場合と、乗員が座席の背もたれから離れていない場合とでは、撮像装置から乗員までの距離が変わる。撮像装置から乗員までの距離が変われば、撮像画像上での乗員の大きさが変わる。撮像画像に基づいて乗員の体格を判定する際は、このことが考慮されていないと、乗員の体格の誤判定に繋がるおそれがある。
例えば、特許文献1には、複数の画像の中から、乗員の頭部が最も小さく、かつ頭部がシート背面部の横幅の中央に位置しているときの画像を抽出し、抽出した画像から特定した頭部の位置情報を用いて乗員の体格を判定する技術が開示されている。
2. Description of the Related Art In a vehicle, a technique is known for determining the physical size of a vehicle occupant based on an image of the vehicle occupant in order to control an airbag, a seat belt, or detect an abandoned child.
Here, the distance from the imaging device to the occupant changes when the occupant is away from the backrest of the seat, in other words, when there is a distance between the occupant and the backrest of the seat and when the occupant is not away from the backrest of the seat. If the distance from the imaging device to the occupant changes, the size of the occupant on the captured image changes. If this is not taken into consideration when determining the occupant's physical build based on the captured image, it may lead to an erroneous determination of the occupant's physical build.
For example,
特許文献1に開示されているような従来技術は、ある一定時間における撮像画像上の乗員の頭部が最も小さくなるときを、乗員がシートに深く座っているとき、すなわち、乗員が座席の背もたれから離れていないときとみなす。したがって、従来技術では、例えば、乗員が常に座席の背もたれから離れている場合も、乗員が座席の背もたれから離れていないとみなし、乗員の体格を誤判定する可能性があるという課題があった。
Conventional technology such as that disclosed in
本開示は上記のような課題を解決するためになされたもので、乗員が座席の背もたれから離れている場合における乗員の体格の誤判定を防ぐ体格判定装置を提供することを目的とする。This disclosure has been made to solve the above-mentioned problems, and aims to provide a body size determination device that prevents erroneous determination of an occupant's body size when the occupant is away from the seat back.
本開示に係る体格判定装置は、撮像装置によって車両の乗員が撮像された撮像画像を取得する画像取得部と、画像取得部が取得した撮像画像に基づいて、撮像画像上で乗員の体の部位を示す乗員の特徴点を検出する特徴点検出部と、車両の座席に関するシート情報を取得するシート情報取得部と、画像取得部が取得した撮像画像とシート情報取得部が取得したシート情報とに基づき、乗員は座席の背もたれから離れているか否かを判定する着座状態判定部と、着座状態判定部が乗員は座席の背もたれから離れていると判定した場合、座席と乗員との間の実空間上の座席乗員間距離を推定し、推定した座席乗員間距離と撮像装置から座席までの奥行とに基づき撮像装置と乗員との間の実空間上の撮像距離を推定する撮像距離推定部と、特徴点検出部が検出した乗員の特徴点と撮像距離推定部が推定した撮像距離に基づき算出した体格判定用特徴量を用いて、乗員の体格を判定する体格判定部とを備えたものである。The physical size determination device according to the present disclosure includes an image acquisition unit that acquires an image of a vehicle occupant captured by an imaging device, a feature point detection unit that detects feature points of the occupant that indicate body parts of the occupant on the captured image based on the image acquired by the image acquisition unit, a seat information acquisition unit that acquires seat information related to the vehicle seat, a seating state determination unit that determines whether the occupant is away from the seat back based on the image acquired by the image acquisition unit and the seat information acquired by the seat information acquisition unit, an imaging distance estimation unit that estimates a seat-to-occupant distance in real space between the seat and the occupant if the seating state determination unit determines that the occupant is away from the seat back, and estimates an imaging distance in real space between the imaging device and the occupant based on the estimated seat-to-occupant distance and the depth from the imaging device to the seat, and a physical size determination unit that determines the occupant's physical size using feature amounts for physical size determination calculated based on the feature points of the occupant detected by the feature point detection unit and the imaging distance estimated by the imaging distance estimation unit.
本開示によれば、体格判定装置は、乗員が座席の背もたれから離れている場合における乗員の体格の誤判定を防ぐことができる。According to the present disclosure, the body size determination device can prevent erroneous determination of an occupant's body size when the occupant is away from the seat back.
以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、実施の形態1に係る体格判定装置1の構成例を示す図である。
実施の形態1において、体格判定装置1は、車両(図示省略)に搭載されることを想定している。
体格判定装置1は、撮像装置2、シート制御装置3、エアバッグ制御装置4、報知装置5、および、表示装置6と接続される。撮像装置2、シート制御装置3、エアバッグ制御装置4、報知装置5、および、表示装置6は、車両に搭載される。
Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing an example of the configuration of a
In the first embodiment, it is assumed that the
The
撮像装置2は、例えば、近赤外線カメラ、または、可視光カメラであり、車両の乗員を撮像する。撮像装置2は、例えば、車両内の乗員の状態を監視するために車両に搭載される、いわゆる「ドライバーモニタリングシステム(Driver Monitoring System,DMS)」と共用のものであってもよい。
撮像装置2は、少なくとも、車両の乗員の上半身が存在すべき範囲を含む車両内の範囲を撮像可能に設置される。車両内の乗員の上半身が存在すべき範囲とは、例えば、座席の背もたれ、および、ヘッドレストの前方付近の空間に相当する範囲である。
実施の形態1では、一例として、撮像装置2は、車両のインストルメントパネル(以下「インパネ」という。)の中央に設置され、インパネの中央から運転席および助手席を含む前部座席を撮像することを想定する。すなわち、実施の形態1において、撮像装置2は、インパネの中央から、少なくとも運転者および助手席の乗員(以下「助手席乗員」という。)を撮像する。
撮像装置2は、撮像画像を体格判定装置1に出力する。
The image capturing device 2 is, for example, a near-infrared camera or a visible light camera, and captures an image of a vehicle occupant. The image capturing device 2 may be, for example, shared with a so-called "Driver Monitoring System (DMS)" that is mounted on a vehicle to monitor the state of the occupant in the vehicle.
The imaging device 2 is installed so as to be able to capture an image of at least the area inside the vehicle including the area where the upper body of the vehicle occupant should be present, for example, the area corresponding to the seat back and the space near the front of the headrest.
In the first embodiment, as an example, it is assumed that the imaging device 2 is installed at the center of the instrument panel of the vehicle (hereinafter referred to as the "instrument panel") and images the front seats including the driver's seat and the passenger seat from the center of the instrument panel. That is, in the first embodiment, the imaging device 2 images at least the driver and the passenger in the passenger seat (hereinafter referred to as the "passenger seat passenger") from the center of the instrument panel.
The imaging device 2 outputs the captured image to the
シート制御装置3は、車両に設けられている座席を制御する。シート制御装置3は、座席の前後方向の位置の制御、座席の上下方向の位置の制御、および、座席の背もたれのリクライニング機能の制御を行う。
シート制御装置3は、座席の制御に関する情報(以下「シート情報」という。)を体格判定装置1に出力する。シート情報は、少なくとも、座席の前後方向の位置に関する情報、座席の上下方向の位置に関する情報、および、座席の背もたれの傾斜(リクライニング角度)を示す情報を含む。
The seat control device 3 controls the seats provided in the vehicle. The seat control device 3 controls the front-rear position of the seat, the up-down position of the seat, and the reclining function of the seat backrest.
The seat control device 3 outputs information relating to seat control (hereinafter referred to as "seat information") to the physical
体格判定装置1は、撮像装置2によって車両の乗員が撮像された撮像画像とシート制御装置3から取得したシート情報とに基づいて、車両の乗員の体格を判定する。以下の実施の形態1では、一例として、車両の乗員は、運転者および助手席乗員とする。すなわち、実施の形態1では、体格判定装置1は、撮像装置2によって運転者および助手席乗員が撮像された撮像画像とシート情報とに基づいて、運転者および助手席乗員の体格を判定する。体格判定装置1は、撮像画像とシート情報とに基づいて、運転者または助手席乗員が背もたれから離れているか否かを判定し、運転者または助手席乗員が背もたれから離れていると判定した場合は、これを考慮して運転者および助手席乗員の体格を判定する。The physical
なお、これは一例に過ぎず、体格判定装置1が体格を判定する対象は、例えば、運転者のみとしてもよい。この場合、撮像装置2は、例えば、インパネの中央から運転席を撮像する。すなわち、撮像装置2は、インパネの中央から、運転者を撮像する。また、体格判定装置1が体格を判定する対象は、例えば、助手席乗員のみとしてもよい。この場合、撮像装置2は、例えば、インパネの中央から助手席を撮像する。すなわち、撮像装置2は、インパネの中央から、助手席乗員を撮像する。Note that this is merely one example, and the subject for whom the physical
実施の形態1では、体格判定装置1が判定する体格は、「幼児」、「小柄」、「標準」、または、「大柄」のいずれかとする。なお、これは一例に過ぎず、体格判定装置1が判定する体格の定義は、適宜設定可能である。In the first embodiment, the physique judged by the
体格判定装置1は、車両の乗員の体格を判定すると、車両の乗員の体格を判定した結果(以下「体格判定結果」という。)を、エアバッグ制御装置4、報知装置5、および、表示装置6に出力する。
体格判定装置1の詳細な構成については、後述する。
When the physical
The detailed configuration of the
エアバッグ制御装置4は、エアバッグシステム用のECU(Engine Control Unit)であり、体格判定装置1から出力された体格判定結果に基づいてエアバッグの制御を行う。The airbag control device 4 is an ECU (Engine Control Unit) for the airbag system and controls the airbag based on the body size judgment results output from the body
報知装置5は、例えば、シートベルトリマインダーであり、体格判定装置1から出力された体格判定結果に基づき、乗員の体格を考慮して、警報を出力する。The
表示装置6は、例えば、センタークラスターまたはメータパネルに備えられ、体格判定装置1から出力された体格判定結果に応じた表示を行う。例えば、表示装置6は、乗員の中に「幼児」がいる場合、子供が乗車している旨を示すアイコンを表示する。The display device 6 is provided, for example, in a center cluster or an instrument panel, and displays information according to the physical build judgment results output from the physical
体格判定装置1は、画像取得部11、特徴点検出部12、シート情報取得部13、着座状態判定部14、特徴点処理部15、体格判定部16、および、出力部17を備える。
特徴点処理部15は、撮像距離推定部151および特徴点補正部152を備える。
The
The feature
画像取得部11は、撮像装置2によって車両の乗員が撮像された撮像画像を取得する。
画像取得部11は、取得した撮像画像を、特徴点検出部12に出力する。
なお、体格判定装置1は画像取得部11を備えず、後述する特徴点検出部12が画像取得部11の機能を有するようにしてもよい。
The
The
It is to be noted that the
特徴点検出部12は、画像取得部11が取得した撮像画像に基づいて、乗員の体の部位を示す、乗員の特徴点を検出する。より詳細には、特徴点検出部12は、画像取得部11が取得した撮像画像に基づいて、乗員の体の部位ごとに決められた関節点を、乗員の特徴点として検出する。実施の形態1では、人の体の部位ごとに決められた関節点として、鼻の関節点と、首の関節点と、肩の関節点と、肘の関節点と、腰の関節点と、手首の関節点と、膝の関節点と、足首の関節点が定義されている。The feature
特徴点検出部12は、乗員の特徴点の座標と、当該特徴点が乗員の体のどの部位を示す特徴点であるかを検出する。特徴点は、例えば、撮像画像における点であり、撮像画像における座標であらわされる。The feature
特徴点検出部12は、例えば、機械学習における学習済みのモデル(以下「第1機械学習モデル」という。)を用いて、乗員の特徴点に関する情報を得ることで、乗員の特徴点を検出する。
第1機械学習モデルは、車両の乗員が撮像された撮像画像を入力とし、撮像画像における特徴点を示す情報を出力する機械学習モデルである。特徴点を示す情報には、撮像画像における特徴点の座標、および、当該特徴点が体のどの部位を示す特徴点であるかを特定可能な情報が含まれる。
第1機械学習モデルは、予め、入力と教師ラベルのデータの組み合わせに基づいて生成された学習用データに従って、いわゆる教師あり学習により、入力に対する結果を推定するよう構築される。ここでは、第1機械学習モデルは、入力を撮像画像、教師ラベルを特徴点に関する情報とする学習用データに従って、撮像画像に対する特徴点に関する情報を出力するよう学習する。
第1機械学習モデルは、予め、特徴点検出部12が参照可能な場所に記憶されている。なお、第1機械学習モデルは、撮像画像における複数の特徴点に関する情報を出力するよう学習している。
The feature
The first machine learning model is a machine learning model that receives an image of a vehicle occupant as input and outputs information indicating feature points in the image. The information indicating the feature points includes coordinates of the feature points in the image and information that can identify which part of the body the feature points indicate.
The first machine learning model is constructed to estimate a result for an input by so-called supervised learning according to learning data generated in advance based on a combination of the input and teacher label data. Here, the first machine learning model learns to output information about feature points for a captured image according to learning data in which the input is a captured image and the teacher labels are information about feature points.
The first machine learning model is stored in advance in a location that can be referenced by the feature
図2は、実施の形態1において、特徴点検出部12が検出する特徴点の一例を説明するための図である。
車両において、運転席に運転者、助手席に助手席乗員が着座しているとする。この場合、撮像装置2は、運転者および助手席乗員を撮像する。
図2において、Imは撮像装置2が撮像した撮像画像を示し、Drは運転者を示し、Psは助手席乗員を示している。なお、実施の形態1では、撮像画像Imの左下を原点とし、撮像画像Imの右向きをx軸の正方向、撮像画像Imの上向きをy軸の正方向とする。
図2を用いて、助手席乗員を例に挙げて、特徴点検出部12が検出する特徴点について説明する。
FIG. 2 is a diagram for explaining an example of feature points detected by the feature
In a vehicle, it is assumed that a driver is seated in the driver's seat and a passenger is seated in the passenger's seat, and the image capturing device 2 captures images of the driver and the passenger.
2, Im indicates an image captured by the imaging device 2, Dr indicates a driver, and Ps indicates a passenger in the front passenger seat. In the first embodiment, the lower left corner of the captured image Im is defined as the origin, the rightward direction of the captured image Im is defined as the positive direction of the x-axis, and the upward direction of the captured image Im is defined as the positive direction of the y-axis.
The feature points detected by the feature
図2において、201、202、203a、203b、204a、204b、205a、205bは、撮像画像Imにおける特徴点を示している。
201は、助手席乗員Psの鼻を示す特徴点である。
202は、助手席乗員Psの首を示す特徴点である。
203aは、助手席乗員Psの右肩を示す特徴点である。
203bは、助手席乗員Psの左肩を示す特徴点である。
204aは、助手席乗員Psの右肘を示す特徴点である。
204bは、助手席乗員Psの左肘を示す特徴点である。
205aは、助手席乗員Psの右腰を示す特徴点である。
205bは、助手席乗員Psの左腰を示す特徴点である。
In FIG. 2, 201, 202, 203a, 203b, 204a, 204b, 205a, and 205b indicate feature points in a captured image Im.
特徴点検出部12は、201~205bで示すような特徴点を検出する。
特徴点検出部12は、各特徴点201~205bの撮像画像における座標と、当該各特徴点201~205bが体のどの部位を示す特徴点であるかを検出する。
なお、ここでは説明の簡単のため、助手席乗員を例に挙げたが、特徴点検出部12は、運転者についても、助手席乗員同様、鼻、首、右肩、左肩、右肘、左肘、右腰、および、左腰を示す特徴点を検出する。
また、特徴点検出部12は、検出された特徴点について、当該特徴点が撮像画像上のどの領域に存在するかによって、当該特徴点がどの座席に着座している乗員の特徴点であるかを推定する。例えば、管理者等によって、撮像装置2の設置位置および画角から、撮像画像上のどの領域にはどの座席に着座している乗員が撮像され得るかが定義された情報が生成され、特徴点検出部12が参照可能な場所に記憶されている。特徴点検出部12は、当該情報に基づけば、検出された特徴点がどの座席に着座している乗員の特徴点であるかを推定できる。
The feature
The feature
For simplicity of explanation, a passenger seat occupant has been taken as an example here, however, the feature
Furthermore, the feature
なお、図2にて、Fで示す点は、両目中心を示す点である。また、図2にて、Wで示す点は、両腰の中心(右腰を示す特徴点と左腰を示す特徴点の中心)を示す点である。
例えば、特徴点検出部12は、特徴点を検出する際に、両目中心Fおよび両腰の中心Wを検出する。例えば、特徴点検出部12は、公知の画像認識処理技術を用いて撮像画像上の乗員の両目を検出して両目中心Fを検出する。また、例えば、特徴点検出部12は、検出した両腰の特徴点から両腰の中心Wを検出する。また、第1機械学習モデルが撮像画像における特徴点を示す情報と両目中心Fを示す情報と両腰の中心Wを出力してもよい。
図2にて(a)~(e)で示す線分については、後述する。
In addition, in Fig. 2, the point indicated by F is a point indicating the center of both eyes, and the point indicated by W is a point indicating the center of both hips (the center of the feature points indicating the right hip and the feature points indicating the left hip).
For example, when detecting feature points, the feature
The line segments indicated by (a) to (e) in FIG. 2 will be described later.
特徴点検出部12は、検出した特徴点に関する情報(以下「特徴点情報」という。)を、着座状態判定部14に出力する。
特徴点情報は、特徴点ごとに、特徴点の位置と当該特徴点がどの座席に着座している乗員の体のどの部位を示す特徴点であるかがわかる情報とが対応付けられた情報を含む。また、特徴点情報は、両目中心の位置と当該両目中心がどの座席に着座している乗員の両目中心であるかがわかる情報とが対応付けられた情報を含む。また、特徴点情報は、両腰の中心の位置と当該両腰の中心がどの座席に着座している乗員の両腰の中心であるかが分かる情報とが対応付けられた情報を含む。
特徴点情報は、乗員ごとに、特徴点の座標と、当該特徴点が体のどの部位を示す特徴点であるかと、両目中心の座標と、両腰の中心の座標とがわかる情報になっていればよい。
なお、特徴点情報において、乗員は、当該乗員が着座している座席(例えば、運転席または助手席)であらわされる。すなわち、特徴点情報において、乗員を示す情報は、乗員が着座している座席を示す情報である。
The feature
The feature point information includes information that associates the position of each feature point with information indicating which part of the body of the occupant in which seat the feature point is located. The feature point information also includes information that associates the position of the center of both eyes with information indicating which seat the occupant in which the eye center is located. The feature point information also includes information that associates the position of the center of both hips with information indicating which seat the occupant in which the hip center is located.
The feature point information should be information that indicates, for each occupant, the coordinates of the feature point, which part of the body the feature point indicates, the coordinates of the centers of both eyes, and the coordinates of the centers of both hips.
In the feature point information, an occupant is represented by a seat in which the occupant is seated (for example, the driver's seat or the passenger seat). That is, in the feature point information, information indicating an occupant is information indicating a seat in which the occupant is seated.
シート情報取得部13は、シート制御装置3からシート情報を取得する。
シート情報取得部13は、取得したシート情報を着座状態判定部14に出力する。
The seat
The seat
着座状態判定部14は、撮像画像とシート情報取得部13が取得したシート情報とに基づき、乗員は座席の背もたれから離れているか否かを判定する。以下の説明において、「座席の背もたれ」を単に「背もたれ」ともいう。The seating
着座状態判定部14による、乗員が背もたれから離れているか否かの判定について、詳細に説明する。
なお、実施の形態1において、「乗員が座席の背もたれから離れている」場合とは、例えば、「乗員が座席の座面に浅く座ることにより乗員の背面の全領域が座席の背もたれから離れている」場合を想定している。
着座状態判定部14は、画像取得部11が取得した撮像画像上で水平方向、すなわちx軸方向の乗員の位置と、撮像画像上で水平方向、すなわちx軸方向の乗員の位置の基準範囲(以下「第1基準範囲」という。)との比較によって、乗員は背もたれから離れているか否かを判定する。第1基準範囲は、座席にて背もたれから離れることなく着座している状態の乗員が撮像された場合に、撮像画像上で、当該乗員の位置のx軸方向の値(x座標)がとり得ると想定される範囲である。
The determination by the seating
In addition, in
The seating
第1基準範囲は、予め、製品出荷前に、管理者等によって、座席にて乗員が背もたれから離れることなく着座している状態を想定して設定されている。そして、設定された第1基準範囲に関する情報(以下「第1基準範囲情報」という。)は、着座状態判定部14が参照可能な場所に記憶されている。
なお、第1基準範囲は、座席の位置およびリクライニング状態に応じて、複数パターン設定される。例えば、管理者等は、製品出荷前に、実験的に、一般的な体格の被験者を、様々な座席位置および様々なリクライニング状態を組み合わせた複数パターンの座席に着座させ、第1基準範囲を設定する。管理者等は、設定した第1基準範囲、座席の位置、および、リクライニング状態を示す情報が対応付けられた第1基準範囲情報を生成し、着座状態判定部14が参照可能な場所に記憶させる。
The first reference range is set in advance by an administrator or the like before product shipment, assuming a state in which an occupant is seated in the seat without moving away from the backrest. Information regarding the set first reference range (hereinafter referred to as "first reference range information") is stored in a location that can be referenced by the seating
The first reference range is set in a plurality of patterns according to the seat position and reclining state. For example, before product shipment, the manager or the like experimentally has subjects with average builds sit in a plurality of patterns of seats combining various seat positions and various reclining states, and sets the first reference range. The manager or the like generates first reference range information in which the set first reference range, seat position, and information indicating the reclining state are associated with each other, and stores the information in a location that can be referenced by the seating
着座状態判定部14は、第1基準範囲情報を参照して、シート情報取得部13が取得したシート情報に基づく位置およびリクライニング状態の座席にて乗員が背もたれから離れることなく着座している状態を想定して設定された第1基準範囲を特定する。そして、着座状態判定部14は、画像取得部11が取得した撮像画像上で水平方向、すなわちx軸方向の乗員の位置と、特定した第1基準範囲との比較によって、乗員は座席の背もたれから離れているか否かを判定する。The seating
なお、実施の形態1において、着座状態判定部14は、例えば、撮像画像における乗員の頭位置、乗員の顔向き、または、特徴点検出部12が検出した乗員の特徴点の位置から乗員の位置を判定する。着座状態判定部14は、例えば、撮像画像に対して公知の顔向き検出処理を行って、乗員の顔向きを判定すればよい。特徴点検出部12が検出した乗員の特徴点は、例えば、乗員の首を示す特徴点を想定している。
撮像画像における乗員の頭位置について、例えば、着座状態判定部14は、特徴点検出部12が検出した乗員の両目中心を乗員の頭位置としてもよいし、撮像画像に対して公知の画像認識処理を行って検出した乗員の顔の領域を含む最小矩形領域の中点を乗員の頭位置としてもよい。
また、例えば、着座状態判定部14は、判定した乗員の顔向きが予め設定された乗員が正面を向いていると想定される顔向きの範囲内である状態の頭位置を、乗員の位置と判定してもよい。
また、例えば、着座状態判定部14は、特徴点検出部12が検出した乗員の首を示す特徴点の位置から、乗員の位置を判定してもよい。
また、着座状態判定部14は、例えば、乗員が着座している座席のシートベルトの引き出し量に基づいて乗員の位置を判定してもよい。この場合、着座状態判定部14は、例えば、車両に搭載されているシートベルトセンサ(図示省略)から、シートベルトの引き出し量に関する情報を含む情報(以下「シートベルト情報」とい。)を取得すればよい。シートベルトセンサは、シートベルトのスイッチのオンまたはオフ、シートベルトの引き出し量等を制御する。
In the first embodiment, the seating
Regarding the head position of the occupant in the captured image, for example, the seating
Also, for example, the seating
Also, for example, the seating
The seating
着座状態判定部14は、画像取得部11が取得した撮像画像上で水平方向、すなわちx軸方向の乗員の位置が、第1基準範囲外であれば、乗員は座席の背もたれから離れていると判定する。一方、着座状態判定部14は、画像取得部11が取得した撮像画像上で水平方向、すなわちx軸方向の乗員の位置が、第1基準範囲内であれば、乗員は座席の背もたれから離れていないと判定する。The seating
ここで、図3Aおよび図3Bは、実施の形態1において、画像取得部11が取得した撮像画像の一例である。
図3Aおよび図3Bを用いて、着座状態判定部14による、乗員は座席の背もたれから離れているか否かの判定方法の一例について説明する。なお、ここでは、着座状態判定部14は、乗員の位置を乗員の頭位置とし、当該頭位置のx座標と第1基準範囲との比較によって乗員は座席の背もたれから離れているか否かを判定するものとする。
図3Aおよび図3Bでは、説明の便宜上、撮像画像のうち、運転者が撮像された領域のみを図示している。なお、車両は右ハンドル車である。
図3Aおよび図3Bにおいて、撮像画像はImで示され、運転者はDrで示されている。また、図3Aおよび図3Bにおいて、第1基準範囲はR1で示されている。上述のとおり、第1基準範囲は、撮像画像上で水平方向、すなわちx軸方向の乗員の位置の基準範囲である。すなわち、第1基準範囲は、撮像画像上の乗員の位置のx座標の範囲である。
なお、図3では、図3Aに示す撮像画像が撮像された際の座席の位置およびリクライニング状態と、図3Bに示す撮像画像が撮像された際の座席の位置およびリクライニング状態とは同じである。つまり、図3Aに示す撮像画像における第1基準範囲R1と図3Bに示す撮像画像における第1基準範囲R1とは等しい。
図3Aにおいて、乗員の頭位置はH1で示されており、図3Bにおいて、乗員の頭位置はH2で示されている。
Here, FIG. 3A and FIG. 3B are examples of captured images acquired by the
3A and 3B, an example of a method for determining whether or not an occupant is away from the backrest of the seat by the seating
3A and 3B, for the sake of convenience, only the area of the captured image in which the driver is captured is shown. Note that the vehicle is a right-hand drive vehicle.
3A and 3B, the captured image is indicated by Im, and the driver is indicated by Dr. Also, in FIG. 3A and 3B, the first reference range is indicated by R1. As described above, the first reference range is a reference range of the occupant's position in the horizontal direction, i.e., the x-axis direction, on the captured image. That is, the first reference range is a range of the x-coordinate of the occupant's position on the captured image.
In Fig. 3, the seat position and reclining state when the image shown in Fig. 3A was captured are the same as those when the image shown in Fig. 3B was captured. In other words, the first reference range R1 in the image shown in Fig. 3A is equal to the first reference range R1 in the image shown in Fig. 3B.
In FIG. 3A, the occupant's head position is designated H1, and in FIG. 3B, the occupant's head position is designated H2.
図3Aに示すように、撮像画像上で水平方向、すなわちx軸方向の乗員の頭位置H1、言い換えれば、撮像画像上の乗員の頭位置H1のx座標が、第1基準範囲R1の範囲内である場合、着座状態判定部14は、乗員は背もたれから離れていないと判定する。As shown in FIG. 3A, when the occupant's head position H1 in the horizontal direction, i.e., the x-axis direction, on the captured image, in other words, the x-coordinate of the occupant's head position H1 on the captured image, is within the first reference range R1, the seating
一方、図3Bに示すように、撮像画像上で水平方向、すなわちx軸方向の乗員の頭位置、言い換えれば、撮像画像上の乗員の頭位置H1のx座標が、第1基準範囲R1の範囲外である場合、着座状態判定部14は、乗員は背もたれから離れていると判定する。
撮像装置2がインパネの中央から右ハンドル車の運転席を撮像する場合、乗員が背もたれから離れると、撮像画像上で、頭位置は、乗員が背もたれから離れていない状態の頭位置よりも左側に位置するようになる。
On the other hand, as shown in Figure 3B, when the occupant's head position in the horizontal direction, i.e., the x-axis direction, on the captured image, in other words, the x-coordinate of the occupant's head position H1 on the captured image, is outside the first reference range R1, the seating
When the imaging device 2 captures an image of the driver's seat of a right-hand drive vehicle from the center of the instrument panel, when the occupant moves away from the backrest, the head position in the captured image is positioned to the left of the head position when the occupant does not move away from the backrest.
着座状態判定部14は、乗員が座席の背もたれから離れているか否かを示す情報(以下「着座状態情報」という。)を、特徴点情報、および、シート情報とともに、特徴点処理部15に出力する。The seating
特徴点処理部15は、撮像装置2と乗員との間の実空間上の距離(以下「撮像距離」という。)に基づき、必要に応じて、撮像画像上の特徴点の座標を補正する。なお、実施の形態1において、撮像距離は、詳細には、撮像装置2と乗員の体の中心をあらわす点(以下「乗員中心」という。)との間の実空間上の距離である。乗員中心は、例えば、乗員の頭位置、または、乗員の首の位置である。The feature
特徴点処理部15の撮像距離推定部151は、撮像距離を推定する。
撮像距離推定部151は、着座状態判定部14が乗員は座席の背もたれから離れていると判定した場合は、座席と乗員との間の実空間上の距離(以下「座席乗員間距離」という。)を推定し、推定した座席乗員間距離に基づき撮像距離を推定する。
The imaging
When the seating
図4Aおよび図4Bは、実施の形態1における撮像距離推定部151による撮像距離の推定方法の一例について説明するための図であって、車両の上面視図である。なお、図4Aおよび図4Bでは、説明の簡単のため、1つの座席(図4Aおよび図4BにてSで示す)と当該座席Sに着座している乗員(図4Aにて401で示し、図4Bにて402で示す)と撮像装置2のみ図示している。
図4Aおよび図4Bにおける3次元座標軸のうちのx軸は車両の車幅方向と平行な軸であり、y軸は車両の車高方向と平行な軸であり、z軸は車両の車長方向、すなわち奥行方向と平行な軸である。
4A and 4B are diagrams illustrating an example of a method for estimating an imaging distance by the imaging
Among the three-dimensional coordinate axes in Figures 4A and 4B, the x-axis is an axis parallel to the vehicle width direction of the vehicle, the y-axis is an axis parallel to the vehicle height direction of the vehicle, and the z-axis is an axis parallel to the vehicle length direction, i.e., the depth direction, of the vehicle.
図4Aおよび図4Bにおいて、S1は座席の背もたれの幅方向の中心(以下「シート中心」という。)を示している。なお、撮像距離推定部151は、例えば、シート情報から、シート中心の座標を算出可能である。
ここで、図4Aおよび図4Bにおいて、BCは、乗員が座席の中央に背もたれから離れることなく着座している状態における実空間上の乗員中心と想定される点をあらわす。例えば、管理者等は、製品出荷前に、実験的に、一般的な体格の被験者を、標準的な座席位置の座席にて座面の中央に着座させ、当該被験者の実空間上の乗員中心と撮像装置2との撮像距離を設定しておく。管理者等は、製品出荷前に設定した被験者の実空間上の乗員中心を乗員中心の基準(以下「基準乗員中心」という。)、当該基準乗員中心と撮像装置2との撮像距離を撮像距離の基準(以下「基準撮像距離」という。)とする。管理者等は、設定した基準撮像距離を示す情報(以下「基準撮像距離情報」という。)を生成し、特徴点処理部15が参照可能な場所に記憶させる。
なお、図4Aおよび図4Bにおいて、BCが基準乗員中心であり、基準撮像距離はBDで示されている。
4A and 4B, S1 indicates the center of the seat back in the width direction (hereinafter referred to as the "seat center"). Note that the imaging
Here, in Fig. 4A and Fig. 4B, BC represents a point assumed to be the center of the occupant in real space when the occupant is seated in the center of the seat without moving away from the backrest. For example, before product shipment, the manager or the like experimentally seats a subject with a general physique in the center of the seat surface in a seat at a standard seating position, and sets the imaging distance between the occupant center in real space of the subject and the imaging device 2. The manager or the like sets the occupant center in real space of the subject set before product shipment as the reference of the occupant center (hereinafter referred to as the "reference occupant center"), and the imaging distance between the reference occupant center and the imaging device 2 as the reference of the imaging distance (hereinafter referred to as the "reference imaging distance"). The manager or the like generates information indicating the set reference imaging distance (hereinafter referred to as the "reference imaging distance information") and stores it in a location that can be referenced by the feature
In addition, in Figs. 4A and 4B, BC is the reference occupant center, and the reference imaging distance is indicated by BD.
図4Aは、着座状態判定部14が乗員は背もたれから離れていないと判定した場合の、撮像距離推定部151による撮像距離の推定方法の一例について説明するための図であり、図4Bは、着座状態判定部14が乗員は背もたれから離れていると判定した場合の、撮像距離推定部151による撮像距離の推定方法の一例について説明するための図である。
Figure 4A is a diagram for explaining an example of a method for estimating the imaging distance by the imaging
まず、図4Aを用いて、撮像距離推定部151による、着座状態判定部14が乗員は背もたれから離れていないと判定した場合の撮像距離の推定方法の一例を説明する。
撮像距離推定部151は、乗員中心を決定する。例えば、撮像距離推定部151は、乗員の両目中心、または、乗員の首を示す特徴点を、乗員中心に決定する。
撮像距離推定部151は、乗員中心の実空間上におけるx軸方向の座標x1を推定する。図4Aにおいて、C1は、実空間上の乗員中心を示している。撮像装置2の設置位置および画角と、乗員中心C1の撮像画像上のx軸方向の座標x1’はわかっているので、撮像距離推定部151は、乗員中心C1の撮像画像上のx軸方向の座標x1’から、当該x1’の実空間上のx軸方向の座標x1を推定できる。
撮像距離推定部151は、シート情報に基づき、撮像装置2から座席Sまでの奥行(図4AにおいてL1で示す)を算出する。
撮像距離推定部151は、撮像装置2から乗員中心C1までの奥行(図4AにおいてL1’で示す)を算出する。具体的には、撮像距離推定部151は、撮像装置2から座席Sまでの奥行L1から、予め設定されている、乗員の厚み分の距離(以下「乗員厚み距離」という。図4AにおいてT1で示す)を減算することで、撮像装置2から乗員中心C1までの奥行L1’を算出する。
First, an example of a method for estimating the imaging distance by the imaging
The imaging
The imaging
The imaging
The imaging
撮像距離推定部151は、撮像装置2の設置位置と、撮像装置2から乗員中心C1までの奥行L1’と、乗員中心C1のx座標とに基づいて、乗員中心C1と撮像装置2との直線距離を、撮像距離(図4AにおいてD1で示す)として推定する。撮像距離推定部151は、乗員中心C1と撮像装置2との、xz平面における直線距離を、撮像距離とする。The imaging
特徴点補正部152は、撮像距離推定部151が推定した撮像距離D1と基準撮像距離BDとの比率を求め、当該比率を用いて、乗員がシート中心S1に着座した状態となるように、特徴点検出部12が検出した特徴点の撮像画像上の座標を補正する。
具体的には、特徴点補正部152は、特徴点検出部12が検出した乗員の各特徴点の座標に、上記比率をかける。例えば、撮像距離D1が1200mm、基準撮像距離BDが1000mmであった場合、特徴点補正部152は、特徴点検出部12が検出した、乗員401の各特徴点の座標を1.2倍する。これは、撮像装置2からの距離が遠いほど、乗員は小さく撮像されるためである。
The feature
Specifically, the feature
特徴点補正部152は、特徴点情報において、各特徴点の座標を、それぞれ、補正後の各特徴点の座標に更新する。そして、特徴点補正部152は、特徴点の座標を更新した後の特徴点情報を、体格判定部16に出力する。また、特徴点補正部152は、特徴点情報とともに、シート情報を、体格判定部16に出力する。The feature
次に、図4Bを用いて、撮像距離推定部151による、着座状態判定部14が乗員は背もたれから離れていると判定した場合の撮像距離の推定方法の一例を説明する。
撮像距離推定部151は、乗員中心を決定する。
撮像距離推定部151は、乗員中心の実空間上におけるx軸方向の座標x2を推定する。図4Bにおいて、C2は、実空間上の乗員中心を示している。撮像装置2の設置位置および画角と、乗員中心C2の撮像画像上のx軸方向の座標x2’はわかっているので、撮像距離推定部151は、乗員中心C2の撮像画像上のx軸方向の座標x2’から、当該x2’の実空間上のx軸方向の座標x2を推定できる。
撮像距離推定部151は、シート情報に基づき、撮像装置2から座席Sまでの奥行(図4BにおいてL2で示す)を算出する。
Next, an example of a method for estimating the imaging distance by the imaging
The imaging
The imaging
The imaging
撮像距離推定部151は、乗員402から背もたれまでの奥行、すなわち、座席乗員間距離(図4BにおいてT2で示す)を推定する。撮像距離推定部151は、例えば、撮像画像上で水平方向、すなわちx軸方向の乗員402の位置の第1基準範囲からの乖離度合いに基づいて、座席乗員間距離を推定する。撮像画像上で水平方向の、すなわちx軸方向の乗員402の位置の第1基準範囲からの乖離度合いは、乗員が座席の背もたれから離れている度合いといえる。なお、撮像画像上で水平方向、すなわちx軸方向の乗員402の位置が第1基準範囲からどれぐらい乖離している場合に、座席乗員間距離がどれぐらいになると推定するかの情報は予め作成され、撮像距離推定部151が参照可能な場所に記憶されている。The imaging
なお、これに限らず、撮像距離推定部151は、例えば、シートベルトの引き出し量に基づいて座席乗員間距離を推定してもよい。撮像距離推定部151は、例えば、シートベルトセンサからシートベルト情報を取得し、シートベルト情報からシートベルトの引き出し量を特定すればよい。
また、撮像距離推定部151は、シートベルトの引き出し量と撮像画像に基づいて検出した乗員の正規着座状態におけるシートベルトの引き出し量との差分に基づいて座席乗員間距離を推定してもよい。実施の形態1において、正規着座状態とは、乗員が正しく座席に座っている状態、詳細には、座席に深く腰掛け姿勢を崩すことなく座っている状態をいう。
例えば、乗員が背もたれから離れるほどシートベルトは引き出されると想定される。よって、撮像距離推定部151は、シートベルトの引き出し量に基づいて座席乗員間距離を推定できる。このとき、撮像距離推定部151は、乗員の正規着座状態におけるシートベルトの引き出し量との差分に基づいて座席乗員間距離を推定することで、乗員の体格も考慮して、座席乗員間距離を推定することができる。
The imaging
The imaging
For example, it is assumed that the seat belt is pulled out as the occupant moves away from the seat back. Therefore, the image capturing
撮像距離推定部151は、撮像装置2から乗員中心C2までの奥行(図4BにおいてL2’で示す)を算出する。具体的には、撮像距離推定部151は、撮像装置2から座席Sまでの奥行L2から乗員厚み距離T1と座席乗員間距離T2を減算することで、撮像装置2から乗員中心C2までの奥行L2’を算出する。The imaging
撮像距離推定部151は、撮像装置2の設置位置と、撮像装置2から乗員中心C2までの奥行L2’と、乗員中心C2のx座標とに基づいて、乗員中心C2と撮像装置2との直線距離を、撮像距離(図4BにおいてD2で示す)として推定する。撮像距離推定部151は、乗員中心C2と撮像装置2との、xz平面における直線距離を、撮像距離とする。
なお、撮像距離推定部151は、基準撮像距離情報を参照して、シート情報取得部13が取得したシート情報に基づく位置およびリクライニング状態の座席における基準乗員中心および基準撮像距離を特定する。
The imaging
The imaging
特徴点補正部152は、撮像距離D2と基準撮像距離BDとの比率を求め、当該比率を用いて、乗員がシート中心S1に着座した状態となるように、特徴点検出部12が検出した特徴点の撮像画像上の座標を補正する。The feature
特徴点補正部152は、特徴点情報において、特徴点の座標を補正後の特徴点の座標に更新する。そして、特徴点補正部152は、特徴点の座標を更新した後の特徴点情報を、体格判定部16に出力する。また、特徴点補正部152は、特徴点情報とともに、シート情報を、体格判定部16に出力する。The feature
このように、特徴点処理部15における、着座状態判定部14が乗員は背もたれから離れていると判定した場合の撮像距離の推定方法は、着座状態判定部14が乗員は背もたれから離れていないと判定した場合の撮像距離の推定方法とは、座席乗員間距離T2を推定し、推定した座席乗員間距離T2を乗員厚み距離T1とともに撮像装置2から座席Sまでの奥行L2から減算して撮像装置2から乗員402までの奥行L2’を算出する点が、異なる。In this way, the method of estimating the imaging distance in the feature
なお、着座状態判定部14が乗員は背もたれから離れていると判定した場合の座席乗員間距離T2について、例えば、撮像距離推定部151は、乗員402が背もたれから離れていない状態の目幅が検出できている場合は、乗員402が背もたれから離れていない状態の目幅と現在の乗員402の現在の目幅との差から、座席乗員間距離T2を算出してもよい。Regarding the seat-to-occupant distance T2 when the seating
着座状態判定部14が乗員は背もたれから離れていないと判定した場合も、着座状態判定部14が乗員は背もたれから離れていると判定した場合も、撮像距離推定部151は、例えば、座席の位置とシートベルトの引き出し量から乗員厚み距離T1を算出してもよい。撮像距離推定部151は座席の位置をシート情報から特定できる。また、撮像距離推定部151は図示しないシートベルトセンサからシートベルトの引き出し量を取得すればよい。
When the seating
体格判定部16は、特徴点補正部152から出力された特徴点情報に基づき、乗員の体格を判定する。詳細には、体格判定部16は、乗員の各特徴点に基づき乗員の体格判定に用いる特徴量(以下「体格判定用特徴量」という。)を算出し、算出した体格判定用特徴量を用いて、乗員の体格を判定する。The
体格判定部16は、例えば、特徴点情報に基づいて、撮像画像における各特徴点のうちの2点を結ぶ線分の撮像画像における長さで体格判定用特徴量を算出する。例えば、体格判定部16は、特徴点情報に基づいて、撮像画像における乗員の肩幅、上腕の長さ、首の長さ、座高、および、顔の高さを、体格判定用特徴量として算出する。なお、体格判定部16は、乗員ごとに、体格判定用特徴量を算出する。
また、体格判定部16は、例えば、座席の前後の位置を体格判定用特徴量に含めてもよい。例えば、乗員が運転者である場合、小柄な運転者は運転しやすいよう前方に座席を移動させた状態で、大柄な運転者は運転しやすいよう後方に座席を移動させた状態で、着座する可能性がある。すなわち、座席の前後の位置は体格とのある程度の相関関係があると想定される。そこで、体格判定部16は、座席の前後の位置を体格判定用特徴量に含めてもよい。
The
Furthermore, the physical
実施の形態1において、体格判定用特徴量とする乗員の肩幅は、首を示す特徴点と右肩を示す特徴点とを結ぶ線分の長さ、または、首を示す特徴点と左肩または右肩を示す特徴点とを結ぶ線分の長さとする。撮像装置2から遠い特徴点は検出されにくいことから、体格判定用特徴量とする乗員の肩幅は、例えば、首を示す特徴点と、右肩および左肩のうち撮像装置2から近いほうの肩を示す特徴点とを結ぶ線分の長さとしてもよい。In the first embodiment, the occupant's shoulder width, which is the feature for determining physique, is the length of the line segment connecting the feature point indicating the neck and the feature point indicating the right shoulder, or the length of the line segment connecting the feature point indicating the neck and the feature point indicating the left shoulder or the right shoulder. Since feature points far from the image capture device 2 are difficult to detect, the occupant's shoulder width, which is the feature for determining physique, may be, for example, the length of the line segment connecting the feature point indicating the neck and the feature point indicating the shoulder, either the right shoulder or the left shoulder, which is closer to the image capture device 2.
また、実施の形態1において、体格判定用特徴量とする乗員の上腕の長さは、肩を示す特徴点と肘を示す特徴点とを結ぶ線分の長さとする。なお、乗員の上腕の長さは、右上腕であれば、右肩を示す特徴点と右肘を示す特徴点とを結ぶ線分の長さであり、左上腕であれば、左肩を示す特徴点と左肘を示す特徴点とを結ぶ線分の長さである。撮像装置2から遠い特徴点は検出されにくいことから、例えば、右上腕と左上腕のうち撮像装置2から近い方の上腕の長さを、体格判定用特徴量とする乗員の上腕の長さとしてもよい。In addition, in the first embodiment, the length of the occupant's upper arm, which is used as the feature for determining physical build, is the length of the line segment connecting the feature point indicating the shoulder and the feature point indicating the elbow. The length of the occupant's upper arm, in the case of the right upper arm, is the length of the line segment connecting the feature point indicating the right shoulder and the feature point indicating the right elbow, and in the case of the left upper arm, is the length of the line segment connecting the feature point indicating the left shoulder and the feature point indicating the left elbow. Since feature points far from the image capture device 2 are difficult to detect, for example, the length of the upper arm, whichever is closer to the image capture device 2, of the right upper arm and the left upper arm, may be used as the length of the occupant's upper arm, which is used as the feature for determining physical build.
また、実施の形態1において、体格判定用特徴量とする乗員の首の長さは、鼻を示す特徴点と首を示す特徴点とを結ぶ線分の長さとする。
In addition, in
また、実施の形態1において、体格判定用特徴量とする乗員の座高は、首を示す特徴点と両腰の中心とを結ぶ線分の長さとする。
In addition, in
また、実施の形態1において、体格判定用特徴量とする乗員の顔の高さは、撮像画像上で両目中心のy軸方向の高さとする。
In addition, in
例えば、図2に示した例でいうと、体格判定部16は、助手席乗員Psの体格判定用特徴量として、特徴点203aと特徴点203bとを結ぶ線分の長さ(図2において(a)で示す)を算出する。また、体格判定部16は、助手席乗員Psの体格判定用特徴量として、特徴点203aと特徴点204aとを結ぶ線分の長さ(図2において(b)で示す)を算出する。また、体格判定部16は、助手席乗員Psの体格判定用特徴量として、特徴点201と特徴点202とを結ぶ線分の長さ(図2において(c)で示す)を算出する。また、体格判定部16は、助手席乗員Psの体格判定用特徴量として、特徴点202と両腰の中心Wとを結ぶ線分の長さ(図2において(d)で示す)を算出する。また、体格判定部16は、助手席乗員Psの体格判定用特徴量として、顔の高さ(図2において(e)で示す)を算出する。なお、体格判定部16は、両目中心Fのy座標を顔の高さとすればよい。ここで、体格判定部16は、シート情報に基づいて乗員の顔の高さを補正してもよい。例えば、座席の座面の高さ、言い換えれば、座席の上下方向の位置によって撮像画像上の乗員の顔の高さは変わる。体格判定部16は、シート情報に基づいて座席の上下方向の位置を判定し、当該座席の上下方向の位置に応じて、撮像画像上の乗員の顔の高さが高く、または、低くなるよう補正する。体格判定部16は、座席の上下方向の位置に基づいて乗員の顔の高さを補正することで、より精度よく、乗員の体格を判定できる。For example, in the example shown in FIG. 2, the
図2において(a)にて示す線分は、助手席乗員Psの肩幅を示す線分である。図2において(b)にて示す線分は、助手席乗員Psの上腕の長さを示す線分である。図2において(c)にて示す線分は、助手席乗員Psの首の長さを示す線分である。図2において(d)にて示す線分は、助手席乗員Psの座高を示す線分である。図2において(e)にて示す線分は、助手席乗員Psの顔の高さを示す線分である。 The line segment indicated by (a) in Figure 2 is a line segment indicating the shoulder width of the passenger seat occupant Ps. The line segment indicated by (b) in Figure 2 is a line segment indicating the length of the upper arm of the passenger seat occupant Ps. The line segment indicated by (c) in Figure 2 is a line segment indicating the length of the neck of the passenger seat occupant Ps. The line segment indicated by (d) in Figure 2 is a line segment indicating the sitting height of the passenger seat occupant Ps. The line segment indicated by (e) in Figure 2 is a line segment indicating the height of the face of the passenger seat occupant Ps.
なお、ここでは、例えば、体格判定部16は、乗員の肩幅、上腕の長さ、首の長さ、座高、および、顔の高さを、体格判定用特徴量として算出することとしたが、これは一例に過ぎない。
例えば、体格判定部16は、乗員の肩幅、上腕の長さ、首の長さ、座高、および、顔の高さに加えて、腰幅を、体格判定用特徴量として算出してもよい。体格判定用特徴量とする腰幅は、左腰を示す特徴点(図2の例でいうと特徴点205b)と右腰を示す特徴点(図2の例でいうと特徴点205a)とを結ぶ線分の長さとする。
It should be noted that, for example, here, the
For example, the
また、実施の形態1では、体格判定部16は、乗員の肩幅、上腕の長さ、首の長さ、座高、および、顔の高さを、全て、体格判定用特徴量として算出するが、これは一例に過ぎない。
体格判定部16は、乗員の肩幅、上腕の長さ、首の長さ、座高、および、顔の高さのうち少なくとも1つを体格判定用特徴量として算出するようになっていればよい。
In addition, in
The
体格判定部16は、算出した体格判定用特徴量に基づいて、乗員の体格を判定する。
実施の形態1では、上述のとおり、一例として、乗員の体格は、「幼児」、「小柄」、「標準」、または、「大柄」のいずれかと定義されている。
The
In the first embodiment, as described above, as an example, the physique of an occupant is defined as either "child", "small", "average", or "large".
体格判定部16は、例えば、機械学習における学習済みのモデル(以下「第2機械学習モデル」という。)を用いて、乗員の体格に関する情報を得ることで、乗員の体格を判定する。
第2機械学習モデルは、体格判定用特徴量を入力とし、乗員の体格に関する情報を出力する機械学習モデルである。体格に関する情報は、例えば、「0」、「1」、「2」、または、「3」のように、体格をあらわす数値であってもよいし、身長または体重等の体格の大きさ度合いを示す指数(以下「体格指数」という。)であってもよい。体格をあらわす数値について、どの値がどのような体格を示す数値であるかは、予め決められているものとする。例えば、「0:幼児」、「1:小柄」、「2:標準」、または、「3:大柄」のように、数値があらわす体格が決められている。
The
The second machine learning model is a machine learning model that inputs the features for determining the physique and outputs information about the occupant's physique. The information about the physique may be a numerical value representing the physique, such as "0", "1", "2", or "3", or may be an index indicating the degree of size of the physique, such as height or weight (hereinafter referred to as "physique index"). It is assumed that it is predetermined which numerical value representing the physique indicates which physique. For example, the physique represented by the numerical value is determined, such as "0: infant", "1: small", "2: standard", or "3: large".
第2機械学習モデルは、予め、入力と教師ラベルのデータの組み合わせに基づいて生成されている学習用データに従って、いわゆる教師あり学習により、入力に対する結果を推定するよう構築される。ここでは、第2機械学習モデルは、入力を体格判定用特徴量、教師ラベルを乗員の体格に関する情報とする学習用データに従って、体格判定用特徴量に対する体格に関する情報を出力するよう学習する。
第2機械学習モデルは、予め、体格判定部16が参照可能な場所に記憶されている。
The second machine learning model is constructed to estimate a result for an input by so-called supervised learning according to learning data that is generated in advance based on a combination of the input and teacher label data. Here, the second machine learning model learns to output information about the physique for the physique determination feature according to learning data in which the input is the physique determination feature and the teacher label is information about the occupant's physique.
The second machine learning model is stored in advance in a location that can be referenced by the
体格判定部16は、第2機械学習モデルに基づいて得た乗員の体格に関する情報に基づいて、乗員の体格を判定する。
例えば、乗員の体格に関する情報が、上述したような体格をあらわす数値であれば、体格判定部16は、数値に応じて予め決められている体格を、乗員の体格と判定する。また、例えば、乗員の体格に関する情報が体格指数であれば、体格判定部16は、指数に応じた体格を判定する。具体的には、例えば、体格指数がどれぐらいのとき、体格は「幼児」、「小柄」、「標準」、または、「大柄」のいずれに該当するかが対応付けられた情報(以下「体格定義情報」という。)が、予め生成され、体格判定部16が参照可能な場所に記憶されている。体格判定部16は、体格定義情報を参照して、乗員の体格を判定する。
The
For example, if the information on the occupant's physique is a numerical value representing the physique as described above, the
体格判定部16は、体格判定結果を、出力部17に出力する。
体格判定結果において、乗員毎に、当該乗員を特定する情報と、乗員の体格を示す情報とが対応付けられている。乗員を特定する情報は、例えば、乗員が着座している座席を示す情報である。
The
In the physical build determination result, for each occupant, information for identifying the occupant is associated with information indicating the occupant's physical build. The information for identifying the occupant is, for example, information indicating the seat in which the occupant is seated.
出力部17は、体格判定部16から出力された体格判定結果を、エアバッグ制御装置4、報知装置5、および、表示装置6に出力する。
なお、実施の形態1では、体格判定装置1は、エアバッグ制御装置4、報知装置5、および、表示装置6に、体格判定結果を出力するが、これは一例に過ぎない。体格判定装置1は、エアバッグ制御装置4、報知装置5、または、表示装置6のいずれかに、体格判定結果を出力してもよい。
体格判定装置1は出力部17を備えず、体格判定部16が出力部17の機能を有するようにしてもよい。
The
In the first embodiment, the
The
実施の形態1に係る体格判定装置1の動作について説明する。
図5は、実施の形態1に係る体格判定装置1の動作について説明するためのフローチャートである。
体格判定装置1は、例えば、車両の電源がオンにされると、車両の電源がオフにされるまで、図5のフローチャートで示すような動作を繰り返す。
The operation of the
FIG. 5 is a flowchart for explaining the operation of the
For example, when the power supply of the vehicle is turned on, the
画像取得部11は、撮像装置2によって車両の乗員が撮像された撮像画像を取得する(ステップST1a)。
画像取得部11は、取得した撮像画像を特徴点検出部12に出力する。
The
The
特徴点検出部12は、ステップST1aにて画像取得部11が取得した撮像画像に基づいて、乗員の体の部位を示す、乗員の特徴点を検出する(ステップST2)。
特徴点検出部12は、特徴点情報を、着座状態判定部14に出力する。
The feature
The feature
シート情報取得部13は、シート制御装置3からシート情報を取得する(ステップST1b)。
シート情報取得部13は、取得したシート情報を着座状態判定部14に出力する。
The seat
The seat
着座状態判定部14は、ステップST1aにて画像取得部11が取得した撮像画像と、ステップST1bにてシート情報取得部13が取得したシート情報とに基づき、乗員は座席の背もたれから離れているか否かを判定する(ステップST3)。
着座状態判定部14は、画像取得部11が取得した撮像画像上で水平方向、すなわちx軸方向の乗員の位置が第1基準範囲外であれば、乗員は背もたれから離れていると判定する。一方、着座状態判定部14は、画像取得部11が取得した撮像画像上で水平方向、すなわちx軸方向の乗員の位置が第1基準範囲内であれば、乗員は背もたれから離れていないと判定する。
着座状態判定部14は、乗員が座席の背もたれから離れているか否かを示す着座状態情報を、特徴点情報、および、シート情報とあわせて、特徴点処理部15に出力する。
The seating
The seating
The seating
特徴点処理部15は、撮像装置2と乗員との間の撮像距離に基づき、必要に応じて、撮像画像上の特徴点の座標を補正する特徴点処理を行う(ステップST4)。
ステップST4にて、特徴点処理部15は、撮像距離を推定する。特徴点処理部15は、推定した撮像距離と基準撮像距離との比率を求め、当該比率を用いて、乗員がシート中心に着座した状態となるように、特徴点検出部12が検出した特徴点の撮像画像上の座標を補正する。
特徴点処理部15は、特徴点情報において、特徴点の座標を補正後の特徴点の座標に更新した後の特徴点情報を、体格判定部16に出力する。また、特徴点補正部152は、特徴点情報とともに、シート情報を、体格判定部16に出力する。
The feature
In step ST4, the feature
The feature
体格判定部16は、ステップST4にて特徴点補正部152から出力された特徴点情報に基づき、乗員の体格を判定する体格判定処理を行う(ステップST5)。The body
図6は、図5のステップST4における特徴点処理部15による特徴点処理の詳細について説明するためのフローチャートである。
Figure 6 is a flowchart to explain the details of feature point processing by the feature
特徴点処理部15の撮像距離推定部151は、図5のステップST3にて着座状態判定部14が乗員は背もたれから離れていると判定したか否かを判定する(ステップST41)。
着座状態判定部14が乗員は背もたれから離れていると判定した場合(ステップST41の“YES”の場合)、撮像距離推定部151は、座席乗員間距離を推定する(ステップST42)。
着座状態判定部14が乗員は座席の背もたれから離れていないと判定した場合(ステップST41の“NO”の場合)は、撮像距離推定部151は、ステップST42の処理はスキップする。
The imaging
When the seating
If the seating
撮像距離推定部151は、撮像距離を推定する(ステップST43)。
着座状態判定部14が乗員は座席の背もたれから離れていないと判定した場合、撮像距離推定部151は、撮像装置2から座席までの奥行から乗員厚み距離を減算することで、撮像装置2から乗員中心までの奥行を算出する。そして、撮像距離推定部151は、撮像装置2の設置位置と、撮像装置2から乗員中心までの奥行と、乗員中心のx座標とに基づいて、乗員中心と撮像装置2との直線距離を、撮像距離として推定する。
着座状態判定部14が乗員は座席の背もたれから離れていると判定した場合、撮像距離推定部151は、撮像装置2から座席までの奥行から乗員厚み距離と座席乗員間距離を減算することで、撮像装置2から乗員中心までの奥行を算出する。そして、撮像距離推定部151は、撮像装置2の設置位置と、撮像装置2から乗員中心までの奥行と、乗員中心のx座標とに基づいて、乗員中心と撮像装置との直線距離を、撮像距離として推定する。
The imaging
When the seating
When the seating
特徴点処理部15の特徴点補正部152は、ステップST43にて撮像距離推定部151が推定した撮像距離と基準撮像距離との比率を求め、当該比率を用いて、乗員がシート中心に着座した状態となるように、特徴点検出部12が検出した特徴点の撮像画像上の座標を補正する(ステップST44)。
特徴点補正部152は、特徴点情報において、特徴点の座標を補正後の特徴点の座標に更新する。そして、特徴点補正部152は、特徴点の座標を更新した後の特徴点情報を、体格判定部16に出力する。また、特徴点補正部152は、特徴点情報とともに、シート情報を、体格判定部16に出力する。
The feature
The feature
図7は、図5のステップST5における体格判定部16による体格判定処理の詳細について説明するためのフローチャートである。
Figure 7 is a flowchart to explain the details of the body type determination process by the body
体格判定部16は、図5のステップST4にて特徴点補正部152から出力された特徴点情報に基づき、体格判定用特徴量を算出する(ステップST51)。The body
体格判定部16は、ステップST51にて算出した体格判定用特徴量に基づいて、乗員の体格を判定する(ステップST52)。
体格判定部16は、体格判定結果を、出力部17に出力する。
出力部17は、体格判定部16から出力された体格判定結果を、エアバッグ制御装置4、報知装置5、および、表示装置6に出力する。
The
The
The
このように、体格判定装置1は、撮像画像とシート情報とに基づき、乗員は背もたれから離れているか否かを判定する。体格判定装置1は、乗員は背もたれから離れていると判定した場合、座席と乗員との間の実空間上の座席乗員間距離を推定し、推定した座席乗員間距離と撮像装置2から座席までの奥行とに基づき撮像装置2と乗員との間の実空間上の撮像距離を推定し、推定した撮像距離に基づいて乗員の撮像画像上の各特徴点を補正する。そして、体格判定装置1は、補正した後の乗員の各特徴点に基づき算出した体格判定用特徴量を用いて、乗員の体格を判定する。
そのため、体格判定装置1は、乗員が座席の背もたれから離れている場合における乗員の体格の誤判定を防ぐことができる。
In this way, the
Therefore, the
上述したような従来技術では、上述のとおり、例えば、乗員が常に座席の背もたれから離れている場合も、乗員が座席の背もたれから離れていないとみなし、乗員の体格を誤判定する可能性があった。また、上述したような従来技術では、複数の画像の中から、乗員の頭部が最も小さく、かつ頭部がシート背面部の横幅の中央に位置しているときの画像を抽出し、抽出した画像から特定した頭部の位置情報を用いて乗員の体格を判定するため、乗員が座席の中央に位置していない場合、または、乗員の頭部の大きさが最小と判定されない区間は体格を判定できない。また、上述したような従来技術では、複数の画像の中から乗員の頭部が最も小さいときの画像を抽出するため、撮像画像上の乗員の頭部の大きさの変化を確認するのに一定時間を要する。その結果、従来技術は、乗員の体格の判定に一定時間を要する。
これに対し、実施の形態1に係る体格判定装置1は、上述のとおり、シート情報を活用することにより、精度よく乗員の奥行位置を推定する。具体的には、体格判定装置1は、撮像画像とシート情報とに基づいて乗員が背もたれから離れているか否かを判定し、乗員が背もたれから離れていない場合は、シート情報をもとに撮像距離を推定し、乗員が背もたれから離れている場合は座席乗員間距離を推定した上で、当該座席乗員間距離とシート情報とを用いて撮像距離を推定する。体格判定装置1は、精度よく撮像距離を推定することで、精度よく乗員の体格を判定できる。体格判定装置1は、乗員が背もたれから離れている場合における乗員の体格の誤判定を防ぐことができる。
また、体格判定装置1は、体格判定において、今、乗員が座席の中央に位置しているか否かを問わないため、体格判定装置1は、今、乗員が座席のどの位置に着座しているかによらず、乗員の体格を判定できる。
また、体格判定装置1は、体格判定において、一定時間に撮像された複数の撮像画像上の乗員の頭部の大きさを比較する等する必要がないため、乗員の体格の判定に一定時間を要することがない。
また、実施の形態1に係る体格判定装置1は、距離センサを用いることなく、撮像画像とシート情報とから撮像距離を推定する。そのため、体格判定装置1は、低コストで高精度な乗員の体格の判定を行うことができる。
In the conventional technology as described above, for example, even if the occupant is always away from the backrest of the seat, the occupant may be considered not to be away from the backrest of the seat, and the occupant's physical size may be erroneously determined. In addition, in the conventional technology as described above, an image in which the occupant's head is smallest and located in the center of the width of the seat back is extracted from a plurality of images, and the occupant's physical size is determined using head position information identified from the extracted image. Therefore, when the occupant is not located in the center of the seat, or in a section in which the size of the occupant's head is not determined to be the smallest, the occupant's physical size cannot be determined. In addition, in the conventional technology as described above, an image in which the occupant's head is smallest is extracted from a plurality of images, so it takes a certain amount of time to confirm the change in the size of the occupant's head on the captured image. As a result, the conventional technology takes a certain amount of time to determine the occupant's physical size.
In contrast, the
In addition, since the physical
In addition, since the physical
Furthermore, the
以上の実施の形態1では、体格判定装置1において、シート情報取得部13は、シート制御装置3からシート情報を取得していたが、これは一例に過ぎない。例えば、シート情報取得部13は、画像取得部11が取得した撮像画像に対して座席のエッジ検出等の公知の画像認識処理を行ってシート情報を取得してもよい。この場合、体格判定装置1は、シート制御装置3と接続されていることを必須としない。In the above-described first embodiment, in the
また、以上の実施の形態1では、「乗員が座席の背もたれから離れている」状態とは、例えば、「乗員が座席の座面に浅く座ることにより乗員の背面の全領域が座席の背もたれから離れている」状態を想定していたが、これは一例に過ぎない。以上の実施の形態1において、「乗員が座席の背もたれから離れている」状態は、例えば、「乗員が座席の座面に深く座っているが前傾姿勢をとっていることにより乗員の背面の腰よりも上の領域が座席の背もたれから離れている」状態を含む。
In the
また、以上の実施の形態1では、着座状態判定部14は、画像取得部11が取得した撮像画像上で水平方向、すなわちx軸方向の乗員の位置と、撮像画像上で水平方向、すなわちx軸方向の乗員の位置の第1基準範囲との比較によって、乗員は座席の背もたれから離れているか否かを判定していたが、これは一例に過ぎない。
着座状態判定部14は、上記以外の方法で、乗員が座席の背もたれから離れているか否かを判定してもよい。
例えば、着座状態判定部14は、乗員が着座している座席の座面の荷重と、座席にて乗員が背もたれから離れることなく着座している状態を想定して設定された座席の座面の荷重の範囲(以下「第2基準範囲」という。)との比較によって、乗員は座席の背もたれから離れているか否かを判定してもよい。
第2基準範囲は、乗員が座席にて背もたれから離れることなく着座している状態でとり得ると想定される、座面にかかる荷重の範囲である。
なお、この場合、着座状態判定部14は、例えば、図示しない荷重センサから、車両内の座席の座面にかかる荷重に関する情報を取得する。荷重センサは、車両内の座席の座面に設けられている。この方法によれば、着座状態判定部14は、第2基準範囲を、シート位置に対応させる必要はない。
なお、この場合、撮像距離推定部151は、例えば、乗員が着座している座席の座面にかかる荷重の範囲の第2基準範囲からの乖離度合いに基づいて、座席乗員間距離を推定する。なお、乗員が着座している座席の座面にかかる荷重の範囲が第2基準範囲からどれぐらい乖離している場合に、座席乗員間距離がどれぐらいになると推定するかの情報は予め作成され、撮像距離推定部151が参照可能な場所に記憶されている。
In addition, in the above-mentioned
The seating
For example, the seating
The second reference range is a range of loads acting on the seat surface that are assumed to be possible when an occupant is seated in the seat without moving away from the backrest.
In this case, the seating
In this case, the imaging
また、例えば、着座状態判定部14は、撮像画像上で、乗員の体の傾きと座席のリクライニング角度との差分と、第3基準範囲とを比較することで、乗員は背もたれから離れているか否かを判定してもよい。実施の形態1において、撮像画像上で、乗員の体の傾きは、例えば、首を示す特徴点および両腰の中心を結んだ線分、言い換えれば、座高を示す線分の傾きであらわされる。
第3基準範囲は、座席にて背もたれから離れることなく着座している状態の乗員が撮像された場合に、とり得ると想定される、当該乗員の座高を示す線分の傾きとリクライニング角度との差の範囲である。
なお、着座状態判定部14は、シート情報からリクライニング角度を特定できる。
Also, for example, the seating
The third reference range is the range of the difference between the inclination of the line segment indicating the seating height of an occupant and the reclining angle that is assumed to be possible when an image of the occupant is captured while seated in the seat without moving away from the backrest.
The seating
ここで、図8Aおよび図8Bは、画像取得部11が取得した撮像画像の一例である。
図8Aおよび図8Bを用いて、着座状態判定部14による、座高を示す線分とリクライニング角度との差を第3基準範囲と比較することで、乗員は背もたれから離れているか否かを判定する方法の一例について説明する。
図8Aおよび図8Bでは、説明の便宜上、撮像画像のうち、運転者が撮像された領域のみを図示している。なお、車両は右ハンドル車である。
図8Aおよび図8Bにおいて、撮像画像はImで示され、運転者はDrで示されている。なお、図8Aに示す撮像画像Imが撮像された際の座席のリクライニング状態と、図8Bに示す撮像画像Imが撮像された際の座席のリクライニング状態とは同じである。図8Bに示す撮像画像Imにおいて、運転者Drは座席の座面に深く座っているが前傾姿勢をとっている。
図8Aにおいて、運転者Drの首を示す特徴点はN1、運転者Drの両腰の中心を示す点はWで示されており、図8Bにおいて、運転者Drの首を示す頭位置はN2、運転者Drの両腰の中心を示す点はWで示されている。
Here, FIG. 8A and FIG. 8B are examples of captured images acquired by the
Using Figures 8A and 8B, we will explain an example of a method in which the seating
8A and 8B, for the sake of convenience, only the area of the captured image in which the driver is captured is shown. Note that the vehicle is a right-hand drive vehicle.
In Fig. 8A and Fig. 8B, the captured image is indicated by Im and the driver is indicated by Dr. Note that the reclining state of the seat when the captured image Im shown in Fig. 8A is captured is the same as the reclining state of the seat when the captured image Im shown in Fig. 8B is captured. In the captured image Im shown in Fig. 8B, the driver Dr is sitting deep on the seat but in a forward-leaning position.
In FIG. 8A , the characteristic point indicating the neck of the driver Dr is indicated by N1, and the point indicating the center of the driver Dr's waist is indicated by W, and in FIG. 8B , the head position indicating the driver Dr's neck is indicated by N2, and the point indicating the center of the driver Dr's waist is indicated by W.
図8Aに示す撮像画像Imにおいて運転者Drの座高を示す線分(図8Aにおいて81で示す)の傾きとリクライニング角度との差は第3基準範囲内であり、図8Bに示す撮像画像Imにおいて運転者Drの座高を示す線分(図8Bにおいて82で示す)の傾きとリクライニング角度との差は第3基準範囲外であるとする。
着座状態判定部14は、乗員の座高を示す線分が図8Aに示すような状態である場合、乗員は背もたれから離れていないと判定する。
一方、着座状態判定部14は、乗員の座高を示す線分が図8Bに示すような状態である場合、乗員は背もたれから離れていると判定する。
なお、この場合、撮像距離推定部151は、例えば、撮像画像上の乗員の体の傾きとシート情報取得部13が取得したシート情報に基づく座席のリクライニング角度との差分の、第3基準範囲からの乖離度合いに基づいて、座席乗員間距離を推定する。なお、撮像画像上の乗員の体の傾きとシート情報取得部13が取得したシート情報に基づく座席のリクライニング角度との差分が第3基準範囲からどれぐらい乖離している場合に、座席乗員間距離がどれぐらいになると推定するかの情報は予め作成され、撮像距離推定部151が参照可能な場所に記憶されている。
In the captured image Im shown in Figure 8A, the difference between the inclination of the line segment indicating the seated height of the driver Dr (indicated by 81 in Figure 8A) and the reclining angle is within the third reference range, and in the captured image Im shown in Figure 8B, the difference between the inclination of the line segment indicating the seated height of the driver Dr (indicated by 82 in Figure 8B) and the reclining angle is outside the third reference range.
When the line segment indicating the seated height of the occupant is in the state shown in FIG. 8A, the seating
On the other hand, when the line segment indicating the seated height of the occupant is in the state shown in FIG. 8B, the seating
In this case, the imaging
また、以上の実施の形態1において、撮像距離推定部151は、撮像装置2から乗員中心までの奥行を推定する際、シート情報を利用して、推定した奥行に制限をかけるようにしてもよい。乗員は、撮像装置2からみて、着座している座席の位置よりも奥に存在し得ない。しかし、例えば、特徴点検出部12が特徴点を誤検出してしまった場合、撮像距離推定部151は、撮像装置2から乗員中心までの奥行を、撮像装置2から座席までの奥行より長く誤推定する可能性がある。よって、撮像距離推定部151は、撮像装置2から乗員中心までの奥行の上限を、撮像装置2から座席までの奥行とする。なお、撮像装置2から座席までの奥行は、上述のとおり、予めわかっている撮像装置2の設置位置と、シート情報とから算出できる。撮像距離推定部151は、例えば、推定した撮像装置2から乗員中心までの奥行が、撮像装置2から座席までの奥行より長い場合、撮像装置2から乗員中心までの奥行を、撮像装置2から座席までの奥行とする。つまり、撮像距離推定部151は、乗員中心の実空間上のz軸方向の座標を、シート中心のz軸方向の座標とする。
また、乗員は、撮像装置2からみて、当該撮像装置2よりも手前に存在し得ない。しかし、特徴点検出部12が特徴点を誤検出してしまった場合、撮像距離推定部151は、乗員中心の実空間上の位置を、撮像装置2よりも手前の位置と誤推定する可能性がある。よって、撮像距離推定部151は、例えば、撮像装置2から乗員中心までの奥行の下限を「0」とする。撮像距離推定部151は、例えば、撮像装置2から乗員中心までの奥行の下限を、撮像装置2と座席の位置関係から、現実的な値に設定してもよい。つまり、撮像距離推定部151は、乗員中心の実空間上のz軸方向の座標を、撮像装置2のz軸方向の座標、または、現実的な値に設定する。
In the above-described first embodiment, the imaging
Also, the occupant cannot be located in front of the imaging device 2 as viewed from the imaging device 2. However, if the feature
また、以上の実施の形態1において、体格判定装置1は、撮像装置2の設置位置の位置ズレまたは光軸ズレを補正する機能を有してもよい。
例えば、体格判定装置1において、特徴点検出部12は、シート情報に基づく座席の位置またはリクライニング角度と、撮像画像に対して座席のエッジ検出等の公知の画像認識処理を行って検出した座席の位置またはリクライニング角度とを比較して、撮像装置2の設置位置の位置ズレまたは光軸ズレを算出し、検出した各特徴点を補正する機能を有してもよい。
また、例えば、体格判定装置1において、着座状態判定部14が撮像装置2の設置位置の位置ズレまたは光軸ズレを算出し、設定されている第1基準範囲、第2基準範囲、または、第3基準範囲を補正する機能を有してもよい。
In the first embodiment described above, the
For example, in the body
Also, for example, in the body
また、以上の実施の形態1では、体格判定装置1において、特徴点補正部152が、撮像距離推定部151が推定した撮像距離(図4AのD1、図4BのD2参照)と基準撮像距離(図4A、図4BのBD参照)との比率を求め、当該比率を用いて、乗員がシート中心(図4A、図4BのS1参照)に着座した状態となるように、特徴点検出部12が検出した特徴点の撮像画像上の座標を補正し、体格判定部16が、補正後の特徴点の撮像画像上の座標から体格判定用特徴量を算出して、乗員の体格判定を行うようにしていた。
しかし、これは一例に過ぎず、体格判定装置1は、撮像距離推定部151が推定した撮像距離と基準撮像距離との比率をその他の方法で乗員の体格判定に反映してもよい。例えば、体格判定装置1において、体格判定部16が、体格判定用特徴量を算出すると、算出した体格判定用特徴量に上記比率をかけ、上記比率をかけた後の体格判定用特徴量を用いて乗員の体格判定を行ってもよい。この場合、体格判定装置1は特徴点補正部152を備える必要はない。撮像距離推定部151は、特徴点情報と、推定した撮像距離と基準撮像距離との比率に関する情報を、体格判定部16に出力する。
また、この場合、体格判定装置1の動作は、例えば、図7のステップST44の処理を省略できる。体格判定装置1において、撮像距離推定部151は、ステップST43にて、特徴点情報と、推定した撮像距離と基準撮像距離との比率に関する情報を、体格判定部16に出力する。体格判定部16は、図7のステップST52で、ステップST51にて算出した体格判定用特徴量に上記比率をかけて体格判定用特徴量を補正し、上記比率をかけた後の体格判定用特徴量、言い換えれば、補正した後の体格判定用特徴量、に基づいて、乗員の体格を判定する。
In addition, in the above-described first embodiment, in the
However, this is merely an example, and the
In this case, the operation of the
また、以上の実施の形態1では、撮像装置2は、インパネの中央に設置されるものとしたが、これは一例に過ぎない。
例えば、撮像装置2は、運転席側または助手席側のAピラーに備えられてもよいし、ダッシュボードに備えられてもよいし、オーディオコントロールパネルに備えられてもよい。また、撮像装置2は、ルームミラーに備えられてもよい。
撮像装置2は、少なくとも、車両の乗員の上半身が存在すべき範囲を含む車両内の範囲を撮像可能に設置されていればよい。
In the above-described first embodiment, the imaging device 2 is installed in the center of the instrument panel, but this is merely an example.
For example, the image capturing device 2 may be provided on an A-pillar on the driver's side or passenger's side, on a dashboard, on an audio control panel, or on a rearview mirror.
The imaging device 2 needs only to be installed so as to be able to capture an image of at least the area inside the vehicle that includes the area in which the upper bodies of vehicle occupants are expected to be present.
また、以上の実施の形態1では、撮像装置2は1台であることを想定していたが、これは一例に過ぎない。実施の形態1において、撮像装置2は、車両に複数台設置されるようにしてもよい。
例えば、複数台の撮像装置2が、車両内の各座席に着座している乗員をそれぞれ撮像可能に設置されてもよい。
この場合、体格判定装置1は、複数台の撮像装置2から撮像画像を取得して、乗員の体格を判定する。
In the
For example, a plurality of image capturing devices 2 may be installed so as to be able to capture images of passengers seated in each seat within the vehicle.
In this case, the
また、以上の実施の形態1では、撮像装置2は、運転席および助手席を撮像することを想定していたが、これは一例に過ぎない。撮像装置2は、後部座席を撮像可能に設置され、体格判定装置1は、撮像装置2が後部座席を撮像した撮像画像に基づいて、後部座席の乗員の体格を判定することもできる。In addition, in the above-described first embodiment, it is assumed that the imaging device 2 captures images of the driver's seat and the passenger seat, but this is merely one example. The imaging device 2 is installed so that it can capture images of the rear seats, and the physical
また、以上の実施の形態1では、体格判定装置1において、撮像距離推定部151は、撮像装置2から乗員中心までの奥行を算出する際、乗員厚み距離を考慮していたが、これは一例に過ぎない。撮像距離推定部151は、必ずしも乗員厚み距離を考慮する必要はなく、例えば、撮像装置2から座席までの奥行から座席乗員間距離を減算することで、撮像装置2から乗員中心までの奥行を算出してもよい。In addition, in the above-described first embodiment, in the physical
図9Aおよび図9Bは、実施の形態1に係る体格判定装置1のハードウェア構成の一例を示す図である。
実施の形態1において、画像取得部11と、特徴点検出部12と、シート情報取得部13と、着座状態判定部14と、撮像距離推定部151と、特徴点補正部152と、体格判定部16と、出力部17の機能は、処理回路1001により実現される。すなわち、体格判定装置1は、車両の乗員を撮像した撮像画像と車両の座席に関するシート情報とに基づいて乗員の体格を判定する制御を行うための処理回路1001を備える。
処理回路1001は、図9Aに示すように専用のハードウェアであっても、図9Bに示すようにメモリに格納されるプログラムを実行するプロセッサ1004であってもよい。
9A and 9B are diagrams illustrating an example of a hardware configuration of the
In the first embodiment, the functions of the
The
処理回路1001が専用のハードウェアである場合、処理回路1001は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
When the
処理回路がプロセッサ1004の場合、画像取得部11と、特徴点検出部12と、シート情報取得部13と、着座状態判定部14と、撮像距離推定部151と、特徴点補正部152と、体格判定部16と、出力部17の機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ1005に記憶される。プロセッサ1004は、メモリ1005に記憶されたプログラムを読み出して実行することにより、画像取得部11と、特徴点検出部12と、シート情報取得部13と、着座状態判定部14と、撮像距離推定部151と、特徴点補正部152と、体格判定部16と、出力部17の機能を実行する。すなわち、体格判定装置1は、プロセッサ1004により実行されるときに、上述の図5のステップST1a,1b~ステップST5が結果的に実行されることになるプログラムを格納するためのメモリ1005を備える。また、メモリ1005に記憶されたプログラムは、画像取得部11と、特徴点検出部12と、シート情報取得部13と、着座状態判定部14と、撮像距離推定部151と、特徴点補正部152と、体格判定部16と、出力部17の処理の手順または方法をコンピュータに実行させるものであるともいえる。ここで、メモリ1005とは、例えば、RAM、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性もしくは揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。When the processing circuit is the
なお、画像取得部11と、特徴点検出部12と、シート情報取得部13と、着座状態判定部14と、撮像距離推定部151と、特徴点補正部152と、体格判定部16と、出力部17の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、画像取得部11とシート情報取得部13と出力部17については専用のハードウェアとしての処理回路1001でその機能を実現し、特徴点検出部12と、着座状態判定部14と、撮像距離推定部151と、特徴点補正部152と、体格判定部16についてはプロセッサ1004がメモリ1005に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
また、体格判定装置1は、撮像装置2、シート制御装置3、エアバッグ制御装置4、報知装置5、または、表示装置6等の装置と、有線通信または無線通信を行う入力インタフェース装置1002および出力インタフェース装置1003を備える。
The functions of the
The body
なお、以上の実施の形態1では、体格判定装置1は、車両に搭載される車載装置とし、特徴点検出部12と、シート情報取得部13と、着座状態判定部14と、撮像距離推定部151と、特徴点補正部152と、体格判定部16は、体格判定装置1に備えられているものとした。
これに限らず、特徴点検出部12と、シート情報取得部13と、着座状態判定部14と、撮像距離推定部151と、特徴点補正部152と、体格判定部16のうち、一部が車両の車載装置に搭載され、その他が当該車載装置とネットワークを介して接続されるサーバに備えられるものとして、車載装置とサーバとで体格判定システムを構成するようにしてもよい。
また、特徴点検出部12と、シート情報取得部13と、着座状態判定部14と、撮像距離推定部151と、特徴点補正部152と、体格判定部16が全部サーバに備えられてもよい。
In the
Without being limited to this, some of the feature
In addition, the feature
以上のように、実施の形態1によれば、体格判定装置1は、撮像装置2によって車両の乗員が撮像された撮像画像を取得する画像取得部11と、画像取得部11が取得した撮像画像に基づいて、撮像画像上で乗員の体の部位を示す乗員の特徴点を検出する特徴点検出部12と、車両の座席に関するシート情報を取得するシート情報取得部13と、画像取得部11が取得した撮像画像とシート情報取得部13が取得したシート情報とに基づき、乗員は座席の背もたれから離れているか否かを判定する着座状態判定部14と、着座状態判定部14が乗員は座席の背もたれから離れていると判定した場合、座席と乗員との間の実空間上の座席乗員間距離を推定し、推定した座席乗員間距離と撮像装置2から座席までの奥行とに基づき撮像装置2と乗員との間の実空間上の撮像距離を推定する撮像距離推定部151と、特徴点検出部12が検出した乗員の特徴点と撮像距離推定部151が推定した撮像距離に基づき算出した体格判定用特徴量を用いて、乗員の体格を判定する体格判定部16とを備えるように構成した。そのため、体格判定装置1は、乗員が座席の背もたれから離れている場合おける乗員の体格の誤判定を防ぐことができる。As described above, according to the first embodiment, the physical
また、以上の実施の形態1において、体格判定装置1は、撮像距離推定部151が推定した撮像距離に基づいて特徴点検出部12が検出した乗員の特徴点を補正する特徴点補正部152を備え、体格判定部16は、特徴点補正部152が補正した後の乗員の特徴点に基づき算出した体格判定用特徴量を用いて、乗員の体格を判定するように構成できる。そのため、体格判定装置1は、乗員が座席の背もたれから離れている場合おける乗員の体格の誤判定を防ぐことができる。In addition, in the above-described first embodiment, the
また、以上の実施の形態1において、体格判定装置1は、体格判定部16が、特徴点検出部12が検出した乗員の特徴点に基づき算出した体格判定用特徴量を、撮像距離推定部151が推定した撮像距離に基づいて補正し、補正した後の体格判定用特徴量を用いて、乗員の体格を判定するように構成できる。そのため、体格判定装置1は、乗員が座席の背もたれから離れている場合おける乗員の体格の誤判定を防ぐことができる。In addition, in the above-described first embodiment, the
なお、本開示は、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。 In addition, this disclosure allows for the modification of any of the components of the embodiments or the omission of any of the components of the embodiments.
以下、本開示の諸態様を付記としてまとめて記載する。 Various aspects of this disclosure are summarized below as appendices.
(付記1)
撮像装置によって車両の乗員が撮像された撮像画像を取得する画像取得部と、
前記画像取得部が取得した前記撮像画像に基づいて、前記撮像画像上で前記乗員の体の部位を示す前記乗員の特徴点を検出する特徴点検出部と、
前記車両の座席に関するシート情報を取得するシート情報取得部と、
前記画像取得部が取得した前記撮像画像と前記シート情報取得部が取得した前記シート情報とに基づき、前記乗員は前記座席の背もたれから離れているか否かを判定する着座状態判定部と、
前記着座状態判定部が前記乗員は前記座席の前記背もたれから離れていると判定した場合、前記座席と前記乗員との間の実空間上の座席乗員間距離を推定し、推定した前記座席乗員間距離と前記撮像装置から前記座席までの奥行とに基づき前記撮像装置と前記乗員との間の実空間上の撮像距離を推定する撮像距離推定部と、
前記特徴点検出部が検出した前記乗員の特徴点と前記撮像距離推定部が推定した前記撮像距離に基づき算出した体格判定用特徴量を用いて、前記乗員の体格を判定する体格判定部
とを備えた体格判定装置。
(付記2)
前記撮像距離推定部が推定した前記撮像距離に基づいて前記特徴点検出部が検出した前記乗員の前記特徴点を補正する特徴点補正部を備え、
前記体格判定部は、前記特徴点補正部が補正した後の前記乗員の前記特徴点に基づき算出した体格判定用特徴量を用いて、前記乗員の前記体格を判定する
ことを特徴とする付記1記載の体格判定装置。
(付記3)
前記体格判定部は、前記特徴点検出部が検出した前記乗員の特徴点に基づき算出した体格判定用特徴量を、前記撮像距離推定部が推定した前記撮像距離に基づいて補正し、補正した後の前記体格判定用特徴量を用いて、前記乗員の前記体格を判定する
ことを特徴とする付記1記載の体格判定装置。
(付記4)
前記着座状態判定部は、
前記画像取得部が取得した前記撮像画像上で水平方向の前記乗員の位置と、前記シート情報取得部が取得した前記シート情報に基づく位置およびリクライニング状態の前記座席にて前記乗員が前記背もたれから離れることなく着座している状態を想定して設定された前記撮像画像上で水平方向の前記乗員の位置の範囲である第1基準範囲との比較によって、前記乗員は前記座席の前記背もたれから離れているか否かを判定する
ことを特徴とする付記1から付記3のうちのいずれか1つ記載の体格判定装置。
(付記5)
前記着座状態判定部は、前記撮像画像における前記乗員の頭位置、前記乗員の顔向き、または、前記特徴点検出部が検出した前記乗員の前記特徴点の位置から前記乗員の位置を判定する
ことを特徴とする付記4記載の体格判定装置。
(付記6)
前記着座状態判定部は、前記乗員が着座している前記座席のシートベルトの引き出し量に基づいて前記乗員の位置を判定する
ことを特徴とする付記4記載の体格判定装置。
(付記7)
前記着座状態判定部は、前記乗員が着座している前記座席の座面にかかる荷重と、前記座席にて前記乗員が前記背もたれから離れることなく着座している状態を想定して設定された前記座席の座面にかかる荷重の範囲である第2基準範囲との比較によって、前記乗員は前記座席の背もたれから離れているか否かを判定する
ことを特徴とする付記1から付記3のうちのいずれか1つ記載の体格判定装置。
(付記8)
前記着座状態判定部は、前記画像取得部が取得した前記撮像画像上の前記乗員の体の傾きと前記シート情報取得部が取得した前記シート情報に基づく前記座席のリクライニング角度との差分と、前記座席にて前記乗員が前記背もたれから離れることなく着座している状態を想定して設定された前記撮像画像上の前記乗員の体の傾きと前記座席のリクライニング角度との差分の範囲である第3基準範囲との比較によって、前記乗員は前記座席の前記背もたれから離れているか否かを判定する
ことを特徴とする付記1から付記3のうちのいずれか1つ記載の体格判定装置。
(付記9)
前記着座状態判定部が前記乗員は前記座席の前記背もたれから離れていると判定した場合、
前記撮像距離推定部は、前記座席乗員間距離と前記撮像装置から前記座席までの奥行距離とに基づき前記撮像装置から前記乗員の体の中心をあらわす点である乗員中心までの奥行を推定し、前記撮像装置の設置位置と、前記撮像装置から前記乗員中心までの奥行と、前記乗員中心の水平方向の座標とに基づいて、前記乗員中心と前記撮像装置との直線距離を、前記撮像距離として推定する
ことを特徴とする付記1から付記8のうちのいずれか1つ記載の体格判定装置。
(付記10)
前記撮像距離推定部は、前記撮像画像上の前記乗員の位置の、前記シート情報取得部が取得した前記シート情報に基づく位置およびリクライニング状態の前記座席にて前記乗員が前記背もたれから離れることなく着座している状態を想定して設定された前記撮像画像上で水平方向の前記乗員の位置の範囲である第1基準範囲からの乖離度合い、前記乗員が着座している前記座席の座面にかかる荷重の、前記座席にて前記乗員が前記背もたれから離れることなく着座している状態を想定して設定された前記座席の座面にかかる荷重の範囲である第2基準範囲からの乖離度合い、または、前記画像取得部が取得した前記撮像画像上の前記乗員の体の傾きと前記シート情報取得部が取得した前記シート情報に基づく前記座席のリクライニング角度との差分の、前記座席にて前記乗員が前記背もたれから離れることなく着座している状態を想定して設定された前記撮像画像上の前記乗員の体の傾きと前記座席のリクライニング角度との差分の範囲である第3基準範囲からの乖離度合いに基づいて、前記座席乗員間距離を推定する
ことを特徴とする付記1から付記9のうちのいずれか1つ記載の体格判定装置。
(付記11)
前記撮像距離推定部は、シートベルトの引き出し量に基づいて前記座席乗員間距離を推定する
ことを特徴とする付記1から付記9のうちのいずれか1つ記載の体格判定装置。
(付記12)
前記撮像距離推定部は、シートベルトの引き出し量と前記撮像画像に基づいて検出した前記乗員の正規着座状態におけるシートベルトの引き出し量との差分に基づいて前記座席乗員間距離を推定する
ことを特徴とする付記1から付記9のうちのいずれか1つ記載の体格判定装置。
(付記13)
前記体格判定部は、前記撮像画像上の前記乗員の肩幅、前記乗員の腕の長さ、前記乗員の顔の高さ、または、前記乗員の座高のうちの少なくとも1つを前記体格判定用特徴量として算出する
ことを特徴とする付記1から付記12のうちのいずれか1つ記載の体格判定装置。
(付記14)
前記体格判定部は、前記座席の前後の位置を前記体格判定用特徴量に含める
ことを特徴とする付記13記載の体格判定装置。
(付記15)
前記体格判定部は、前記シート情報取得部が取得した前記シート情報に基づいて前記乗員が着座している前記座席の上下方向の位置を判定し、判定した前記座席の前記上下方向の位置に基づいて前記乗員の顔の高さを補正する
ことを特徴とする付記13または付記14記載の体格判定装置。
(付記16)
画像取得部が、撮像装置によって車両の乗員が撮像された撮像画像を取得するステップと、
特徴点検出部が、前記画像取得部が取得した前記撮像画像に基づいて、前記撮像画像上で前記乗員の体の部位を示す前記乗員の特徴点を検出するステップと、
シート情報取得部が、前記車両の座席に関するシート情報を取得するステップと、
着座状態判定部が、前記画像取得部が取得した前記撮像画像と前記シート情報取得部が取得した前記シート情報とに基づき、前記乗員は前記座席の背もたれから離れているか否かを判定するステップと、
撮像距離推定部が、前記着座状態判定部が前記乗員は前記座席の前記背もたれから離れていると判定した場合、前記座席と前記乗員との間の実空間上の座席乗員間距離を推定し、推定した前記座席乗員間距離と前記撮像装置から前記座席までの奥行とに基づき前記撮像装置と前記乗員との間の実空間上の撮像距離を推定するステップと、
体格判定部が、前記特徴点検出部が検出した前記乗員の特徴点と前記撮像距離推定部が推定した前記撮像距離に基づき算出した体格判定用特徴量を用いて、前記乗員の体格を判定するステップ
とを備えた体格判定方法。
(Appendix 1)
an image acquisition unit that acquires an image of an occupant of a vehicle by an imaging device;
a feature point detection unit that detects feature points of the occupant that indicate body parts of the occupant on the captured image based on the captured image acquired by the image acquisition unit;
a seat information acquisition unit that acquires seat information related to the seats of the vehicle;
a seating state determination unit that determines whether or not the occupant is away from a backrest of the seat based on the captured image acquired by the image acquisition unit and the seat information acquired by the seat information acquisition unit;
an imaging distance estimation unit that, when the seating state determination unit determines that the occupant is away from the backrest of the seat, estimates a seat-to-occupant distance in a real space between the seat and the occupant, and estimates an imaging distance in the real space between the imaging device and the occupant based on the estimated seat-to-occupant distance and a depth from the imaging device to the seat;
a physique determination unit that determines a physique of the occupant by using a feature amount for physique determination calculated based on the feature points of the occupant detected by the feature point detection unit and the imaging distance estimated by the imaging distance estimation unit.
(Appendix 2)
a feature point correction unit that corrects the feature points of the occupant detected by the feature point detection unit based on the imaging distance estimated by the imaging distance estimation unit,
The physique determination device according to
(Appendix 3)
the physique determination unit corrects a feature amount for physique determination calculated based on the feature points of the occupant detected by the feature point detection unit, based on the imaging distance estimated by the imaging distance estimation unit, and determines the physique of the occupant by using the corrected feature amount for physique determination.
(Appendix 4)
The seating state determination unit is
The body type determination device according to any one of
(Appendix 5)
The body type determination device according to claim 4, wherein the seating state determination unit determines the position of the occupant from the head position of the occupant in the captured image, the facial direction of the occupant, or the positions of the feature points of the occupant detected by the feature point detection unit.
(Appendix 6)
The physical build determining device according to claim 4, wherein the seating state determining unit determines a position of the occupant based on an amount of withdrawal of a seat belt of the seat in which the occupant is seated.
(Appendix 7)
The body type determination device according to any one of
(Appendix 8)
The body type determination device described in any one of
(Appendix 9)
When the seating state determination unit determines that the occupant is away from the backrest of the seat,
the imaging distance estimation unit estimates a depth from the imaging device to an occupant center, which is a point representing the center of the occupant's body, based on the seat-to-occupant distance and a depth distance from the imaging device to the seat, and estimates a straight-line distance between the occupant center and the imaging device as the imaging distance based on an installation position of the imaging device, the depth from the imaging device to the occupant center, and a horizontal coordinate of the occupant center.
(Appendix 10)
The imaging distance estimation unit estimates the seat-to-occupant distance based on a degree of deviation of the position of the occupant on the captured image from a position based on the seat information acquired by the seat information acquisition unit and a first reference range which is a range of the position of the occupant in a horizontal direction on the captured image set on the assumption that the occupant is seated in the seat in a reclined state without moving away from the backrest, a degree of deviation of a load applied to a seat surface of the seat on which the occupant is seated from a second reference range which is a range of a load applied to the seat surface of the seat set on the assumption that the occupant is seated in the seat without moving away from the backrest, or a degree of deviation of a difference between a tilt of the body of the occupant on the captured image acquired by the image acquisition unit and a reclining angle of the seat based on the seat information acquired by the seat information acquisition unit from a third reference range which is a range of a difference between a tilt of the body of the occupant on the captured image and a reclining angle of the seat set on the assumption that the occupant is seated in the seat without moving away from the backrest. 10. The physique determination device according to
(Appendix 11)
The body type determination device according to any one of
(Appendix 12)
The body type determination device according to any one of
(Appendix 13)
The physique determination device according to any one of
(Appendix 14)
The physique determination device according to
(Appendix 15)
The physique determination device according to claim 13 or 14, wherein the physique determination unit determines a vertical position of the seat in which the occupant is seated based on the seat information acquired by the seat information acquisition unit, and corrects a height of the occupant's face based on the determined vertical position of the seat.
(Appendix 16)
An image acquisition unit acquires an image of an occupant of the vehicle by an imaging device;
a feature point detection unit detecting feature points of the occupant that indicate body parts of the occupant on the captured image based on the captured image acquired by the image acquisition unit;
A seat information acquisition unit acquires seat information related to a seat of the vehicle;
a seating state determination unit determining whether or not the occupant is away from a backrest of the seat based on the captured image acquired by the image acquisition unit and the seat information acquired by the seat information acquisition unit;
an imaging distance estimation unit, when the seating state determination unit determines that the occupant is away from the backrest of the seat, estimating a seat-to-occupant distance in a real space between the seat and the occupant, and estimating an imaging distance in the real space between the imaging device and the occupant based on the estimated seat-to-occupant distance and a depth from the imaging device to the seat;
a step of determining a physique of the occupant by a physique determination unit using a feature amount for physique determination calculated based on the feature points of the occupant detected by the feature point detection unit and the imaging distance estimated by the imaging distance estimation unit.
本開示に係る体格判定装置は、乗員が座席の背もたれから離れている場合における乗員の体格の誤判定を防ぐことができる。The physical size determination device of the present disclosure can prevent erroneous determination of an occupant's physical size when the occupant is away from the seat back.
1 体格判定装置、11 画像取得部、12 特徴点検出部、13 シート情報取得部、14 着座状態判定部、15 特徴点処理部、151 撮像距離推定部、152 特徴点補正部、16 体格判定部、17 出力部、2 撮像装置、3 シート制御装置、4 エアバッグ制御装置、5 報知装置、6 表示装置、1001 処理回路、1002 入力インタフェース装置、1003 出力インタフェース装置、1004 プロセッサ、1005 メモリ。 1 Physical build determination device, 11 Image acquisition unit, 12 Feature point detection unit, 13 Seat information acquisition unit, 14 Seating state determination unit, 15 Feature point processing unit, 151 Imaging distance estimation unit, 152 Feature point correction unit, 16 Physical build determination unit, 17 Output unit, 2 Imaging device, 3 Seat control device, 4 Airbag control device, 5 Notification device, 6 Display device, 1001 Processing circuit, 1002 Input interface device, 1003 Output interface device, 1004 Processor, 1005 Memory.
Claims (16)
前記画像取得部が取得した前記撮像画像に基づいて、前記撮像画像上で前記乗員の体の部位を示す前記乗員の特徴点を検出する特徴点検出部と、
前記車両の座席に関するシート情報を取得するシート情報取得部と、
前記画像取得部が取得した前記撮像画像と前記シート情報取得部が取得した前記シート情報とに基づき、前記乗員は前記座席の背もたれから離れているか否かを判定する着座状態判定部と、
前記着座状態判定部が前記乗員は前記座席の前記背もたれから離れていると判定した場合、前記座席と前記乗員との間の実空間上の座席乗員間距離を推定し、推定した前記座席乗員間距離と前記撮像装置から前記座席までの奥行とに基づき前記撮像装置と前記乗員との間の実空間上の撮像距離を推定する撮像距離推定部と、
前記特徴点検出部が検出した前記乗員の特徴点と前記撮像距離推定部が推定した前記撮像距離に基づき算出した体格判定用特徴量を用いて、前記乗員の体格を判定する体格判定部
とを備えた体格判定装置。 an image acquisition unit that acquires an image of an occupant of a vehicle by an imaging device;
a feature point detection unit that detects feature points of the occupant that indicate body parts of the occupant on the captured image based on the captured image acquired by the image acquisition unit;
a seat information acquisition unit that acquires seat information related to the seats of the vehicle;
a seating state determination unit that determines whether or not the occupant is away from a backrest of the seat based on the captured image acquired by the image acquisition unit and the seat information acquired by the seat information acquisition unit;
an imaging distance estimation unit that, when the seating state determination unit determines that the occupant is away from the backrest of the seat, estimates a seat-to-occupant distance in a real space between the seat and the occupant, and estimates an imaging distance in the real space between the imaging device and the occupant based on the estimated seat-to-occupant distance and a depth from the imaging device to the seat;
a physique determination unit that determines a physique of the occupant by using a feature amount for physique determination calculated based on the feature points of the occupant detected by the feature point detection unit and the imaging distance estimated by the imaging distance estimation unit.
前記体格判定部は、前記特徴点補正部が補正した後の前記乗員の前記特徴点に基づき算出した体格判定用特徴量を用いて、前記乗員の前記体格を判定する
ことを特徴とする請求項1記載の体格判定装置。 a feature point correction unit that corrects the feature points of the occupant detected by the feature point detection unit based on the imaging distance estimated by the imaging distance estimation unit,
The physique determination device according to claim 1 , wherein the physique determination unit determines the physique of the occupant by using a feature amount for physique determination calculated based on the feature points of the occupant after the feature point correction unit has corrected the feature points.
ことを特徴とする請求項1記載の体格判定装置。 2. The physique determination device according to claim 1, wherein the physique determination unit corrects a feature amount for physique determination calculated based on the feature points of the occupant detected by the feature point detection unit, based on the imaging distance estimated by the imaging distance estimation unit, and determines the physique of the occupant using the corrected feature amount for physique determination.
前記画像取得部が取得した前記撮像画像上で水平方向の前記乗員の位置と、前記シート情報取得部が取得した前記シート情報に基づく位置およびリクライニング状態の前記座席にて前記乗員が前記背もたれから離れることなく着座している状態を想定して設定された前記撮像画像上で水平方向の前記乗員の位置の範囲である第1基準範囲との比較によって、前記乗員は前記座席の前記背もたれから離れているか否かを判定する
ことを特徴とする請求項1から請求項3のうちのいずれか1項記載の体格判定装置。 The seating state determination unit is
4. The body type determination device according to claim 1, further comprising: a body type determination unit that determines whether the occupant is away from the backrest of the seat by comparing the horizontal position of the occupant on the captured image acquired by the image acquisition unit with a position based on the seat information acquired by the seat information acquisition unit and a first reference range, which is a range of the horizontal position of the occupant on the captured image that is set assuming a state in which the occupant is seated in the seat in a reclined state without moving away from the backrest.
ことを特徴とする請求項4記載の体格判定装置。 The physical build determination device according to claim 4, characterized in that the seating state determination unit determines the position of the occupant from the head position of the occupant in the captured image, the facial direction of the occupant, or the positions of the feature points of the occupant detected by the feature point detection unit.
ことを特徴とする請求項4記載の体格判定装置。 5. The physique determination device according to claim 4, wherein the seating state determination unit determines the position of the occupant based on an amount of withdrawal of a seat belt of the seat in which the occupant is seated.
ことを特徴とする請求項1から請求項3のうちのいずれか1項記載の体格判定装置。 The body type determination device according to any one of claims 1 to 3, characterized in that the seating state determination unit determines whether the occupant is away from the backrest of the seat by comparing the load applied to the seat surface of the seat on which the occupant is seated with a second reference range, which is a range of loads applied to the seat surface of the seat that is set assuming a state in which the occupant is seated in the seat without moving away from the backrest.
ことを特徴とする請求項1から請求項3のうちのいずれか1項記載の体格判定装置。 The body type determination device of any one of claims 1 to 3, characterized in that the seating state determination unit determines whether the occupant is away from the backrest of the seat by comparing the difference between the inclination of the occupant's body in the captured image acquired by the image acquisition unit and the reclining angle of the seat based on the seat information acquired by the seat information acquisition unit with a third reference range, which is the range of the difference between the inclination of the occupant's body in the captured image and the reclining angle of the seat, which is set assuming a state in which the occupant is seated in the seat without moving away from the backrest.
前記撮像距離推定部は、前記座席乗員間距離と前記撮像装置から前記座席までの奥行距離とに基づき前記撮像装置から前記乗員の体の中心をあらわす点である乗員中心までの奥行を推定し、前記撮像装置の設置位置と、前記撮像装置から前記乗員中心までの奥行と、前記乗員中心の水平方向の座標とに基づいて、前記乗員中心と前記撮像装置との直線距離を、前記撮像距離として推定する
ことを特徴とする請求項1記載の体格判定装置。 When the seating state determination unit determines that the occupant is away from the backrest of the seat,
2. The body type determination device according to claim 1, wherein the imaging distance estimation unit estimates a depth from the imaging device to an occupant center, which is a point representing the center of the occupant's body, based on the seat-to-occupant distance and a depth distance from the imaging device to the seat, and estimates a straight-line distance between the occupant center and the imaging device as the imaging distance based on an installation position of the imaging device, the depth from the imaging device to the occupant center, and a horizontal coordinate of the occupant center.
ことを特徴とする請求項1記載の体格判定装置。 The imaging distance estimation unit estimates the seat-to-occupant distance based on a degree of deviation of the position of the occupant on the captured image from a position based on the seat information acquired by the seat information acquisition unit and a first reference range which is a range of the position of the occupant in a horizontal direction on the captured image set on the assumption that the occupant is seated in the seat in a reclined state without moving away from the backrest, a degree of deviation of a load applied to a seat surface of the seat on which the occupant is seated from a second reference range which is a range of a load applied to the seat surface of the seat set on the assumption that the occupant is seated in the seat without moving away from the backrest, or a degree of deviation of a difference between a tilt of the body of the occupant on the captured image acquired by the image acquisition unit and a reclining angle of the seat based on the seat information acquired by the seat information acquisition unit from a third reference range which is a range of a difference between a tilt of the body of the occupant on the captured image and a reclining angle of the seat set on the assumption that the occupant is seated in the seat without moving away from the backrest. 2. The apparatus for determining physical constitution according to claim 1.
ことを特徴とする請求項1記載の体格判定装置。 2. The physique determination device according to claim 1, wherein the imaging distance estimation unit estimates the seat-to-occupant distance based on an amount of withdrawal of a seat belt.
ことを特徴とする請求項1記載の体格判定装置。 2. The physical type determination device according to claim 1, wherein the imaging distance estimation unit estimates the seat-to-occupant distance based on a difference between an amount of seat belt withdrawal and an amount of seat belt withdrawal when the occupant is in a normal seated position detected based on the captured image.
ことを特徴とする請求項1記載の体格判定装置。 The physique determination device according to claim 1, characterized in that the physique determination unit calculates at least one of the occupant's shoulder width, the occupant's arm length, the occupant's face height, or the occupant's sitting height in the captured image as the physique determination feature.
ことを特徴とする請求項13記載の体格判定装置。 The physique determination device according to claim 13 , wherein the physique determination unit includes a front and rear position of the seat in the physique determination feature amount.
ことを特徴とする請求項13または請求項14記載の体格判定装置。 The physique determination device according to claim 13 or 14, characterized in that the physique determination unit determines a vertical position of the seat in which the occupant is seated based on the seat information acquired by the seat information acquisition unit, and corrects the height of the occupant's face based on the determined vertical position of the seat.
特徴点検出部が、前記画像取得部が取得した前記撮像画像に基づいて、前記撮像画像上で前記乗員の体の部位を示す前記乗員の特徴点を検出するステップと、
シート情報取得部が、前記車両の座席に関するシート情報を取得するステップと、
着座状態判定部が、前記画像取得部が取得した前記撮像画像と前記シート情報取得部が取得した前記シート情報とに基づき、前記乗員は前記座席の背もたれから離れているか否かを判定するステップと、
撮像距離推定部が、前記着座状態判定部が前記乗員は前記座席の前記背もたれから離れていると判定した場合、前記座席と前記乗員との間の実空間上の座席乗員間距離を推定し、推定した前記座席乗員間距離と前記撮像装置から前記座席までの奥行とに基づき前記撮像装置と前記乗員との間の実空間上の撮像距離を推定するステップと、
体格判定部が、前記特徴点検出部が検出した前記乗員の特徴点と前記撮像距離推定部が推定した前記撮像距離に基づき算出した体格判定用特徴量を用いて、前記乗員の体格を判定するステップ
とを備えた体格判定方法。 An image acquisition unit acquires an image of an occupant of the vehicle by an imaging device;
a feature point detection unit detecting feature points of the occupant that indicate body parts of the occupant on the captured image based on the captured image acquired by the image acquisition unit;
A seat information acquisition unit acquires seat information related to a seat of the vehicle;
a seating state determination unit determining whether or not the occupant is away from a backrest of the seat based on the captured image acquired by the image acquisition unit and the seat information acquired by the seat information acquisition unit;
an imaging distance estimation unit, when the seating state determination unit determines that the occupant is away from the backrest of the seat, estimating a seat-to-occupant distance in a real space between the seat and the occupant, and estimating an imaging distance in the real space between the imaging device and the occupant based on the estimated seat-to-occupant distance and a depth from the imaging device to the seat;
a step of determining a physique of the occupant by a physique determination unit using a feature amount for physique determination calculated based on the feature points of the occupant detected by the feature point detection unit and the imaging distance estimated by the imaging distance estimation unit.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/020599 WO2023223442A1 (en) | 2022-05-18 | 2022-05-18 | Physique determination device and physique determination method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2023223442A1 JPWO2023223442A1 (en) | 2023-11-23 |
JP7500001B2 true JP7500001B2 (en) | 2024-06-14 |
Family
ID=88834890
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024521443A Active JP7500001B2 (en) | 2022-05-18 | 2022-05-18 | Physique determination device and physique determination method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7500001B2 (en) |
WO (1) | WO2023223442A1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003118531A (en) | 2001-10-16 | 2003-04-23 | Denso Corp | Occupant position detecting device for vehicle |
JP2006176075A (en) | 2004-12-24 | 2006-07-06 | Tkj Kk | Detection system, occupant protection device, vehicle and detection method |
JP2007055294A (en) | 2005-08-22 | 2007-03-08 | Tokai Rika Co Ltd | Occupant detection apparatus for vehicle |
JP2018083561A (en) | 2016-11-25 | 2018-05-31 | アイシン精機株式会社 | Occupant information detection device and program |
JP2018096946A (en) | 2016-12-16 | 2018-06-21 | アイシン精機株式会社 | Occupant detection device |
JP2021066276A (en) | 2019-10-18 | 2021-04-30 | 株式会社デンソー | Device for determining physique of occupant |
EP4112372A1 (en) | 2021-07-01 | 2023-01-04 | Harman International Industries, Incorporated | Method and system for driver posture monitoring |
-
2022
- 2022-05-18 WO PCT/JP2022/020599 patent/WO2023223442A1/en unknown
- 2022-05-18 JP JP2024521443A patent/JP7500001B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003118531A (en) | 2001-10-16 | 2003-04-23 | Denso Corp | Occupant position detecting device for vehicle |
JP2006176075A (en) | 2004-12-24 | 2006-07-06 | Tkj Kk | Detection system, occupant protection device, vehicle and detection method |
JP2007055294A (en) | 2005-08-22 | 2007-03-08 | Tokai Rika Co Ltd | Occupant detection apparatus for vehicle |
JP2018083561A (en) | 2016-11-25 | 2018-05-31 | アイシン精機株式会社 | Occupant information detection device and program |
JP2018096946A (en) | 2016-12-16 | 2018-06-21 | アイシン精機株式会社 | Occupant detection device |
JP2021066276A (en) | 2019-10-18 | 2021-04-30 | 株式会社デンソー | Device for determining physique of occupant |
EP4112372A1 (en) | 2021-07-01 | 2023-01-04 | Harman International Industries, Incorporated | Method and system for driver posture monitoring |
Also Published As
Publication number | Publication date |
---|---|
WO2023223442A1 (en) | 2023-11-23 |
JPWO2023223442A1 (en) | 2023-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20070289799A1 (en) | Vehicle occupant detecting system | |
US11380009B2 (en) | Physique estimation device and posture estimation device | |
US10706585B2 (en) | Eyeball information estimation device, eyeball information estimation method, and eyeball information estimation program | |
US11037006B2 (en) | Occupant detection device | |
EP3545818B1 (en) | Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program | |
JP2018083561A (en) | Occupant information detection device and program | |
JP6479272B1 (en) | Gaze direction calibration apparatus, gaze direction calibration method, and gaze direction calibration program | |
CN110537207B (en) | Face orientation estimating device and face orientation estimating method | |
JPWO2019180876A1 (en) | Physical constitution estimation device and physical constitution estimation method | |
JP2018060466A (en) | Image processing apparatus, detection apparatus, learning apparatus, image processing method, and image processing program | |
US11915495B2 (en) | Information processing apparatus, and recording medium | |
JP6587254B2 (en) | Luminance control device, luminance control system, and luminance control method | |
JP7500001B2 (en) | Physique determination device and physique determination method | |
JP2018101212A (en) | On-vehicle device and method for calculating degree of face directed to front side | |
JP2018151930A (en) | Driver state estimation device and driver state estimation method | |
KR101976498B1 (en) | System and method for gesture recognition of vehicle | |
JP7479575B2 (en) | Physique estimation device and physique estimation method | |
WO2022180706A1 (en) | Physique determination device and physique determination method | |
CN114103961A (en) | Face information acquisition apparatus and face information acquisition method | |
WO2024034109A1 (en) | Physique determination device and physique determination method | |
JP2021056968A (en) | Object determination apparatus | |
JP7134384B1 (en) | Deviation amount detection device, deviation amount detection method, and driver monitoring system | |
WO2023084738A1 (en) | Physique determination device and physique determination method | |
JP2016175509A (en) | Face direction detection device and face direction detection method | |
JP7301256B2 (en) | Face direction determination device and face direction determination method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240411 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20240411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240604 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7500001 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |