JP2018059672A - Air conditioner - Google Patents

Air conditioner Download PDF

Info

Publication number
JP2018059672A
JP2018059672A JP2016197599A JP2016197599A JP2018059672A JP 2018059672 A JP2018059672 A JP 2018059672A JP 2016197599 A JP2016197599 A JP 2016197599A JP 2016197599 A JP2016197599 A JP 2016197599A JP 2018059672 A JP2018059672 A JP 2018059672A
Authority
JP
Japan
Prior art keywords
occupant
unit
color
identification
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016197599A
Other languages
Japanese (ja)
Other versions
JP6681816B2 (en
Inventor
貴郎 上田
Takao Ueda
貴郎 上田
貴宏 磯田
Takahiro Isoda
貴宏 磯田
光 梅澤
Hikari Umezawa
光 梅澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Johnson Controls Air Conditioning Inc
Original Assignee
Hitachi Johnson Controls Air Conditioning Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Johnson Controls Air Conditioning Inc filed Critical Hitachi Johnson Controls Air Conditioning Inc
Priority to JP2016197599A priority Critical patent/JP6681816B2/en
Publication of JP2018059672A publication Critical patent/JP2018059672A/en
Application granted granted Critical
Publication of JP6681816B2 publication Critical patent/JP6681816B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Air Conditioning Control Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an air conditioner of high comfort.SOLUTION: An air conditioner S includes an image pick-up portion 14 for picking up an indoor image, an occupant detection portion 312a for detecting an occupant in a room on the basis of a result of image pick-up by the image pick-up portion, an occupant discrimination portion 312b for discriminating an occupant on the basis of discrimination parameters of the occupant detected by the occupant detection portion 312a, and an air-conditioning control portion 323 for changing air-conditioning control on the basis of a result of the discrimination by the occupant discrimination portion 312b. The occupant discrimination portion 312b includes a first discrimination portion for discriminating the occupant on the basis of a parameter which is not change among the discrimination parameters when a moving distance of the occupant detected by the occupant detection portion 312a is a prescribed distance or less, and a second discrimination portion for discriminating the occupant on the basis of the parameters including the parameter which changes among the discrimination parameters when the moving distance of the occupant detected by the occupant detection portion 312a is over the prescribed distance.SELECTED DRAWING: Figure 4

Description

本発明は、空調を行う空気調和機に関する。   The present invention relates to an air conditioner that performs air conditioning.

カメラの撮像結果に基づいて在室者を認識し、その認識結果に基づいて空調制御を行う空気調和機が知られている。例えば、特許文献1には、撮像装置(つまり、カメラ)の撮像結果に基づいて人間の顔を認識し、この人間に向けて風向を調整する空気調和機について記載されている。   2. Description of the Related Art An air conditioner that recognizes an occupant based on a camera imaging result and performs air conditioning control based on the recognition result is known. For example, Patent Literature 1 describes an air conditioner that recognizes a human face based on an imaging result of an imaging device (that is, a camera) and adjusts a wind direction toward the human.

また、特許文献2には、撮像手段(つまり、カメラ)の撮像結果に基づいて在室者の顔を検出し、その検出結果に基づいて個人認証を行い、個人の嗜好に合わせた空調制御を行う空気調和機について記載されている。   Japanese Patent Laid-Open No. 2004-228688 detects the face of a room occupant based on an imaging result of an imaging means (that is, a camera), performs personal authentication based on the detection result, and performs air-conditioning control according to personal preference. The air conditioner to perform is described.

特開2013−137177号公報JP2013-137177A 特開2015−17728号公報JP 2015-17728 A

一般に、カメラに比較的近い位置にいる在室者を正面から撮像しなければ、在室者の顔を鮮明に撮像できないことが多い。特許文献1,2に記載の技術では、前記したように、在室者の顔を認識しているため、カメラから比較的遠い位置にいる在室者については、その顔を認識できない可能性が高い。   In general, unless a room occupant who is relatively close to the camera is imaged from the front, the face of the room occupant cannot often be clearly imaged. In the techniques described in Patent Documents 1 and 2, as described above, since the face of the occupant is recognized, there is a possibility that the face cannot be recognized for the occupant who is relatively far from the camera. high.

また、特許文献1,2において、カメラの視野外に移動した在室者がカメラの視野内に戻ってきた場合、この在室者がカメラの正面を向くまでは在室者の顔を認識できず、在室者の同一性を判別しにくい。つまり、特許文献1,2に記載の技術では、場合によっては、快適な空調を行いにくい状況が生じ得るため、空調のさらなる快適化を図る余地がある。   In Patent Documents 1 and 2, when a resident who has moved out of the camera's field of view returns to the camera's field of view, the occupant's face can be recognized until the occupant faces the front of the camera. Therefore, it is difficult to determine the identity of people in the room. In other words, in the technologies described in Patent Documents 1 and 2, there may be a situation where it is difficult to perform comfortable air conditioning depending on circumstances, and there is room for further comfort of air conditioning.

そこで、本発明は、快適性の高い空気調和機を提供することを課題とする。   Then, this invention makes it a subject to provide an air conditioner with high comfort.

前記課題を解決するために、本発明に係る空気調和機は、室内を撮像する撮像部と、撮像部の撮像結果に基づいて、室内の在室者を検出する在室者検出部と、在室者検出部によって検出される在室者の識別パラメータに基づいて、在室者の識別を行う在室者識別部と、在室者識別部の識別結果に基づいて、空調制御を変更する空調制御部と、を備え、在室者識別部は、在室者検出部で検出された在室者の移動距離が所定距離以下にある場合、識別パラメータのうち変化しないパラメータに基づいて、在室者の識別を行う第1識別部と、在室者検出部で検出された在室者の移動距離が所定距離を超える場合、識別パラメータのうち変化するパラメータを含めて、在室者の識別を行う第2識別部と、を備えることを特徴とする。本発明のその他の態様については、後記する実施形態において説明する。   In order to solve the above problems, an air conditioner according to the present invention includes an imaging unit that images a room, a occupant detection unit that detects a occupant in the room based on an imaging result of the imaging unit, The occupant identification unit that identifies the occupant based on the identification parameter of the occupant detected by the occupant detection unit, and the air conditioning that changes the air conditioning control based on the identification result of the occupant identification unit The occupant identification unit, when the occupant movement distance detected by the occupant detection unit is less than or equal to a predetermined distance, the occupant identification unit When the moving distance of the occupant detected by the occupant detection unit and the first identification unit for identifying the occupant exceeds a predetermined distance, identification of the occupant is performed, including parameters that change among the identification parameters. And a second identification unit to be performed. Other aspects of the present invention will be described in the embodiments described later.

本発明によれば、快適性の高い空気調和機を提供できる。   According to the present invention, a highly comfortable air conditioner can be provided.

本発明の第1実施形態に係る空気調和機が備える室内機、室外機、及びリモコンの正面図である。It is a front view of the indoor unit with which the air conditioner which concerns on 1st Embodiment of this invention is equipped, an outdoor unit, and a remote control. 空気調和機が備えるヒートポンプサイクルの説明図である。It is explanatory drawing of the heat pump cycle with which an air conditioner is provided. 空気調和機が備える室内機の縦断面図である。It is a longitudinal cross-sectional view of the indoor unit with which an air conditioner is provided. 室内機が備える機器の機能ブロック図である。It is a functional block diagram of the apparatus with which an indoor unit is provided. 空気調和機の制御部が実行する処理のフローチャートである。It is a flowchart of the process which the control part of an air conditioner performs. 空気調和機の撮像部による撮像結果の一例を示す説明図である。It is explanatory drawing which shows an example of the imaging result by the imaging part of an air conditioner. 空気調和機の在室者識別部が実行する特徴量抽出処理のフローチャートである。It is a flowchart of the feature-value extraction process which the occupant identification part of an air conditioner performs. (a)は在室者の服の色の特定に関する説明図であり、(b)は在室者の服の色分布の例を示す説明図である。(A) is explanatory drawing regarding specification of the color of occupants 'clothes, (b) is explanatory drawing which shows the example of color distribution of occupants' clothes. (a)は在室者の頭頂部の色の特定に関する説明図であり、(b)は在室者の頭頂部の色分布の例を示す説明図である。(A) is explanatory drawing regarding specification of the color of a head occupant's head part, (b) is explanatory drawing which shows the example of color distribution of the head part of a resident person. 在室者の他の特徴量に関する説明図である。It is explanatory drawing regarding the other feature-value of a resident. 空気調和機の在室者識別部が実行する在室者識別処理のフローチャートである。It is a flowchart of the occupant identification process which the occupant identification part of an air conditioner performs. 記憶部に登録されている各特徴量のデータテーブルである。It is a data table of each feature-value registered in the memory | storage part. 各在室者の在室時間に関する説明図である。It is explanatory drawing regarding the occupancy time of each occupant. 空気調和機の制御部が実行する空調制御変更処理のフローチャートである。It is a flowchart of the air-conditioning control change process which the control part of an air conditioner performs. 本発明の第2実施形態に係る空気調和機の室内機が備える機器の機能ブロック図である。It is a functional block diagram of the apparatus with which the indoor unit of the air conditioner which concerns on 2nd Embodiment of this invention is provided. 空気調和機の制御部が実行する処理を示すフローチャートである。It is a flowchart which shows the process which the control part of an air conditioner performs. 環境検出値の変化量と、重み係数の大きさと、の関係を示す説明図である。It is explanatory drawing which shows the relationship between the variation | change_quantity of an environmental detection value, and the magnitude | size of a weighting coefficient. 本発明の第3実施形態に係る在室者識別処理を示す説明図である。It is explanatory drawing which shows the resident identification process which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る空気調和機の制御部が実行する処理を示すフローチャートである。It is a flowchart which shows the process which the control part of the air conditioner concerning 3rd Embodiment of this invention performs. 在室者の位置の変化量と、重み係数の大きさと、の関係を示す説明図である。It is explanatory drawing which shows the relationship between the variation | change_quantity of the position of a resident, and the magnitude | size of a weighting coefficient. ab空間を用いた在室者識別を示す説明図である。It is explanatory drawing which shows occupant identification using ab space. 本発明の変形例の説明図であり、(a)は在室者が立っているときの姿勢に関する説明図であり、(b)は在室者が座っているときの姿勢に関する説明図である。It is explanatory drawing of the modification of this invention, (a) is explanatory drawing regarding an attitude | position when a resident is standing, (b) is explanatory drawing regarding the attitude | position when an occupant is sitting. .

≪第1実施形態≫
<空気調和機の構成>
図1は、第1実施形態に係る空気調和機Sが備える室内機100、室外機200、及びリモコン300の正面図である。
空気調和機Sは、ヒートポンプサイクルで冷媒を循環させることによって空調(冷房運転、暖房運転、除湿運転等)を行う機器である。図1に示すように、空気調和機Sは、室内機100と、室外機200と、リモコン300と、を備えている。
<< First Embodiment >>
<Configuration of air conditioner>
FIG. 1 is a front view of an indoor unit 100, an outdoor unit 200, and a remote controller 300 included in the air conditioner S according to the first embodiment.
The air conditioner S is an apparatus that performs air conditioning (cooling operation, heating operation, dehumidifying operation, etc.) by circulating a refrigerant in a heat pump cycle. As shown in FIG. 1, the air conditioner S includes an indoor unit 100, an outdoor unit 200, and a remote controller 300.

室内機100は、リモコン送受信部13と、撮像部14と、を備えている。
リモコン送受信部13は、リモコン300との間で信号を送受信するものである。例えば、運転/停止指令、設定温度の変更、タイマの設定、運転モードの変更等の信号が、リモコン300からリモコン送受信部13に送信される。また、例えば、室内の温湿度の検出値が、リモコン送受信部13からリモコン300に送信され、前記した検出値がリモコン300に表示される。
The indoor unit 100 includes a remote control transmission / reception unit 13 and an imaging unit 14.
The remote control transmission / reception unit 13 transmits and receives signals to and from the remote control 300. For example, signals such as an operation / stop command, a change in set temperature, a timer setting, and a change in operation mode are transmitted from the remote control 300 to the remote control transmission / reception unit 13. Further, for example, a detected value of indoor temperature and humidity is transmitted from the remote control transmission / reception unit 13 to the remote control 300, and the above-described detection value is displayed on the remote control 300.

撮像部14は、室内を撮像するものである。なお、撮像部14の詳細については後記する。
室外機200は、次に説明する圧縮機21(図2参照)と、四方弁22と、室外熱交換器23と、膨張弁24と、室外ファン25と、を備えている。
The imaging unit 14 images a room. Details of the imaging unit 14 will be described later.
The outdoor unit 200 includes a compressor 21 (see FIG. 2) described below, a four-way valve 22, an outdoor heat exchanger 23, an expansion valve 24, and an outdoor fan 25.

図2は、空気調和機Sが備えるヒートポンプサイクルの説明図である。
図2に示すように、空気調和機Sは、圧縮機21と、四方弁22と、室外熱交換器23と、膨張弁24と、室内熱交換器11と、が環状に順次接続されてなる冷媒回路Qにおいて、周知のヒートポンプサイクルで冷媒を循環させるようになっている。また、室外熱交換器23の付近には室外ファン25が設置され、室内熱交換器11の付近には室内ファン12が設置されている。
FIG. 2 is an explanatory diagram of a heat pump cycle provided in the air conditioner S.
As shown in FIG. 2, the air conditioner S includes a compressor 21, a four-way valve 22, an outdoor heat exchanger 23, an expansion valve 24, and an indoor heat exchanger 11 that are sequentially connected in a ring shape. In the refrigerant circuit Q, the refrigerant is circulated by a known heat pump cycle. An outdoor fan 25 is installed in the vicinity of the outdoor heat exchanger 23, and an indoor fan 12 is installed in the vicinity of the indoor heat exchanger 11.

また、図示はしないが、室内機100と室外機200とは通信線を介して接続されている。そして、後記するメインマイコン32(図4参照)からの指令に基づいて、圧縮機21のモータ21a、膨張弁24、室外ファンモータ25a等が駆動されるようになっている。   Although not shown, the indoor unit 100 and the outdoor unit 200 are connected via a communication line. The motor 21a, the expansion valve 24, the outdoor fan motor 25a, and the like of the compressor 21 are driven based on a command from a main microcomputer 32 (see FIG. 4) described later.

図3は、空気調和機Sが備える室内機100の縦断面図である。
室内機100は、図1で説明したリモコン送受信部13(図1参照)と、撮像部14(図1参照)の他に、室内熱交換器11と、室内ファン12と、筐体ベース15と、塵埃フィルタ16と、前面パネル17と、左右風向板18と、上下風向板19と、を備えている。
FIG. 3 is a longitudinal sectional view of the indoor unit 100 included in the air conditioner S.
The indoor unit 100 includes an indoor heat exchanger 11, an indoor fan 12, a housing base 15 in addition to the remote control transmission / reception unit 13 (see FIG. 1) and the imaging unit 14 (see FIG. 1) described in FIG. , A dust filter 16, a front panel 17, left and right wind direction plates 18, and an up and down wind direction plate 19.

室内熱交換器11は、冷媒と、室内空気と、の熱交換が行われる熱交換器である。図3に示すように、室内熱交換器11は、冷媒が流れる伝熱管11aを複数備えている。
室内ファン12は、例えば、円筒状のクロスフローファンであり、室内ファンモータ12a(図2参照)によって回転するようになっている。
The indoor heat exchanger 11 is a heat exchanger that performs heat exchange between the refrigerant and room air. As shown in FIG. 3, the indoor heat exchanger 11 includes a plurality of heat transfer tubes 11a through which refrigerant flows.
The indoor fan 12 is, for example, a cylindrical cross flow fan, and is rotated by an indoor fan motor 12a (see FIG. 2).

筐体ベース15は、室内熱交換器11、室内ファン12等が設置される筐体である。塵埃フィルタ16は、空気吸込孔h1を介して取り込まれる空気から塵埃を除去するフィルタであり、室内熱交換器11の上側・前側に設置されている。前面パネル17は、塵埃フィルタ16の前側に設置されるパネルであり、下端を軸として前側に回動可能になっている。なお、前面パネル17が回動しない構成であってもよい。   The housing base 15 is a housing in which the indoor heat exchanger 11, the indoor fan 12, and the like are installed. The dust filter 16 is a filter that removes dust from the air taken in through the air suction hole h <b> 1, and is installed on the upper and front sides of the indoor heat exchanger 11. The front panel 17 is a panel installed on the front side of the dust filter 16 and is rotatable forward with the lower end as an axis. The front panel 17 may be configured not to rotate.

左右風向板18は、空調室に向かって吹き出される空気の通流方向を、左右方向において調整するための板状部材である。この左右風向板18は、室内ファン12の下流側に配置され、左右風向板用モータ18a(図4参照)によって左右方向に回動するようになっている。
上下風向板19は、空調室に向かって吹き出される空気の通流方向を、上下方向において調整するための板状部材である。この上下風向板19は、室内ファン12の下流側に配置され、上下風向板用モータ19a(図4参照)によって上下方向に回動するようになっている。
The left / right airflow direction plate 18 is a plate-like member for adjusting the flow direction of the air blown toward the air conditioning chamber in the left / right direction. The left / right wind direction plate 18 is disposed on the downstream side of the indoor fan 12 and is rotated in the left / right direction by a left / right wind direction plate motor 18a (see FIG. 4).
The up-and-down air direction plate 19 is a plate-like member for adjusting the flow direction of the air blown toward the air conditioning chamber in the up-and-down direction. The up / down wind direction plate 19 is disposed on the downstream side of the indoor fan 12 and is rotated in the up / down direction by a vertical wind direction plate motor 19a (see FIG. 4).

そして、室内ファン12が回転することで空気吸込孔h1を介して吸い込まれた室内空気は、伝熱管11aを流れる冷媒と熱交換し、熱交換した空気が左右風向板18及び上下風向板19によって所定方向に導かれ、空気吹出孔h2を介して室内に送り込まれるようになっている。   Then, the indoor air sucked in through the air suction hole h <b> 1 by the rotation of the indoor fan 12 exchanges heat with the refrigerant flowing through the heat transfer pipe 11 a, and the heat exchanged air is caused by the left and right wind direction plates 18 and the upper and lower wind direction plates 19. The air is guided in a predetermined direction and sent into the room through the air blowing hole h2.

撮像部14は、前記したように、室内を撮像するものであり、筐体ベース15に設置されている。図3に示す例では、撮像部14は、上下方向において前面パネル17と上下風向板19との間に設置されるとともに、室内を適切に撮像できるように、水平方向に対して所定角度だけ下方を向いた状態で設置されている。なお、撮像部14の設置位置・設置角度については、空気調和機Sの仕様や用途に合わせて適宜設定すればよい。   As described above, the imaging unit 14 images a room and is installed in the housing base 15. In the example illustrated in FIG. 3, the imaging unit 14 is installed between the front panel 17 and the vertical wind direction plate 19 in the vertical direction, and is downward by a predetermined angle with respect to the horizontal direction so that the room can be appropriately imaged. It is installed with facing. In addition, what is necessary is just to set suitably the installation position and installation angle of the imaging part 14 according to the specification and application of the air conditioner S.

図4は、室内機100が備える機器の機能ブロック図である。
室内機100は、前記した撮像部14等の機器の他に、制御部3と、環境検出部4と、を備えている。
FIG. 4 is a functional block diagram of devices included in the indoor unit 100.
The indoor unit 100 includes a control unit 3 and an environment detection unit 4 in addition to the devices such as the imaging unit 14 described above.

撮像部14は、光学レンズ14aと、撮像素子14bと、A/D変換器14cと、デジタル信号処理部14dと、を備えている。
光学レンズ14aは、撮像部14の撮像範囲(画角)やピントを調整するためのレンズである。
撮像素子14bは、光学レンズ14aを介して入射する光を光電変換することによって、撮像画像情報を生成する素子である。なお、撮像素子14bとして、CCDセンサ(Charge Coupled Device)やCMOSセンサ(Complementary Metal Oxide Semiconductor)を用いることができる。
The imaging unit 14 includes an optical lens 14a, an imaging element 14b, an A / D converter 14c, and a digital signal processing unit 14d.
The optical lens 14a is a lens for adjusting the imaging range (field angle) and focus of the imaging unit 14.
The imaging element 14b is an element that generates captured image information by photoelectrically converting light incident through the optical lens 14a. A CCD sensor (Charge Coupled Device) or a CMOS sensor (Complementary Metal Oxide Semiconductor) can be used as the image sensor 14b.

A/D変換器14cは、撮像素子14bから入力されるアナログ信号をデジタル信号に変換する機能を有している。デジタル信号処理部14dは、A/D変換器14cから入力される撮像画像情報に関して、画像の輝度や色調を補正する機能を有している。   The A / D converter 14c has a function of converting an analog signal input from the image sensor 14b into a digital signal. The digital signal processing unit 14d has a function of correcting the luminance and color tone of the image regarding the captured image information input from the A / D converter 14c.

また、図4に示すように、制御部3は、カメラマイコン31と、メインマイコン32と、を備えている。カメラマイコン31及びメインマイコン32は、例えば、マイクロコンピュータであり、図示はしないが、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、各種インタフェース等の電子回路を含んで構成される。そして、ROMに記憶されたプログラムを読み出してRAMに展開し、CPUが各種処理を実行するようになっている。   As shown in FIG. 4, the control unit 3 includes a camera microcomputer 31 and a main microcomputer 32. The camera microcomputer 31 and the main microcomputer 32 are, for example, microcomputers, and include electronic circuits such as a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and various interfaces (not shown). Consists of. Then, the program stored in the ROM is read out and expanded in the RAM, and the CPU executes various processes.

カメラマイコン31は、撮像部14から入力される撮像画像情報に基づいて所定の処理を行う画像処理部312と、画像処理部312で用いられる情報が格納される記憶部311と、を備えている。   The camera microcomputer 31 includes an image processing unit 312 that performs predetermined processing based on captured image information input from the imaging unit 14, and a storage unit 311 that stores information used by the image processing unit 312. .

画像処理部312は、在室者検出部312aと、在室者識別部312bと、在室時間算出部312cと、学習処理部312dと、を備えている。   The image processing unit 312 includes an occupant detection unit 312a, an occupant identification unit 312b, an occupancy time calculation unit 312c, and a learning processing unit 312d.

在室者検出部312aは、撮像部14の撮像結果に基づいて、室内の在室者(人体)を検出する機能を有している。
在室者識別部312bは、在室者検出部312aによって検出された在室者の服の色や頭頂部の色等に基づいて、その在室者を識別する機能を有している。
The occupant detection unit 312a has a function of detecting occupants (human bodies) in the room based on the imaging result of the imaging unit 14.
The occupant identification unit 312b has a function of identifying the occupant based on the clothes color of the occupants detected by the occupant detection unit 312a, the color of the top of the head, and the like.

在室時間算出部312cは、在室者識別部312bによって識別された在室者の在室時間を算出する機能を有している。
学習処理部312dは、在室者によるリモコン300(図1参照)の操作に応じて設定値(設定温度等)を変更する「通常モード」の実行中、在室者の好みの設定値を学習する学習処理を実行する。また、学習処理部312dは、在室者の好みに合わせた「おまかせモード」において、前記した学習処理の結果に基づいて、設定値を変更する機能も有している。
The occupancy time calculation unit 312c has a function of calculating the occupancy time of the occupant identified by the occupant identification unit 312b.
The learning processing unit 312d learns a user's favorite setting value during execution of the “normal mode” in which the setting value (setting temperature, etc.) is changed according to the operation of the remote controller 300 (see FIG. 1) by the user. The learning process to be executed is executed. The learning processing unit 312d also has a function of changing the set value based on the result of the learning process described above in the “automatic mode” that matches the preference of the occupant.

なお、画像処理部312の処理結果は、図4に示すように、撮像部14やメインマイコン32に出力される。   Note that the processing result of the image processing unit 312 is output to the imaging unit 14 and the main microcomputer 32 as shown in FIG.

記憶部311は、図示はしないが、在室者に関するデータや画像処理部312のプログラムが格納されるROMと、前記したプログラムが展開されるRAMと、を含んで構成される。   Although not shown, the storage unit 311 includes a ROM that stores data relating to a person in the room and a program of the image processing unit 312 and a RAM in which the above-described program is expanded.

環境検出部4は、例えば、室内温度を検出する温度センサ(例えば、サーモパイル)、室内湿度を検出する湿度センサ、照度を検出する照度センサ等であるが、これに限定されない。なお、前記した照度センサに代えて、撮像部14の照度検出機能を用いてもよい。環境検出部4の検出値は、メインマイコン32に出力される。   The environment detection unit 4 is, for example, a temperature sensor (for example, a thermopile) that detects indoor temperature, a humidity sensor that detects indoor humidity, an illuminance sensor that detects illuminance, and the like, but is not limited thereto. Note that the illuminance detection function of the imaging unit 14 may be used instead of the illuminance sensor described above. The detection value of the environment detection unit 4 is output to the main microcomputer 32.

メインマイコン32は、記憶部321と、演算処理部322と、駆動制御部323と、を備えている。
記憶部321は、図示はしないが、演算処理部322や駆動制御部323のプログラムが格納されるROMと、前記したプログラムが展開されるRAMと、を含んで構成される。
The main microcomputer 32 includes a storage unit 321, an arithmetic processing unit 322, and a drive control unit 323.
Although not shown, the storage unit 321 includes a ROM that stores programs for the arithmetic processing unit 322 and the drive control unit 323, and a RAM in which the above-described programs are expanded.

演算処理部322は、リモコン送受信部13から受信した信号と、画像処理部312の処理結果と、環境検出部4の検出値と、に基づいて、室内ファンモータ12aの回転速度指令値や、左右風向板用モータ18a及び上下風向板用モータ19aの回転角指令値を演算する機能を有している。また、演算処理部322は、圧縮機21のモータ21a(図2参照)、膨張弁24(図2参照)、室外ファンモータ25a(図2参照)等を駆動するためのデータを、室外機マイコン(図示せず)との間でやり取りする機能も有している。   The arithmetic processing unit 322 is based on the signal received from the remote control transmission / reception unit 13, the processing result of the image processing unit 312, and the detection value of the environment detection unit 4, the rotational speed command value of the indoor fan motor 12 a, It has a function of calculating rotation angle command values of the wind direction plate motor 18a and the vertical wind direction plate motor 19a. The arithmetic processing unit 322 also outputs data for driving the motor 21a (see FIG. 2), the expansion valve 24 (see FIG. 2), the outdoor fan motor 25a (see FIG. 2), and the like of the compressor 21 to the outdoor unit microcomputer. It also has a function of exchanging with (not shown).

駆動制御部323は、演算処理部322から入力される各指令値に基づいて、室内ファンモータ12a、左右風向板用モータ18a、及び上下風向板用モータ19aを駆動する機能を有している。   The drive control unit 323 has a function of driving the indoor fan motor 12a, the left / right air direction plate motor 18a, and the up / down air direction plate motor 19a based on each command value input from the arithmetic processing unit 322.

図5は、空気調和機Sの制御部3が実行する処理のフローチャートである(適宜、図4を参照)。
ステップS101において制御部3は、室内機100が設置されている室内の在室者(人体)を検出する。具体的に説明すると、制御部3は、撮像部14の撮像結果に基づき、在室者検出部312aによって、在室者の顔の位置(座標)を特定する。
FIG. 5 is a flowchart of processing executed by the control unit 3 of the air conditioner S (see FIG. 4 as appropriate).
In step S <b> 101, the control unit 3 detects an occupant (human body) in the room where the indoor unit 100 is installed. More specifically, the control unit 3 specifies the position (coordinates) of the occupant's face by the occupant detection unit 312a based on the imaging result of the imaging unit 14.

図6は、空気調和機Sの撮像部14による撮像結果の一例を示す説明図である。
図6に示す例では、在室者検出部312aによって、在室者A,Bの顔中心の位置(つまり、顔の位置)が検出されている。つまり、在室者Aの顔中心rの位置(X,Y)と、在室者Bの顔中心rの位置(X,Y)と、が検出されている。ちなみに、在室者の検出は、周知のパターンマッチングを用いて、在室者の頭部や肩部を検出することで行われる。
FIG. 6 is an explanatory diagram illustrating an example of an imaging result obtained by the imaging unit 14 of the air conditioner S.
In the example shown in FIG. 6, the occupant detection unit 312a detects the positions of the center of the faces of the occupants A and B (that is, the positions of the faces). That is, the position (X A , Y A ) of the face center r A of the occupant A and the position (X B , Y B ) of the face center r B of the occupant B are detected. Incidentally, the occupant is detected by detecting the head and shoulders of the occupant using well-known pattern matching.

また、図5のステップS101における在室者の検出には、撮像部14の撮像範囲(視野)に占める在室者の頭部の大きさを算出する処理が含まれる。前記した「頭部の大きさ」として、例えば、在室者の頭部の縦幅Lfa(図8(a)参照)を用いることができる。なお、在室者の頭部の大きさに関する情報は、後記するように、在室者の服や頭頂部を検出する際に用いられる。ステップS101の処理結果(在室者の顔中心の位置、頭部の大きさ)は、記憶部311に格納される。 In addition, the detection of the occupant in step S101 in FIG. 5 includes a process of calculating the size of the head of the occupant in the imaging range (field of view) of the imaging unit 14. As the “size of the head” described above, for example, the vertical width L fa (see FIG. 8A) of the head of the occupant can be used. In addition, the information regarding the size of the head of the occupant is used when detecting the clothes and the top of the occupant as will be described later. The processing result (the position of the face center of the occupant, the size of the head) in step S101 is stored in the storage unit 311.

次に、図5のステップS102において制御部3は、在室者識別部312bによって、在室者の特徴量を抽出する「特徴量抽出処理」を実行する。詳細については、図7〜図10を参照して後記する。
次に、図5のステップS103おいて制御部3は、在室者識別部312bによって、在室者識別処理を実行する。詳細については、図11〜図12を参照して後記する。
次に、図5のステップS104において制御部3は、在室時間算出部312cによって、各在室者の在室時間を算出する。詳細については、図13を参照して後記する。
そして、図5のステップS104において各在室者の在室時間を算出した後、ステップS105において制御部3は、演算処理部322(図4参照)及び駆動制御部323(図4参照)によって、空調制御変更処理を実行する。詳細については、図14を参照して後記する。
Next, in step S102 of FIG. 5, the occupant identification unit 312b performs “feature amount extraction processing” in which the occupant identification unit 312b extracts the feature amount of the occupant. Details will be described later with reference to FIGS.
Next, in step S103 of FIG. 5, the control unit 3 executes the occupant identification process by the occupant identification unit 312b. Details will be described later with reference to FIGS.
Next, in step S104 of FIG. 5, the control unit 3 calculates the occupancy time of each occupant by the occupancy time calculation unit 312c. Details will be described later with reference to FIG.
Then, after calculating the occupancy time of each occupant in step S104 in FIG. 5, in step S105, the control unit 3 uses the arithmetic processing unit 322 (see FIG. 4) and the drive control unit 323 (see FIG. 4), The air conditioning control change process is executed. Details will be described later with reference to FIG.

次に、図5におけるステップS102について、図7〜図10を参照して説明する。
図7は、空気調和機Sの在室者識別部312bが実行する特徴量抽出処理のフローチャートである。
ステップS1021において在室者識別部312bは、在室者の頭部の大きさに関する情報を記憶部311から読み出す。つまり、在室者識別部312bは、在室者の頭部の縦幅Lfa(図8(a)参照)の値を記憶部311から読み出す。
Next, step S102 in FIG. 5 will be described with reference to FIGS.
FIG. 7 is a flowchart of the feature amount extraction process executed by the occupant identification unit 312b of the air conditioner S.
In step S1021, the occupant identification unit 312b reads out information related to the size of the head of the occupant from the storage unit 311. That is, the occupant identification unit 312b reads the value of the longitudinal width L fa (see FIG. 8A) of the occupant's head from the storage unit 311.

ステップS1022において在室者識別部312bは、下側画像領域U(図8(a)参照)を特定する。この下側画像領域Uは、在室者の服の色の特定(S1023)に用いられる領域であり、顔中心rよりも下側(つまり、在室者の顔の下方)に位置している。つまり、撮像画像情報の画像上において、在室者の服に含まれると推定される領域が下側画像領域Uである。 In step S1022, the occupant identification unit 312b identifies the lower image area U (see FIG. 8A). The lower image area U is an area used for a particular color of the person in the room clothing (S1023), lower than the face center r A (i.e., the lower face of the person in the room) located Yes. That is, the area estimated to be included in the clothes of the occupant on the captured image information image is the lower image area U.

図8(a)は、在室者の服の色の特定に関する説明図である。
図8(a)に示す例では、顔中心rを基準として長さLcrだけ下側に、矩形状の下側画像領域Uが設定されている。この下側画像領域Uの色に基づいて、在室者の服の色を特定できる。
Fig.8 (a) is explanatory drawing regarding specification of the color of a resident's clothes.
In the example shown in FIG. 8 (a), only the lower side length L cr relative to the face center r A, rectangular lower image area U is set. Based on the color of the lower image area U, the color of clothes of the occupants can be specified.

なお、図8(a)に示す長さLfaは、撮像画像情報の画像上における在室者の頭部の縦幅(画素数)である。また、距離Lcrは、在室者の顔中心rと下側画像領域Uの中心rとの距離(画素数)である。 Note that the length L fa shown in FIG. 8A is the vertical width (number of pixels) of the head of the occupant on the image of the captured image information. The distance L cr is the distance between the center r U of occupants face center r A and the lower image area U (number of pixels).

また、前記したステップS1022において在室者識別部312bは、撮像範囲における在室者の頭部の縦幅Lfa(図8(a)参照)が長いほど距離Lcr(図8(a)参照)を長く設定するとともに、下側画像領域Uの範囲を広く設定することが好ましい。言い換えると、在室者識別部312bは、撮像範囲における在室者の頭部の大きさに応じて、下側画像領域Uの範囲を変更することが好ましい。これによって、在室者が撮像部14の近くにいるときでも、また、在室者が撮像部14から比較的離れているときでも、下側画像領域Uを適切な範囲に設定し、在室者の服の色を特定できる。 In step S1022, the occupant identification unit 312b determines that the distance L cr (see FIG. 8A) increases as the longitudinal width L fa (see FIG. 8A) of the occupant's head in the imaging range increases. ) Is set longer and the lower image area U is preferably set wider. In other words, the occupant identification unit 312b preferably changes the range of the lower image area U according to the size of the head of the occupant in the imaging range. Accordingly, even when the occupant is near the imaging unit 14 or when the occupant is relatively away from the imaging unit 14, the lower image area U is set to an appropriate range, The color of the person's clothes can be specified.

次に、図7のステップS1023において在室者識別部312bは、在室者の服の色を特定する。すなわち、在室者識別部312bは、図8(a)に示す下側画像領域Uに含まれる各画素の色(色調)を「色特徴量」として特定する。前記した「色特徴量」とは、色の特定に用いられる特徴量であり、例えば、色相・彩度・明度の3成分からなる周知の色空間のベクトルとして表される。   Next, in step S1023 in FIG. 7, the occupant identification unit 312b identifies the color of the occupant's clothes. In other words, the occupant identification unit 312b specifies the color (tone) of each pixel included in the lower image area U illustrated in FIG. The above-mentioned “color feature amount” is a feature amount used for specifying a color, and is represented, for example, as a known color space vector composed of three components of hue, saturation, and brightness.

図8(b)は、在室者の服の色分布の例を示す説明図である。
図8(b)の横軸は、前記した色空間における色区分である。図8(b)に示す例では、服の色の特定に用いられる色空間が、白・赤・青・黒の四つの色区分に区分けされている。なお、仮に、下側画像領域Uに在室者の首もと等(つまり、皮膚の色)が含まれていたとしても、これを服と混同しないように、図8(b)に示す色区分から肌色を除去している。また、図8(b)の縦軸は、下側画像領域Uの全画素数に対して、各色区分に含まれる色の画素数が占める比率である。
FIG. 8B is an explanatory diagram illustrating an example of the color distribution of clothes of people in the room.
The horizontal axis in FIG. 8B is the color classification in the color space described above. In the example shown in FIG. 8B, the color space used for specifying the color of clothes is divided into four color sections of white, red, blue, and black. Note that even if the lower image area U includes the neck of the occupant (that is, the color of the skin), the colors shown in FIG. 8B are not to be confused with clothes. The skin color is removed from the category. The vertical axis in FIG. 8B is the ratio of the number of pixels of the color included in each color classification to the total number of pixels in the lower image area U.

図8(a)に示す例では、在室者Aが、白色と黒色のストライプの服を着ている。したがって、図8(b)に示すように、下側画像領域Uにおいて、白色や黒色の画素が多くを占めている。なお、赤色・青色の画素も若干存在するが、前記した比率が閾値a未満であるから、ノイズとして処理(無視)される。   In the example shown in FIG. 8A, the occupant A wears white and black striped clothes. Therefore, as shown in FIG. 8B, white and black pixels occupy most in the lower image area U. There are some red and blue pixels, but since the ratio is less than the threshold value a, it is processed (ignored) as noise.

このように在室者識別部312bは、下側画像領域Uに含まれる各画素について、その画素の色が属する色区分を特定する。各色区分における画素数の分布は、在室者の服の色を表す情報として数値化され、在室者の識別に用いられる。これによって、在室者の服に複数の色が含まれている場合でも、その服の色(各色の画素数の分布)を適切に特定できる。なお、比率が閾値a以上である色を画素数の多い順に順位付けし、その順位付けの情報を在室者の服の色として数値化してもよい。   In this way, the occupant identification unit 312b specifies, for each pixel included in the lower image area U, the color classification to which the color of the pixel belongs. The distribution of the number of pixels in each color category is digitized as information representing the color of clothes of the occupants and is used for identification of the occupants. Thereby, even when the occupant's clothes include a plurality of colors, the color of the clothes (the distribution of the number of pixels of each color) can be appropriately specified. It should be noted that colors having a ratio equal to or greater than the threshold value a may be ranked in descending order of the number of pixels, and the ranking information may be digitized as the clothes color of the occupants.

再び、図7に戻って説明を続ける。
ステップS1023において在室者の服の色を特定した後、ステップS1024において在室者識別部312bは、上側画像領域P(図9(a)参照)を特定する。この上側画像領域Pは、在室者の頭頂部の色の特定(S1025)に用いられる領域であり、顔中心rよりも上側(つまり、在室者の顔の上方)に位置している。つまり、撮像画像情報の画像上において、在室者の頭頂部に含まれると推定される領域が上側画像領域Pである。
Returning to FIG. 7, the description will be continued.
After identifying the color of the occupant's clothes in step S1023, the occupant identification unit 312b identifies the upper image region P (see FIG. 9A) in step S1024. The upper image area P is an area used for a particular (S1025) of color of the top of the head of the occupants, are located on the upper side (i.e., the upper face of the person in the room) than the face center r A . That is, on the image of the captured image information, the area estimated to be included in the top of the occupant is the upper image area P.

図9(a)は、在室者の頭頂部の色の特定に関する説明図である。
図9(a)に示す例では、顔中心rを基準として長さLheだけ上側に、矩形状の上側画像領域Pが設定されている。この上側画像領域Pの色に基づいて、在室者の頭頂部の色を特定できる。なお、図9に示す距離Lheは、在室者の顔中心rと上側画像領域Pの中心rとの距離(画素数)である。
Fig.9 (a) is explanatory drawing regarding specification of the color of the head part of a resident.
In the example shown in FIG. 9 (a), the upper by a length L he based on the face center r A, rectangular upper image region P is set. Based on the color of the upper image area P, the color of the head of the occupant can be specified. The distance L he shown in FIG. 9 is the distance between the center r P of the face center r A and the upper image area P of the occupants (number of pixels).

また、前記したステップS1024において在室者識別部312bは、画像上における在室者の頭部の縦幅Lfa(図9(a)参照)が長いほど距離Lhe(図9(a)参照)を長く設定するとともに、上側画像領域Pの範囲を広く設定することが好ましい。言い換えると、在室者識別部312bは、撮像範囲における在室者の頭部の大きさに応じて、上側画像領域Pの範囲を変更することが好ましい。これによって、在室者が撮像部14の近くにいるときでも、また、在室者が撮像部14から比較的離れているときでも、上側画像領域Pを適切な範囲に設定し、在室者の頭頂部の色を特定できる。 In step S1024 described above, the occupant identification unit 312b causes the distance L he (see FIG. 9A) to increase as the longitudinal width L fa (see FIG. 9A) of the occupant's head on the image increases. ) Is set long, and the range of the upper image area P is preferably set wide. In other words, the occupant identification unit 312b preferably changes the range of the upper image area P according to the size of the head of the occupant in the imaging range. Accordingly, even when the occupant is near the imaging unit 14 or when the occupant is relatively away from the imaging unit 14, the upper image area P is set to an appropriate range, and the occupant is The color of the top of the head can be specified.

次に、図7のステップS1025において在室者識別部312bは、在室者の頭頂部の色を特定する。すなわち、在室者識別部312bは、図9(a)に示す上側画像領域Pに含まれる各画素の色(色調)を「色特徴量」として特定する。   Next, in step S1025 of FIG. 7, the occupant identification unit 312b specifies the color of the head of the occupant. In other words, the occupant identification unit 312b specifies the color (tone) of each pixel included in the upper image area P illustrated in FIG.

図9(b)は、在室者の頭頂部の色分布の例を示す説明図である。
図9(b)の横軸は、前記した色空間における色の色区分である。図9(b)に示す例では、頭頂部の色の特定に用いられる色空間が、肌色(皮膚の色)・赤・青・灰・黒の五つの色区分に区分けされている。また、図9(b)の縦軸は、上側画像領域Pの全画素数に対して、各色区分に含まれる色の画素数が占める比率である。
なお、在室者の髪型や髪の多さによっては、頭頂部の皮膚が露出していることがあるので、色区分として肌色を含めている。また、在室者の髪に白髪が含まれている場合も考慮し、色区分として灰色も含めている。
FIG. 9B is an explanatory diagram illustrating an example of the color distribution of the top of the occupant.
The horizontal axis in FIG. 9B is the color classification of colors in the color space described above. In the example shown in FIG. 9B, the color space used for specifying the color of the top of the head is divided into five color categories of skin color (skin color), red, blue, gray, and black. The vertical axis in FIG. 9B is the ratio of the number of pixels of the color included in each color classification to the total number of pixels in the upper image area P.
Note that the skin of the top of the head may be exposed depending on the hairstyle and the amount of hair of the occupants, so skin color is included as the color classification. In addition, considering the case where the hair of the occupants includes white hair, gray is also included as the color classification.

例えば、図9(b)に示す色の分布が得られた場合、在室者識別部312bは、前記した比率が閾値a未満である赤色・青色をノイズとして処理し、肌色・灰色・黒色を上側画像領域Pに含まれる色として特定する。各色区分(肌色・灰色・黒色)における画素数の分布は、在室者の頭頂部の色を表す情報として数値化され、在室者の識別に用いられる。なお、比率が閾値a以上である色を画素数の多い順に順位付けし、その順位付けした情報を在室者の頭頂部の色として数値化してもよい。
なお、在室者の服の色、及び、在室者の頭頂部の色を含む色特徴量は、記憶部311に記憶される。
For example, when the color distribution shown in FIG. 9B is obtained, the occupant identification unit 312b treats red / blue whose ratio is less than the threshold a as noise, and determines skin color / gray / black. It is specified as a color included in the upper image area P. The distribution of the number of pixels in each color classification (skin color / gray / black) is digitized as information representing the color of the head of the occupant and is used to identify the occupant. It should be noted that colors having a ratio equal to or greater than the threshold value a may be ranked in descending order of the number of pixels, and the ranked information may be digitized as the color of the head of the occupant.
Note that the color feature amount including the color of the occupant's clothes and the color of the head of the occupant is stored in the storage unit 311.

再び、図7に戻って説明を続ける。
ステップS1025において在室者の頭頂部の色を特定した後、ステップS1026において在室者識別部312bは、在室者の他の特徴量を抽出する。
Returning to FIG. 7, the description will be continued.
After identifying the color of the head of the occupant in step S1025, the occupant identification unit 312b extracts other feature amounts of the occupant in step S1026.

図10は、在室者の他の特徴量に関する説明図である。
在室者識別部312bは、例えば、以下に示す(a)〜(f)のうち少なくとも一つを在室者の「他の特徴量」として特定する。
(a)在室者の顔の皮膚の色
(b)在室者の頭部の形状
(c)在室者の体型
(d)在室者の目の大きさ
(e)在室者の両目間の距離
(f)在室者の唇の横幅
FIG. 10 is an explanatory diagram relating to another feature amount of the occupant.
The occupant identification unit 312b identifies, for example, at least one of the following (a) to (f) as the “other feature amount” of the occupant.
(A) Color of skin of face of occupant (b) Shape of head of occupant (c) Body shape of occupant (d) Eye size of occupant (e) Both eyes of occupant Distance between (f) width of lips of occupants

(a)在室者の顔の皮膚の色は、例えば、在室者の顔領域に含まれる肌色を、前記した色空間におけるベクトルとして数値化することで表される。
(b)在室者の頭部の形状は、例えば、在室者の頭部の横幅Lbe(画素数)に対して、頭部の縦幅Lfa(画素数)が占める比率(Lfa/Lbe)で表される。
(c)在室者の体型は、例えば、在室者の頭部の横幅Lbeに対して、肩幅Ltiが占める比率(Lti/Lbe)で表される。
(d)在室者の目の大きさは、例えば、在室者の顔の全画素数Nfiに対して、在室者の目の画素数Neyが占める比率(Ney/Nfi)で表される。
(e)在室者の両目間の距離は、例えば、在室者の頭部の横幅Lbeに対して、在室者の両目間の距離Leyが占める比率(Ley/Lbe)で表される。
(f)在室者の唇の横幅は、例えば、在室者の頭部の横幅Lbeに対して、在室者の唇の横幅Lmoが占める比率(Lmo/Lbe)で表される。
(A) The skin color of the occupant's face is represented, for example, by digitizing the skin color included in the occupant's face area as a vector in the color space described above.
(B) The shape of the head of the occupant is, for example, the ratio of the head width L fa (number of pixels) to the width L be (number of pixels) of the occupant's head (L fa / L be ).
(C) The occupant's body shape is represented, for example, by the ratio (L ti / L be ) of the shoulder width L ti to the lateral width L be of the occupant's head.
(D) The size of the occupant's eyes is, for example, the ratio (N ey / N fi ) of the occupant's eye pixel number N ey to the total pixel number N fi of the occupant's face. It is represented by
(E) The distance between the eyes of the occupant is, for example, the ratio (L ey / L be ) of the distance L ey between the eyes of the occupant to the lateral width L be of the occupant's head. expressed.
(F) The width of the lip of the occupant is expressed, for example, by the ratio (L mo / L be ) of the lip width L mo of the occupant's lip to the width L be of the head of the occupant. The

なお、在室者の服の色や頭頂部の色の他に、(a)在室者の顔の皮膚の色も、前記した「色特徴量」に含まれる。また、前記した(b)〜(f)を、在室者の形状を表す「形状特徴量」という。   In addition to the color of the occupant's clothes and the color of the top of the head, (a) the color of the skin of the occupant's face is also included in the “color feature amount”. The above-described (b) to (f) are referred to as “shape feature amounts” representing the shape of the occupants.

このようにして在室者識別部312bは、在室者の服の色(S1023:図7参照)、頭頂部の色(S1025)、及び他の特徴量を抽出して(S1026)、一連の特徴量抽出処理(S102:図5参照)を終了する(END)。   In this way, the occupant identification unit 312b extracts the color of the occupant's clothes (S1023: see FIG. 7), the color of the top of the head (S1025), and other features (S1026). The feature amount extraction process (S102: see FIG. 5) is terminated (END).

次に、図5のステップS103について、図11〜図12を参照して説明する。
図11は、空気調和機Sの在室者識別部312bが実行する在室者識別処理のフローチャートである。
ステップS1031において在室者識別部312bは、ステップS101(図5参照)で検出した在室者のうち一人を指定する。
ステップS1032において在室者識別部312bは、ステップS1031で指定した在室者の特徴量の検出値と、記憶部311に既に登録されている各人の特徴量の登録値と、の比較に基づいて、評価関数fの値を算出する。前記した評価関数fとは、在室者の識別に用いられる関数であり、以下の(数式1)で表される。
Next, step S103 in FIG. 5 will be described with reference to FIGS.
FIG. 11 is a flowchart of the occupant identification process executed by the occupant identification unit 312b of the air conditioner S.
In step S1031, the occupant identification unit 312b specifies one of the occupants detected in step S101 (see FIG. 5).
In step S1032, the occupant identification unit 312b compares the detected value of the feature amount of the occupant designated in step S1031 with the registered value of the feature amount of each person already registered in the storage unit 311. Thus, the value of the evaluation function f is calculated. The above-described evaluation function f is a function used for identifying a resident, and is expressed by the following (Equation 1).

f=wc1×|c1-C1|+wc2×|c2-C2|+…+wcn×|cn-Cn|+
ws1×|s1-S1|+ws2×|s2-S2|+…+wsm×|sm-Sm| ・・・(数式1)
f = wc1 × | c1-C1 | + wc2 × | c2-C2 | +… + wcn × | cn-Cn | +
ws1 × | s1-S1 | + ws2 × | s2-S2 | + ... + wsm × | sm-Sm | (Formula 1)

(数式1)の検出値c1,c2,…,cn(‘c’は色(color)を表している。)は、ステップS102(図5参照)の特徴量抽出処理で得られた「色特徴量」の検出値である。例えば、検出値c1は、在室者の服の色の検出値であり、検出値c2は、頭頂部の色の検出値である。   The detection values c1, c2,..., Cn ('c' represents color) in (Equation 1) are “color features” obtained by the feature amount extraction processing in step S102 (see FIG. 5). This is a detected value of “amount”. For example, the detection value c1 is a detection value of the color of clothes of the occupants, and the detection value c2 is a detection value of the color of the top of the head.

(数式1)の登録値C1,C2,…,Cnは、前記した「色特徴量」の登録値であり、過去に識別された在室者に対応付けて、記憶部311(図4参照)に登録されている。例えば、登録値C1は、ある在室者の服の色の登録値であり、登録値C2は、この在室者の頭頂部の色の登録値である。   The registered values C1, C2,..., Cn in (Equation 1) are the registered values of the “color feature amount” described above, and are associated with the occupants identified in the past, and the storage unit 311 (see FIG. 4). It is registered in. For example, the registered value C1 is a registered value of the color of clothes of a certain occupant, and the registered value C2 is a registered value of the color of the top of the occupant.

(数式1)の色重み係数wc1は、|c1−C1|に乗算される係数であり、予め設定されている。なお、他の色重み係数wc2,…,wcnについても同様である。   The color weight coefficient wc1 in (Equation 1) is a coefficient to be multiplied by | c1-C1 | and is set in advance. The same applies to the other color weight coefficients wc2, ..., wcn.

(数式1)の検出値s1,s2,…,sm(‘s’は形状(shape)を表している。)は、ステップS102(図5参照)の特徴量抽出処理で得られた「形状特徴量」の検出値である。例えば、検出値s1は、在室者の頭部の形状の検出値であり、検出値s2は、体型の検出値である。   The detected values s1, s2,..., Sm (where “s” represents shape) in (Equation 1) are “shape features” obtained by the feature amount extraction processing in step S102 (see FIG. 5). This is a detected value of “amount”. For example, the detection value s1 is a detection value of the shape of the head of the occupant, and the detection value s2 is a detection value of the body type.

(数式1)の登録値S1,S2,…,Smは、前記した「形状特徴量」の登録値であり、過去に識別された在室者に対応付けて、記憶部311(図4参照)に登録されている。例えば、登録値S1は、ある在室者の頭部の形状の登録値であり、登録値C2は、この在室者の体型の登録値である。   The registered values S1, S2,..., Sm in (Equation 1) are registered values of the “shape feature amount” described above, and are associated with the occupants identified in the past, and the storage unit 311 (see FIG. 4). It is registered in. For example, the registered value S1 is a registered value of the shape of the head of a certain occupant, and the registered value C2 is a registered value of the occupant's body shape.

(数式1)の形状重み係数ws1は、|s1−S1|に乗算される係数であり、予め設定されている。なお、他の形状重み係数ws2,…,wsmについても同様である。   The shape weight coefficient ws1 of (Equation 1) is a coefficient to be multiplied by | s1-S1 | and is set in advance. The same applies to the other shape weight coefficients ws2, ..., wsm.

図12は、記憶部311に登録されている各特徴量のデータテーブルである。なお、登録値C1,C2,C3,S1,S2,S3に付した‘A’は、在室者Aに関する登録値であることを表している(他の在室者B,Cについても同様)。これらの登録値は、過去に行われた在室者識別処理の結果に基づいて、記憶部311に登録されている。   FIG. 12 is a data table of each feature amount registered in the storage unit 311. Note that “A” given to the registered values C1, C2, C3, S1, S2, and S3 represents a registered value relating to the occupant A (the same applies to the other occupants B and C). . These registered values are registered in the storage unit 311 based on the result of the occupant identification process performed in the past.

また、前記した(数式1)は、以下の(数式2)で表すこともできる。なお、(数式2)に示すk,jは、任意の自然数である。   Further, the above (Formula 1) can also be expressed by the following (Formula 2). Note that k and j shown in (Expression 2) are arbitrary natural numbers.

f=Σwck×|ck-Ck|+Σwsj×|sj-Sj| ・・・(数式2) f = Σwck × | ck-Ck | + Σwsj × | sj-Sj | (Formula 2)

(数式2)に示すように、在室者識別部312bは、色特徴量の検出値ckと、色特徴量の登録値Ckと、の差の絶対値|ck−Ck|に色重み係数wckを乗算した値を、それぞれの色特徴量について加算することで第1加算値Σwck|ck−Ck|を算出する。この第1加算値Σwck|ck−Ck|は、色特徴量の検出値ckと、色特徴量の登録値Ckと、の比較結果を表している。   As shown in (Formula 2), the occupant identification unit 312b adds the color weight coefficient wck to the absolute value | ck−Ck | of the difference between the detected value ck of the color feature value and the registered value Ck of the color feature value. Is added for each color feature amount to calculate a first addition value Σwck | ck−Ck |. The first addition value Σwck | ck−Ck | represents a comparison result between the color feature value detection value ck and the color feature value registration value Ck.

また、在室者識別部312bは、形状特徴量の検出値skと、形状特徴量の登録値Skと、の差の絶対値|sk−Sk|に形状重み係数wsjを乗算した値を、それぞれの形状特徴量について加算することで第2加算値Σwsj|sj−Sj|を算出する。この第2加算値Σwsj|sj−Sj|は、形状特徴量の検出値sjと、形状特徴量の登録値Sjと、の比較結果を表している。   The occupant identification unit 312b also calculates a value obtained by multiplying the absolute value | sk−Sk | of the difference between the detected value sk of the shape feature value and the registered value Sk of the shape feature value by the shape weight coefficient wsj, respectively. The second addition value Σwsj | sj−Sj | is calculated by adding the shape feature amounts of the two. The second addition value Σwsj | sj−Sj | represents a comparison result between the shape feature value detection value sj and the shape feature value registration value Sj.

そして、在室者識別部312bは、前記した第1加算値Σwck|ck−Ck|と第2加算値Σwsj|sj−Sj|と、の和を、評価関数fの値として算出する。この評価関数fの値が小さいほど、検出値(c1,c2,…,cn,s1,s2,…,sm)に対応する在室者が、記憶部311に登録されている人に一致している可能性が高い。   The occupant identification unit 312b calculates the sum of the first addition value Σwck | ck−Ck | and the second addition value Σwsj | sj−Sj | as the value of the evaluation function f. The smaller the value of the evaluation function f, the more the occupants corresponding to the detected values (c1, c2,..., Cn, s1, s2,..., Sm) match the persons registered in the storage unit 311. There is a high possibility.

図11のステップS1033において在室者識別部312bは、記憶部311に登録されている人の中で、評価関数fの値が所定閾値f1未満の人が存在するか否かを判定する。評価関数fの値が所定閾値f1未満の人が存在する場合(S1033:Yes)、在室者識別部312bの処理はステップS1034に進む。   In step S1033 of FIG. 11, the occupant identification unit 312b determines whether there is a person whose value of the evaluation function f is less than the predetermined threshold f1 among the persons registered in the storage unit 311. When there is a person whose evaluation function f is less than the predetermined threshold f1 (S1033: Yes), the occupant identification unit 312b proceeds to step S1034.

ステップS1034において在室者識別部312bは、ステップS101(図5参照)で検出した在室者が、ステップS1033で特定した人と同一であると判定する。なお、評価関数fの値が所定閾値f1未満である人が複数存在する場合には、評価関数fの値が最も小さい人を特定すればよい。   In step S1034, the occupant identification unit 312b determines that the occupant detected in step S101 (see FIG. 5) is the same as the person identified in step S1033. In addition, when there are a plurality of people whose evaluation function f is less than the predetermined threshold f1, it is only necessary to specify the person whose evaluation function f is the smallest.

ステップS1035において在室者識別部312bは、在室者の特徴量を更新する。つまり、在室者識別部312bは、ステップS102(図5参照)で得た特徴量の検出値を、特徴量の新たな登録値として、在室者の識別情報と対応付けて記憶部311に格納する。   In step S1035, the occupant identification unit 312b updates the feature amount of the occupant. In other words, the occupant identification unit 312b associates the detected value of the feature amount obtained in step S102 (see FIG. 5) with the identification information of the occupant as a new registered value of the feature amount in the storage unit 311. Store.

また、ステップS1033において、評価関数fの値が所定閾値f1未満の人が存在しない場合(S1033:No)、在室者識別部312bの処理はステップS1036に進む。
ステップS1036において在室者識別部312bは、ステップS101で検出した在室者が、記憶部311にまだ登録されていない新たな在室者であると判定する。
In step S1033, when there is no person whose evaluation function f is less than the predetermined threshold f1 (S1033: No), the occupant identification unit 312b proceeds to step S1036.
In step S1036, the occupant identification unit 312b determines that the occupant detected in step S101 is a new occupant who has not yet been registered in the storage unit 311.

ステップS1037においてステップS102(図5参照)で得た特徴量の検出値を、新たな在室者の特徴量の登録値として、この在室者の識別情報と対応付けて記憶部311に登録する。
ステップS1035又はステップS1037の処理を行った後、在室者識別部312bの処理は、ステップS1038に進む。
In step S1037, the detected value of the feature value obtained in step S102 (see FIG. 5) is registered in the storage unit 311 as the registered value of the feature value of the new occupant in association with the resident identification information. .
After performing the process of step S1035 or step S1037, the process by the occupant identification unit 312b proceeds to step S1038.

ステップS1038において在室者識別部312bは、ステップS101(図5参照)で検出した在室者の全てについて識別を行ったか否かを判定する。検出した在室者の全てについて識別を行った場合(S1038:Yes)、在室者識別部312bは、処理を終了する(END)。   In step S1038, the occupant identification unit 312b determines whether identification has been performed for all occupants detected in step S101 (see FIG. 5). When all the detected occupants are identified (S1038: Yes), the occupant identifying unit 312b ends the process (END).

一方、ステップS101(図5参照)で検出した在室者のうち、まだ識別されていない在室者が存在する場合(S1038:No)、在室者識別部312bの処理はステップS1031に戻る。この場合、ステップS1031において在室者識別部312bは、ステップS101で検出した在室者のうち、識別を行っていない他の在室者を指定する。
このような一連の処理(S1031〜S1038)を行うことで、在室者識別部312bは、前記した在室者識別処理(S103:図5参照)を実行する。
On the other hand, if there is an occupant who has not yet been identified among the occupants detected in step S101 (see FIG. 5) (S1038: No), the occupant identification unit 312b returns to step S1031. In this case, in step S1031, the occupant identification unit 312b specifies other occupants who have not been identified among the occupants detected in step S101.
By performing such a series of processes (S1031 to S1038), the occupant identification unit 312b executes the occupant identification process (S103: see FIG. 5).

次に、図5におけるステップS104について、図13を参照して説明する。
図5のステップS104において制御部3は、前記したように、在室時間算出部312cによって、各在室者の在室時間を算出する。すなわち、在室時間算出部312cは、在室者識別部312bによって識別された在室者が記憶部311に既に登録されている場合、この在室者の在室時間を1カウントする。また、在室時間算出部312cは、記憶部311に登録されている各人について、所定時間(例えば、30分)以内に検出できない場合には、外出しているとみなして在室時間をゼロにリセットする。
Next, step S104 in FIG. 5 will be described with reference to FIG.
In step S104 of FIG. 5, as described above, the control unit 3 calculates the occupancy time of each occupant by the occupancy time calculation unit 312c. That is, when the occupant identified by the occupant identification unit 312b is already registered in the storage unit 311, the occupancy time calculation unit 312c counts the occupant's occupancy time by one. In addition, the occupancy time calculation unit 312c determines that the person who has been registered in the storage unit 311 cannot go within a predetermined time (for example, 30 minutes), and assumes that the occupancy time has gone out to zero. Reset to.

図13は、各在室者の在室時間に関する説明図である。
なお、図13の横軸は時刻である。また、図13の○印は、在室者識別部312bによって在室者が識別された時刻を表している。また、所定時間Δt(例えば、30分)は、室内機100が設置されている部屋から在室者がいなくなったか否かの判定基準となる時間である。
FIG. 13 is an explanatory diagram regarding the occupancy time of each occupant.
The horizontal axis in FIG. 13 is time. Moreover, the ◯ mark in FIG. 13 represents the time when the occupant is identified by the occupant identification unit 312b. In addition, the predetermined time Δt (for example, 30 minutes) is a time serving as a criterion for determining whether or not there is no occupant from the room in which the indoor unit 100 is installed.

図13に示す例では、在室者Aは、時刻t1〜時刻t8に含まれる所定時間Δtのそれぞれにおいて、少なくとも一回は検出(識別)されている。したがって、現在時刻t8において在室者Aの在室時間は、Δt×7として算出される。
また、在室者Bは、時刻t6以後に検出されていない。したがって、時刻t6から所定時間Δtが経過した時刻t7において「在室時間ゼロ」としてリセットされる。
また、時刻t2に外出した後、時刻t4に室内に戻ってきた在室者Cは、この時刻t4から新たに在室時間が算出される。
In the example shown in FIG. 13, the occupant A is detected (identified) at least once in each of the predetermined time Δt included in the time t1 to the time t8. Therefore, the occupancy time of the occupant A at the current time t8 is calculated as Δt × 7.
The occupant B is not detected after time t6. Therefore, it is reset as “zero occupancy time” at time t7 when a predetermined time Δt has elapsed from time t6.
The occupant C who has gone out at time t2 and returned to the room at time t4 newly calculates the occupancy time from time t4.

図5のステップS104において各在室者の在室時間を算出した後、前記したように、ステップS105において制御部3は、演算処理部322(図4参照)及び駆動制御部323(図4参照)によって、空調制御変更処理を実行する。なお、在室者識別部312bの識別結果に基づいて空調制御を変更する「空調制御部」は、図4に示す演算処理部322と、駆動制御部323と、を含んで構成される。   After calculating the occupancy time of each occupant in step S104 in FIG. 5, as described above, in step S105, the control unit 3 performs the arithmetic processing unit 322 (see FIG. 4) and the drive control unit 323 (see FIG. 4). ) To execute the air conditioning control change process. The “air conditioning control unit” that changes the air conditioning control based on the identification result of the occupant identification unit 312b includes the arithmetic processing unit 322 and the drive control unit 323 shown in FIG.

次に、図5におけるステップS105について、図14を参照して説明する。
図14は、空気調和機Sの制御部3が実行する空調制御変更処理のフローチャートである。
ステップS1051において制御部3は、各在室者の在室時間の長さを順序づける。
例えば、図13に示す例では、現在時刻t8における在室者Aの在室時間は(Δt×7)であり、在室者Bの在室時間はゼロであり、在室者Cの在室時間は(Δt×4)である。したがって、ステップS1051において制御部3は、在室時間の長さは在室者Aが最も長く、次いで在室者C,Bの順に長いという順序づけを行う。
Next, step S105 in FIG. 5 will be described with reference to FIG.
FIG. 14 is a flowchart of the air conditioning control change process executed by the control unit 3 of the air conditioner S.
In step S1051, the control unit 3 orders the length of the occupancy time of each occupant.
For example, in the example shown in FIG. 13, the occupancy time of the occupant A at the current time t8 is (Δt × 7), the occupancy time of the occupant B is zero, and the occupant C's occupancy The time is (Δt × 4). Therefore, in step S1051, the control unit 3 performs the ordering that the occupancy time is the longest in the occupant A and then the occupants C and B in the order.

ステップS1052において制御部3は、在室時間の長さに基づいて空調制御を行う。その一例を挙げると、現時点において在室者A,Cが在室している状態において(図13参照)、在室者Cの在室時間が在室者Aよりも短い場合、制御部3は、所定の温湿度の空気が在室者Cに重点的に送られるように、左右風向板用モータ18a(図4参照)及び上下風向板用モータ19a(図4参照)を制御する。言い換えると、制御部3は、在室時間が他の在室者Aよりも相対的に短い在室者Cに、空気調和された空気をより長く送る。   In step S1052, the control unit 3 performs air conditioning control based on the length of time in the room. As an example, when the occupants A and C are currently occupying the room (see FIG. 13), if the occupant C has a shorter occupancy time than the occupant A, the control unit 3 The left and right wind direction plate motor 18a (see FIG. 4) and the up and down wind direction plate motor 19a (see FIG. 4) are controlled so that air of a predetermined temperature and humidity is sent to the occupant C with priority. In other words, the control unit 3 sends the air-conditioned air longer to the occupant C whose occupancy time is relatively shorter than the other occupants A.

これによって、例えば、暖房運転中に在室者Cが部屋に入った直後には、温かい空気が在室者Cに向けて重点的に送られる。一方、在室時間が比較的長い在室者Aについては、体が十分に温まっていることが多い。したがって、在室者Aに向けての送風時間が比較的短くても、在室者Aにとっての快適性が落ちることはほとんどない。したがって、在室者Aにとっても、また、在室者Cにとっても快適な空調を行うことができる。   Thereby, for example, immediately after the occupant C enters the room during the heating operation, warm air is sent to the occupant C in a focused manner. On the other hand, the occupant A who has a relatively long occupancy time often has a sufficiently warm body. Therefore, even if the air blowing time toward the occupant A is relatively short, the comfort for the occupant A is hardly reduced. Therefore, comfortable air conditioning can be performed for both the occupant A and the occupant C.

なお、在室時間の長さの比に基づいて、各在室者への送風時間を設定するようにしてもよい。例えば、在室者A,Cの在室時間の比が2:1であれば、在室者A,Cへの送風時間の比を1:2にしてもよい。   In addition, you may make it set the ventilation time to each occupant based on the ratio of the length of occupancy time. For example, if the ratio of the occupant hours of the occupants A and C is 2: 1, the ratio of the blast time to the occupants A and C may be 1: 2.

また、図5に示す一連の処理(S101〜S105)は、所定周期で繰り返される(RETURN)。   Further, the series of processing (S101 to S105) shown in FIG. 5 is repeated at a predetermined cycle (RETURN).

<効果>
本実施形態では、前記したように、在室者の服の色や頭頂部の色等に基づいて、在室者を識別できる。したがって、在室者を顔のみで識別する従来技術と比べて、在室者の識別精度を高めることができる。例えば、撮像部14に対して在室者が後ろを向いた状態であったり、逆光で在室者の顔を識別しにくい状態であっても、本実施形態によれば、服の色等に基づいて在室者を適切に識別できる。また、例えば、室内機100が設置された部屋が比較的広く、撮像部14の視野の内外を在室者が行き来する場合でも、在室者が撮像部14の視野内に入った直後に服の色等に基づいて、在室者を適切に識別できる。
<Effect>
In this embodiment, as described above, the occupant can be identified based on the clothes color of the occupant, the color of the top of the head, and the like. Therefore, the identification accuracy of the occupants can be improved as compared with the conventional technique for identifying the occupants only by the face. For example, according to the present embodiment, even if the occupant is facing backward with respect to the imaging unit 14 or the occupant's face is difficult to identify due to backlight, Based on this, the occupants can be properly identified. Further, for example, even when the room where the indoor unit 100 is installed is relatively wide and the occupant moves in and out of the field of view of the imaging unit 14, the room occupant immediately enters the field of view of the imaging unit 14. The person in the room can be appropriately identified based on the color of the room.

また、在室者の位置が撮像部14から比較的遠い場合には、在室者の顔を鮮明に撮像できることが少ない(つまり、顔認証が困難である)が、本実施形態によれば、このような場合でも服の色等に基づいて在室者を適切に識別できる。また、在室者の顔をより鮮明に撮像するために、撮像部14として高分解能のカメラを用いる必要がないため、製造コストの増加を招くこともない。   Further, when the occupant's position is relatively far from the imaging unit 14, it is rare that the occupant's face can be clearly imaged (that is, face authentication is difficult). Even in such a case, the occupant can be appropriately identified based on the color of the clothes. Further, since it is not necessary to use a high-resolution camera as the imaging unit 14 in order to capture the face of the occupant more clearly, the manufacturing cost is not increased.

また、前記した下側画像領域U(図8(a)参照)や下側画像領域U(図9(a)参照)について、それぞれ、所定の色区分(図8(b)、図9(b)参照)が設定され、色区分における画素数の分布に基づいて在室者が識別される。したがって、在室者の服の柄や頭髪の色あいに基づき、在室者を高精度で識別できる。   Further, for the lower image area U (see FIG. 8A) and the lower image area U (see FIG. 9A), predetermined color classifications (FIG. 8B and FIG. )) Is set, and the occupants are identified based on the distribution of the number of pixels in the color classification. Accordingly, the occupants can be identified with high accuracy based on the clothes pattern of the occupants and the color of the hair.

また、本実施形態では、在室者の在室時間に基づいて、空調制御が変更される。例えば、部屋に入ってきた直後の在室者に向けて、温風又は冷風が重点的に送られる。したがって、各在室者にとっての空調の快適性を従来よりも高めることができる。   In the present embodiment, air conditioning control is changed based on the occupant's occupancy time. For example, warm air or cold air is intensively sent toward the occupants immediately after entering the room. Therefore, the comfort of air conditioning for each occupant can be enhanced as compared with the conventional case.

≪第2実施形態≫
第2実施形態は、第1実施形態で説明した構成(図4参照)に重み係数補正部312e(図15参照)を追加した点が第1実施形態とは異なっているが、その他については第1実施形態と同様である。したがって、第1実施形態と異なる部分について説明し、重複する部分については説明を省略する。
<< Second Embodiment >>
The second embodiment is different from the first embodiment in that a weight coefficient correction unit 312e (see FIG. 15) is added to the configuration described in the first embodiment (see FIG. 4). This is the same as in the first embodiment. Therefore, a different part from 1st Embodiment is demonstrated and description is abbreviate | omitted about the overlapping part.

図15は、第2実施形態に係る空気調和機Sの室内機100が備える機器の機能ブロック図である。
図15に示すように、画像処理部312Aは、在室者検出部312aと、在室者識別部312bと、在室時間算出部312cと、学習処理部312dと、重み係数補正部312eと、を備えている。
FIG. 15 is a functional block diagram of devices included in the indoor unit 100 of the air conditioner S according to the second embodiment.
As shown in FIG. 15, the image processing unit 312A includes an occupant detection unit 312a, an occupant identification unit 312b, an occupancy time calculation unit 312c, a learning processing unit 312d, a weighting coefficient correction unit 312e, It has.

重み係数補正部312eは、撮像部14の撮像範囲における色又は明るさ(環境検出値)の所定時間での変化量が大きいほど、色重み係数wckよりも形状重み係数wsjを相対的に大きくする機能を有している。なお、色重み係数wck及び形状重み係数wsjについては、第1実施形態で説明したとおりである。   The weighting coefficient correction unit 312e makes the shape weighting coefficient wsj relatively larger than the color weighting coefficient wck as the change amount of the color or brightness (environment detection value) in the imaging range of the imaging unit 14 in a predetermined time is larger. It has a function. The color weight coefficient wck and the shape weight coefficient wsj are as described in the first embodiment.

図16は、第2実施形態に係る空気調和機Sの制御部3が実行する処理を示すフローチャートである。
ステップS101において在室者を検出し、ステップS102において特徴量抽出処理を行った後、制御部3の処理はステップS201に進む。
FIG. 16 is a flowchart illustrating processing executed by the control unit 3 of the air conditioner S according to the second embodiment.
After the occupant is detected in step S101 and the feature amount extraction process is performed in step S102, the process of the control unit 3 proceeds to step S201.

ステップS201において制御部3は、環境検出値の変化量を算出する。例えば、制御部3は、撮像部14の撮像範囲における現時点での色(又は明るさ)と、所定時間前における色(又は明るさ)と、の差の絶対値を、環境検出値の変化量として算出する。なお、撮像部14の撮像範囲における色は、例えば、撮像範囲に含まれる各画素の色を色空間のベクトルに変換し、各画素に対応する複数のベクトルの重心を算出することで求められる。   In step S201, the control unit 3 calculates the amount of change in the environment detection value. For example, the control unit 3 uses the absolute value of the difference between the current color (or brightness) in the imaging range of the imaging unit 14 and the color (or brightness) before a predetermined time as the change amount of the environment detection value. Calculate as Note that the color in the imaging range of the imaging unit 14 is obtained, for example, by converting the color of each pixel included in the imaging range into a vector in the color space and calculating the centroid of a plurality of vectors corresponding to each pixel.

また、ステップS201で用いる環境検出値として、環境検出部4(例えば、照度センサ:図15参照)の検出値を用いてもよい。   Moreover, you may use the detection value of the environment detection part 4 (for example, illumination intensity sensor: refer FIG. 15) as an environment detection value used by step S201.

ステップS202において制御部3は、重み係数補正部312eによって、評価関数fの色重み係数wck及び形状重み係数wsjの大きさを変更する。すなわち、制御部3は、環境検出値(色又は明るさ)の所定時間での変化量が大きいほど、色重み係数wckよりも形状重み係数wsjを相対的に大きくする。   In step S202, the control unit 3 causes the weighting coefficient correction unit 312e to change the size of the color weighting coefficient wck and the shape weighting coefficient wsj of the evaluation function f. That is, the control unit 3 makes the shape weight coefficient wsj relatively larger than the color weight coefficient wck as the change amount of the environment detection value (color or brightness) in a predetermined time is larger.

図17は、環境検出値の変化量と、重み係数の大きさと、の関係を示す説明図である。
図17の横軸は、環境検出値の変化量である。つまり、横軸は、現時点での環境検出値と、前回の環境検出値の差の絶対値である。図17の縦軸は、第1実施形態で説明した重み係数(色重み係数wck及び形状重み係数wsj)である。
FIG. 17 is an explanatory diagram showing the relationship between the change amount of the environment detection value and the magnitude of the weighting coefficient.
The horizontal axis in FIG. 17 represents the amount of change in the environment detection value. That is, the horizontal axis is the absolute value of the difference between the current environment detection value and the previous environment detection value. The vertical axis in FIG. 17 represents the weighting coefficients (color weighting coefficient wck and shape weighting coefficient wsj) described in the first embodiment.

すなわち、破線で示す‘wck’は、色特徴量に関する色重み係数であり、第1実施形態で説明した色重み係数wc1,wc2,…,wcnのうち任意のものを表している。また、実線で示す‘wsj’は、形状特徴量に関する形状重み係数であり、第1実施形態で説明した形状重み係数ws1,ws2,…,wsmのうち任意のものを表している。なお、図17に示す環境検出値の変化量と、各重み係数と、の関係は、予め記憶部311(図15参照)に格納されている。   That is, 'wck' indicated by a broken line is a color weighting coefficient relating to the color feature amount, and represents any one of the color weighting coefficients wc1, wc2, ..., wcn described in the first embodiment. Further, “wsj” indicated by a solid line is a shape weighting coefficient related to the shape feature amount, and represents any one of the shape weighting coefficients ws1, ws2,..., Wsm described in the first embodiment. Note that the relationship between the amount of change in the environmental detection value shown in FIG. 17 and each weighting factor is stored in advance in the storage unit 311 (see FIG. 15).

例えば、在室者が、部屋の蛍光灯をいったん消して、赤みがかったダウンライトを点灯させた場合、撮像部14に入射する光の明るさや色が急激に変化する。その結果、撮像部14によって撮像される在室者の服や頭頂部も、赤みがかった色になる。このように環境検出値の変化量が比較的大きい場合、重み係数補正部312eは、色特徴量よりも信頼性の高い形状特徴量に重みをおくようにする。   For example, when the occupant turns off the fluorescent lamp in the room and turns on the reddish downlight, the brightness and color of the light incident on the imaging unit 14 change abruptly. As a result, the clothes and the top of the occupant imaged by the imaging unit 14 also have a reddish color. As described above, when the change amount of the environment detection value is relatively large, the weighting coefficient correction unit 312e places weight on the shape feature amount having higher reliability than the color feature amount.

また、例えば、撮像部14の撮像範囲における光の明るさや色がほとんど変化しない場合、重み係数補正部312eは、形状重み係数wsjよりも色重み係数wckを相対的に大きする。つまり、重み係数補正部312eは、色特徴量よりも信頼性の高い形状特徴量に重みをおくようにする。これによって、在室者の服の色や頭頂部の色等に基づいて、在室者を精度よく識別し続けることができる。   For example, when the light brightness and color in the imaging range of the imaging unit 14 hardly change, the weight coefficient correction unit 312e makes the color weight coefficient wck relatively larger than the shape weight coefficient wsj. That is, the weighting coefficient correction unit 312e places weights on shape feature quantities that are more reliable than color feature quantities. Accordingly, it is possible to continue to accurately identify the occupant based on the clothes color of the occupant, the color of the top of the head, and the like.

なお、重み係数wck,wsjの一方が高いときには他方が低くなるように、以下の数式(3)が満たされるようにしてもよい。   Note that the following formula (3) may be satisfied so that when one of the weighting factors wck and wsj is high, the other is low.

Σwck+Σwsj=(一定値) ・・・(数式3)   Σwck + Σwsj = (constant value) (Equation 3)

このようにして制御部3は、評価関数fの重み係数の大きさを変更した後(S202:図16参照)、この重み係数を用いて在室者識別処理を行う(S103:図16参照)。なお、図16のステップS103〜S105については第1実施形態と同様であるため、説明を省略する。   Thus, after changing the magnitude of the weighting coefficient of the evaluation function f (S202: see FIG. 16), the control unit 3 performs the occupant identification process using this weighting coefficient (S103: see FIG. 16). . Note that steps S103 to S105 in FIG. 16 are the same as those in the first embodiment, and a description thereof will be omitted.

<効果>
本実施形態によれば、前記したように、環境検出値の変化量が大きいほど、色特徴量よりも形状特徴量を重視するように重み係数wck,wsjが変更される。これによって、照明の点灯時・消灯時や、使用される照明の種類が変わったときでも在室者を適切に識別し、ひいては、在室者にとって快適な空調を継続できる。
<Effect>
According to the present embodiment, as described above, the weighting factors wck and wsj are changed so that the shape feature amount is more important than the color feature amount as the change amount of the environment detection value is larger. This makes it possible to appropriately identify the occupants even when the lighting is turned on / off, or when the type of lighting used is changed, and as a result, comfortable air conditioning for the occupants can be continued.

≪第3実施形態≫
第1実施形態、第2実施形態では、在室者の色特徴量及び形状特徴量に基づいて、在室者の識別を行う場合について説明したが、これに限定されるわけではない。第3実施形態では、在室者を識別する識別パラメータを、在室者の位置の変化量に基づいて選択して、在室者の識別を行う場合である。ここでは、在室者を識別する識別パラメータとしては、第1実施形態、第2実施形態で説明した在室者の服の色、在室者の頭頂部の色、在室者の顔の色を例にして説明する。
«Third embodiment»
In the first embodiment and the second embodiment, the case where the occupant is identified based on the color feature amount and the shape feature amount of the occupant has been described, but the present invention is not limited to this. In the third embodiment, the identification parameter for identifying the occupant is selected based on the amount of change in the position of the occupant to identify the occupant. Here, as identification parameters for identifying occupants, the clothes color of the occupants described in the first embodiment and the second embodiment, the color of the head of the occupants, the color of the face of the occupants Will be described as an example.

図18は、本発明の第3実施形態に係る在室者識別処理を示す説明図であり、(a)は当初の在室者の位置、(b)はその場で在室者が着替えた場合、(c)(d)は異なる位置に在室者が検知された場合である。在室者を識別する識別パラメータとして、在室者の服の色、在室者の頭頂部の色、在室者の顔の色を用いる場合、一般に、在室者の頭頂部の色、在室者の顔の色が大きく変化しないが、在室者の服の色は、その場で、服を脱ぐ、着替える等すると、大きく変化することになる。第3実施形態では、この場合においても、在室者の識別処理を適切に実施できるようにしたものである。   FIG. 18 is an explanatory diagram showing occupant identification processing according to the third embodiment of the present invention, where (a) is the position of the original occupant and (b) is the occupant changing clothes on the spot. In the case, (c) and (d) are cases in which occupants are detected at different positions. When the color of the occupant's clothes, the color of the occupant's head, or the color of the occupant's face is used as an identification parameter for identifying the occupant, in general, the color of the occupant's head, The color of the room person's face does not change greatly, but the color of the clothes of the room person will change greatly if the clothes are removed or changed on the spot. In the third embodiment, even in this case, the occupant identification process can be appropriately performed.

具体的には、図18(a)の在室者に対し、図18(b)では同一人で有る確率が極めて高い、図18(c)では、同一人の可能性が大きい、図18(d)では別人の可能性が大きいことを考慮して空調制御を行う。   Specifically, the probability of being the same person in FIG. 18 (b) is very high for the occupant in FIG. 18 (a), and the possibility of the same person in FIG. 18 (c) is high. In d), air conditioning control is performed considering the possibility of another person.

第3実施形態に係る空気調和機Sは、室内を撮像する撮像部14と、撮像部の撮像結果に基づいて、室内の在室者を検出する在室者検出部312aと、在室者検出部によって検出される在室者の識別パラメータに基づいて、在室者の識別を行う在室者識別部312bと、在室者識別部の識別結果に基づいて、空調制御を変更する空調制御部(演算処理部322、駆動制御部323)と、を備える。   The air conditioner S according to the third embodiment includes an imaging unit 14 that images a room, an occupant detection unit 312a that detects an occupant in the room based on the imaging result of the imaging unit, and occupant detection. The occupant identification unit 312b that identifies the occupant based on the identification parameter of the occupant detected by the unit, and the air conditioning control unit that changes the air conditioning control based on the identification result of the occupant identification unit (Arithmetic processing unit 322, drive control unit 323).

在室者識別部312bは、在室者検出部312aで検出された在室者の移動距離が所定距離以下にある場合、識別パラメータのうち変化しないパラメータに基づいて、在室者の識別を行う第1識別部と、在室者検出部312aで検出された在室者の移動距離が所定距離を超える場合、識別パラメータのうち変化する識別パラメータを含めて、在室者の識別を行う第2識別部と、を備える。ここで、変化する識別パラメータは、在室者の服の色であり、変化しない識別パラメータは、在室者の頭頂部の色、及び/又は、在室者の顔の色である。
以下、図19〜図21を参照して詳細に説明する。
The occupant identification unit 312b identifies the occupant based on a parameter that does not change among the identification parameters when the movement distance of the occupant detected by the occupant detection unit 312a is equal to or less than a predetermined distance. When the moving distance of the occupant detected by the first identifying unit and the occupant detecting unit 312a exceeds a predetermined distance, the second identifying the occupant including identification parameters that change among the identification parameters. An identification unit. Here, the identification parameter that changes is the color of the occupant's clothes, and the identification parameter that does not change is the color of the head of the occupant and / or the color of the face of the occupant.
Hereinafter, it will be described in detail with reference to FIGS.

図19は、本発明の第3実施形態に係る空気調和機Sの制御部が実行する処理を示すフローチャートである。
ステップS101において在室者を検出し、制御部3はステップS301に進む。
ステップS301において制御部3は、在室者の位置の変化量を算出する。つまり、制御部3は、現時点での在室者の位置(座標)と、前回に識別した在室者の位置(座標)と、に基づいて、在室者の位置の変化量を算出する。
FIG. 19 is a flowchart showing processing executed by the control unit of the air conditioner S according to the third embodiment of the present invention.
In step S101, the occupant is detected, and the control unit 3 proceeds to step S301.
In step S301, the control unit 3 calculates the amount of change in the position of the occupant. That is, the control unit 3 calculates the amount of change in the position of the occupant based on the current position (coordinates) of the occupant and the position (coordinates) of the occupant identified last time.

なお、図19に示す例では、在室者識別処理(S305,S307)が行われる前に、位置の変化量が算出される(S301)。したがって、ステップS301において制御部3は、現時点で検出した在室者の位置と、前回(例えば、数秒前)に検出・識別した在室者の位置と、に基づいて、その位置の変化量が最も小さいものをステップS301で用いるようにしてもよい。   In the example shown in FIG. 19, the amount of change in position is calculated (S301) before the occupant identification process (S305, S307) is performed. Therefore, in step S301, the control unit 3 determines the amount of change in the position based on the position of the occupant detected at the current time and the position of the occupant detected and identified last time (for example, several seconds ago). The smallest one may be used in step S301.

ステップS302において制御部3の第1識別部は、位置の変化量が小さい場合(ステップS302,小)、ステップS304において、変化しない識別パラメータのみの特徴量の抽出処理をする。具体的には、変化しない識別パラメータのみの特徴量とは、在室者の頭頂部の色の色特徴量、在室者の顔の色の色特徴量である。
そして、ステップS305において、第1識別部は、識別パラメータのうち変化しないパラメータに基づいて、在室者の識別を行い(第1在室者識別処理)、ステップS104に進む。
In step S302, when the position change amount is small (step S302, small), the first identification unit of the control unit 3 performs a feature amount extraction process of only the identification parameter that does not change in step S304. Specifically, the feature amount of only the identification parameter that does not change is the color feature amount of the color of the head of the occupant and the color feature amount of the color of the face of the occupant.
In step S305, the first identification unit identifies the occupants based on the parameters that do not change among the identification parameters (first occupant identification process), and proceeds to step S104.

ステップS302において制御部3の第2識別部は、位置の変化量が大きい場合(ステップS302,大)、ステップS306において、変化する識別パラメータを含んだ特徴量を抽出処理をする。具体的には、変化する識別パラメータを含んだ特徴量とは、在室者の服の色の特徴量、在室者の頭頂部の色の色特徴量、在室者の顔の色の色特徴量である。
そして、ステップS307において、第2識別部は、識別パラメータのうち変化する識別パラメータを含めて、在室者の識別を行い(第2在室者識別処理)、ステップS104に進む。
そして、ステップS104において各在室者の在室時間を算出した後、ステップS105において、空調制御変更処理が実行される。
In step S302, when the position change amount is large (step S302, large), the second identification unit of the control unit 3 performs a process of extracting a feature amount including a changing identification parameter in step S306. Specifically, the feature quantity including the changing identification parameter is the feature quantity of the color of the occupant's clothes, the color feature quantity of the color of the head of the occupant, the color of the face color of the occupant. It is a feature quantity.
In step S307, the second identification unit identifies the occupants including the identification parameters that change among the identification parameters (second occupant identification process), and proceeds to step S104.
And after calculating the occupancy time of each occupant in step S104, an air-conditioning control change process is performed in step S105.

ここで、ab空間(図21参照)において、
c1ab:ab空間における在室者の服の色の評価値
c2ab:ab空間における在室者の頭頂部の色の評価値
c3ab:ab空間における在室者の顔の色の評価値
wc1:c1abの重み係数
wc2:c2abの重み係数
wc3:c3abの重み係数
とすると、
第3実施形態の評価関数f10の一般式は、
f10=wc1×c1ab+wc2×c2ab+wc3×c3ab ・・・(数式4)
で示すことができる。
Here, in the ab space (see FIG. 21),
c1 ab : Evaluation value of the color of the occupant in the ab space c2 ab : Evaluation value of the color of the head of the occupant in the ab space c3 ab : Evaluation value of the color of the occupant's face in the ab space wc1 : C1 ab weight coefficient wc2: c2 ab weight coefficient wc3: c3 ab weight coefficient
The general formula of the evaluation function f10 of the third embodiment is
f10 = wc1 × c1 ab + wc2 × c2 ab + wc3 × c3 ab ··· ( Equation 4)
Can be shown.

図20は、在室者の位置の変化量と、重み係数の大きさと、の関係を示す説明図である。なお、図20の横軸は、在室者の位置の変化量であり、縦軸は、第1実施形態で説明した重み係数である。図20に示す位置の変化量と、各重み係数と、の関係は、予め記憶部311に格納されている。   FIG. 20 is an explanatory diagram illustrating the relationship between the change in the position of the occupant and the magnitude of the weighting factor. Note that the horizontal axis of FIG. 20 is the amount of change in the position of the occupant, and the vertical axis is the weighting coefficient described in the first embodiment. The relationship between the change amount of the position shown in FIG. 20 and each weight coefficient is stored in the storage unit 311 in advance.

在室者の位置の変化量が小さい場合、重み係数補正部312eは、在室者の服の色は、着替える等を考慮すると、大きく変化する識別パラメータであると考えられる。このため、wc1を零(ゼロ)に設定する。一方、在室者の位置の変化量が大きい場合、重み係数補正部312eは、在室者の服の色は、在室者を識別するのに有効な識別パラメータであると考えられる。このため、wc1の値をwc2、wc3の値よりも大きくしている。   When the amount of change in the position of the occupant is small, the weighting factor correction unit 312e is considered to be an identification parameter that changes greatly in consideration of changing the clothes color of the occupant. For this reason, wc1 is set to zero (zero). On the other hand, when the amount of change in the position of the occupant is large, the weighting coefficient correction unit 312e is considered that the color of the occupant's clothes is an effective identification parameter for identifying the occupant. For this reason, the value of wc1 is made larger than the values of wc2 and wc3.

図21は、ab空間を用いた在室者識別を示す説明図である。本実施形態では、RGB空間では明るさが変わると色情報が変化するため、基本的にLab空間から、明度L成分を削除した色空間であるab空間を用いている。ab空間系は、物体の色を表わすのに、標準的に使用されている色空間系である。Lab空間系では、明度をL、色相と彩度を示す色度をa、bで表わす。a、bは、色の方向を示しており、+aは赤方向、−aは緑方向、そして+bは黄方向、−bは青方向を示している。中心点から離れるに従って色あざやかになり、中心になるに従ってくすんだ色になる。色空間(ab空間)は、Lab空間を水平方向(緑方向−赤方向)に切った断面図にあたる。 FIG. 21 is an explanatory diagram showing occupant identification using the ab space. In the present embodiment, since the color information changes when the brightness changes in the RGB space, the ab space, which is a color space obtained by deleting the lightness L component from the Lab space, is basically used. The ab space system is a color space system that is typically used to represent the color of an object. In the Lab space system, lightness is represented by L, and chromaticity indicating hue and saturation is represented by a * and b * . a * and b * indicate the color direction, + a * indicates the red direction, -a * indicates the green direction, + b * indicates the yellow direction, and -b * indicates the blue direction. As you move away from the center point, the color becomes more vivid, and as you get closer to the center, the color becomes dull. The color space (ab space) is a cross-sectional view of the Lab space cut in the horizontal direction (green direction-red direction).

本実施形態では、識別パラメータとして、例えば、頭頂部の色、顔の色、服の色を用い、在室者を特定する。色の評価値は、以前に取得したab空間上の座標点から、今回取得したab空間上の座標点からの距離に応じて、10段階で点数を付けて評価値とする。すなわち、距離が小さいほど「10」となり、距離が大きいと「0」となる。   In the present embodiment, the occupants are specified using, for example, the color of the top of the head, the color of the face, and the color of clothes as the identification parameters. The color evaluation value is set to an evaluation value by assigning a score in 10 steps from the coordinate point in the ab space acquired previously to the distance from the coordinate point in the ab space acquired this time. That is, the smaller the distance is, “10”, and the larger the distance is “0”.

図19において、ステップS305における第1在室者識別処理における評価関数f11は、(数式4)より、
f11=wc2×c2ab+wc3×c3ab ・・・(数式5)
となる。すなわち、第1在室者識別処理においては、wc1の評価値を算出する時間が短縮することができる。
In FIG. 19, the evaluation function f11 in the first occupant identification process in step S305 is
f11 = wc2 × c2 ab + wc3 × c3 ab ··· ( Equation 5)
It becomes. That is, in the first occupant identification process, the time for calculating the evaluation value of wc1 can be shortened.

図19のステップS307おける第2在室者識別処理における評価関数f12は、(数式4)より、
f12=f10 ・・・(数式6)
となる。
The evaluation function f12 in the second occupant identification process in step S307 of FIG.
f12 = f10 (Formula 6)
It becomes.

ここで、服の色の評価値を「0〜10」で変更し、頭の色の評価値を「10」、顔の色の評価値を「10」として、重み係数を設定して(数式5)、(数式6)の具体例をあげると下記となる。なお、評価関数の閾値が「8」以上であると、同一在室者とする。   Here, the evaluation value of the clothing color is changed from “0 to 10”, the evaluation value of the head color is “10”, the evaluation value of the face color is “10”, and a weight coefficient is set (formula Specific examples of 5) and (Formula 6) are as follows. If the threshold value of the evaluation function is “8” or more, the same occupant is assumed.

f11=0.5×10+0.5×10=10≧8 (同一の在室者)
ここで、評価関数f11の場合は、服の色が変わっても、常に同一の在室者と判定される。すなわち、図18(a)から図18(b)の状態変化の場合に、同一の在室者(同一人)となる。
f11 = 0.5 × 10 + 0.5 × 10 = 10 ≧ 8 (same resident)
Here, in the case of the evaluation function f11, even if the color of the clothes changes, it is always determined that the person is in the same room. That is, in the case of the state change from FIG. 18A to FIG. 18B, the same occupant (the same person) is obtained.

f12=0.6× 0+0.2×10+0.2×10= 4 <8 (別の在室者)
f12=0.6× 5+0.2×10+0.2×10= 7 <8 (別の在室者)
f12=0.6× 8+0.2×10+0.2×10= 8.8≧8 (同一の在室者)
f12=0.6×10+0.2×10+0.2×10=10≧8 (同一の在室者)
f12 = 0.6 × 0 + 0.2 × 10 + 0.2 × 10 = 4 <8 (another resident)
f12 = 0.6 × 5 + 0.2 × 10 + 0.2 × 10 = 7 <8 (another resident)
f12 = 0.6 × 8 + 0.2 × 10 + 0.2 × 10 = 8.8 ≧ 8 (same resident)
f12 = 0.6 × 10 + 0.2 × 10 + 0.2 × 10 = 10 ≧ 8 (same resident)

ここで、評価関数f12の場合は、服の色の変更程度に応じて、同一の在室者と判定される場合と、別の在室者と判定される場合がある。服の色がほぼ同一または近い場合は、同一の在室者と判定される。すなわち、図18(a)から図18(c)の状態変化の場合であり、同一の在室者(同一人)と判定される。一方、服の色が大幅に異なる場合は、別の在室者(別人)と判定される。すなわち、図18(a)と、図18(d)との比較により、別の在室者と判定される。   Here, in the case of the evaluation function f12, it may be determined that the person is the same occupant or another occupant depending on the change in the color of the clothes. When the color of clothes is almost the same or close, it is determined that they are in the same room. That is, in the case of the state change from FIG. 18A to FIG. 18C, it is determined that they are the same occupant (the same person). On the other hand, when the color of clothes is significantly different, it is determined that the person is in another room (another person). That is, by comparing FIG. 18A and FIG. 18D, it is determined that another person is in the room.

<効果>
本実施形態によれば、在室者識別部312bは、在室者検出部で検出された在室者の移動距離が所定距離以下にある場合、識別パラメータのうち変化しない識別パラメータに基づいて、在室者の識別を行う第1識別部と、在室者検出部で検出された在室者の移動距離が所定距離を超える場合、識別パラメータのうち変化する識別パラメータを含めて、在室者の識別を行う第2識別部と、を備えている。これにより、在室者が、例えば、その場で、服を脱いだり、着替えた場合においても、同一の在室者として識別することができる。
<Effect>
According to the present embodiment, the occupant identification unit 312b is based on an identification parameter that does not change among the identification parameters when the moving distance of the occupant detected by the occupant detection unit is a predetermined distance or less. When the movement distance of the occupant detected by the occupant detection unit and the first identification unit for identifying the occupant exceeds the predetermined distance, the occupant including the identification parameter that changes among the identification parameters is included. And a second identification unit for performing identification. As a result, even if the occupant takes off clothes or changes clothes on the spot, it can be identified as the same occupant.

なお、第3実施形態において、変化しない識別パラメータとして、在室者の頭頂部の色、在室者の顔の色として説明したが、頭部の形状、体型、目の大きさ等がある。   In the third embodiment, the identification parameters that do not change have been described as the color of the head of the occupant and the color of the face of the occupant, but there are the shape of the head, the body shape, the size of the eyes, and the like.

≪変形例≫
以上、本発明に係る空気調和機Sについて各実施形態により説明したが、本発明はこれらの記載に限定されるものではなく、種々の変更を行うことができる。
例えば、各実施形態では、在室者を識別するための特徴量として、在室者の服の色、頭頂部の色、顔の皮膚の色、頭部の形状、体型、目の大きさ、両目間の距離、及び唇の横幅を用いる場合について説明したが、これに限らない。例えば、在室者の識別に用いる特徴量として、単位時間当たりの在室者の移動距離である「移動量」を追加してもよいし、他の特徴量よりも「移動量」を優先的に用いるようにしてもよい。このように「移動量」を用いることで、例えば、一方は静止しており、他方は動いている二人の在室者を見分けやすくなる。
≪Modification≫
As mentioned above, although air conditioner S concerning the present invention was explained by each embodiment, the present invention is not limited to these statements and can be variously changed.
For example, in each embodiment, as a feature amount for identifying the occupant, the color of the occupant's clothes, the color of the top of the head, the color of the skin of the face, the shape of the head, the body shape, the size of the eyes, Although the case of using the distance between both eyes and the lateral width of the lips has been described, the present invention is not limited to this. For example, a “movement amount” that is the movement distance of a room occupant per unit time may be added as a feature amount used for identification of a resident, or “movement amount” is given priority over other feature amounts. You may make it use for. By using the “movement amount” in this way, for example, it becomes easy to distinguish two occupants who are stationary while the other is moving.

また、在室者を識別するための特徴量として、以下で説明するように、在室者の姿勢を追加してもよい。   Further, as described below, the pose of the occupant may be added as a feature amount for identifying the occupant.

図22(a)は、在室者が立っているときの姿勢に関する説明図である。
在室者の姿勢を表す特徴量は、例えば、在室者の顔中心rと体中心rとの距離L(画素数)と、在室者の体中心rと足の位置rとの距離L(画素数)と、の和(L+L)で表される。
FIG. 22A is an explanatory diagram relating to the posture when the occupant is standing.
The feature amount representing the posture of the occupant is, for example, the distance L p (number of pixels) between the occupant's face center r C and the body center r D , the occupant's body center r D, and the foot position r. It is represented by the sum (L q + L p ) of the distance L q (number of pixels) from F.

図22(b)は、在室者が座っているときの姿勢に関する説明図である。
在室者が座っている姿勢は、立っている姿勢(図22(a)参照)と比較して、在室者の体中心rと足の位置rとの距離Lが短くなる。その結果、在室者が座っているときの和(L+L)は、在室者が立っているときの和(L+L)よりも小さくなる。このように、在室者の姿勢の変化に伴って、前記した和(L+L)の大きさが変化する。このように、在室者の姿勢を表す特徴量として、和(L+L)を用いることができる。なお、前記した和(L+L)に代えて、比率(L/L)を用いてもよいし、また、姿勢を特定する他の周知の方法を用いてもよい。
FIG. 22B is an explanatory diagram relating to the posture when the occupant is sitting.
Posture occupants are seated, as compared to the standing posture (see FIG. 22 (a)), the distance L q and the position r F of the occupants of the core body r D and feet is shortened. As a result, the sum (L q + L p ) when the occupant is sitting is smaller than the sum (L q + L p ) when the occupant is standing. Thus, the magnitude of the sum (L q + L p ) changes as the occupant's posture changes. As described above, the sum (L q + L p ) can be used as the feature amount representing the posture of the occupant. Note that the ratio (L p / L q ) may be used instead of the above-described sum (L q + L p ), or other known methods for specifying the posture may be used.

また、第3実施形態(図19参照)と同様にして、在室者を識別する識別パラメータとして、在室者の服の色、在室者の頭頂部の色、在室者の顔の色、在室者の姿勢を用いる場合に、変化する識別パラメータとして、在室者の服の色、在室者の姿勢としてもよい。これによって、在室者の姿勢が変わった場合でも、在室者を適切に識別できる。   Similarly to the third embodiment (see FIG. 19), as identification parameters for identifying the occupant, the color of the occupant's clothes, the color of the occupant's head, the color of the occupant's face When the occupant's posture is used, as the identification parameter that changes, the occupant's clothes color and the occupant's posture may be used. Thus, even when the occupant's posture changes, the occupant can be appropriately identified.

また、実施形態は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、前記した機構や構成は説明上必要と考えられるものを示しており、製品上必ずしも全ての機構や構成を示しているとは限らない。
The embodiments are described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. In addition, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
In addition, the above-described mechanisms and configurations are those that are considered necessary for the description, and do not necessarily indicate all the mechanisms and configurations on the product.

3 制御部
4 環境検出部
14 撮像部
31 カメラマイコン
32 メインマイコン
100 室内機
300 リモコン
311 記憶部
312,312A 画像処理部
312a 在室者検出部
312b 在室者識別部
312c 在室時間算出部
312d 学習処理部
312e 重み係数補正部
321 記憶部
322 演算処理部(空調制御部)
323 駆動制御部(空調制御部)
P 上側画像領域
S 空気調和機
U 下側画像領域
DESCRIPTION OF SYMBOLS 3 Control part 4 Environment detection part 14 Imaging part 31 Camera microcomputer 32 Main microcomputer 100 Indoor unit 300 Remote control 311 Memory | storage part 312,312A Image processing part 312a Resident detection part 312b Resident identification part 312c Residential time calculation part 312d Learning Processing unit 312e Weight coefficient correction unit 321 Storage unit 322 Arithmetic processing unit (air conditioning control unit)
323 Drive control unit (air conditioning control unit)
P Upper image area S Air conditioner U Lower image area

Claims (5)

室内を撮像する撮像部と、
前記撮像部の撮像結果に基づいて、前記室内の在室者を検出する在室者検出部と、
前記在室者検出部によって検出される在室者の識別パラメータに基づいて、在室者の識別を行う在室者識別部と、
前記在室者識別部の識別結果に基づいて、空調制御を変更する空調制御部と、を備え、
前記在室者識別部は、
前記在室者検出部で検出された在室者の移動距離が所定距離以下にある場合、前記識別パラメータのうち変化しない識別パラメータに基づいて、在室者の識別を行う第1識別部と、
前記在室者検出部で検出された在室者の移動距離が所定距離を超える場合、前記識別パラメータのうち変化する識別パラメータを含めて、在室者の識別を行う第2識別部と、を備える
ことを特徴とする空気調和機。
An imaging unit for imaging the room;
Based on the imaging result of the imaging unit, an occupant detection unit that detects occupants in the room;
The occupant identification unit for identifying the occupant based on the identification parameter of the occupant detected by the occupant detection unit,
An air conditioning control unit that changes the air conditioning control based on the identification result of the occupant identification unit,
The occupant identification unit
A first identification unit that identifies an occupant based on an identification parameter that does not change among the identification parameters when the occupant movement distance detected by the occupant detection unit is equal to or less than a predetermined distance;
A second identification unit for identifying the occupant including the identification parameter that changes among the identification parameters when the occupant's moving distance detected by the occupant detection unit exceeds a predetermined distance; An air conditioner characterized by comprising.
前記在室者識別部は、前記撮像部の撮像結果に基づく前記識別パラメータの検出値に重み係数を乗算した値を算出し、それぞれの前記識別パラメータについて加算した値を算出し、該加算した値に基づき、在室者の識別を行うに際し、
前記第1識別部における前記変化しない識別パラメータに対する重み係数は、前記第2識別部のおける前記変化しない識別パラメータに対する重み係数よりも大きくする
ことを特徴とする請求項1に記載の空気調和機。
The occupant identification unit calculates a value obtained by multiplying the detection value of the identification parameter based on the imaging result of the imaging unit by a weighting coefficient, calculates a value added for each of the identification parameters, and the added value When identifying people in the room based on
2. The air conditioner according to claim 1, wherein a weighting coefficient for the non-changing identification parameter in the first identification unit is larger than a weighting coefficient for the non-changing identification parameter in the second identification unit.
前記変化する識別パラメータは、在室者の服の色である
ことを特徴とする請求項1又は請求項2に記載の空気調和機。
The air conditioner according to claim 1 or 2, wherein the changing identification parameter is a color of clothes of a room occupant.
前記変化しない識別パラメータは、在室者の頭頂部の色、及び/又は、在室者の顔の色である
ことを特徴とする請求項1又は請求項2に記載の空気調和機。
The air conditioner according to claim 1 or 2, wherein the identification parameter that does not change is a color of a top of the occupant and / or a color of a face of the occupant.
前記変化する識別パラメータは、在室者の姿勢である
ことを特徴とする請求項1又は請求項2に記載の空気調和機。
The air conditioner according to claim 1 or 2, wherein the changing identification parameter is a posture of a room occupant.
JP2016197599A 2016-10-05 2016-10-05 Air conditioner Active JP6681816B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016197599A JP6681816B2 (en) 2016-10-05 2016-10-05 Air conditioner

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016197599A JP6681816B2 (en) 2016-10-05 2016-10-05 Air conditioner

Publications (2)

Publication Number Publication Date
JP2018059672A true JP2018059672A (en) 2018-04-12
JP6681816B2 JP6681816B2 (en) 2020-04-15

Family

ID=61907573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016197599A Active JP6681816B2 (en) 2016-10-05 2016-10-05 Air conditioner

Country Status (1)

Country Link
JP (1) JP6681816B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108895603A (en) * 2018-06-19 2018-11-27 芜湖美智空调设备有限公司 Blowing device and its air blowing control method, apparatus and readable storage medium storing program for executing
WO2020222341A1 (en) * 2019-05-02 2020-11-05 엘지전자 주식회사 Method for controlling operation of air conditioner by analyzing user behavior patterns, and air conditioner
WO2021234770A1 (en) * 2020-05-18 2021-11-25 三菱電機株式会社 Control system, equipment system, and method for controlling equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0894400A (en) * 1994-09-21 1996-04-12 Matsushita Electric Ind Co Ltd Image processor and applied apparatus using the same
JP2011137589A (en) * 2009-12-28 2011-07-14 Mitsubishi Electric Corp Air conditioner and control device of the same
JP2011220612A (en) * 2010-04-09 2011-11-04 Mitsubishi Electric Corp Air conditioner
US20130243240A1 (en) * 2012-03-13 2013-09-19 Tim K. Marks Camera-Based 3D Climate Control
JP2016023833A (en) * 2014-07-17 2016-02-08 日立アプライアンス株式会社 Air conditioner

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0894400A (en) * 1994-09-21 1996-04-12 Matsushita Electric Ind Co Ltd Image processor and applied apparatus using the same
JP2011137589A (en) * 2009-12-28 2011-07-14 Mitsubishi Electric Corp Air conditioner and control device of the same
JP2011220612A (en) * 2010-04-09 2011-11-04 Mitsubishi Electric Corp Air conditioner
US20130243240A1 (en) * 2012-03-13 2013-09-19 Tim K. Marks Camera-Based 3D Climate Control
JP2016023833A (en) * 2014-07-17 2016-02-08 日立アプライアンス株式会社 Air conditioner

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108895603A (en) * 2018-06-19 2018-11-27 芜湖美智空调设备有限公司 Blowing device and its air blowing control method, apparatus and readable storage medium storing program for executing
CN108895603B (en) * 2018-06-19 2020-06-19 芜湖美智空调设备有限公司 Air supply equipment, air supply control method and device thereof and readable storage medium
WO2020222341A1 (en) * 2019-05-02 2020-11-05 엘지전자 주식회사 Method for controlling operation of air conditioner by analyzing user behavior patterns, and air conditioner
US11655995B2 (en) 2019-05-02 2023-05-23 Lg Electronics Inc. Method of controlling operation of air conditioner by analyzing user's behavior pattern and air conditioner
WO2021234770A1 (en) * 2020-05-18 2021-11-25 三菱電機株式会社 Control system, equipment system, and method for controlling equipment
JPWO2021234770A1 (en) * 2020-05-18 2021-11-25

Also Published As

Publication number Publication date
JP6681816B2 (en) 2020-04-15

Similar Documents

Publication Publication Date Title
CN107883541B (en) Air conditioner control method and device
WO2017163883A1 (en) Air conditioner
CN107166657B (en) A kind of air conditioning control method, device and air-conditioning
US6645066B2 (en) Space-conditioning control employing image-based detection of occupancy and use
US20090115597A1 (en) Energy saving and security system
US9456183B2 (en) Image processing occupancy sensor
JP6681816B2 (en) Air conditioner
KR102121785B1 (en) Air-conditioner controlling direction of the wind using artificial intelligence by instructed position and method of controlling thereof
JP5511477B2 (en) Air conditioner
JP2011137589A (en) Air conditioner and control device of the same
JP2016171526A (en) Image sensor, person detection method, control system, control method, and computer program
JP2011174648A (en) Apparatus and method for image processing, and air conditioning control apparatus
CN109405206B (en) Air supply control method and device for air conditioning equipment
CN108758959A (en) Control is the methods, devices and systems of air-conditioning
JP2005172288A (en) Controlling system for air conditioner
CN113108437A (en) Air conditioner control method and device, storage medium and air conditioner
JP2013024534A (en) Situation recognition device
JP2012042074A (en) Air conditioner
KR20190035007A (en) Air Conditioner And Control Method Thereof
JP2012037102A (en) Device and method for identifying person and air conditioner with person identification device
CN108622778A (en) Elevator device
KR102314903B1 (en) Method And Apparatus for Controlling Building Based on Image
JP2017053603A (en) Air conditioner
JP5279653B2 (en) Image tracking device, image tracking method, and computer program
CN108280393B (en) Man-machine interaction system of intelligent ceiling and working method thereof

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20161130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200324

R150 Certificate of patent or registration of utility model

Ref document number: 6681816

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150