JP2018179876A - Attitude estimation system, distance image camera, and attitude estimation device - Google Patents

Attitude estimation system, distance image camera, and attitude estimation device Download PDF

Info

Publication number
JP2018179876A
JP2018179876A JP2017082897A JP2017082897A JP2018179876A JP 2018179876 A JP2018179876 A JP 2018179876A JP 2017082897 A JP2017082897 A JP 2017082897A JP 2017082897 A JP2017082897 A JP 2017082897A JP 2018179876 A JP2018179876 A JP 2018179876A
Authority
JP
Japan
Prior art keywords
distance image
unit
light
light source
image camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017082897A
Other languages
Japanese (ja)
Other versions
JP6827875B2 (en
Inventor
昭信 渡邊
Akinobu Watanabe
昭信 渡邊
雄一 野中
Yuichi Nonaka
雄一 野中
俊夫 上村
Toshio Kamimura
俊夫 上村
味松 康行
Yasuyuki Ajimatsu
康行 味松
克行 中村
Katsuyuki Nakamura
克行 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017082897A priority Critical patent/JP6827875B2/en
Publication of JP2018179876A publication Critical patent/JP2018179876A/en
Application granted granted Critical
Publication of JP6827875B2 publication Critical patent/JP6827875B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve estimation accuracy of a computer system that estimates an attitude of a subject by using a distance image transmitted by a distance image camera.SOLUTION: A distance image camera 1 connected with an attitude estimation device 2 via a network includes: a light source unit for radiating light to an object space; a distance image sensor for receiving light from the object space and generating image information on a prescribed imaging range; a distance image generation unit for generating a distance image from the generated image information; a communication unit for transmitting the generated distance image to the attitude estimation device; and a direction adjusting unit for adjusting an outgoing direction of the light of the light source.SELECTED DRAWING: Figure 1

Description

本発明は、姿勢推定システム、距離画像カメラ、及び姿勢推定装置に関する。   The present invention relates to a posture estimation system, a distance image camera, and a posture estimation device.

距離画像センサ(「深度カメラ」ともいう)から取得した距離画像(「深度画像」ともいう)を用いて、人等の被写体の関節位置及び姿勢を推定する技術が知られている。   There is known a technique for estimating a joint position and a posture of a subject such as a person using a distance image (also referred to as a “depth image”) acquired from a distance image sensor (also referred to as a “depth camera”).

特許文献1には、「距離画像センサ部2は窓32の外側に設定した対象空間33に光を照射する発光源5を備えるとともに、対象空間33からの光を受光し受光光量を反映した出力値の電気出力が得られる光検出素子3を備えており」、「距離画像センサ部2の画像生成部8で得られた対象空間33の距離画像は信号処理回路10に入力され、信号処理回路10によって対象空間33内で人の存否を検出する処理が行われる」、「信号処理回路10では、各画素の画素値(距離値)の入力範囲を所定の上限値以下に制限することで、センサの検知エリアを所定の上限値以下に制限しており」などと記載されている。   In Patent Document 1, “the distance image sensor unit 2 includes the light emission source 5 for irradiating light to the target space 33 set outside the window 32, and an output in which the light from the target space 33 is received and the received light amount is reflected Provided with the light detection element 3 capable of obtaining an electrical output of a value, "the distance image of the target space 33 obtained by the image generation unit 8 of the distance image sensor unit 2 is input to the signal processing circuit 10, and the signal processing circuit “The signal processing circuit 10 limits the input range of the pixel value (distance value) of each pixel to a predetermined upper limit value or less. The detection area of the sensor is limited to a predetermined upper limit or less.

特許文献2には、内視鏡に関して、共焦点用ピンホールとして機能する点光源を移動させて該点光源からの光束を走査することにより、被検面を観察する走査型共焦点光学システムが記載されている。   Patent Document 2 discloses a scanning confocal optical system for observing a surface to be inspected by moving a point light source functioning as a confocal pinhole and scanning a light flux from the point light source. Have been described.

特開2006−46961号公報JP, 2006-46961, A 特許4475912号Patent 4475912

例えば、工場の生産ライン等において作業者の動きを分析して、生産性の向上などに活用したいというニーズが出てきている。これに対応するシステムとして、様々な場所に設置した多数の距離画像カメラと、これらの距離画像カメラにネットワークを介して接続される遠隔サーバ装置とを用意し、この遠隔サーバ装置で各距離画像センサから受信した各距離画像から人等の被写体の姿勢推定を実行する、コンピュータシステム(例えば監視システム)が検討されている。   For example, there is a need to analyze the movement of workers in a production line of a factory and use it to improve productivity. As a system corresponding to this, a large number of distance image cameras installed in various places and a remote server device connected to these distance image cameras via a network are prepared, and each distance image sensor is operated by this remote server device. A computer system (e.g., a surveillance system) is under consideration that performs pose estimation of a subject such as a person from each of the distance images received from.

ここで、例えば複数の人が存在する工場の生産ライン等を考えた場合、距離画像カメラから得られる距離画像では、人が存在する場所が状況によって変化したり特定の場所に偏ったりすることがある。この場合、遠隔サーバ装置は、得られた距離画像中の実際は人が存在しない領域に対しても姿勢推定処理を実行することになる。そのため、計算リソースを効率的に使用することができず、姿勢推定処理の推定精度を向上するのが難しい。また、距離画像カメラの撮像範囲の中で光が当たり難い暗い場所に人が存在する場合には、姿勢推定処理の推定精度が低下してしまう。   Here, for example, in the case of a production line of a factory where there are a plurality of people, in the distance image obtained from the distance image camera, the place where the person exists may be changed depending on the situation or biased to a specific place. is there. In this case, the remote server device performs the posture estimation process even on an area where no person actually exists in the obtained distance image. Therefore, computational resources can not be used efficiently, and it is difficult to improve the estimation accuracy of the posture estimation process. In addition, when a person is present in a dark place where light is difficult to reach in the imaging range of the range image camera, the estimation accuracy of the posture estimation process is lowered.

本発明の目的は、距離画像カメラから送信される距離画像を用いて被写体の姿勢推定を行うコンピュータシステムの推定精度を向上することを目的とする。   An object of the present invention is to improve the estimation accuracy of a computer system that estimates the posture of a subject using a distance image transmitted from a distance image camera.

本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。   Although this application contains multiple means to solve at least one part of the said subject, if the example is given, it is as follows.

上記の課題を解決する本発明の一態様は、距離画像カメラと、前記距離画像カメラとネットワークを介して接続される姿勢推定装置とを含む姿勢推定システムであって、前記距離画像カメラは、対象空間に光を照射する光源部と、前記対象空間からの光を受光して所定の撮像範囲の画像情報を生成する距離画像センサと、前記生成された画像情報から距離画像を生成する距離画像生成部と、前記生成された距離画像を前記姿勢推定装置に送信する通信部と、を備え、前記姿勢推定装置は、前記距離画像カメラから前記距離画像を受信する距離画像受信部と、前記受信された距離画像から1つ以上の関節位置を識別し、前記識別された1つ以上の関節位置を含む推定姿勢情報を生成する姿勢推定部と、前記生成された推定姿勢情報を出力する出力部と、を備え、前記距離画像カメラは、前記光源部の光の出射方向を調節する方向調節部を備える。   One aspect of the present invention for solving the above problems is a posture estimation system including a distance image camera and a posture estimation device connected to the distance image camera via a network, the distance image camera being an object A light source unit for emitting light to a space, a distance image sensor for receiving light from the target space to generate image information of a predetermined imaging range, and distance image generation for generating a distance image from the generated image information Unit, and a communication unit for transmitting the generated distance image to the posture estimation device, wherein the posture estimation device receives the distance image reception unit for receiving the distance image from the distance image camera; A posture estimation unit which identifies one or more joint positions from the distance image and generates estimated posture information including the one or more identified joint positions; and outputs the generated estimated posture information. Comprising a part, the said distance image camera is provided with a direction adjusting unit to adjust the emission direction of light of the light source unit.

本発明の一態様によれば、距離画像カメラから送信される距離画像を用いて被写体の姿勢推定を行うコンピュータシステムの推定精度を向上することができる。   According to one aspect of the present invention, it is possible to improve the estimation accuracy of a computer system that estimates the posture of a subject using a distance image transmitted from a distance image camera.

上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。   Problems, configurations, and effects other than those described above will be apparent from the description of the embodiments below.

本発明の第1実施形態に係る、姿勢推定システムのシステム構成例を示す図である。It is a figure showing an example of system configuration of a posture presumption system concerning a 1st embodiment of the present invention. 本発明の第1実施形態に係る、距離画像カメラ及び姿勢推定装置の機能構成例を示す図である。It is a figure which shows the function structural example of a distance image camera and attitude | position estimation apparatus based on 1st Embodiment of this invention. 本発明の第1実施形態に係る、光が照射される撮像範囲を模式的に説明する図である。It is a figure which illustrates typically the imaging range where light is irradiated based on 1st Embodiment of this invention. 本発明の第1実施形態に係る、光源部の構成例を模式的に示す図である。It is a figure which shows typically the example of composition of a light source part concerning a 1st embodiment of the present invention. 本発明の第1実施形態に係る、前景画素を抽出する方法の例を説明する図である。It is a figure explaining an example of a method of extracting a foreground pixel concerning a 1st embodiment of the present invention. 本発明の第1実施形態に係る、姿勢推定装置を実現するコンピュータのハードウェア構成例を示す図である。It is a figure which shows the example of a hardware constitutions of the computer which implement | achieves the attitude | position estimation apparatus based on 1st Embodiment of this invention. 本発明の第1実施形態に係る、姿勢推定システムの処理例を示すフローチャートである。It is a flowchart which shows the process example of the attitude | position estimation system based on 1st Embodiment of this invention. 本発明の第1実施形態に係る、姿勢推定装置の姿勢推定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the attitude | position estimation process of the attitude | position estimation apparatus based on 1st Embodiment of this invention. 本発明の第2実施形態に係る、光源部の構成例を模式的に示す図である。It is a figure which shows typically the structural example of the light source part based on 2nd Embodiment of this invention. 本発明の第3実施形態に係る、光源部の構成例を模式的に示す図である。It is a figure which shows typically the example of composition of a light source part concerning a 3rd embodiment of the present invention. 本発明の第4実施形態に係る、距離画像カメラ及び姿勢推定装置の機能構成例を示す図である。It is a figure which shows the function structural example of a distance image camera and attitude | position estimation apparatus based on 4th Embodiment of this invention. 本発明の第4実施形態に係る、姿勢推定システムの処理例を示すフローチャートである。It is a flowchart which shows the process example of the attitude | position estimation system based on 4th Embodiment of this invention. 本発明の第5実施形態に係る、光源部の構成例を模式的に示す図である。It is a figure which shows typically the example of a structure of the light source part based on 5th Embodiment of this invention. 本発明の第5実施形態に係る、光源部の構成例を模式的に示す図である。It is a figure which shows typically the example of a structure of the light source part based on 5th Embodiment of this invention.

以下、本発明の複数の実施形態について、図面を参照して説明する。   Hereinafter, a plurality of embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
図1は、第1実施形態に係る、姿勢推定システムのシステム構成例を示す図である。姿勢推定システムは、1台以上の距離画像カメラ1と、1台の姿勢推定装置2とを含む。各距離画像カメラ1と姿勢推定装置2は、ネットワークNを介して接続され、互いに通信することができる。ネットワークNは、例えば、有線LAN(Local Area Network)、無線LAN、WAN(Wide Area Network)、モバイル通信網、インターネット等の電気通信網であり、これらの2つ以上を組み合わせてもよい。
First Embodiment
FIG. 1 is a diagram showing an example of a system configuration of a posture estimation system according to the first embodiment. The posture estimation system includes one or more distance image cameras 1 and one posture estimation device 2. Each distance image camera 1 and the posture estimation device 2 are connected via the network N and can communicate with each other. The network N is, for example, a wired LAN (Local Area Network), a wireless LAN, a WAN (Wide Area Network), a mobile communication network, a telecommunication network such as a mobile communication network, or the Internet, and two or more of these may be combined.

距離画像カメラ1は、人等の被写体が存在する対象空間の距離画像を撮像する撮像装置である。距離画像(「深度画像」ともいう)とは、画像中の各画素に、その階調情報(例えば、RGB)に加え深さ方向の距離情報が所定のスケーリングで記録された画像である。距離画像カメラ1は、例えばTOF(Time of Flight)方式のカメラであるが、距離画像を出力できれば、例えば可視光により撮像する2つの光学系を備えたステレオカメラ等の他の方式のカメラであってもよい。距離画像カメラは、距離画像センサと呼んでもよい。   The distance image camera 1 is an imaging device for capturing a distance image of a target space in which a subject such as a person is present. A distance image (also referred to as a “depth image”) is an image in which distance information in the depth direction is recorded at predetermined scaling in addition to gradation information (for example, RGB) in each pixel in the image. The distance image camera 1 is, for example, a TOF (Time of Flight) camera, but is a camera of another method such as a stereo camera provided with two optical systems for capturing an image with visible light if it can output a distance image. May be A distance imaging camera may be referred to as a distance imaging sensor.

本実施形態の距離画像カメラ1は、背景画素の階調情報及び距離情報に所定値(例えば「1」)を設定することにより、撮像した距離画像から背景を消去し、前景画素を含む距離画像を姿勢推定装置2に送信する。前景画素とは、人や当該人が持つ道具等の動作する被写体に対応する画素群である。背景画素とは、前景画素以外の画素であり、背景に対応する画素群である。   The distance image camera 1 of the present embodiment erases the background from the captured distance image by setting a predetermined value (for example, “1”) in the gradation information and distance information of the background pixel, and the distance image including the foreground pixel Are transmitted to the posture estimation device 2. A foreground pixel is a group of pixels corresponding to an object to be operated, such as a person or a tool possessed by the person. The background pixel is a pixel other than the foreground pixel, and is a pixel group corresponding to the background.

また、本実施形態の距離画像カメラ1は、対象空間に光を照射する光源と、光源から出射される光の出射方向を調節する方向調節部とを備える。これにより、距離画像カメラ1は、撮像される撮像範囲全体に均一に光が照射されるように出射方向を調節するだけでなく、撮像範囲のうち所望の領域(例えば前景画素を含む領域)に光が集中するように出射方向を調節することができる。   In addition, the distance image camera 1 of the present embodiment includes a light source for emitting light to the target space, and a direction adjusting unit for adjusting the emission direction of the light emitted from the light source. Thereby, the distance image camera 1 not only adjusts the emission direction so that light is uniformly irradiated to the entire imaging range to be imaged, but also to a desired area (for example, an area including foreground pixels) in the imaging area. The direction of emission can be adjusted to concentrate the light.

姿勢推定装置2は、距離画像に含まれる前景画素から人等の被写体の姿勢を推定する装置である。姿勢推定装置2は、例えば、後述するようにサーバ等のコンピュータ装置で実現される。姿勢推定装置2は、複数台のコンピュータで実現されてもよい。   The posture estimation device 2 is a device that estimates the posture of a subject such as a person from foreground pixels included in the distance image. The posture estimation device 2 is realized by, for example, a computer device such as a server as described later. The posture estimation device 2 may be realized by a plurality of computers.

本実施形態の姿勢推定装置2は、距離画像に含まれる前景画素の距離情報に基づいて、対象を構成する部位(例えば、頭、腕、手、胴体などの体のパーツ、関節は含まない)を識別し、各部位に対して関節位置を識別し、識別した関節位置に基づいて対象の姿勢を推定する。   The posture estimation device 2 according to the present embodiment does not include parts (for example, parts of the body such as a head, an arm, a hand, and a torso, and joints) that constitute an object based on distance information of foreground pixels included in the distance image. Are identified, the joint position is identified for each part, and the posture of the object is estimated based on the identified joint position.

本実施形態では、距離画像カメラ1によって距離画像から背景が消去され、この距離画像が姿勢推定装置2に送信されて処理される。これにより、背景画素と前景画素の両方を含む一般的な距離画像を送信する場合と比べ、ネットワークNの通信負荷を低減することができる。また、姿勢推定装置2は前景画素に対して処理を実行すればよいため、一般的な距離画像を処理する場合と比べ、姿勢推定装置2の処理負荷を低減することができる。距離画像カメラ1の台数あるいは距離画像カメラ1の撮像レートが増加するほど、効果が大きくなる。さらに、姿勢推定装置2は、前景画素に対して計算リソースを集中的に使用することができるため、姿勢推定の推定精度を向上することができる。   In the present embodiment, the background is erased from the distance image by the distance image camera 1, and the distance image is transmitted to the posture estimation device 2 and processed. Thereby, the communication load of the network N can be reduced as compared with the case of transmitting a general distance image including both the background pixel and the foreground pixel. Further, since the posture estimation device 2 only needs to execute processing on the foreground pixels, the processing load of the posture estimation device 2 can be reduced as compared to the case of processing a general distance image. As the number of range image cameras 1 or the imaging rate of the range image camera 1 increases, the effect becomes greater. Furthermore, the posture estimation device 2 can intensively use calculation resources with respect to foreground pixels, and thus can improve estimation accuracy of posture estimation.

また、本実施形態の距離画像カメラ1は、撮像範囲のうち所望の領域(例えば前景画素を含む領域)に光を集中させることができる。これにより、距離画像カメラ1は、被写体(前景画素)を含む領域がその他の領域よりも明るく照らされた距離画像を生成することができる。その結果、姿勢推定装置2は、撮像範囲全体に均一に光が照射された距離画像に対して姿勢推定処理を施す場合と比べ、より明るい前景画素に対して姿勢推定処理を実行できるため、姿勢推定の推定精度を向上することができる。   Further, the distance image camera 1 of the present embodiment can concentrate light on a desired area (for example, an area including foreground pixels) in the imaging range. Thereby, the distance image camera 1 can generate a distance image in which the area including the subject (foreground pixel) is illuminated brighter than the other areas. As a result, the posture estimation device 2 can perform posture estimation processing on brighter foreground pixels, as compared to the case where the posture estimation processing is performed on a distance image in which light is uniformly irradiated to the entire imaging range. The estimation accuracy of estimation can be improved.

図2は、第1実施形態に係る、距離画像カメラ及び姿勢推定装置の機能構成例を示す図である。距離画像カメラ1は、制御部11と、光源部12と、距離画像センサ13と、距離画像生成部14と、通信部15とを含む。姿勢推定装置2は、通信部21と、距離画像受信部22と、姿勢推定部23と、出力部27とを含む。姿勢推定部23は、特徴量算出部24と、部位識別部25と、関節識別部26とを含む。   FIG. 2 is a diagram showing an example of a functional configuration of the distance image camera and the posture estimation device according to the first embodiment. The distance image camera 1 includes a control unit 11, a light source unit 12, a distance image sensor 13, a distance image generation unit 14, and a communication unit 15. The posture estimation device 2 includes a communication unit 21, a distance image reception unit 22, a posture estimation unit 23, and an output unit 27. The posture estimation unit 23 includes a feature amount calculation unit 24, a part identification unit 25, and a joint identification unit 26.

制御部11は、光源部12、距離画像センサ13、距離画像生成部14、及び通信部15を制御する。例えば、制御部11は、光源部12に光の照射を指示し、距離画像センサ13に照射光と反射光の位相差情報の生成を指示し、距離画像生成部14に距離画像の生成を指示し、通信部15に距離画像の送信を指示する。また例えば、制御部11は、後述するように、光源部12から照射される光の出射方向が変更されるように、光源部12を制御することができる。制御部11は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)等を含むマイクロコンピュータや、専用ハードウェア回路により実現することができる。   The control unit 11 controls the light source unit 12, the distance image sensor 13, the distance image generation unit 14, and the communication unit 15. For example, the control unit 11 instructs the light source unit 12 to emit light, instructs the distance image sensor 13 to generate phase difference information of the irradiation light and the reflected light, and instructs the distance image generation unit 14 to generate a distance image. And instructs the communication unit 15 to transmit a distance image. Further, for example, as described later, the control unit 11 can control the light source unit 12 so that the emission direction of the light emitted from the light source unit 12 is changed. The control unit 11 can be realized by, for example, a microcomputer including a central processing unit (CPU), a random access memory (RAM), and the like, and a dedicated hardware circuit.

光源部12は、人等の被写体が存在する対象空間に対して光を照射する。また、光源部12は、光源から出射される光の出射方向を制御することができる。   The light source unit 12 emits light to a target space in which a subject such as a person is present. In addition, the light source unit 12 can control the emission direction of light emitted from the light source.

図3は、第1実施形態に係る、光が照射される撮像範囲を模式的に説明する図である。通常、距離画像カメラ1から照射された光は、撮像範囲A全体を均一に照らす。ここで、人等の被写体Fが撮像範囲Aのうち一部の領域a(図の例では、破線で分割した6つの領域aのうち左下の領域a)のみに存在する場合を考える。この場合、被写体F(前景画素)が存在する領域a(前景画素領域)以外の5つの領域aに照射された光は、被写体Fが存在しない背景に照射されることになり、距離画像から姿勢推定を行う際には無駄となってしまう。そこで、本実施形態の距離画像カメラ1は、被写体が存在しない領域へ照射される光の少なくとも一部を、被写体が存在する領域に照射するための機構を有する。   FIG. 3 is a diagram schematically illustrating an imaging range to which light is emitted according to the first embodiment. Usually, the light emitted from the distance image camera 1 illuminates the entire imaging range A uniformly. Here, it is assumed that the subject F such as a person is present only in a partial area a of the imaging range A (in the illustrated example, the lower left area a of the six areas a divided by broken lines). In this case, the light emitted to the five areas a other than the area a (foreground pixel area) where the subject F (foreground pixel) exists is irradiated to the background where the subject F is not present, and the posture from the distance image It will be useless when making an estimate. Therefore, the distance image camera 1 of the present embodiment has a mechanism for irradiating at least a part of the light irradiated to the area where the subject does not exist to the area where the subject exists.

図4は、第1実施形態に係る、光源部の構成例を模式的に示す図である。本図では、説明を分かり易くするため、出射される光の光路のうち代表的な光路を示している。   FIG. 4 is a view schematically showing a configuration example of a light source unit according to the first embodiment. In the drawing, in order to make the description easy to understand, representative light paths of the light paths of the emitted light are shown.

光源部12は、光源Lと、複数の回折格子G(「方向調節部」ともいう)とを備える。本図の例では、光源部12は、3個の回折格子G1〜G3を備える。   The light source unit 12 includes a light source L and a plurality of diffraction gratings G (also referred to as “direction adjusting unit”). In the example of this figure, the light source part 12 is provided with three diffraction gratings G1 to G3.

光源Lは、例えば、2次元アレイ状に配置された複数の発光ダイオードを備える。もちろん、光源Lは、発光ダイオードに限らず、例えば半導体レーザ等のデバイスにより実現してもよい。光源Lのオン又はオフは、制御部11によって制御される。光源Lの一部の領域をオン又はオフできてもよい。   The light source L includes, for example, a plurality of light emitting diodes arranged in a two-dimensional array. Of course, the light source L is not limited to a light emitting diode, and may be realized by a device such as a semiconductor laser, for example. The on / off of the light source L is controlled by the control unit 11. Some areas of the light source L may be turned on or off.

複数の回折格子Gは、それぞれ面状に構成され、光源Lと向かい合うように光の出射方向に配置される。複数の回折格子Gは、2次元アレイ状に配列されてもよいし、1次元リニア状に配列されてもよい。図4では、説明を分かり易くするため、1次元リニア状の場合を示している。   Each of the plurality of diffraction gratings G is formed in a planar shape, and is disposed in the light emission direction so as to face the light source L. The plurality of diffraction gratings G may be arranged in a two-dimensional array, or may be arranged in a one-dimensional linear shape. In FIG. 4, in order to make the description easy to understand, a one-dimensional linear case is shown.

各回折格子Gは、それぞれ個別に電気的にオン又はオフを切り替え可能である。各回折格子Gのオン又はオフは、制御部11によって制御される。オフされた回折格子Gは、光源Lから出射された光の光路を回折によって曲げることなく、真っすぐ通過させる。オンされた回折格子Gは、光源Lから出射された光の光路を回折によって曲げる。もちろん、各回折格子Gは、オフのときに光を曲げるように構成してもよい。   Each diffraction grating G can be electrically switched on or off individually. The on / off of each diffraction grating G is controlled by the control unit 11. The turned off diffraction grating G allows the light path of the light emitted from the light source L to pass straight without being bent by diffraction. The turned on diffraction grating G bends the light path of the light emitted from the light source L by diffraction. Of course, each diffraction grating G may be configured to bend light when it is off.

全ての回折格子Gがオフされている場合の光の照射範囲は、所定の画角(撮像範囲A)の全体をできる限り均一にかつ十分な光量で照射できるように設定される。   The irradiation range of light when all the diffraction gratings G are turned off is set so that the entire predetermined angle of view (imaging range A) can be irradiated as uniformly as possible and with a sufficient light quantity.

図4(B)〜(D)に示すように、各回折格子G1〜G3は、領域a1〜a3それぞれに対応するように配置されており、光源Lから出射された光は、各回折格子G1〜G3を通過して領域a1〜a3に照射される。   As shown in FIGS. 4B to 4D, the diffraction gratings G1 to G3 are arranged to correspond to the regions a1 to a3, respectively, and the light emitted from the light source L is converted to each diffraction grating G1. The light is irradiated to the regions a1 to a3 through G3.

図4(B)は、回折格子G1〜G3の全てがオフされた状態を示している。この場合、光源Lのうち回折格子G1に対応する部分から出射された光は、回折格子G1を真っすぐ通過して、対応する領域a1に照射される。同様に、光源Lのうち回折格子G2及びG3に対応する部分から出射された光は、回折格子G2及びG3を真っすぐ通過して、対応する領域a2及びa3に照射される。その結果、領域a1〜a3は、均一な光量で照射される。   FIG. 4B shows a state in which all of the diffraction gratings G1 to G3 are turned off. In this case, light emitted from a portion of the light source L corresponding to the diffraction grating G1 passes the diffraction grating G1 straight and is irradiated to the corresponding area a1. Similarly, the light emitted from the portion of the light source L corresponding to the diffraction gratings G2 and G3 passes through the diffraction gratings G2 and G3 straight and is irradiated to the corresponding regions a2 and a3. As a result, the regions a1 to a3 are irradiated with a uniform amount of light.

図4(C)は、回折格子G2がオフされ、かつ、回折格子G1及びG3がオンされた状態を示している。この場合、光源Lのうち回折格子G1に対応する部分から出射された光の一部は、回折格子G1で曲げられ、対応する領域a1に隣接する領域a2にも照射される。同様に、光源Lのうち回折格子G3に対応する部分から出射された光の一部は、回折格子G3で曲げられ、対応する領域a3に隣接する領域a2にも照射される。その結果、領域a2は、領域a1及びa3と比べて、回折格子G1とG3からの光も照射されるために光を集中させることができ、より多い光量で照射される。   FIG. 4C shows a state in which the diffraction grating G2 is turned off and the diffraction gratings G1 and G3 are turned on. In this case, a part of the light emitted from the portion of the light source L corresponding to the diffraction grating G1 is bent by the diffraction grating G1 and is also irradiated to the area a2 adjacent to the corresponding area a1. Similarly, a part of the light emitted from the portion of the light source L corresponding to the diffraction grating G3 is bent by the diffraction grating G3 and is also irradiated to the area a2 adjacent to the corresponding area a3. As a result, the light from the diffraction gratings G1 and G3 is also irradiated to the region a2 as compared with the regions a1 and a3, so that the light can be concentrated and the light is irradiated with a larger amount of light.

図4(D)は、回折格子G2がオンされ、かつ、回折格子G1及びG3がオフされた状態を示している。この場合、光源Lのうち回折格子G2に対応する部分から出射された光の一部は、回折格子G2で曲げられ、対応する領域a2に隣接する領域a1及びa3にも照射される。その結果、領域a1及びa3は、領域a2と比べて、回折格子G2からの光も照射されるために光を集中させることができ、より多い光量で照射される。   FIG. 4D shows the state in which the diffraction grating G2 is turned on and the diffraction gratings G1 and G3 are turned off. In this case, a part of the light emitted from the portion of the light source L corresponding to the diffraction grating G2 is bent by the diffraction grating G2 and is also irradiated to the regions a1 and a3 adjacent to the corresponding region a2. As a result, in the regions a1 and a3, the light from the diffraction grating G2 is also irradiated as compared to the region a2, so that the light can be concentrated and the light is irradiated with a larger amount of light.

このように、制御部11は、撮像範囲内のある対象領域の光量を増加させる場合、当該対象領域に隣接する1つ以上の領域に対応する1つ以上の回折格子Gをオンにすればよい。本実施形態では、制御部11は、後述する距離画像生成部14により距離画像から特定された前景画素を含む対象領域(前景画素領域)の光量が増加するように、各回折格子Gのオン又はオフを制御する。   Thus, when increasing the light intensity of a certain target area in the imaging range, the control unit 11 may turn on one or more diffraction gratings G corresponding to one or more areas adjacent to the target area. . In the present embodiment, the control unit 11 turns on each diffraction grating G so that the light amount of the target area (foreground pixel area) including the foreground pixel specified from the distance image by the distance image generation unit 14 described later increases. Control off.

なお、前景画素が1つの対象領域aに含まれる場合は、制御部11は、当該対象領域aに隣接する1つ以上の領域aに対応する1つ以上の回折格子Gをオンにすればよい。また、前景画素が複数の対象領域aに含まれる場合は、制御部11は、当該複数の対象領域aに隣接する1つ以上の領域aに対応する1つ以上の回折格子Gをオンにすればよい。   When the foreground pixel is included in one target area a, the control unit 11 may turn on one or more diffraction gratings G corresponding to one or more areas a adjacent to the target area a. . In addition, when the foreground pixel is included in a plurality of target areas a, the control unit 11 turns on one or more diffraction gratings G corresponding to one or more areas a adjacent to the plurality of target areas a. Just do it.

図2の説明に戻る。距離画像センサ13は、対象空間からの反射光を、結像レンズ(図示せず)を介して受光し、画素毎に、照射時と受光時の位相差情報と、階調情報とを生成して、所定の撮像範囲の画像情報として出力する。距離画像センサ13は、例えば、照射時と受光時の位相差情報と階調情報とを生成する複数の受光素子を、面状に配列することで構成することができる。   It returns to the explanation of FIG. The distance image sensor 13 receives the reflected light from the target space via an imaging lens (not shown), and generates, for each pixel, phase difference information at the time of irradiation and light reception, and gradation information. And output as image information of a predetermined imaging range. The distance image sensor 13 can be configured, for example, by arranging a plurality of light receiving elements that generate phase difference information and gradation information at the time of irradiation and at the time of light reception in a plane.

距離画像生成部14は、距離画像センサ13から出力される画像情報に含まれる画素毎の位相差情報を用いて、画素毎にその距離情報を算出する。そして、画素毎に距離情報と階調情報を含む入力距離画像を生成する。   The distance image generation unit 14 calculates the distance information for each pixel using the phase difference information for each pixel included in the image information output from the distance image sensor 13. Then, an input distance image including distance information and gradation information is generated for each pixel.

また、距離画像生成部14は、入力距離画像から前景画素を抽出するとともに、背景を消去し、抽出された前景画素と消去された背景を含む出力距離画像を生成し、通信部15を介して姿勢推定装置2に送信する。例えば、距離画像生成部14は、対象が存在しないときに取得した対象空間の距離画像(背景のみを含む)と入力距離画像との、対応する画素の距離の差分を取り、差分がある部分を前景画素として抽出することができる。前景画素の抽出方法はこれに限定されない。例えば、距離が所定値未満の画素を前景画素として抽出してもよい。例えば、距離画像生成部14は、背景画素の階調情報及び距離情報を所定値(例えば「1」)に設定することにより、入力距離画像のサイズ(縦横の画素数を指す、以下同様)を変更することなく、背景を消去する。   In addition, the distance image generation unit 14 extracts foreground pixels from the input distance image and erases the background, generates an output distance image including the extracted foreground pixels and the erased background, and transmits the output distance image via the communication unit 15. Transmit to posture estimation device 2. For example, the distance image generation unit 14 calculates the difference between the distances of corresponding pixels between the distance image of the target space (including only the background) acquired when the target does not exist and the input distance image, It can be extracted as a foreground pixel. The foreground pixel extraction method is not limited to this. For example, a pixel whose distance is less than a predetermined value may be extracted as a foreground pixel. For example, the distance image generation unit 14 sets the gradation information of the background pixel and the distance information to a predetermined value (for example, “1”) to set the size of the input distance image (refers to the number of pixels in vertical and horizontal directions; Clear the background without making any changes.

図5は、第1実施形態に係る、前景画素を抽出する方法の例を説明する図である。距離画像生成部14は、入力距離画像(A)のうち、事前に取得した対象空間の背景画素(B)に所定値を設定し(所定値に置換し)、出力距離画像(C)を生成する。入力距離画像(A)と出力距離画像(C)は、同じ座標系及びサイズを有する。   FIG. 5 is a diagram for explaining an example of a method of extracting foreground pixels according to the first embodiment. The distance image generation unit 14 sets a predetermined value to the background pixel (B) of the target space acquired in advance among the input distance image (A) (replaces the predetermined value), and generates the output distance image (C). Do. The input distance image (A) and the output distance image (C) have the same coordinate system and size.

なお、距離画像生成部14は、出力距離画像に対して所定の圧縮処理を施してデータ量を削減してもよい。上記の例では、背景画素が同じ値に設定されるため、背景画素が連続する領域では圧縮率を高めることができる。距離画像生成部14は、例えば、CPU、RAM等を含むマイクロコンピュータや、専用ハードウェア回路により実現することができる。   Note that the distance image generation unit 14 may reduce the amount of data by performing predetermined compression processing on the output distance image. In the above example, since the background pixels are set to the same value, the compression rate can be increased in the area where the background pixels are continuous. The distance image generation unit 14 can be realized by, for example, a microcomputer including a CPU, a RAM, and the like, and a dedicated hardware circuit.

制御部11は、あるフレームの距離画像から抽出された前景画素が、撮像範囲A内のいずれの領域aに含まれるかを判定する。そして、制御部11は、次フレームの撮像行われる前に、前景画素が含まれる1つ以上の対象領域aの光量が増加するように、当該対象領域aに隣接する1つ以上の領域aに対応する1つ以上の回折格子Gをオンにする。例えば図3に示すように、前景画素が左下の対象領域aに含まれる場合、制御部11は、当該対象領域aの上及び右の領域aに対応する2つの回折格子Gをオンにする。このようにすることで、前景画素が含まれる領域の光量が増加し、次フレームの撮像において当該前景画素領域が他の領域よりも明るく撮像される。   The control unit 11 determines to which region a in the imaging range A the foreground pixel extracted from the distance image of a certain frame is included. Then, the control unit 11 sets one or more areas a adjacent to the target area a so that the light amount of the one or more target areas a including the foreground pixels increases before imaging of the next frame is performed. The corresponding one or more diffraction gratings G are turned on. For example, as shown in FIG. 3, when the foreground pixel is included in the lower left target area a, the control unit 11 turns on two diffraction gratings G corresponding to the upper and right areas a of the target area a. By doing this, the light amount of the area including the foreground pixel is increased, and the foreground pixel area is imaged brighter than the other areas in the imaging of the next frame.

通信部15は、ネットワークNに接続され、距離画像生成部14から出力された距離画像を、姿勢推定装置2に送信する。通信部15は、例えば、LAN等の規格のネットワークインターフェイスにより実現することができる。   The communication unit 15 is connected to the network N, and transmits the distance image output from the distance image generation unit 14 to the posture estimation device 2. The communication unit 15 can be realized by, for example, a network interface of a standard such as a LAN.

通信部21は、ネットワークNに接続され、各距離画像カメラ1から送信された距離画像を受信する。   The communication unit 21 is connected to the network N and receives the distance image transmitted from each distance image camera 1.

距離画像受信部22は、距離画像を、通信部21を介して受信し、姿勢推定部23に出力する。なお、距離画像受信部22は、受信した距離画像に所定の圧縮処理が施されている場合、当該距離画像に対して所定の伸長処理を施してもよい。   The distance image reception unit 22 receives the distance image via the communication unit 21 and outputs the distance image to the posture estimation unit 23. When the predetermined distance processing has been performed on the received distance image, the distance image receiving unit 22 may perform predetermined expansion processing on the distance image.

姿勢推定部23は、距離画像受信部22から出力された距離画像を用いて、当該距離画像に含まれる人等の被写体の姿勢を推定する。姿勢推定処理を行うため、姿勢推定部23は、特徴量算出部24、部位識別部25、及び関節識別部26を含むことができる。   The posture estimation unit 23 uses the distance image output from the distance image reception unit 22 to estimate the posture of a subject such as a person included in the distance image. In order to perform posture estimation processing, the posture estimation unit 23 can include a feature amount calculation unit 24, a part identification unit 25, and a joint identification unit 26.

特徴量算出部24は、距離画像を構成する各画素の距離情報を取得する。また、特徴量算出部24は、前景画素を構成する画素(注目画素)毎に、特徴量を算出する。上述のように背景画素には所定値が設定されているため、前景画素は背景画素から区別することができる。特徴量の算出方法は、既存の技術を用いることができ、限定されない。例えば、注目画素とその周囲画素の距離の差を特徴量とすればよい。具体例としては、注目画素を中心とする縦9画素×横9画素の矩形領域から、注目画素とその周囲の80画素それぞれとの距離の差を有する80次元(2次元配列)の特徴量ベクトルを用いることができる。   The feature amount calculation unit 24 acquires distance information of each pixel constituting the distance image. In addition, the feature amount calculation unit 24 calculates the feature amount for each pixel (target pixel) constituting the foreground pixel. As described above, since the background pixel is set to a predetermined value, the foreground pixel can be distinguished from the background pixel. The calculation method of the feature value can use an existing technology, and is not limited. For example, the difference in the distance between the pixel of interest and its surrounding pixels may be used as the feature amount. As a specific example, an 80-dimensional (two-dimensional array) feature amount vector having a difference in distance between the pixel of interest and each of the 80 pixels surrounding it from a rectangular region of vertical 9 pixels × horizontal 9 pixels centering on the pixel of interest Can be used.

部位識別部25は、各注目画素が含まれる部位(例えば、頭、腕、手、胴体などの体のパーツ、関節は含まない)を識別する。部位の識別方法は、既存の技術を用いることができ、限定されない。例えば、特徴量閾値と部位ラベルを関連付けた決定木(識別器)に対して、注目画素の特徴量を入力することで、当該注目画素の部位ラベルを取得すればよい。部位ラベルとは、各部位の種類を示す情報などの、部位の識別子である。識別器には、例えば、ランダムフォレスト等の複数の決定木を用いることができ、予め学習したものを姿勢推定装置2の備える記憶装置に記憶しておけばよい。   The part identification unit 25 identifies a part (for example, a head, an arm, a hand, a body part such as a torso, and a joint are not included) in which each target pixel is included. The identification method of a site | part can use the existing technique, and is not limited. For example, the feature label of the pixel of interest may be input to a decision tree (classifier) in which the feature threshold and the region label are associated with each other to acquire the region label of the pixel of interest. The site label is an identifier of a site, such as information indicating the type of each site. For the classifier, for example, a plurality of decision trees such as a random forest can be used, and what has been learned in advance may be stored in a storage device provided in the posture estimation device 2.

関節識別部26は、識別された各注目画素の部位ラベルを用いて、対象の関節位置を識別する。関節位置の識別方法は、既存の技術を用いることができ、限定されない。例えば、同一部位ラベルが付与された注目画素群である部位毎に、その重心位置(関節位置候補)を取得すればよい。重心位置の取得には、例えば、mean-shift法を用いることができる。また、例えば、直線距離や角度などの関節間の関係を定義した人体の関節モデルを用いて、各重心位置の関節モデルに対する整合性を評価し、最終的な各関節位置を決定すればよい。また、各関節位置の関節ラベルを決定してもよい。関節ラベルとは、例えば、首関節、手首関節、肩関節など関節の種類を示す情報などの、関節の識別子である。   The joint identification unit 26 identifies the joint position of the target using the site label of each of the identified target pixels. The joint position identification method can use existing techniques and is not limited. For example, the position of the center of gravity (joint position candidate) may be acquired for each part which is the target pixel group to which the same part label is given. For example, a mean-shift method can be used to acquire the barycentric position. Further, for example, by using a joint model of the human body in which a relationship between joints such as a linear distance and an angle is defined, consistency of each barycentric position with respect to the joint model may be evaluated to determine final joint positions. Also, the joint label of each joint position may be determined. The joint label is, for example, an identifier of a joint such as information indicating the type of joint such as a neck joint, a wrist joint, and a shoulder joint.

出力部27は、関節識別部26により識別された関節位置を含む推定姿勢情報を出力する。関節位置は、例えば、距離画像と同じ座標系の位置座標情報である。推定姿勢情報は、各関節位置の距離情報、各関節位置の関節ラベル、関節同士を結ぶ線分情報等を含んでもよい。例えば、出力部27は、通信部21を介して推定姿勢情報を外部のコンピュータやストレージに送信してもよいし、各関節位置を示す画像情報を姿勢推定装置2の備えるディスプレイに表示させてもよい。出力部27は、距離画像を出力してもよい。   The output unit 27 outputs estimated posture information including the joint position identified by the joint identification unit 26. The joint position is, for example, position coordinate information of the same coordinate system as that of the distance image. The estimated posture information may include distance information of each joint position, joint labels of each joint position, line segment information connecting joints, and the like. For example, the output unit 27 may transmit estimated posture information to an external computer or storage via the communication unit 21, or may display image information indicating each joint position on the display provided in the posture estimation device 2. Good. The output unit 27 may output a distance image.

図6は、第1実施形態に係る、姿勢推定装置を実現するコンピュータのハードウェア構成例を示す図である。姿勢推定装置2は、例えば図6に示すようなコンピュータ90により実現することができる。コンピュータ90は、例えば、サーバーコンピュータであるが、パーソナルコンピュータ、スマートフォン、タブレットコンピュータ等のコンピュータ機器であってもよい。また、姿勢推定装置2は、複数のコンピュータ90により構成されてもよい。   FIG. 6 is a diagram showing an example of a hardware configuration of a computer for realizing the posture estimation device according to the first embodiment. The posture estimation device 2 can be realized by, for example, a computer 90 as shown in FIG. The computer 90 is, for example, a server computer, but may be a computer device such as a personal computer, a smartphone, or a tablet computer. Also, the posture estimation device 2 may be configured by a plurality of computers 90.

コンピュータ90は、演算装置91と、主記憶装置92と、外部記憶装置93と、通信装置94と、読み書き装置95と、入力装置96と、出力装置97とを含む。   The computer 90 includes an arithmetic unit 91, a main storage unit 92, an external storage unit 93, a communication unit 94, a read / write unit 95, an input unit 96, and an output unit 97.

演算装置91は、例えば、CPUなどの演算ユニットである。主記憶装置92は、例えば、RAMなどの記憶装置である。外部記憶装置93は、例えば、ハードディスクやSSD(Solid State Drive)、あるいはフラッシュROM(Read Only Memory)などの記憶装置である。通信装置94は、ネットワークケーブルを介して有線通信を行う通信装置、アンテナを介して無線通信を行う通信装置を含む、情報を送受信する装置である。読み書き装置95は、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリー等の記録媒体に情報を読み書きする装置である。入力装置96は、キーボードやマウスなどのポインティングデバイス、タッチパネル、マイクロフォンなどを含む、入力情報を受け付ける装置である。出力装置97は、ディスプレイ、プリンター、スピーカーなどを含む、出力情報を出力する装置である。主記憶装置92及び外部記憶装置93の少なくとも一部は、例えば、通信装置94を介して接続されるネットワークN上のストレージにより実現されてもよい。   The arithmetic device 91 is, for example, an arithmetic unit such as a CPU. The main storage device 92 is, for example, a storage device such as a RAM. The external storage device 93 is, for example, a storage device such as a hard disk, a solid state drive (SSD), or a flash read only memory (ROM). The communication device 94 is a device that transmits and receives information, including a communication device that performs wired communication via a network cable and a communication device that performs wireless communication via an antenna. The read / write device 95 is a device for reading and writing information on a recording medium such as a digital versatile disk (DVD) or a universal serial bus (USB) memory. The input device 96 is a device that receives input information, including a pointing device such as a keyboard and a mouse, a touch panel, a microphone, and the like. The output device 97 is a device that outputs output information, including a display, a printer, a speaker, and the like. For example, at least a part of the main storage device 92 and the external storage device 93 may be realized by storage on the network N connected via the communication device 94.

距離画像受信部22、姿勢推定部23、及び出力部27(これらを「制御部」と呼んでもよい)は、例えば、演算装置91が所定のアプリケーションプログラムを実行することによって実現することができる。このアプリケーションプログラムは、例えば、外部記憶装置93内に記憶され、実行にあたって主記憶装置92上にロードされ、演算装置91によって実行される。通信部21は、例えば、通信装置94によって実現される。   The distance image reception unit 22, the posture estimation unit 23, and the output unit 27 (these may be called "control units") can be realized, for example, by the arithmetic device 91 executing a predetermined application program. The application program is stored, for example, in the external storage device 93, loaded on the main storage device 92 for execution, and executed by the computing device 91. The communication unit 21 is realized by, for example, the communication device 94.

図7は、第1実施形態に係る、姿勢推定システムの処理例を示すフローチャートである。本図のフローチャートのステップS2〜S5、S11〜S13は、1フレームの距離画像毎に実行される。   FIG. 7 is a flowchart showing a process example of the posture estimation system according to the first embodiment. Steps S2 to S5 and S11 to S13 in the flowchart of this figure are executed for each distance image of one frame.

まず、光源部12は、撮像範囲Aの全領域に光を均一に照射する(ステップS1)。具体的には、制御部11は、光源部12の複数の回折格子Gの全てをオフに設定することにより、撮像範囲Aの全領域を均一な光量で照射する。   First, the light source unit 12 uniformly irradiates light to the entire area of the imaging range A (step S1). Specifically, the control unit 11 sets all of the plurality of diffraction gratings G of the light source unit 12 to off, thereby irradiating the entire region of the imaging range A with a uniform light amount.

それから、距離画像生成部14は、距離画像センサ13から出力される画素毎の情報を用いて、画素毎に距離情報と階調情報を含む入力距離画像を生成する(ステップS2)。それから、距離画像生成部14は、ステップS2で生成した入力距離画像から前景画素を抽出するとともに、背景を消去し、抽出された前景画素と消去された背景を含む出力距離画像を生成する(ステップS3)。それから、距離画像生成部14は、ステップS3で生成した出力距離画像を、通信部15を介して姿勢推定装置2に送信する(ステップS4)。   Then, the distance image generation unit 14 generates an input distance image including distance information and gradation information for each pixel using the information for each pixel output from the distance image sensor 13 (step S2). Then, the distance image generation unit 14 extracts foreground pixels from the input distance image generated in step S2 and erases the background, and generates an output distance image including the extracted foreground pixels and the erased background (steps S3). Then, the distance image generation unit 14 transmits the output distance image generated in step S3 to the posture estimation device 2 via the communication unit 15 (step S4).

それから、制御部11は、ステップS3において入力距離画像から前景画素が抽出されたか否かを判定する(ステップS5)。前景画素が抽出されていないと判定する場合(ステップS5:NO)、制御部11は、処理をステップS1に戻す。   Then, the control unit 11 determines whether a foreground pixel is extracted from the input distance image in step S3 (step S5). When it is determined that the foreground pixel is not extracted (step S5: NO), the control unit 11 returns the process to step S1.

前景画素が抽出されたと判定する場合(ステップS5:YES)、光源部12は、前景画素領域に光を集中させる(ステップS6)。具体的には、制御部11は、ステップS3において入力距離画像から抽出された前景画素が、撮像範囲A内のいずれの領域aに含まれるかを判定する。また、制御部11は、前景画素が含まれる1つ以上の対象領域aの光量が増加するように、当該対象領域aに隣接する1つ以上の領域aに対応する1つ以上の回折格子Gをオンにする。そして、制御部11は、処理をステップS2に戻す。   When it is determined that the foreground pixel is extracted (step S5: YES), the light source unit 12 concentrates the light on the foreground pixel area (step S6). Specifically, the control unit 11 determines in which region a in the imaging range A the foreground pixel extracted from the input distance image in step S3 is included. In addition, the control unit 11 causes the one or more diffraction gratings G corresponding to the one or more regions a adjacent to the target region a to increase the light amount of the one or more target regions a including the foreground pixels. Turn on. Then, the control unit 11 returns the process to step S2.

距離画像受信部22は、ステップS4で距離画像カメラ1から送信された距離画像を、通信部21を介して受信する(ステップS11)。それから、姿勢推定部23は、ステップS11で受信された距離画像を用いて、当該距離画像に含まれる人等の被写体の姿勢を推定する(ステップS12)。それから、出力部27は、ステップS12で姿勢推定部23から出力された関節位置を含む推定姿勢情報を出力し(ステップS13)、処理をステップS11に戻す。   The distance image receiving unit 22 receives the distance image transmitted from the distance image camera 1 in step S4 via the communication unit 21 (step S11). Then, the posture estimation unit 23 estimates the posture of a subject such as a person included in the distance image using the distance image received in step S11 (step S12). Then, the output unit 27 outputs estimated posture information including the joint position output from the posture estimation unit 23 in step S12 (step S13), and returns the process to step S11.

図8は、第1実施形態に係る、姿勢推定装置の姿勢推定処理の一例を示すフローチャートである。図8のフローチャートは、図7のステップS12の詳細を示している。   FIG. 8 is a flowchart showing an example of an attitude estimation process of the attitude estimation device according to the first embodiment. The flowchart of FIG. 8 shows details of step S12 of FIG.

まず、特徴量算出部24は、前景画素から注目画素を1つ選択し(ステップS121)、選択した注目画素と1つ以上の周囲画素の距離情報を用いて、当該注目画素の特徴量を算出する(S122)。それから、部位識別部25は、算出された注目画素の特徴量を、予め用意した識別器に入力することで、当該注目画素の部位ラベルを取得する(ステップS123)。   First, the feature amount calculation unit 24 selects one target pixel from the foreground pixels (step S121), and uses the distance information of the selected target pixel and one or more surrounding pixels to calculate the feature amount of the target pixel. To do (S122). Then, the part identifying unit 25 acquires the part label of the pixel of interest by inputting the calculated feature amount of the pixel of interest to the discriminator prepared in advance (step S123).

それから、姿勢推定部23は、前景画素を構成する全ての注目画素を選択したかどうかを判定する(ステップS124)。全画素を選択していないと判定した場合(ステップS124:NO)、姿勢推定部23は、処理をステップS121に戻す。全画素を選択したと判定した場合(ステップS124:YES)、姿勢推定部23は、処理をステップS125に進める。   Then, the posture estimation unit 23 determines whether all the target pixels constituting the foreground pixel have been selected (step S124). If it is determined that all the pixels have not been selected (step S124: NO), the posture estimation unit 23 returns the process to step S121. If it is determined that all the pixels have been selected (step S124: YES), the posture estimation unit 23 advances the process to step S125.

関節識別部26は、ステップS123で識別された各注目画素の部位ラベルを用いて、部位毎に、その重心位置(関節位置候補)を取得する(ステップS125)。最後に、関節識別部26は、取得した各部位の重心位置に基づいて、最終的な1つ以上の関節位置を決定する(ステップS126)。   The joint identifying unit 26 acquires the barycentric position (joint position candidate) of each part using the part label of each pixel of interest identified in step S123 (step S125). Finally, the joint identification unit 26 determines one or more final joint positions based on the acquired barycentric positions of the respective parts (step S126).

以上、本発明の第1実施形態について説明した。第1実施形態の姿勢推定システムは、撮像範囲の被写体(前景画素)が存在する領域の光量を増加させたうえで撮像を行う。これにより、距離画像上の前景画素領域は周囲の領域よりも明るく写るため、被写体の姿勢推定処理の推定精度を向上することができる。例えば人等の被写体が存在する場所が特定の場所に偏っている場合でも、推定精度を向上することができる。   The first embodiment of the present invention has been described above. The posture estimation system of the first embodiment performs imaging after increasing the amount of light of the area where the subject (foreground pixel) in the imaging range is present. As a result, since the foreground pixel area on the distance image appears brighter than the surrounding area, it is possible to improve the estimation accuracy of the subject's posture estimation processing. For example, even when the place where the subject such as a person is present is biased to a specific place, the estimation accuracy can be improved.

また、第1実施形態の姿勢推定システムは、被写体(前景画素)が撮像範囲内で移動する場合であっても、移動した被写体が存在する領域の光量を増加させる。これにより、例えば人等の被写体が存在する場所が状況によって変化する場合でも、推定精度を向上することができる。   Further, the posture estimation system of the first embodiment increases the light amount in the area where the moved subject is present, even when the subject (foreground pixel) moves within the imaging range. Thereby, for example, even when the place where the subject such as a person is present changes depending on the situation, the estimation accuracy can be improved.

[第2実施形態]
第2実施形態は、光源部12の構成が第1実施形態と異なる。以下、第1実施形態と異なる構成を中心に説明し、第1実施形態と同様の構成の説明を省略する。
Second Embodiment
The second embodiment differs from the first embodiment in the configuration of the light source unit 12. Hereinafter, the configuration different from the first embodiment will be mainly described, and the description of the same configuration as the first embodiment will be omitted.

図9は、第2実施形態に係る、光源部の構成例を模式的に示す図である。本図では、説明を分かり易くするため、出射される光の光路のうち代表的な光路を示している。   FIG. 9 is a view schematically showing a configuration example of a light source unit according to the second embodiment. In the drawing, in order to make the description easy to understand, representative light paths of the light paths of the emitted light are shown.

光源部12Aは、光源Lと、複数のミラーM(「方向調節部」ともいう)とを備える。本図の例では、光源部12Aは、3個のミラーM1〜M3を備える。   The light source unit 12A includes a light source L and a plurality of mirrors M (also referred to as "direction adjusting unit"). In the example of this figure, light source part 12A is provided with three mirrors M1-M3.

光源Lは、第1実施形態と同様である。光源Lから出射された光は、光源Lに向かい合うように配置された複数のミラーMに反射され、対象空間に照射される。   The light source L is the same as that of the first embodiment. The light emitted from the light source L is reflected by the plurality of mirrors M disposed to face the light source L, and is irradiated to the target space.

複数のミラーMは、それぞれ面状に構成され、光源Lと向かい合うように光の出射方向に配置される。複数のミラーMは、2次元アレイ状に配列されてもよいし、1次元リニア状に配列されてもよい。図9では、説明を分かり易くするため、1次元リニア状の場合を示している。   Each of the plurality of mirrors M is formed in a planar shape, and is disposed in the light emission direction so as to face the light source L. The plurality of mirrors M may be arranged in a two-dimensional array, or may be arranged in a one-dimensional linear shape. In FIG. 9, in order to make the description easy to understand, a one-dimensional linear case is shown.

各ミラーMは、入射された光の反射方向を選択可能に構成され、例えば、MEMS(Micro Electro Mechanical Systems)ミラーにより実現することができる。各ミラーMは、それぞれ個別に電気的にオン又はオフを切り替え可能である。ミラーMのオン又はオフは、制御部11によって制御される。オフされたミラーMは、対応する領域aの方向に光を反射する。オンされたミラーMは、対応する領域aに隣接する他の領域aの方向に光を反射する。もちろん、各ミラーMは、オフのときに対応する領域aに隣接する他の領域aの方向に光を反射する構成としてもよい。   Each mirror M is configured to be able to select the reflection direction of the incident light, and can be realized by, for example, a MEMS (Micro Electro Mechanical Systems) mirror. Each mirror M can be electrically switched on or off individually. The on / off of the mirror M is controlled by the control unit 11. The turned off mirror M reflects light in the direction of the corresponding area a. The turned on mirror M reflects light in the direction of the other area a adjacent to the corresponding area a. Of course, each mirror M may be configured to reflect light in the direction of the other area a adjacent to the corresponding area a when it is off.

全てのミラーMがオフされている場合の光の照射範囲は、所定の画角(撮像範囲A)の全体をできる限り均一にかつ十分な光量で照射できるように設定される。   The irradiation range of light when all the mirrors M are turned off is set so that the entire predetermined angle of view (imaging range A) can be irradiated as uniformly as possible and with a sufficient amount of light.

図9(B)〜(D)に示すように、各ミラーM1〜M3は、領域a1〜a3それぞれに対応するように配置されており、光源Lから出射された光は、各ミラーM1〜M3で反射されて領域a1〜a3に照射される。   As shown in FIGS. 9B to 9D, the mirrors M1 to M3 are arranged to correspond to the regions a1 to a3, respectively, and the light emitted from the light source L is transmitted to the mirrors M1 to M3. Are reflected to illuminate the regions a1 to a3.

図9(B)は、ミラーM1〜M3の全てがオフされた状態を示している。この場合、光源LのうちミラーM1に対応する部分から出射された光は、ミラーM1で第1の方向に反射されて、対応する領域a1に照射される。同様に、光源LのうちミラーM2及びM3に対応する部分から出射された光は、ミラーM2及びM3で第1の方向に反射されて、対応する領域a2及びa3に照射される。その結果、領域a1〜a3は、均一な光量で照射される。   FIG. 9B shows a state in which all the mirrors M1 to M3 are turned off. In this case, light emitted from the portion of the light source L corresponding to the mirror M1 is reflected by the mirror M1 in the first direction, and is irradiated to the corresponding area a1. Similarly, light emitted from portions of the light source L corresponding to the mirrors M2 and M3 is reflected by the mirrors M2 and M3 in the first direction, and is irradiated to the corresponding areas a2 and a3. As a result, the regions a1 to a3 are irradiated with a uniform amount of light.

図9(C)は、ミラーM1がオンされ、かつ、ミラーM2及びM3がオフされた状態を示している。この場合、光源LのうちミラーM1に対応する部分から出射された光は、ミラーM1で第2の方向に反射され、対応する領域a1に隣接する領域a2に照射される。その結果、領域a2は、領域a1及びa3と比べて、光を集中させることができ、より多い光量で照射される。   FIG. 9C shows a state in which the mirror M1 is turned on and the mirrors M2 and M3 are turned off. In this case, light emitted from a portion of the light source L corresponding to the mirror M1 is reflected by the mirror M1 in the second direction, and is irradiated to the area a2 adjacent to the corresponding area a1. As a result, the area a2 can concentrate light compared to the areas a1 and a3, and is irradiated with a larger amount of light.

図9(D)は、ミラーM2がオンされ、かつ、ミラーM1及びM3がオフされた状態を示している。この場合、光源LのうちミラーM2に対応する部分から出射された光は、ミラーM2で第2の方向に反射され、対応する領域a2に隣接する領域a3に照射される。その結果、領域a3は、領域a1及びa2と比べて、光を集中させることができ、より多い光量で照射される。   FIG. 9D shows a state in which the mirror M2 is turned on and the mirrors M1 and M3 are turned off. In this case, light emitted from the portion of the light source L corresponding to the mirror M2 is reflected by the mirror M2 in the second direction, and is irradiated to the area a3 adjacent to the corresponding area a2. As a result, the area a3 can concentrate light as compared with the areas a1 and a2, and is irradiated with a larger amount of light.

このように、制御部11は、撮像範囲内のある対象領域の光量を増加させる場合、当該対象領域に隣接する1つ以上の領域に対応する1つ以上のミラーMをオンにすればよい。本実施形態では、制御部11は、距離画像から特定された前景画素を含む対象領域(前景画素領域)の光量が増加するように、各ミラーMのオン又はオフを制御する。   As described above, the control unit 11 may turn on one or more mirrors M corresponding to one or more regions adjacent to the target region when increasing the light amount of the target region in the imaging range. In the present embodiment, the control unit 11 controls the on / off of each mirror M such that the light amount of the target area (foreground pixel area) including the foreground pixel specified from the distance image is increased.

なお、前景画素が1つの対象領域aに含まれる場合は、制御部11は、当該対象領域aに隣接する1つ以上の領域aに対応する1つ以上のミラーMをオンにすればよい。また、前景画素が複数の対象領域aに含まれる場合は、制御部11は、当該複数の対象領域aに隣接する1つ以上の領域aに対応する1つ以上のミラーMをオンにすればよい。   When a foreground pixel is included in one target area a, the control unit 11 may turn on one or more mirrors M corresponding to one or more areas a adjacent to the target area a. When foreground pixels are included in a plurality of target areas a, the control unit 11 turns on one or more mirrors M corresponding to one or more areas a adjacent to the plurality of target areas a. Good.

図7のフローチャートのステップS1では、制御部11は、光源部12Aの複数のミラーMの全てをオフに設定することにより、撮像範囲Aの全領域を均一な光量で照射する。ステップS6では、制御部11は、前景画素が含まれる1つ以上の対象領域aの光量が増加するように、当該対象領域aに隣接する1つ以上の領域aに対応する1つ以上のミラーMをオンにする。   In step S1 of the flowchart of FIG. 7, the control unit 11 sets all of the plurality of mirrors M of the light source unit 12A to off, thereby irradiating the entire region of the imaging range A with a uniform light amount. In step S6, the control unit 11 causes the one or more mirrors corresponding to the one or more regions a adjacent to the target region a to increase the light amount of the one or more target regions a including the foreground pixels. Turn M on.

以上、本発明の第2実施形態について説明した。第2実施形態によっても、第1実施形態と同様の効果を得ることができる。   The second embodiment of the present invention has been described above. Also in the second embodiment, the same effect as that of the first embodiment can be obtained.

[第3実施形態]
第3実施形態は、光源部12の構成が第1実施形態と異なる。以下、第1実施形態と異なる構成を中心に説明し、第1実施形態と同様の構成の説明を省略する。
Third Embodiment
The third embodiment differs from the first embodiment in the configuration of the light source unit 12. Hereinafter, the configuration different from the first embodiment will be mainly described, and the description of the same configuration as the first embodiment will be omitted.

図10は、第3実施形態に係る、光源部の構成例を模式的に示す図である。本図では、説明を分かり易くするため、出射される光の光路のうち代表的な光路を示している。   FIG. 10 is a view schematically showing a configuration example of a light source unit according to the third embodiment. In the drawing, in order to make the description easy to understand, representative light paths of the light paths of the emitted light are shown.

光源部12Bは、光源Lと、ハーフミラーHと、ズームレンズZ(「方向調節部」ともいう)とを備える。   The light source unit 12B includes a light source L, a half mirror H, and a zoom lens Z (also referred to as a “direction adjusting unit”).

光源Lは、第1実施形態と同様である。光源Lからの出射光は、光源Lの前に設置されたハーフミラーHを通過して、ズームレンズZに入射され、対象空間に照射される。   The light source L is the same as that of the first embodiment. The light emitted from the light source L passes through a half mirror H installed in front of the light source L, enters the zoom lens Z, and is irradiated to the target space.

ハーフミラーHは、光源LとズームレンズZの間に設置される。ハーフミラーHは、光源Lから入射された光を、ズームレンズZへ出射する。また、ハーフミラーHは、ズームレンズから入射された光を、距離画像センサ13(図示せず)の方向へ反射する。   The half mirror H is disposed between the light source L and the zoom lens Z. The half mirror H emits the light incident from the light source L to the zoom lens Z. The half mirror H reflects the light incident from the zoom lens in the direction of the distance image sensor 13 (not shown).

ズームレンズZは、ハーフミラーHから入射された光を、対象空間へ出射する。また、ズームレンズZは、対象空間から入射された光を、ハーフミラーHへと出射する。ズームレンズZは、電気的及び機械的に焦点距離を変更可能に構成され、撮像範囲A全体をカバーする第1の画角と、撮像範囲Aの1つ以上の領域a(撮像範囲Aよりも小さい範囲)をカバーする第2の画角とを選択可能に構成される。ズームレンズZの画角の切り替えは、制御部11によって制御される。   The zoom lens Z emits the light incident from the half mirror H to the target space. In addition, the zoom lens Z emits the light incident from the target space to the half mirror H. The zoom lens Z is configured to be capable of changing the focal length electrically and mechanically, and has a first angle of view that covers the entire imaging range A, and one or more regions a of the imaging range A (more than the imaging range A The second angle of view covering a small range is configured to be selectable. Switching of the angle of view of the zoom lens Z is controlled by the control unit 11.

ズームレンズZが第1の画角に設定されている場合の光の照射範囲は、所定の画角(撮像範囲A)の全体をできる限り均一にかつ十分な光量で照射できるように設定される。   The irradiation range of light when the zoom lens Z is set to the first angle of view is set so that the entire predetermined angle of view (imaging range A) can be irradiated as uniformly as possible and with a sufficient amount of light. .

また、ズームレンズZは、撮像範囲A内の光を集光する1つ以上の対象領域aを第2の画角内に収めるため、その位置を移動可能に光源部12Bに設けられる。例えば、ズームレンズZを撮像面に平行に移動可能に保持する保持機構(図示せず)を設ければよい。あるいは例えば、ズームレンズZの撮像面に対する向きを変更可能に保持する保持機構(図示せず)を設ければよい。当該保持機構は、制御部11によって制御される。   In addition, the zoom lens Z is provided in the light source unit 12B such that the position can be moved in order to put one or more target areas a for condensing light in the imaging range A into the second angle of view. For example, a holding mechanism (not shown) for holding the zoom lens Z so as to be movable in parallel with the imaging surface may be provided. Alternatively, for example, a holding mechanism (not shown) for holding the changeable orientation of the zoom lens Z with respect to the imaging surface may be provided. The holding mechanism is controlled by the control unit 11.

図10(B)〜(C)に示すように、ズームレンズZは、領域a1〜a3に対応するように配置されており、光源Lから出射された光は、ハーフミラーH及びズームレンズZを通過して、領域a1〜a3に照射される。   As shown in FIGS. 10B to 10C, the zoom lens Z is disposed to correspond to the areas a1 to a3, and the light emitted from the light source L is a half mirror H and the zoom lens Z. It passes and is irradiated to field a1-a3.

図10(B)は、ズームレンズZが第1の画角に設定された状態を示している。この場合、光源Lから出射された光は、ズームレンズZを通過して、領域a1〜a3に照射される。その結果、領域a1〜a3は、均一な光量で照射される。なお、距離画像センサ13では、撮像範囲A全体に対応する画像情報が生成される。   FIG. 10B shows a state in which the zoom lens Z is set to the first angle of view. In this case, the light emitted from the light source L passes through the zoom lens Z and is irradiated to the regions a1 to a3. As a result, the regions a1 to a3 are irradiated with a uniform amount of light. The distance image sensor 13 generates image information corresponding to the entire imaging range A.

図10(C)は、ズームレンズZが1つの領域a2をカバーする第2の画角に設定され、かつ、領域a2が当該第2の画角内に入るように保持機構により移動された状態を示している。この場合、光源Lから出射された光は、ズームレンズZを通過して、領域a2に照射される。その結果、領域a2は、領域a1及びa3と比べて、光を集中させることができ、より多い光量で照射される。なお、距離画像センサ13では、領域a2を撮像範囲Aのサイズまで拡大した画像情報が生成される。   FIG. 10C shows a state in which the zoom lens Z is set to a second angle of view covering one area a2, and the area a2 is moved by the holding mechanism so as to fall within the second angle of view. Is shown. In this case, the light emitted from the light source L passes through the zoom lens Z and is irradiated to the area a2. As a result, the area a2 can concentrate light compared to the areas a1 and a3, and is irradiated with a larger amount of light. The range image sensor 13 generates image information in which the area a2 is expanded to the size of the imaging range A.

このように、制御部11は、撮像範囲内のある対象領域の光量を増加させる場合、ズームレンズZを第2の画角に設定し、かつ、当該対象領域が当該画角内に入るようにズームレンズZの位置を移動させればよい。本実施形態では、制御部11は、距離画像から特定された前景画素を含む対象領域(前景画素領域)の光量が増加するように、ズームレンズZ及び保持機構を制御する。   As described above, when increasing the light amount of a certain target area in the imaging range, the control unit 11 sets the zoom lens Z to the second angle of view, and the target area falls within the angle of view. The position of the zoom lens Z may be moved. In the present embodiment, the control unit 11 controls the zoom lens Z and the holding mechanism such that the light amount of the target area (foreground pixel area) including the foreground pixel specified from the distance image increases.

なお、前景画素が複数の領域aに含まれる場合は、制御部11は、ズームレンズZを当該複数の領域aをカバーする第2の画角に設定し、かつ、当該複数の領域aが当該画角内に入るようにズームレンズZの位置を移動させればよい。   When the foreground pixel is included in the plurality of areas a, the control unit 11 sets the zoom lens Z to the second angle of view covering the plurality of areas a, and the plurality of areas a The position of the zoom lens Z may be moved so as to be within the angle of view.

図7のフローチャートのステップS1では、制御部11は、光源部12BのズームレンズZを第1の画角に設定することにより、撮像範囲Aの全領域を均一な光量で照射する。ステップS6では、制御部11は、前景画素が含まれる1つ以上の対象領域aの光量が増加するように、ズームレンズZを当該1つの対象領域aをカバーする第2の画角に設定し、かつ、当該1つ以上対象領域aが当該画角内に入るようにズームレンズZの位置を移動させればよい。   In step S1 of the flowchart of FIG. 7, the control unit 11 sets the zoom lens Z of the light source unit 12B to the first angle of view, and thereby illuminates the entire region of the imaging range A with a uniform light amount. In step S6, the control unit 11 sets the zoom lens Z to a second angle of view covering the one target area a so that the light amount of one or more target areas a including the foreground pixels increases. And, the position of the zoom lens Z may be moved so that the one or more target areas a fall within the angle of view.

以上、本発明の第3実施形態について説明した。第3実施形態によっても、第1実施形態と同様の効果を得ることができる。また、第3実施形態では、前景画素が含まれる領域を、拡大及び高解像度化した画像情報として取得することができるため、姿勢推定処理の推定精度を向上することができる。   The third embodiment of the present invention has been described above. Also by the third embodiment, the same effect as that of the first embodiment can be obtained. Further, in the third embodiment, the region including the foreground pixel can be acquired as the enlarged and high-resolution image information, so that the estimation accuracy of the posture estimation process can be improved.

[第4実施形態]
第4実施形態は、制御部11、距離画像生成部14、及び姿勢推定部23の処理が、第1実施形態と異なる。以下、第1実施形態と異なる構成を中心に説明し、第1実施形態と同様の構成の説明を省略する。
Fourth Embodiment
The fourth embodiment differs from the first embodiment in the processing of the control unit 11, the distance image generation unit 14, and the posture estimation unit 23. Hereinafter, the configuration different from the first embodiment will be mainly described, and the description of the same configuration as the first embodiment will be omitted.

図11は、第4実施形態に係る、距離画像カメラ及び姿勢推定装置の機能構成例を示す図である。   FIG. 11 is a diagram showing an example of a functional configuration of the distance image camera and the posture estimation device according to the fourth embodiment.

距離画像生成部14Cは、入力距離画像から前景画素を抽出せずに、出力距離画像を生成し、通信部15を介して姿勢推定装置2に送信する。   The distance image generation unit 14C generates an output distance image without extracting foreground pixels from the input distance image, and transmits the output distance image to the posture estimation device 2 via the communication unit 15.

制御部11Cは、前景画素を含む領域を示す領域情報を、通信部15を介して姿勢推定装置2から受信する。領域情報は、例えば、撮像範囲Aの1つ又は複数の領域aの識別子を含むか、又は前景画素が存在しないことを示す識別子を含むことができる。制御部11Cは、領域情報が示す1つ以上の領域aの光量が増加するように、当該1つ以上の領域aに隣接する1つ以上の領域aに対応する1つ以上の回折格子Gをオンにする。   The control unit 11C receives area information indicating an area including a foreground pixel from the posture estimation device 2 via the communication unit 15. The area information may include, for example, an identifier of one or more areas a of the imaging range A, or an identifier indicating that there is no foreground pixel. The control unit 11C causes the one or more diffraction gratings G corresponding to the one or more regions a adjacent to the one or more regions a to increase the light amount of the one or more regions a indicated by the region information. turn on.

姿勢推定部23Cは、姿勢推定処理の前段に、受信した距離画像から前景画素を抽出するとともに、背景を消去し、抽出された前景画素と消去された背景を含む距離画像を生成する。前景画素を抽出する方法は、第1実施形態と同様である。また、姿勢推定部23Cは、抽出した前景画素を含む領域を示す領域情報を生成し、通信部21を介して距離画像カメラ1に送信する。   The posture estimation unit 23C extracts foreground pixels from the received distance image, erases the background, and generates a distance image including the extracted foreground pixels and the erased background, at the previous stage of the posture estimation processing. The method of extracting the foreground pixel is the same as that of the first embodiment. Further, the posture estimation unit 23C generates region information indicating a region including the extracted foreground pixel, and transmits the region information to the distance image camera 1 via the communication unit 21.

図12は、第4実施形態に係る、姿勢推定システムの処理例を示すフローチャートである。本図のフローチャートのステップS22〜S24、S31〜S34は、1フレームの距離画像毎に実行される。   FIG. 12 is a flowchart showing an example of processing of the posture estimation system according to the fourth embodiment. Steps S22 to S24 and S31 to S34 in the flowchart of this figure are executed for each distance image of one frame.

まず、光源部12は、撮像範囲Aの全領域に光を均一に照射する(ステップS21)。具体的には、制御部11Cは、光源部12の複数の回折格子Gの全てをオフに設定することにより、撮像範囲Aの全領域を均一な光量で照射する。   First, the light source unit 12 uniformly irradiates light to the entire area of the imaging range A (step S21). Specifically, the control unit 11 </ b> C sets all of the plurality of diffraction gratings G of the light source unit 12 to off, thereby irradiating the entire region of the imaging range A with a uniform light amount.

それから、距離画像生成部14Cは、距離画像センサ13から出力される画素毎の情報を用いて、画素毎に距離情報と階調情報を含む入力距離画像を生成する(ステップS22)。それから、距離画像生成部14Cは、ステップS22で生成した入力距離画像から出力距離画像を生成し、通信部15を介して姿勢推定装置2に送信する(ステップS23)。   Then, the distance image generation unit 14C generates an input distance image including distance information and gradation information for each pixel using the information for each pixel output from the distance image sensor 13 (step S22). Then, the distance image generation unit 14C generates an output distance image from the input distance image generated in step S22, and transmits the output distance image to the posture estimation device 2 via the communication unit 15 (step S23).

それから、制御部11Cは、姿勢推定装置2から領域情報を受信したか否かを判定する(ステップS24)。領域情報を受信していないと判定する場合(ステップS24:NO)、制御部11Cは、処理をステップS21に戻す。   Then, the control unit 11C determines whether area information has been received from the posture estimation device 2 (step S24). When it is determined that the area information is not received (step S24: NO), the control unit 11C returns the process to step S21.

領域情報を受信したと判定する場合(ステップS24:YES)、光源部12は、前景画素領域に光を集中させる(ステップS25)。具体的には、制御部11Cは、ステップS24で受信した領域情報が示す1つ以上の対象領域aの光量が増加するように、当該対象領域aに隣接する1つ以上の領域aに対応する1つ以上の回折格子Gをオンにする。なお、領域情報が前景画素が存在しないことを示す場合、制御部11Cは、全ての回折格子Gをオフにする。そして、制御部11Cは、処理をステップS22に戻す。   When it is determined that the area information has been received (step S24: YES), the light source unit 12 concentrates light on the foreground pixel area (step S25). Specifically, the control unit 11C corresponds to one or more areas a adjacent to the target area a such that the light amount of one or more target areas a indicated by the area information received in step S24 increases. Turn on one or more diffraction gratings G. When the area information indicates that there is no foreground pixel, the control unit 11C turns off all the diffraction gratings G. Then, the control unit 11C returns the process to step S22.

一方、距離画像受信部22は、ステップS23で距離画像カメラ1から送信された距離画像を、通信部21を介して受信する(ステップS31)。それから、姿勢推定部23Cは、ステップS31で受信された距離画像を用いて、当該距離画像に含まれる人等の被写体の姿勢を推定する(ステップS32)。ステップS32の詳細は、図8と同様である。ただし、姿勢推定部23Cは、姿勢推定処理の前段に、ステップS31で受信した距離画像から前景画素を抽出するとともに、背景を消去し、抽出された前景画素と消去された背景を含む距離画像を生成する。   On the other hand, the distance image receiving unit 22 receives the distance image transmitted from the distance image camera 1 in step S23 via the communication unit 21 (step S31). Then, the posture estimation unit 23C estimates the posture of a subject such as a person included in the distance image using the distance image received in step S31 (step S32). The details of step S32 are the same as in FIG. However, the posture estimation unit 23C extracts foreground pixels from the distance image received in step S31 and erases the background at the previous stage of the posture estimation processing, and deletes the distance image including the extracted foreground pixels and the erased background. Generate

それから、姿勢推定部23Cは、ステップS32で抽出した前景画素領域を示す領域情報を生成し、通信部21を介して距離画像カメラ1に送信する(ステップS33)。それから、出力部27は、ステップS32で姿勢推定部23から出力された関節位置を含む推定姿勢情報を出力し(ステップS34)、処理をステップS31に戻す。   Then, the posture estimation unit 23C generates region information indicating the foreground pixel region extracted in step S32, and transmits the region information to the distance image camera 1 via the communication unit 21 (step S33). Then, the output unit 27 outputs estimated posture information including the joint position output from the posture estimation unit 23 in step S32 (step S34), and returns the process to step S31.

以上、本発明の第4実施形態について説明した。第4実施形態によっても、第1実施形態と同様の効果を得ることができる。また、第4実施形態では、前景領域の抽出処理は、姿勢推定装置2で実行される。これにより、距離画像カメラ1の処理負荷を低減することができる。   The fourth embodiment of the present invention has been described above. Also by the fourth embodiment, the same effect as that of the first embodiment can be obtained. Further, in the fourth embodiment, the process of extracting the foreground region is performed by the posture estimation device 2. Thereby, the processing load of the distance image camera 1 can be reduced.

[第5実施形態]
第5実施形態は、光源部12の構成が第1実施形態と異なる。以下、第1実施形態と異なる構成を中心に説明し、第1実施形態と同様の構成の説明を省略する。
Fifth Embodiment
The fifth embodiment differs from the first embodiment in the configuration of the light source unit 12. Hereinafter, the configuration different from the first embodiment will be mainly described, and the description of the same configuration as the first embodiment will be omitted.

図13および図14は、第5実施形態に係る、光源部の構成例を模式的に示す図である。本図では、説明を分かり易くするため、出射される光の光路のうち代表的な光路を示している。2つの圧電素子により光ファイバをX方向とY方向のそれぞれに独立して振動させることで、二次元平面をスキャンすることが可能であるが、説明を分かり易くするため、XとY方向のうちの一方のみを図示する。   FIG. 13 and FIG. 14 are views schematically showing a configuration example of the light source unit according to the fifth embodiment. In the drawing, in order to make the description easy to understand, representative light paths of the light paths of the emitted light are shown. It is possible to scan a two-dimensional plane by vibrating the optical fiber independently in each of the X direction and the Y direction by two piezoelectric elements, but in order to make the explanation easy to understand, of the X and Y directions Only one of them is illustrated.

光源部12Dは、光源Lと、光ファイバ121と、光ファイバ122と、積層型圧電素子123とを備える。光ファイバ121及び122と積層型圧電素子123とは、「方向調節部」とも言える。光源Lは、第1実施形態と同様である。   The light source unit 12D includes a light source L, an optical fiber 121, an optical fiber 122, and a laminated piezoelectric element 123. The optical fibers 121 and 122 and the laminated piezoelectric element 123 can also be referred to as a “direction adjusting unit”. The light source L is the same as that of the first embodiment.

光ファイバ121は、一端が光源Lに面し、他端が対象空間に面するように配置される。光ファイバ122は、光ファイバ121に隣接して接着されており、一端が距離画像センサ13に面し、他端が対象空間に面するよう配置される。光ファイバ121及122は、光源L及び距離画像センサ13に面する側が固定され、反対側が自由端となった片持ち梁状態で、光源部12Dに設けられる。光源Lからの出射光は、光ファイバ121に入射され、光ファイバ121を通過して対象空間に照射される。被写体で反射された光は、光ファイバ122に入射され、光ファイバ122を通過して距離画像センサ13に照射される。距離画像センサ13はXY方向に画素が配置された二次元センサ(エリア型センサ)でもよいが、光ファイバ122からセンサ面に照射される領域と同等の大きさ(つまり、光ファイバの太さ程度)であれば十分であり、また対象領域の二次元スキャンは圧電素子により実現されるため、距離画像センサ13は一次元センサ(ライン型センサ、リニア型センサ)でもよく、その場合、より低画素数のため低コストで低消費電力で省実装面積という効果がある。   The optical fiber 121 is disposed such that one end faces the light source L and the other end faces the target space. The optical fiber 122 is bonded adjacent to the optical fiber 121, and one end faces the distance image sensor 13, and the other end faces the target space. The optical fibers 121 and 122 are provided in the light source unit 12D in a cantilever state in which the side facing the light source L and the distance image sensor 13 is fixed and the opposite side is a free end. Light emitted from the light source L is incident on the optical fiber 121, passes through the optical fiber 121, and is irradiated to the target space. The light reflected by the subject is incident on the optical fiber 122, passes through the optical fiber 122, and is irradiated to the distance image sensor 13. The distance image sensor 13 may be a two-dimensional sensor (area type sensor) in which pixels are arranged in the X and Y directions, but the size is equivalent to the area irradiated from the optical fiber 122 to the sensor surface (that is, ) Is sufficient, and two-dimensional scanning of the target area is realized by a piezoelectric element, so the distance image sensor 13 may be a one-dimensional sensor (line type sensor, linear type sensor), in which case Because of the number, there are effects of low cost, low power consumption, and reduced mounting area.

積層型圧電素子123は、光ファイバ121及び122の少なくとも一方に接する(あるいは中間部材を介して接する)ように設置される。本図の例では、積層型圧電素子123は、光ファイバ121に接している。積層型圧電素子123に印加する電圧を制御することで、光ファイバ121及び122を片持ち梁モードでたわみ振動させることができる。積層型圧電素子123への電圧の印加は、制御部11によって制御される。   The laminated piezoelectric element 123 is disposed so as to be in contact with at least one of the optical fibers 121 and 122 (or in contact via an intermediate member). In the example of this figure, the laminated piezoelectric element 123 is in contact with the optical fiber 121. By controlling the voltage applied to the laminated piezoelectric element 123, the optical fibers 121 and 122 can be flexed and vibrated in the cantilever mode. The application of the voltage to the stacked piezoelectric element 123 is controlled by the control unit 11.

光ファイバ121及び122は、電圧が印加された積層型圧電素子123によって振動の振幅(図中の左右方向の矢印S)の大きさを変更可能に構成される。光ファイバ121及び122の振幅は、撮像範囲A全体をカバーする第1の画角と、撮像範囲Aの1つ以上の領域a(撮像範囲Aよりも小さい範囲)をカバーする第2の画角とを選択可能に構成される。光ファイバ121及び122の振幅による画角の切り替えは、制御部11によって制御される積層型圧電素子123の動作によって制御される。   The optical fibers 121 and 122 are configured to be able to change the magnitude of the vibration amplitude (arrow S in the horizontal direction in the drawing) by the laminated piezoelectric element 123 to which a voltage is applied. The amplitudes of the optical fibers 121 and 122 have a first angle of view covering the entire imaging range A and a second angle of view covering one or more regions a of the imaging range A (range smaller than the imaging range A) And are configured to be selectable. The switching of the angle of view based on the amplitudes of the optical fibers 121 and 122 is controlled by the operation of the laminated piezoelectric element 123 controlled by the control unit 11.

光ファイバ121及び122の振幅が第1の画角に設定されている場合の光の照射範囲は、所定の画角(撮像範囲A)の全体をできる限り均一にかつ十分な光量で照射できるように設定される。   The irradiation range of light when the amplitudes of the optical fibers 121 and 122 are set to the first angle of view is such that the entire predetermined angle of view (imaging range A) can be irradiated as uniformly and sufficiently as possible. Set to

撮像範囲A全体を均一に照射する場合には、光ファイバ121及び122の振幅は、第1の画角に設定され、光源Lは、常にオンされる。一方、撮像範囲Aのうち前景画素が含まれる対象領域aを照射する場合には、光ファイバ121及び122の振幅は、第1の画角あるいは第2の画角に設定され、光源Lは、光ファイバ121及び122の先端部が対象領域aを向いている間に光が照射されるようにオンされる。前景画素が複数の対象領域aに含まれる場合は、光源Lは、光ファイバ121及び122が各対象領域aを向いている間に光が照射されるようにオンされる。   When the entire imaging range A is uniformly irradiated, the amplitudes of the optical fibers 121 and 122 are set to the first angle of view, and the light source L is always turned on. On the other hand, when the target area a including the foreground pixel in the imaging range A is irradiated, the amplitudes of the optical fibers 121 and 122 are set to the first angle of view or the second angle of view, and the light source L is It is turned on so that light is emitted while the tip end of the optical fibers 121 and 122 is directed to the target area a. When foreground pixels are included in the plurality of target areas a, the light source L is turned on so that light is emitted while the optical fibers 121 and 122 are directed to the respective target areas a.

図13は、光ファイバ121及び122の振幅が1つの対象領域a3をカバーする第2の画角に設定された状態を示している。この場合、光源Lは、光ファイバ121及び122が対象領域a3を向いている間オンされ、光源Lから出射された光は、光ファイバ121を通過して領域a2に照射される。その結果、領域a3は、領域a1、a2、a4、及びa5と比べて、光を集中させることができ、より多い光量で照射される。また、第1の画角で照射する場合と比べて、光ファイバ121及び122の振幅が小さいため、領域a3に照射される単位時間当たりの光量が増加する。なお、距離画像センサ13では、領域a3を撮像範囲Aのサイズまで拡大した画像情報が生成されてもよい。   FIG. 13 shows a state in which the amplitudes of the optical fibers 121 and 122 are set to a second angle of view covering one target area a3. In this case, the light source L is turned on while the optical fibers 121 and 122 face the target area a3, and the light emitted from the light source L passes through the optical fiber 121 and is irradiated to the area a2. As a result, the area a3 can concentrate light compared to the areas a1, a2, a4, and a5, and is irradiated with a larger amount of light. Further, as compared with the case of irradiation at the first angle of view, the amplitude of the optical fibers 121 and 122 is smaller, so the amount of light per unit time irradiated to the area a3 is increased. The distance image sensor 13 may generate image information in which the area a3 is expanded to the size of the imaging range A.

図14は、光ファイバ121及び122の振幅が1つの対象領域a4をカバーする第2の画角に設定された状態を示している。この場合、光源Lは、光ファイバ121及び122が対象領域a4を向いている間オンされ、光源Lから出射された光は、光ファイバ121を通過して領域a4に照射される。光源Lは、光ファイバ121及び122が領域a1、a2、a3、及びa5を向いている間オフされる。その結果、領域a4は、領域a1、a2、a3、及びa5と比べて、光を集中させることができ、より多い光量で照射される。また、第1の画角で照射する場合と比べて、光ファイバ121及び122の振幅が小さいため、領域a4に照射される単位時間当たりの光量が増加する。なお、距離画像センサ13では、領域a4を撮像範囲Aのサイズまで拡大した画像情報が生成されてもよい。   FIG. 14 shows a state in which the amplitudes of the optical fibers 121 and 122 are set to a second angle of view that covers one target area a4. In this case, the light source L is turned on while the optical fibers 121 and 122 face the target area a4, and the light emitted from the light source L passes through the optical fiber 121 and is irradiated to the area a4. The light source L is turned off while the optical fibers 121 and 122 face the areas a1, a2, a3 and a5. As a result, the area a4 can concentrate light compared to the areas a1, a2, a3, and a5, and is irradiated with a larger amount of light. Further, as compared with the case of irradiation at the first angle of view, the amplitude of the optical fibers 121 and 122 is smaller, so the amount of light per unit time irradiated to the area a4 is increased. The distance image sensor 13 may generate image information in which the area a4 is expanded to the size of the imaging range A.

なお、光ファイバ121及び122の振幅が全領域a1〜a5をカバーする第1の画角に設定された場合、光源Lは、常にオンされる。光源Lから出射された光は、光ファイバ121及び122の周期的な振幅により、各領域a1〜a5に順次照射される。その結果、領域a1〜a5は、均一な光量で照射される。なお、距離画像センサ13では、撮像範囲A全体に対応する画像情報が生成される。   When the amplitudes of the optical fibers 121 and 122 are set to the first angle of view covering the entire area a1 to a5, the light source L is always turned on. The light emitted from the light source L is sequentially irradiated to the respective regions a1 to a5 by the periodic amplitudes of the optical fibers 121 and 122. As a result, the regions a1 to a5 are irradiated with a uniform amount of light. The distance image sensor 13 generates image information corresponding to the entire imaging range A.

このように、制御部11は、撮像範囲内のある対象領域の光量を増加させる場合、光ファイバ121及び122の振幅を、対象領域をカバーする最小限の第2の画角(最小限の第2の画角が第1の画角と等しい場合もある)に設定し、光ファイバ121及び122が対象領域を向いている間に光源Lをオンする。また、制御部11は、撮像範囲内の全領域を均一に照らす場合、光ファイバ121及び122の振幅を、全領域をカバーする第1の画角に設定し、光源Lを常にオンする。   As described above, when the control unit 11 increases the light intensity of a certain target area in the imaging range, the amplitudes of the optical fibers 121 and 122 can be set to the minimum second angle of view covering the target area (minimum The angle of view of 2 may be set equal to the first angle of view), and the light source L is turned on while the optical fibers 121 and 122 are directed to the target area. When the control unit 11 uniformly illuminates the entire area in the imaging range, the control unit 11 sets the amplitudes of the optical fibers 121 and 122 to a first angle of view that covers the entire area, and always turns on the light source L.

図7のフローチャートのステップS1では、制御部11は、光源部12Dの光ファイバ121及び122の振幅を第1の画角に設定し、光源Lを常にオンすることにより、撮像範囲Aの全領域を均一な光量で照射する。ステップS6では、制御部11は、前景画素が含まれる1つ以上の対象領域aの光量が増加するように、光ファイバ121及び122の振幅を第2の画角に設定し、光ファイバ121及び122が各対象領域aを向いている間に光源Lをオンすればよい。   In step S1 of the flowchart of FIG. 7, the control unit 11 sets the amplitudes of the optical fibers 121 and 122 of the light source unit 12D to the first angle of view, and always turns on the light source L. Light with a uniform amount of light. In step S6, the control unit 11 sets the amplitudes of the optical fibers 121 and 122 to the second angle of view so that the amount of light of one or more target regions a including the foreground pixels is increased. The light source L may be turned on while the light source 122 is directed to each target area a.

なお、ある変形例では、制御部11は、光ファイバ121及び122の振幅を第2の画角に設定した場合、光源Lを常にオンしてもよい。このようにしても、第1の画角で照射する場合と比べて、光ファイバ121及び122の振幅が小さいため、対象領域aに照射される単位時間当たりの光量が増加する。また、他の変形例では、光を伝送できれば光ファイバに限らず他の光伝送部材を用いてもよいし、光伝送部材を振幅させることができれば積層型圧電素子に限らず他の駆動部を用いてもよい。   In a modification, when the amplitudes of the optical fibers 121 and 122 are set to the second angle of view, the control unit 11 may always turn on the light source L. Even in this case, the amplitude of the optical fibers 121 and 122 is smaller than in the case of irradiation at the first angle of view, so the amount of light per unit time irradiated to the target area a increases. In another modification, not only the optical fiber but also other light transmission members may be used as long as they can transmit light, and if the light transmission member can be made to oscillate, it is not limited to the laminated piezoelectric element and other driving parts. You may use.

以上、本発明の第5実施形態について説明した。第5実施形態によっても、第1実施形態と同様の効果を得ることができる。また、第5実施形態では、前景画素が含まれる領域を、拡大及び高解像度化した画像情報として取得することができるため、姿勢推定処理の推定精度を向上することができる。   The fifth embodiment of the present invention has been described above. Also in the fifth embodiment, the same effect as in the first embodiment can be obtained. Further, in the fifth embodiment, since the region including the foreground pixel can be acquired as the enlarged and high-resolution image information, the estimation accuracy of the posture estimation process can be improved.

本発明は、上述の複数の実施形態に限定されず、本発明の要旨の範囲内で種々の変形実施が可能である。各実施形態および各変形例の2つ以上を適宜組み合わせることもできる。   The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the present invention. Two or more of each embodiment and each modification can also be combined suitably.

例えば、第2実施形態、第3実施形態、又は第5実施形態についても、第4実施形態と同様に、姿勢推定装置2が領域情報を送信し、距離画像カメラ1が受信した領域情報に基づいて光源部12を制御するように構成してもよい。   For example, also in the second embodiment, the third embodiment, or the fifth embodiment, as in the fourth embodiment, the posture estimation device 2 transmits the area information, and the distance image camera 1 receives the area information. The light source unit 12 may be configured to be controlled.

また例えば、第1〜第3実施形態、及び第5実施形態の距離画像生成部14は、入力距離画像から背景を消去せずに、前景画素を含む領域を切り出してもよい。このようにすれば、さらに距離画像のデータ量を減らすことができる。   Further, for example, the distance image generation unit 14 in the first to third embodiments and the fifth embodiment may cut out the region including the foreground pixel without erasing the background from the input distance image. In this way, it is possible to further reduce the amount of data of the distance image.

また例えば、第4実施形態において、姿勢推定部23Cは、距離画像から推定された各関節位置の座標情報を領域情報として送信し、制御部11Cは、この座標情報を用いて各関節位置が含まれる撮像範囲内の領域aを特定するようにしてもよい。   Further, for example, in the fourth embodiment, the posture estimation unit 23C transmits coordinate information of each joint position estimated from the distance image as area information, and the control unit 11C includes each joint position using the coordinate information. The area a within the imaging range to be set may be specified.

また例えば、第3実施形態において、光源部12BのハーフミラーHを省略し、距離画像センサ13はズームレンズZを介さない別のルートで対象空間からの光を受光してもよい。この場合、距離画像センサ13では、撮像範囲A全体に対応する画像情報が生成される。   Also, for example, in the third embodiment, the half mirror H of the light source unit 12B may be omitted, and the distance image sensor 13 may receive light from the target space through another route not via the zoom lens Z. In this case, the distance image sensor 13 generates image information corresponding to the entire imaging range A.

また例えば、第1〜第5実施形態において、距離画像を蓄積するデータベースをネットワークNに接続し、各距離画像カメラは距離画像を当該データベースに送信して蓄積し、姿勢推定装置は当該データベースから距離画像を取得するようにしてもよい。   Also, for example, in the first to fifth embodiments, a database for storing distance images is connected to the network N, each distance image camera transmits and stores distance images to the database, and the posture estimation device calculates the distance from the database An image may be acquired.

なお、図2、及び図11で示した距離画像カメラ及び姿勢推定装置の構成は、これらのデバイスの構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本発明が制限されることはない。距離画像カメラ及び姿勢推定装置の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。また、各構成要素の処理又は機能の分担は、本発明の目的及び効果を達成できるのであれば、図示したものに限られない。   The configurations of the distance image camera and the posture estimation apparatus shown in FIG. 2 and FIG. 11 are classified according to the main processing content in order to facilitate understanding of the configurations of these devices. The present invention is not limited by the classification method and names of components. The configurations of the distance image camera and the posture estimation device can also be classified into more components according to the processing content. Also, one component can be classified to perform more processing. Also, the processing of each component may be performed by one hardware or may be performed by a plurality of hardware. Further, the sharing of the processing or function of each component is not limited to that illustrated as long as the objects and effects of the present invention can be achieved.

また、図7〜8、及び図12で示したフローチャートの処理単位は、距離画像カメラ及び姿勢推定装置の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本発明が制限されることはない。距離画像カメラ及び姿勢推定装置の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。さらに、本発明の目的及び効果を達成できるのであれば、上記のフローチャートの処理順序も、図示した例に限られるものではない。   The processing units of the flowcharts shown in FIGS. 7-8 and 12 are divided according to the main processing contents in order to make the processing of the distance image camera and the posture estimation device easy to understand. The present invention is not limited by the manner and names of division of processing units. The processing of the distance image camera and the posture estimation device can also be divided into more processing units according to the processing content. Also, one processing unit can be divided to include more processes. Furthermore, the processing order of the above flowchart is not limited to the illustrated example as long as the objects and effects of the present invention can be achieved.

本発明は、上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した各実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、本発明が、必ずしも説明した全ての構成要素を備えるものに限定されるものではない。また、ある実施形態の構成の一部を、他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に、他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   The present invention is not limited to the embodiments described above, but includes various modifications. For example, the above-described embodiments are described in detail in order to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to those having all the described components. Also, part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Moreover, it is possible to add, delete, and replace other configurations for part of the configurations of the respective embodiments.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現されてもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリーや、ハードディスク、SSD等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。   Further, each of the configurations, functions, processing units, processing means, etc. described above may be realized by hardware, for example, by designing part or all of them with an integrated circuit. Further, each configuration, function, etc. described above may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as a program, a table, and a file for realizing each function can be placed in a memory, a storage device such as a hard disk or an SSD, or a storage medium such as an IC card, an SD card, or a DVD. Further, control lines and information lines indicate what is considered to be necessary for the description, and not all control lines and information lines in the product are necessarily shown. In practice, almost all configurations may be considered to be mutually connected.

本発明は、姿勢推定システム、姿勢推定装置、及び距離画像カメラだけでなく、姿勢推定装置や距離画像カメラで実行されるコンピュータ読み取り可能なプログラム、姿勢推定システム、姿勢推定装置、又は距離画像カメラにおける方法、などの様々な態様で提供することができる。   The present invention relates not only to a posture estimation system, a posture estimation device, and a distance image camera, but also to a computer readable program executed by the posture estimation device or the distance image camera, a posture estimation system, a posture estimation device, or a distance image camera. It can provide in various aspects, such as a method.

1…距離画像カメラ、2…姿勢推定装置、11…制御部、11C…制御部、12…光源部、12A…光源部、12B…光源部、12D…光源部13…距離画像センサ、14…距離画像生成部、14C…距離画像生成部、15…通信部、21…通信部、22…距離画像受信部、23…姿勢推定部、23C…姿勢推定部、24…特徴量算出部、25…部位識別部、26…関節識別部、27…出力部、90…コンピュータ、91…演算装置、92…主記憶装置、93…外部記憶装置、94…通信装置、95…読み書き装置、96…入力装置、97…出力装置、121…光ファイバ、122…光ファイバ、123…積層型圧電素子、a…領域、A…撮像範囲、F…被写体、G…回折格子、H…ハーフミラー、L…光源、M…ミラー、N…ネットワーク、Z…ズームレンズ DESCRIPTION OF SYMBOLS 1 ... distance image camera, 2 ... attitude | position estimation apparatus, 11 ... control part, 11C ... control part, 12 ... light source part, 12A ... light source part, 12B ... light source part, 12D ... light source part 13 ... distance image sensor, 14 ... distance Image generation unit, 14C: distance image generation unit, 15: communication unit, 21: communication unit, 22: distance image reception unit, 23: posture estimation unit, 23C: posture estimation unit, 24: feature amount calculation unit, 25: region Identification unit 26: Joint identification unit 27: Output unit 90: Computer 91: Arithmetic device 92: Main storage device 93: External storage device 94: Communication device 95: Reading and writing device 96: Input device 97: output device 121: optical fiber 122: optical fiber 123: laminated piezoelectric element a: area A: imaging range F: object G: diffraction grating H: half mirror L: light source M ... Mirror, N ... Network Z ... zoom lens

Claims (14)

距離画像カメラと、前記距離画像カメラとネットワークを介して接続される姿勢推定装置とを含む姿勢推定システムであって、
前記距離画像カメラは、
対象空間に光を照射する光源部と、
前記対象空間からの光を受光して所定の撮像範囲の画像情報を生成する距離画像センサと、
前記生成された画像情報から距離画像を生成する距離画像生成部と、
前記生成された距離画像を前記姿勢推定装置に送信する通信部と、を備え、
前記姿勢推定装置は、
前記距離画像カメラから前記距離画像を受信する距離画像受信部と、
前記受信された距離画像から1つ以上の関節位置を識別し、前記識別された1つ以上の関節位置を含む推定姿勢情報を生成する姿勢推定部と、
前記生成された推定姿勢情報を出力する出力部と、を備え、
前記距離画像カメラは、
前記光源部の光の出射方向を調節する方向調節部を備える
姿勢推定システム。
An attitude estimation system including a distance image camera and an attitude estimation device connected to the distance image camera via a network,
The range image camera is
A light source unit for emitting light to a target space;
A distance image sensor that receives light from the target space and generates image information of a predetermined imaging range;
A distance image generation unit that generates a distance image from the generated image information;
A communication unit for transmitting the generated distance image to the posture estimation device;
The posture estimation device
A distance image receiving unit that receives the distance image from the distance image camera;
A posture estimation unit that identifies one or more joint positions from the received distance image and generates estimated posture information that includes the one or more identified joint positions;
An output unit for outputting the generated estimated posture information;
The range image camera is
A posture estimation system, comprising: a direction adjustment unit that adjusts an emission direction of light of the light source unit.
請求項1に記載の姿勢推定システムであって、
前記距離画像カメラは、光の出射方向が変更されるように前記方向調節部を制御する制御部を備え、
前記距離画像生成部は、前記距離画像から前景画素を抽出し、
前記制御部は、前記撮像範囲内の前記抽出された前景画素を含む対象領域に光が集中するように前記方向調節部を制御する
姿勢推定システム。
The posture estimation system according to claim 1, wherein
The distance image camera includes a control unit that controls the direction adjustment unit so that the light emission direction is changed.
The distance image generation unit extracts foreground pixels from the distance image,
The attitude estimation system, wherein the control unit controls the direction adjustment unit such that light is concentrated on a target area including the extracted foreground pixel in the imaging range.
請求項2に記載の姿勢推定システムであって、
前記距離画像生成部は、前記距離画像から背景画素を消去し、前記抽出された前景画素と前記消去された背景画素を含む前記距離画像を生成する
姿勢推定システム。
The posture estimation system according to claim 2, wherein
The posture estimation system, wherein the distance image generation unit deletes a background pixel from the distance image, and generates the distance image including the extracted foreground pixel and the deleted background pixel.
請求項1に記載の姿勢推定システムであって、
前記距離画像カメラは、光の出射方向が変更されるように前記方向調節部を制御する制御部を備え、
前記姿勢推定部は、前記距離画像から前景画素を抽出し、前記撮像範囲内の当該前景画素を含む対象領域を示す領域情報を前記距離画像カメラに送信し、
前記通信部は、前記姿勢推定装置から前記領域情報を受信し、
前記制御部は、前記撮像範囲内の前記受信された領域情報が示す対象領域に光が集中するように前記方向調節部を制御する
姿勢推定システム。
The posture estimation system according to claim 1, wherein
The distance image camera includes a control unit that controls the direction adjustment unit so that the light emission direction is changed.
The posture estimation unit extracts foreground pixels from the distance image, and transmits, to the distance image camera, region information indicating a target region including the foreground pixels in the imaging range.
The communication unit receives the area information from the posture estimation device,
The attitude estimation system, wherein the control unit controls the direction adjustment unit such that light is concentrated on a target area indicated by the received area information in the imaging range.
姿勢推定装置とネットワークを介して接続される距離画像カメラであって、
対象空間に光を照射する光源部と、
前記対象空間からの光を受光して所定の撮像範囲の画像情報を生成する距離画像センサと、
前記生成された画像情報から距離画像を生成する距離画像生成部と、
前記生成された距離画像を前記姿勢推定装置に送信する通信部と、
前記光源部の光の出射方向を調節する方向調節部と
を備える距離画像カメラ。
A distance image camera connected to a posture estimation device via a network,
A light source unit for emitting light to a target space;
A distance image sensor that receives light from the target space and generates image information of a predetermined imaging range;
A distance image generation unit that generates a distance image from the generated image information;
A communication unit that transmits the generated distance image to the posture estimation device;
A distance image camera comprising: a direction adjusting unit configured to adjust an emission direction of light of the light source unit.
請求項5に記載の距離画像カメラであって、
前記距離画像カメラは、光の出射方向が変更されるように前記方向調節部を制御する制御部を備え、
前記距離画像生成部は、前記距離画像から前景画素を抽出し、
前記制御部は、前記撮像範囲内の前記抽出された前景画素を含む対象領域に光が集中するように前記方向調節部を制御する
距離画像カメラ。
The distance image camera according to claim 5, wherein
The distance image camera includes a control unit that controls the direction adjustment unit so that the light emission direction is changed.
The distance image generation unit extracts foreground pixels from the distance image,
The control unit controls the direction adjusting unit such that light is concentrated on a target area including the extracted foreground pixel in the imaging range.
請求項6に記載の距離画像カメラであって、
前記距離画像生成部は、前記距離画像から背景画素を消去し、前記抽出された前景画素と前記消去された背景画素を含む前記距離画像を生成する
距離画像カメラ。
The distance image camera according to claim 6, wherein
The distance image generating unit is configured to delete background pixels from the distance image, and generate the distance image including the extracted foreground pixels and the deleted background pixels.
請求項5に記載の距離画像カメラであって、
前記距離画像カメラは、光の出射方向が変更されるように前記方向調節部を制御する制御部を備え、
前記通信部は、前記撮像範囲内の前景画素を含む対象領域を示す領域情報を、前記姿勢推定装置から受信し、
前記制御部は、前記撮像範囲内の前記受信された領域情報が示す対象領域に光が集中するように前記方向調節部を制御する
距離画像カメラ。
The distance image camera according to claim 5, wherein
The distance image camera includes a control unit that controls the direction adjustment unit so that the light emission direction is changed.
The communication unit receives area information indicating a target area including a foreground pixel in the imaging range from the posture estimation device.
The control unit controls the direction adjusting unit such that light is concentrated on a target area indicated by the received area information in the imaging range.
請求項5に記載の距離画像カメラであって、
前記光源部は、光源を含み、
前記方向調節部は、それぞれ前記光源に向かい合って設けられる複数の回折格子を含み、前記複数の回折格子は、それぞれ第1の出射方向又は第2の出射方向のいずれかに前記光源からの光の出射方向を切り替える
距離画像カメラ。
The distance image camera according to claim 5, wherein
The light source unit includes a light source,
The direction adjusting unit includes a plurality of diffraction gratings respectively provided facing the light source, and the plurality of diffraction gratings respectively transmit light from the light source in any of a first emission direction or a second emission direction. Distance image camera to switch the emitting direction.
請求項5に記載の距離画像カメラであって、
前記光源部は、光源を含み、
前記方向調節部は、それぞれ前記光源に向かい合って設けられる複数のミラーを含み、前記複数のミラーは、それぞれ第1の出射方向又は第2の出射方向のいずれかに前記光源からの光の反射方向を切り替える
距離画像カメラ。
The distance image camera according to claim 5, wherein
The light source unit includes a light source,
The direction adjusting unit includes a plurality of mirrors provided to face the light source, and the plurality of mirrors each reflect the light from the light source in either the first emission direction or the second emission direction. Switching distance image camera.
請求項5に記載の距離画像カメラであって、
前記光源部は、光源を含み、
前記方向調節部は、前記光源に向かい合って設けられるズームレンズを含み、前記ズームレンズは、第1の画角又は第2の画角のいずれかに画角を切り替えることにより前記光源からの光の出射方向を切り替える
距離画像カメラ。
The distance image camera according to claim 5, wherein
The light source unit includes a light source,
The direction adjustment unit includes a zoom lens provided facing the light source, and the zoom lens switches the angle of view to either the first angle of view or the second angle of view. Distance image camera to switch the emitting direction.
請求項11に記載の距離画像カメラであって、
前記ズームレンズの位置又は向きを変更可能に前記ズームレンズを保持する保持機構
を備える距離画像カメラ。
The distance image camera according to claim 11, wherein
A range image camera comprising a holding mechanism for holding the zoom lens so as to be able to change the position or the orientation of the zoom lens.
請求項5に記載の距離画像カメラであって、
前記光源部は、光源を含み、
前記方向調節部は、一端が前記光源に面し他端が自由端となるように設けられた光伝送部を含み、前記光伝送部の前記自由端を振幅させることで前記光源からの光の出射方向を切り替える
距離画像カメラ。
The distance image camera according to claim 5, wherein
The light source unit includes a light source,
The direction adjustment unit includes a light transmission unit provided such that one end faces the light source and the other end is a free end, and by swinging the free end of the light transmission unit, light from the light source is transmitted. Distance image camera to switch the emitting direction.
距離画像カメラとネットワークを介して接続される姿勢推定装置であって、
前記距離画像カメラから距離画像を受信する距離画像受信部と、
前記受信された距離画像から1つ以上の関節位置を識別し、前記識別された1つ以上の関節位置を含む推定姿勢情報を生成する姿勢推定部と、
前記生成された推定姿勢情報を出力する出力部と、を備え、
前記姿勢推定部は、前記距離画像から前景画素を抽出し、所定の撮像範囲内の当該前景画素を含む対象領域を示す領域情報を前記距離画像カメラに送信する
姿勢推定装置。
A posture estimation apparatus connected to a distance image camera via a network,
A distance image receiving unit that receives a distance image from the distance image camera;
A posture estimation unit that identifies one or more joint positions from the received distance image and generates estimated posture information that includes the one or more identified joint positions;
An output unit for outputting the generated estimated posture information;
The posture estimation unit extracts the foreground pixel from the distance image and transmits region information indicating a target region including the foreground pixel within a predetermined imaging range to the distance image camera.
JP2017082897A 2017-04-19 2017-04-19 Posture estimation system, distance image camera, and posture estimation device Active JP6827875B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017082897A JP6827875B2 (en) 2017-04-19 2017-04-19 Posture estimation system, distance image camera, and posture estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017082897A JP6827875B2 (en) 2017-04-19 2017-04-19 Posture estimation system, distance image camera, and posture estimation device

Publications (2)

Publication Number Publication Date
JP2018179876A true JP2018179876A (en) 2018-11-15
JP6827875B2 JP6827875B2 (en) 2021-02-10

Family

ID=64275220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017082897A Active JP6827875B2 (en) 2017-04-19 2017-04-19 Posture estimation system, distance image camera, and posture estimation device

Country Status (1)

Country Link
JP (1) JP6827875B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020104680A (en) * 2018-12-27 2020-07-09 アイシン精機株式会社 Indoor monitor device
JP2020156800A (en) * 2019-03-27 2020-10-01 ソニー株式会社 Medical arm system, control device and control method
WO2021065138A1 (en) * 2019-10-01 2021-04-08 パナソニックIpマネジメント株式会社 Distance measurement device and control method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06300542A (en) * 1993-04-16 1994-10-28 Nippon Telegr & Teleph Corp <Ntt> Shape feature extraction device with two-dimensional laser pattern and two-dimensional laser pattern
JP2002156617A (en) * 2000-11-20 2002-05-31 Ricoh Co Ltd Image display device
JP2007122508A (en) * 2005-10-28 2007-05-17 Secom Co Ltd Intrusion detection apparatus
JP2012026895A (en) * 2010-07-23 2012-02-09 Canon Inc Position attitude measurement device, position attitude measurement method, and program
US20120206336A1 (en) * 2011-02-15 2012-08-16 Basf Se Detector for optically detecting at least one object
JP2012525643A (en) * 2009-05-01 2012-10-22 マイクロソフト コーポレーション Method and system for applying model tracking to motion capture
JP2014180317A (en) * 2013-03-18 2014-09-29 Olympus Corp Optical fiber scanner, lighting device, and observation device
JP2016177804A (en) * 2015-03-20 2016-10-06 株式会社東芝 Method of recognizing object posture

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06300542A (en) * 1993-04-16 1994-10-28 Nippon Telegr & Teleph Corp <Ntt> Shape feature extraction device with two-dimensional laser pattern and two-dimensional laser pattern
JP2002156617A (en) * 2000-11-20 2002-05-31 Ricoh Co Ltd Image display device
JP2007122508A (en) * 2005-10-28 2007-05-17 Secom Co Ltd Intrusion detection apparatus
JP2012525643A (en) * 2009-05-01 2012-10-22 マイクロソフト コーポレーション Method and system for applying model tracking to motion capture
JP2012026895A (en) * 2010-07-23 2012-02-09 Canon Inc Position attitude measurement device, position attitude measurement method, and program
US20120206336A1 (en) * 2011-02-15 2012-08-16 Basf Se Detector for optically detecting at least one object
JP2014180317A (en) * 2013-03-18 2014-09-29 Olympus Corp Optical fiber scanner, lighting device, and observation device
JP2016177804A (en) * 2015-03-20 2016-10-06 株式会社東芝 Method of recognizing object posture

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020104680A (en) * 2018-12-27 2020-07-09 アイシン精機株式会社 Indoor monitor device
JP7259324B2 (en) 2018-12-27 2023-04-18 株式会社アイシン indoor monitoring device
JP2020156800A (en) * 2019-03-27 2020-10-01 ソニー株式会社 Medical arm system, control device and control method
WO2021065138A1 (en) * 2019-10-01 2021-04-08 パナソニックIpマネジメント株式会社 Distance measurement device and control method

Also Published As

Publication number Publication date
JP6827875B2 (en) 2021-02-10

Similar Documents

Publication Publication Date Title
US11412108B1 (en) Object recognition techniques
US9826216B1 (en) Systems and methods for compact space-time stereo three-dimensional depth sensing
CN205354047U (en) Mark reads terminal
KR102497683B1 (en) Method, device, device and storage medium for controlling multiple virtual characters
JP6526955B2 (en) Sensor information integration method and device thereof
US20200004343A1 (en) Adjusting dimensioning results using augmented reality
CN106256512B (en) Robot device including machine vision
US10872434B2 (en) Image processing apparatus and method
US11989835B2 (en) Augmented reality overlay
KR102472156B1 (en) Electronic Device and the Method for Generating Depth Information thereof
JP6827875B2 (en) Posture estimation system, distance image camera, and posture estimation device
CN111401251B (en) Lane line extraction method, lane line extraction device, electronic equipment and computer readable storage medium
JPWO2019082797A1 (en) Reconstruction method and reconfiguration device
US9532030B2 (en) Integrated three-dimensional vision sensor
EP3775766A1 (en) Apparatus and methods for 3d sensing
KR102566300B1 (en) Method for indoor localization and electronic device
KR102337209B1 (en) Method for notifying environmental context information, electronic apparatus and storage medium
EP4171011A1 (en) Method for providing image and electronic device supporting same
JP6655513B2 (en) Attitude estimation system, attitude estimation device, and range image camera
JP6584237B2 (en) Control device, control method, and program
KR102015099B1 (en) Apparatus and method for providing wrap around view monitoring using dis information
CN101329813B (en) Three-dimensional remote-control device as well as three-dimensional remote-control system
CN111767843A (en) Three-dimensional position prediction method, device, equipment and storage medium
JP6382772B2 (en) Gaze guidance device, gaze guidance method, and gaze guidance program
CN104459681A (en) Adaptive distance estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210120

R151 Written notification of patent or utility model registration

Ref document number: 6827875

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151