JP6198530B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP6198530B2
JP6198530B2 JP2013180720A JP2013180720A JP6198530B2 JP 6198530 B2 JP6198530 B2 JP 6198530B2 JP 2013180720 A JP2013180720 A JP 2013180720A JP 2013180720 A JP2013180720 A JP 2013180720A JP 6198530 B2 JP6198530 B2 JP 6198530B2
Authority
JP
Japan
Prior art keywords
condition
image
image processing
unit
heart rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013180720A
Other languages
Japanese (ja)
Other versions
JP2015050614A (en
Inventor
義一 平山
義一 平山
知巳 高階
知巳 高階
芳之 山陸
芳之 山陸
美由貴 柳
美由貴 柳
亮太 堀江
亮太 堀江
典子 大倉
典子 大倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Shibaura Institute of Technology
Original Assignee
Nikon Corp
Shibaura Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp, Shibaura Institute of Technology filed Critical Nikon Corp
Priority to JP2013180720A priority Critical patent/JP6198530B2/en
Publication of JP2015050614A publication Critical patent/JP2015050614A/en
Application granted granted Critical
Publication of JP6198530B2 publication Critical patent/JP6198530B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、画像処理装置に関する。   The present invention relates to an image processing apparatus.

自分撮りモードが設定されている腕時計型のカメラを用いて、使用者の心拍数が予め定められた心拍数より上昇した場合に撮像する装置が知られている(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1] 特開2004−361708号公報
An apparatus is known that uses a wristwatch-type camera in which a self-portrait mode is set to capture an image when the user's heart rate rises above a predetermined heart rate (see, for example, Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] Japanese Patent Application Laid-Open No. 2004-361708

しかしながら、上記装置は、恐れなど不快な場合であっても使用者の心拍数が上昇する場合があるので、使用者が撮影したいときに撮影できる装置ではなかった。   However, since the user's heart rate may increase even when the device is uncomfortable, such as fear, the device is not a device that can shoot when the user wants to shoot.

本発明の第1の態様においては、「かわいい」と感じた場合に生体に生じる心拍の条件を予め格納する条件格納部と、生体からの心拍に関する心拍情報を取得し、取得した前記心拍情報に含まれる心拍が前記条件格納部に格納されている条件を満たすか否かを判断する条件判断部と、条件判断部により条件を満たすと判断された場合に、画像に対する処理を実行する画像処理部とを備える画像処理装置を提供する。   In the first aspect of the present invention, a condition storage unit that stores in advance a heart rate condition generated in the living body when feeling “cute”, heart rate information related to the heart rate from the living body is acquired, and the acquired heart rate information is included in the acquired heart rate information. A condition determining unit that determines whether or not a heartbeat included satisfies a condition stored in the condition storage unit; and an image processing unit that executes processing on an image when the condition determining unit determines that the condition is satisfied An image processing apparatus is provided.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

実験システム100の模式図を示す。A schematic diagram of experimental system 100 is shown. 心電図の一例を示す。An example of an electrocardiogram is shown. R−R間隔と個数との関係をグラフ形式で示す。The relationship between the RR interval and the number is shown in a graph format. 画像処理装置12の一例を説明する図である。2 is a diagram illustrating an example of an image processing device 12. FIG. 画像処理装置18を説明する図である。It is a figure explaining the image processing apparatus. 画像処理装置12の機能ブロック図を示す。A functional block diagram of the image processing apparatus 12 is shown. 画像処理装置12の画像処理の一例を説明するフローチャートである。4 is a flowchart for explaining an example of image processing of the image processing apparatus 12. 表示部に表示される画像の一例を示す。An example of the image displayed on a display part is shown. 別の画像処理装置62を説明する図である。It is a figure explaining another image processing apparatus 62. FIG. 別の画像処理装置62の表示部に表示される画像の一例を示す。An example of the image displayed on the display part of another image processing apparatus 62 is shown. 画像処理装置62の機能ブロック図を示す。The functional block diagram of the image processing apparatus 62 is shown. マニュアルパラメータ設定処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a manual parameter setting process. 自動パラメータ設定処理の一例を説明するフローチャートである。It is a flowchart explaining an example of an automatic parameter setting process. 画像へ感性情報を記録する処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the process which records sensitivity information on an image. 感性情報に基づく画像の検索処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the search process of the image based on sensitivity information.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、実験システム100の模式図を示す。実験システム100は、映像提示用コンピュータ102と、プロジェクター104と、100インチスクリーン106と、計測用コンピュータ108と、生体計測装置110とから構成される。図2は、心電図の一例を示す。図1、図2を用いて、人間の「かわいい」という感性と心拍との関係について説明する。   FIG. 1 shows a schematic diagram of an experimental system 100. The experimental system 100 includes a video presentation computer 102, a projector 104, a 100-inch screen 106, a measurement computer 108, and a biological measurement device 110. FIG. 2 shows an example of an electrocardiogram. The relationship between human “cute” sensitivity and heart rate will be described with reference to FIGS. 1 and 2.

実験システム100において、被験者112には、生体計測装置110としての心電計および脈拍計が取付されている。映像提示用コンピュータ102に蓄積された画像をプロジェクター104を用いて、100インチスクリーン106に投写し、画像を提示した際の被験者112の生体反応を計測した。また、被験者112に、皮膚電気反応(Galvanic Skin Response:GSR)、呼吸数、呼吸の大きさ、筋電位、発汗、血圧、脳波計を設置して、同様に画像を提示した際の被験者112の生体反応を計測した。上記計測の結果より、「かわいい」という感性検知は主に、心電または脈拍によってなされることが判明している。   In the experimental system 100, an electrocardiograph and a pulse meter as the biological measurement device 110 are attached to the subject 112. The image accumulated in the video presentation computer 102 was projected onto a 100-inch screen 106 using the projector 104, and the biological reaction of the subject 112 when the image was presented was measured. In addition, the subject 112 is provided with an electrical skin reaction (Galvanic Skin Response: GSR), respiratory rate, respiratory magnitude, myoelectric potential, sweating, blood pressure, electroencephalograph, and the subject 112 when the image is similarly presented. Biological reactions were measured. From the above measurement results, it has been found that the sensitivity detection of “cute” is mainly performed by electrocardiogram or pulse.

心電図は、単発では図2の左右何れか一方に示すような波形をしており、波形に各部に名称がつけられている。スパイク状に高い電位を発生するR波は心臓の心室が収縮するときの電位であり、信号強度が高いので検知がしやすい利点がある。ここで、連続する心拍におけるR波の時間間隔をR−R間隔と呼ぶが、R−R間隔は脈拍と同期しているので、心電計だけでなく脈拍計でも検出できる。なお、ここで定義した「心拍」「R−R間隔」は適当な測定時間における平均値であるので、正確には「平均心拍」「平均R−R間隔」であるが、簡略のため本明細書では今後「心拍」「R−R間隔」の用語を「平均心拍」「平均R−R間隔」の意味で用いる。   The electrocardiogram has a waveform as shown on the left or right side of FIG. 2 in a single shot, and names are given to the respective parts of the waveform. The R wave that generates a spike-like high potential is a potential when the heart ventricle contracts, and has an advantage that it is easy to detect because the signal intensity is high. Here, although the time interval of the R wave in the continuous heartbeat is called an RR interval, since the RR interval is synchronized with the pulse, it can be detected not only by the electrocardiograph but also by the pulse meter. Note that the “heartbeat” and “RR interval” defined here are average values at an appropriate measurement time, and thus are exactly “average heartbeat” and “average RR interval”. In the following, the terms “heart rate” and “RR interval” will be used in the meaning of “average heart rate” and “average RR interval”.

「かわいい」という感性を検知する手法として、計測開始後から心電図波形を計測し、1波形ごとにR波の発生時刻をミリ秒単位で計測する。ここで、計測開始後n回目の心電図波形におけるR波の発生時刻をTn(msec)、n+1回目の心電図波形におけるR波の発生時刻をTn+1(msec)とすると、n回目のR−R間隔(msec)は次のように算出される。 As a technique for detecting the sensitivity of “cute”, an electrocardiogram waveform is measured from the start of measurement, and the R wave generation time is measured in milliseconds for each waveform. Here, assuming that the generation time of the R wave in the nth electrocardiogram waveform after the start of measurement is Tn (msec) and the generation time of the R wave in the n + 1 electrocardiogram waveform is Tn + 1 (msec), the nth RR interval. (Msec) is calculated as follows.

R−R=Tn+1−Tn R−R = Tn + 1 −Tn

被験者の身体的・精神的状態が一定であれば、R−R間隔も一定であるが、実験システム100において、被験者112が100インチスクリーン106に提示された画像に関して「かわいい」と感じる感性反応を起こした場合に、心拍数は増加しR−R間隔は短くなる。したがって、R−R間隔の変化量を測定することにより、被験者の「かわいい」と感じる感情・感性反応を定量的に検出できる。   If the subject's physical / mental state is constant, the RR interval is also constant, but in the experimental system 100, the subject 112 feels a sensibility reaction that feels “cute” with respect to the image presented on the 100-inch screen 106. When waking up, the heart rate increases and the RR interval is shortened. Therefore, by measuring the amount of change in the RR interval, it is possible to quantitatively detect the emotion / sensitivity reaction that the subject feels “cute”.

このとき、R−R間隔の変化量はR−R間隔差分(msec)として以下のように定義される。ここで、R−Rはn回目のR−R間隔、R−Rrefは基準となるR−R間隔で、何も画像を見ていない安静時、あるいはランダムなパターンなどの無意味な画像を見ている場合のR−R間隔で、事前に測定しておく。 At this time, the change amount of the RR interval is defined as RR interval difference (msec) as follows. Here, R-R n is the n-th R-R interval, in R-R interval as a R-Rref is a reference, at rest nothing viewing the image, or a meaningless image such as a random pattern Measure in advance at the RR interval when viewing.

ΔR−R=(R−R)−(R−Rref) ΔR−R = (R−R n ) − (R−Rref)

日常生活における心拍数は、成人の場合1分間に60〜100回程度で、R−R間隔は10〜17msec程度である。非特許文献1および2に記載のデータから算出すると、被験者が「かわいい」と感じた場合のΔR−Rはマイナスの方向に変動し−0.4〜−5msec程度の変化が発生する。したがってΔR−Rの検出によって、「かわいい」と感じた場合とそうでない場合は明瞭に区別が可能であり、かつ「かわいい」と感じる強さは、ΔR−Rの絶対値に比例する、あるいは正の相関があると考えることができる。   The heart rate in daily life is about 60 to 100 times per minute for an adult, and the RR interval is about 10 to 17 msec. When calculated from the data described in Non-Patent Documents 1 and 2, ΔR-R when the subject feels “cute” fluctuates in the negative direction, and a change of about −0.4 to −5 msec occurs. Therefore, by detecting ΔR-R, it is possible to clearly distinguish between the case of feeling “cute” and the case where it is not, and the strength of feeling “cute” is proportional to the absolute value of ΔR-R or positive. It can be considered that there is a correlation.

すなわち、上記の結果は被験者112の心拍測定により、見ている画像に対する被験者112の「かわいい」と感じる感性反応を定量検出できる。本実施形態は、このような知見に基づいてなされており、デジタルスチルカメラ・ビデオカメラにおいて静止画・動画を撮影する場合、および、画像に対する処理、例えば、分類・保存・検索・再利用をする場合に、システムとアルゴリズムにユーザーの「かわいい」と感じる感性反応を、定量的に反映させる。   That is, the above results can be quantitatively detected from the heartbeat measurement of the subject 112 and the emotional response of the subject 112 feeling “cute” to the image being viewed. The present embodiment is based on such knowledge. When a still image / moving image is shot with a digital still camera / video camera, and processing for the image, for example, classification / storage / search / reuse is performed. In some cases, the system and algorithms are used to quantitatively reflect the emotional response that the user feels “cute”.

一方、被験者112が「怖い」と感じた場合においても、ΔR−Rがマイナス方向に変動する。したがって、ΔR−Rがマイナス方向に変動した場合において、被験者112が「かわいい」と感じた場合と「怖い」と感じた場合とを切り分けて検知することが求められる。   On the other hand, even when the subject 112 feels “scary”, ΔR−R varies in the negative direction. Therefore, when ΔR-R fluctuates in the minus direction, it is required to detect separately when the subject 112 feels “cute” and when he / she feels “scary”.

図3は、R−R間隔と回数との関係をグラフ形式で示した図である。図3には、3つのプロファイル152、154、156が示されており、プロファイル152は、R−R間隔が減少する前の状態、プロファイル154、156は、R−R間隔が減少した後の状態を示す。それぞれのプロファイルは、予め定められた心拍回数におけるそれぞれのR−R間隔値ごとの回数をプロットしたプロファイルであり、これらのプロファイルは、R−R間隔の分散状態を示している。したがって、プロファイルがシャープなピーク形状である場合、R−R間隔の分散は小さく、プロファイルがブロードなピーク形状である場合、R−R間隔の分散は大きい。   FIG. 3 is a graph showing the relationship between the RR interval and the number of times. FIG. 3 shows three profiles 152, 154 and 156, where profile 152 is the state before the RR interval is decreased and profiles 154 and 156 are the states after the RR interval is decreased. Indicates. Each profile is a profile in which the number of times for each RR interval value in a predetermined number of heartbeats is plotted, and these profiles indicate the dispersion state of the RR interval. Therefore, when the profile has a sharp peak shape, the variance of the RR interval is small, and when the profile has a broad peak shape, the variance of the RR interval is large.

R−R間隔の分散は、ネガティブ感情、ポジティブ感情に関連があり、R−R間隔の分散が小さいと、被験者112は、ポジティブ感情、すなわち「かわいい」と感じている場合が多いと予測される。一方、R−R間隔の分散が大きいと被験者112はネガティブ感情、例えば「怖い」と感じていることが予測される。したがって、R−R間隔の分散値を実験的に計測することによって、被験者112の「かわいい」と「怖い」とを切り分けて検知することができる。なお、R−R間隔の分散状態は標準偏差で比較できる。したがって、予め、被験者112に「かわいい」画像と、「怖い」画像を交互に表示させて、「かわいい」と「怖い」を切り分けることができる標準偏差を条件として設定しておき、算出された標準偏差と、条件として設定された標準偏差とを比較することで、被験者112の「かわいい」と感じる感性反応を検知できる。   The variance of the RR interval is related to negative emotions and positive emotions. When the variance of the RR interval is small, it is predicted that the subject 112 often feels positive emotion, that is, “cute”. . On the other hand, when the variance of the RR interval is large, it is predicted that the subject 112 feels negative emotion, for example, “scary”. Therefore, by experimentally measuring the variance value of the RR interval, “cute” and “scary” of the subject 112 can be separated and detected. In addition, the dispersion state of the RR interval can be compared with the standard deviation. Therefore, the standard deviation calculated by setting the standard deviation that allows the subject 112 to alternately display the “cute” image and the “scary” image and separate the “cute” and “scary” images as a condition in advance. By comparing the deviation with the standard deviation set as a condition, it is possible to detect the emotional reaction that the subject 112 feels “cute”.

なお、ここで、R−R間隔の分散に関しては、分散の分散を考慮する場合もありうる。これは、段落0010に記載した通り、R−R間隔そのものが平均値で分散を持ちうるので、複数のR−R間隔の取り扱いに関しては、個々の平均R−R間隔の分散の分散を考慮する必要があるからである。   Here, regarding dispersion of the RR interval, dispersion of dispersion may be considered. This is because, as described in paragraph 0010, the RR interval itself may have an average variance, and therefore, regarding the handling of a plurality of RR intervals, the variance of individual average RR intervals is considered. It is necessary.

実際に安静状態と「かわいい」画像を提示した状態とで心拍数をそれぞれ測定した結果、安静状態においては、心拍のR−R間隔が17.7msecであったのに対し、「かわいい」画像を提示した状態においては、心拍のR−R間隔が16.5msecであり、R−R間隔は1.2msec程度減少した。なお、上記測定における標準偏差は、安静状態で0.96msec、画像提示状態で1.28msecであった。   As a result of actually measuring the heart rate in the resting state and the state in which the “cute” image was presented, the heart rate RR interval was 17.7 msec in the resting state, whereas the “cute” image was In the presented state, the RR interval of the heartbeat was 16.5 msec, and the RR interval decreased by about 1.2 msec. The standard deviation in the above measurement was 0.96 msec in a resting state and 1.28 msec in an image presenting state.

図4は、本実施形態の画像処理装置12の一例を説明する図である。画像処理装置12は、心拍計14から使用者10の生体からの心拍に関する心拍情報を取得する。画像処理装置12は、取得した心拍情報が、画像処理装置12に格納された「かわいい」と感じた場合に生じる心拍の条件を満足するかどうかを判断する。画像処理装置12は、取得した心拍情報が、心拍の条件を満足すると判断した場合、被写界を撮像して画像を生成する。なお、本実施形態において、被写界の撮像は、画像処理装置12における画像に対する処理の一例である。   FIG. 4 is a diagram illustrating an example of the image processing apparatus 12 according to the present embodiment. The image processing device 12 acquires heart rate information related to the heart rate from the living body of the user 10 from the heart rate monitor 14. The image processing device 12 determines whether or not the acquired heartbeat information satisfies a heartbeat condition that occurs when the user feels “cute” stored in the image processing device 12. When it is determined that the acquired heartbeat information satisfies the heartbeat condition, the image processing device 12 captures the scene and generates an image. In the present embodiment, imaging of the object scene is an example of processing for an image in the image processing device 12.

図5は、画像処理装置18を説明する図である。画像処理装置18は、使用者16の耳部に装着されて使用される。画像処理装置18は、使用者16の心拍を測定する心拍計を画像処理装置18に内蔵し、使用者16のこめかみとの密着部分に心拍計が配置されている。画像処理装置18においても、取得した心拍情報が、「かわいい」と感じた場合に生じる心拍の条件を満足すると判断した場合、画像処理装置18は、被写界を撮像して画像を生成する。   FIG. 5 is a diagram illustrating the image processing device 18. The image processing device 18 is used by being worn on the ear portion of the user 16. The image processing device 18 incorporates a heart rate meter for measuring the heartbeat of the user 16 in the image processing device 18, and the heart rate monitor is disposed in a close contact portion with the temple of the user 16. Also in the image processing device 18, when it is determined that the acquired heart rate information satisfies the condition of the heart rate that occurs when it is felt “cute”, the image processing device 18 captures the object scene and generates an image.

図6は、画像処理装置12の機能ブロック図を示す。画像処理装置12は、撮影レンズ20と、撮像素子22と、駆動部24と、A/D変換回路28と、メモリ30と、制御部32と、メモリカードIF34と、メモリカード36と、LCD駆動回路38と、表示部40と、AFセンサ42と、操作部44と、感性判断部50とを有する。また、感性判断部50は、条件格納部52と、条件判断部54と、画像処理部56とを有する。   FIG. 6 shows a functional block diagram of the image processing apparatus 12. The image processing apparatus 12 includes a photographing lens 20, an image sensor 22, a drive unit 24, an A / D conversion circuit 28, a memory 30, a control unit 32, a memory card IF 34, a memory card 36, and an LCD drive. A circuit 38, a display unit 40, an AF sensor 42, an operation unit 44, and a sensitivity determination unit 50 are included. The sensitivity determination unit 50 includes a condition storage unit 52, a condition determination unit 54, and an image processing unit 56.

撮像素子22は、撮影レンズ20の焦点面近傍に配置されている。撮像素子22は、二次元的に複数の光電変換素子が配された、例えばCCD、CMOSセンサ等のイメージセンサである。   The image sensor 22 is disposed in the vicinity of the focal plane of the photographic lens 20. The image sensor 22 is an image sensor such as a CCD or CMOS sensor in which a plurality of photoelectric conversion elements are two-dimensionally arranged.

駆動部24は、撮像素子22の光電変換素子からの画像信号を読み取るべく撮像素子22を駆動する。画像処理装置12は、駆動部24によりタイミング制御されて、受光面上に結像された被写界を画像信号に変換してA/D変換回路28へ出力する。A/D変換回路28は、撮像素子22が出力する画像信号をデジタル画像信号に変換してメモリ30へ出力する。   The drive unit 24 drives the image sensor 22 to read an image signal from the photoelectric conversion element of the image sensor 22. The image processing device 12 is timing-controlled by the drive unit 24, converts the object scene formed on the light receiving surface into an image signal, and outputs the image signal to the A / D conversion circuit 28. The A / D conversion circuit 28 converts the image signal output from the image sensor 22 into a digital image signal and outputs the digital image signal to the memory 30.

制御部32は、メモリ30をワークスペースとして種々の画像処理を施して、画像データを生成する。制御部32によって生成された画像データは、LCD駆動回路38により表示信号に変換され、表示部40に表示される。また、メモリカードIF34に装着されているメモリカード36に記録される。   The control unit 32 performs various image processing using the memory 30 as a work space to generate image data. The image data generated by the control unit 32 is converted into a display signal by the LCD drive circuit 38 and displayed on the display unit 40. The data is recorded on the memory card 36 attached to the memory card IF 34.

AFセンサ42は、被写体空間に対して複数の測距点が設定された位相差センサであり、それぞれの測距点において被写体像のデフォーカス量を検出する。撮像シーケンスに付随するAF、AE等の各種動作は、制御部32に制御されて実行される。例えば、制御部32は、AFセンサ42の検出信号を解析して、撮影レンズ20の一部を構成するフォーカスレンズを移動させる合焦制御を実行する。なお、撮像素子22をAFセンサ42の代わりに用いてもよく、その場合には別個のAFセンサ42は設けなくてよい。   The AF sensor 42 is a phase difference sensor in which a plurality of distance measuring points are set for the subject space, and detects the defocus amount of the subject image at each distance measuring point. Various operations such as AF and AE accompanying the imaging sequence are executed under the control of the control unit 32. For example, the control unit 32 analyzes the detection signal of the AF sensor 42 and executes focus control for moving a focus lens that constitutes a part of the photographing lens 20. Note that the image sensor 22 may be used instead of the AF sensor 42, and in that case, a separate AF sensor 42 may not be provided.

条件格納部52は、「かわいい」と感じた場合に生体に生じる心拍の条件として、心拍のΔR−Rを格納する。「かわいい」と感じた場合に生体に生じる心拍のΔR−Rは、使用者10において予め実験的に測定されて条件格納部52に格納される。さらに、条件格納部52には、使用者10の「かわいい」の度合いを複数に分け、それぞれの「かわいい」度合いに対応つけたΔR−Rの絶対値の範囲も、条件格納部52に格納されている。本実施形態において、使用者10の「かわいい」度合いを五つに分け、それぞれの「かわいい」の度合いに対応したΔR−Rの絶対値の範囲についても予め実験的に求めて、条件格納部52に格納されている。   The condition storage unit 52 stores ΔR−R of the heartbeat as a condition of the heartbeat generated in the living body when it is felt “cute”. The heart rate ΔR-R generated in the living body when feeling “cute” is experimentally measured in advance by the user 10 and stored in the condition storage unit 52. Furthermore, the condition storage unit 52 divides the degree of “cute” of the user 10 into a plurality of values, and the absolute value range of ΔR−R associated with each “cute” degree is also stored in the condition storage unit 52. ing. In the present embodiment, the degree of “cute” of the user 10 is divided into five, and the range of the absolute value of ΔR−R corresponding to each degree of “cute” is also experimentally obtained in advance, and the condition storage unit 52 Stored in

条件判断部54は、心拍計14から使用者10の心拍情報を取得する。心拍情報とは、心拍が起きた時間の情報である。条件判断部54は、取得した心拍情報から、ΔR−Rを算出する。条件判断部54は、算出したΔR−Rが、条件格納部52に格納されている条件を満たすか否かを判断する。当該条件は、心拍のR−R間隔であって、安静時におけるR−R間隔を減じた値が予め定められた閾値より小さいことである。画像処理部56は、条件判断部54により当該条件を満たすと判断された場合に、制御部32へ撮像信号を出力する。制御部32は、撮像信号を取得すると、被写界を撮像して画像データを生成する。 The condition determination unit 54 acquires the heart rate information of the user 10 from the heart rate monitor 14. The heart rate information is information on the time when the heartbeat occurred. The condition determination unit 54 calculates ΔR−R from the acquired heartbeat information. The condition determination unit 54 determines whether or not the calculated ΔR−R satisfies the condition stored in the condition storage unit 52. The condition is that the value obtained by subtracting the RR interval at rest, which is the RR interval of the heartbeat, is smaller than a predetermined threshold. The image processing unit 56 outputs an imaging signal to the control unit 32 when the condition determining unit 54 determines that the condition is satisfied. When acquiring the imaging signal, the control unit 32 images the object scene and generates image data.

操作部44は、使用者10からの撮像指示を受け付けて、制御部32に当該撮像信号を入力する。制御部32は、撮像信号を取得すると、被写界を撮像して画像データを生成する。このように、画像処理装置12は、画像処理部56から撮像信号が入力されることによって被写界を撮像するとともに、操作部44から操作指示が入力されることによっても被写界を撮像できる。   The operation unit 44 receives an imaging instruction from the user 10 and inputs the imaging signal to the control unit 32. When acquiring the imaging signal, the control unit 32 images the object scene and generates image data. As described above, the image processing apparatus 12 can capture an image of the scene by inputting an imaging signal from the image processing unit 56 and can also capture an image of the scene by inputting an operation instruction from the operation unit 44. .

図7は、画像処理装置12の画像処理の一例を説明するフローチャートである。図7に示すフローチャートは、画像処理装置12の電源が入れられ、撮像ができる状態になった場合に開始する。   FIG. 7 is a flowchart illustrating an example of image processing of the image processing apparatus 12. The flowchart shown in FIG. 7 starts when the image processing apparatus 12 is turned on and ready for imaging.

条件判断部54は、心拍計14から心拍情報を取得する。条件判断部54は、心拍情報として心拍が起きた時間の情報を取得する(S101)。条件判断部54は、心拍情報を取得すると、一つ前に取得した心拍情報との時間の差をとることにより、R−R間隔を算出する。条件判断部54は予め安静時に測定したR−RRefを上記算出値から減ずることによって、ΔR−Rを算出する。 The condition determination unit 54 acquires heart rate information from the heart rate monitor 14. The condition determination unit 54 acquires information on the time when the heartbeat occurred as the heartbeat information (S101). When the heart rate information is acquired, the condition determination unit 54 calculates the RR interval by taking the time difference from the heart rate information acquired immediately before. The condition determination unit 54 calculates ΔR−R by subtracting RR Ref measured in advance at rest from the calculated value.

条件判断部54は、算出したΔR−Rと、条件格納部52に格納されているΔR−Rと比較して、当該条件を満足するか判断する(S102)。本実施形態において条件判断部54は、算出したΔR−Rの値が負である場合に、条件判断部54は、取得した心拍情報が条件を満足すると判断する。   The condition determination unit 54 compares the calculated ΔR-R with the ΔR-R stored in the condition storage unit 52 to determine whether the condition is satisfied (S102). In the present embodiment, the condition determination unit 54 determines that the acquired heartbeat information satisfies the condition when the calculated value of ΔR−R is negative.

なお、条件判断部54の判断には、単純な閾値比較だけでなく、「ΔR−Rの時系列データから多次元の特徴量を抽出して、機械学習によって判断する」といった処理も包含される。これは、R−R間隔の測定毎に得られた単発のΔR−Rのみでなく、時系列的に算出・記録された複数のΔR−Rのデータ列を活用することにより、精度の高い判断方法を実現することができるからである。   The determination by the condition determination unit 54 includes not only simple threshold comparison but also processing such as “multi-dimensional feature quantity is extracted from ΔR−R time-series data and determined by machine learning”. . This is not only a single ΔR-R obtained for each measurement of the RR interval, but also a plurality of ΔR-R data strings calculated and recorded in time series, thereby making a highly accurate judgment. This is because the method can be realized.

条件判断部54は、取得した心拍情報が条件を満足すると判断した場合(S102:Yes)、条件判断部54は、制御部32に撮像信号を出力する(S103)。一方、条件判断部54は、取得した心拍情報が条件を満足すると判断しない場合(S102:No)、条件判断部54は、処理をステップS101に戻す。   When the condition determination unit 54 determines that the acquired heartbeat information satisfies the condition (S102: Yes), the condition determination unit 54 outputs an imaging signal to the control unit 32 (S103). On the other hand, when the condition determination unit 54 does not determine that the acquired heartbeat information satisfies the condition (S102: No), the condition determination unit 54 returns the process to step S101.

制御部32は、撮像条件を設定する(S104)。撮像条件の設定の一例は、AFセンサ42の検出信号を解析して、撮影レンズ20の合焦制御を実行することである。ステップS104に続いて、制御部32は、駆動部24を用いて撮像素子22を駆動して、被写界を撮像して、画像データを生成する(S105)。   The control unit 32 sets imaging conditions (S104). An example of setting the imaging condition is to analyze the detection signal of the AF sensor 42 and execute the focusing control of the photographing lens 20. Subsequent to step S104, the control unit 32 drives the image pickup device 22 using the drive unit 24, images the object scene, and generates image data (S105).

条件判断部54は、使用者10が感じている「かわいい」を五段階で示す番号からなる感性情報を作成する(S106)。条件判断部54は、ΔR−Rの絶対値を算出する。条件判断部54は、算出したΔR−Rが、条件格納部52に格納された「かわいい」の度合いに対応したΔR−R絶対値のどの範囲内となるか検知して、「かわいい」を五段階で示す番号を検出する。条件判断部54は、検出した番号に基づいて、「かわいい」を五段階で示す感性情報を作成する。条件判断部54は、感性情報を作成して、制御部32へ出力する。   The condition determination unit 54 creates sensitivity information including numbers indicating “cute” felt by the user 10 in five levels (S106). The condition determination unit 54 calculates the absolute value of ΔR−R. The condition determination unit 54 detects which range of the absolute value of ΔR-R corresponding to the degree of “cute” stored in the condition storage unit 52 is the calculated ΔR-R, and determines “cute” as five. The number indicated by the stage is detected. The condition determination unit 54 creates sensitivity information indicating “cute” in five stages based on the detected number. The condition determination unit 54 creates sensitivity information and outputs it to the control unit 32.

制御部32は、作成した感性情報を生成した画像データに記録する。制御部32は、例えば、作成した感性情報をExif情報として、画像データに記録して、当該画像データをメモリカードIF34に装着されているメモリカード36に記録する(S108)。   The control unit 32 records the created sensitivity information in the generated image data. For example, the control unit 32 records the created sensitivity information as Exif information in the image data, and records the image data in the memory card 36 attached to the memory card IF 34 (S108).

制御部32は、使用者10から終了指示があったか否かを判断する(S109)。制御部32は、使用者10から終了指示があったと判断した場合(S109:Yes)、画像処理を終了する。一方、使用者10から終了指示があったと判断しない場合(S109:No)、制御部32は、処理をステップS101に戻す。   The control unit 32 determines whether there is an end instruction from the user 10 (S109). When it is determined that the user 10 has issued an end instruction (S109: Yes), the control unit 32 ends the image processing. On the other hand, when it is not determined that there is an end instruction from the user 10 (S109: No), the control unit 32 returns the process to step S101.

使用者10が自ら意識して「かわいい」と判断した場合にシャッターを押す場合、本来の無意識的な感性反応に対して年齢・性別といった社会的制約によって意識的な抑圧がかかってしまい、適切な操作ができない場合がある。以上説明したような、画像処理装置12は、使用者10の「かわいい」という感性を検出して、被写界を撮像できる。これにより、使用者10は、年齢・性別といった社会的制約にかかわらず、「かわいい」と判断した画像を取得できる。   When the user 10 consciously determines that it is “cute” and presses the shutter, the conscious suppression is applied to the original unconscious sensitivity reaction due to social restrictions such as age and gender. Operation may not be possible. As described above, the image processing apparatus 12 can detect the sensitivity of the user 10 as “cute” and image the scene. Thereby, the user 10 can acquire the image determined to be “cute” regardless of social restrictions such as age and sex.

また、カメラは、表示部に表示された画像をユーザーが視認し、適切なタイミングで操作部の操作を行って撮像するが、撮像後の画像が使用者10の意図に沿っていないことが多々発生する。画像処理装置12を用いることで、使用者10の「かわいい」という感性を検出して、被写界を撮像できるので、使用者10の意図に沿った撮像を行うことができる。   In addition, the camera allows the user to visually recognize the image displayed on the display unit, and operates the operation unit at an appropriate timing to capture the image. However, the image after the image capture often does not conform to the intention of the user 10. Occur. By using the image processing device 12, it is possible to detect the sensitivity of the user 10 as “cute” and image the scene, so that it is possible to perform imaging in accordance with the intention of the user 10.

本実施形態において、ΔR−Rを条件として用いた例を示したが、ΔR−Rに加えて、心拍のR−R間隔であって、安静時におけるR−R間隔を減じた値の分散が予め定められた閾値より小さいこと条件としてもよい。   In the present embodiment, an example in which ΔR-R is used as a condition has been shown. However, in addition to ΔR-R, there is a variance of a value obtained by reducing the RR interval of the heartbeat, which is the RR interval of the heartbeat. It may be a condition that it is smaller than a predetermined threshold.

なお、R−R間隔の分散は、測定するのに30秒程度かかるので、条件を満足するか否かを判断するのに30秒以上時間がかかる場合がある。その場合には、ΔR−Rにおいて条件を満足した場合に撮像信号を出力して撮像を行い、R−R間隔の分散の結果を事後的に反映させてもよい。すなわち、R−R間隔の分散が条件格納部52に格納された条件を満足しなかった場合は、当該撮像により撮像された画像を事後的に消去してもよい。これにより、使用者10の「かわいい」と「怖い」を切り分けて、使用者10の「かわいい」と感じる感性反応を検知でき、使用者10が「かわいい」と感じた画像を画像処理装置12に残すことができる。   The dispersion of the RR interval takes about 30 seconds to measure, so it may take 30 seconds or more to determine whether or not the condition is satisfied. In that case, when the condition in ΔR−R is satisfied, an imaging signal may be output to perform imaging, and the result of dispersion of the R−R interval may be reflected afterwards. In other words, when the distribution of the RR interval does not satisfy the condition stored in the condition storage unit 52, the image captured by the imaging may be deleted afterwards. Thereby, the user's 10 “cute” and “scary” can be separated to detect the sensibility reaction that the user 10 feels “cute”, and the image that the user 10 felt “cute” can be detected in the image processing device 12. Can leave.

また、R−R間隔の分散に代えて、心拍の高周波成分と低周波成分との比を条件として設定してもよい。この場合、心拍における変動時系列データを取得して、当該時系列データを構成している周期的な波をその構成割合とともに表すパワースペクトル密度を算出する。心拍における変動時系列データは、高周波数成分(0.15Hzから0.40Hzまでの領域:HF成分という場合がある)と低周波数成分(0.05Hzから0.15Hzまでの領域:LF成分という場合がある)に分離できる。分離されたHF成分とLF成分の積分値をとり、HF成分の積分値とLF成分の積分値との比を算出する。HF成分の積分値とLF成分の積分値との比は、ストレス指標を表すといわれており、HF成分の積分値とLF成分の積分値との比によってもネガティブ感情、ポジティブ感情を切り分けることができる。   Further, instead of the variance of the RR interval, a ratio between the high frequency component and the low frequency component of the heartbeat may be set as a condition. In this case, the fluctuation time-series data in the heartbeat is acquired, and the power spectrum density that represents the periodic wave constituting the time-series data together with the component ratio is calculated. The fluctuation time-series data in the heartbeat includes a high frequency component (region from 0.15 Hz to 0.40 Hz: sometimes referred to as HF component) and a low frequency component (region from 0.05 Hz to 0.15 Hz: LF component). Can be separated). The integrated value of the separated HF component and LF component is taken, and the ratio between the integrated value of the HF component and the integrated value of the LF component is calculated. The ratio between the integral value of the HF component and the integral value of the LF component is said to represent a stress index, and negative emotions and positive emotions can be separated by the ratio of the integral value of the HF component and the integral value of the LF component. it can.

なお、心拍の高周波成分と低周波成分との比を条件として設定する場合においても、30秒程度、心拍の変動時系列データを取得することになり、条件を満足するか否かの判断に時間がかかる場合がある。その場合には、心拍の高周波成分と低周波成分との比の結果を事後的に反映させてもよい。   Even when the ratio between the high-frequency component and the low-frequency component of the heartbeat is set as a condition, heartbeat fluctuation time-series data is acquired for about 30 seconds, and it takes time to determine whether or not the condition is satisfied. May take. In that case, the result of the ratio between the high-frequency component and the low-frequency component of the heartbeat may be reflected afterwards.

また、本実施形態において、ΔR−Rを条件として用いた例を示したが、ΔR−Rに代えて、R−R間隔の時間微分値を用いてもよい。その場合、条件格納部52に格納される条件は、微分値が負であって、絶対値が予め定められた閾値より大きいこととなる。なお、この場合においては、R−R間隔のある計測回数とその次の計測によって定義されるR−R間隔の時間微分値での判断に加えて、R−R間隔の時系列データを用いた判断も適用できる。この場合の具体的な処理としては、多数の時系列データを判断に使用する、AR(AutoRegressive:自己回帰)モデル、またはニューラルネットワーク、またはテンプレートのマッチングなどの複数の手法から、何れか一つ、あるいは複数の組み合わせなど適宜に選択して利用することが可能となる。   Moreover, in this embodiment, although the example using (DELTA) R-R as a condition was shown, it may replace with (DELTA) R-R and may use the time differential value of RR interval. In this case, the condition stored in the condition storage unit 52 is that the differential value is negative and the absolute value is larger than a predetermined threshold value. In this case, in addition to the determination by the time differential value of the RR interval defined by the number of measurements with the RR interval and the next measurement, time series data of the RR interval was used. Judgment can also be applied. As specific processing in this case, any one of a plurality of methods such as an AR (AutoRegressive) model, a neural network, or template matching, which uses a large number of time-series data for determination, Alternatively, a plurality of combinations can be appropriately selected and used.

また、本実施形態において、条件格納部52は、「かわいい」と感じた場合に生体に生じる、心拍とは異なる生体反応の条件をさらに予め格納してもよい。この場合、条件判断部は、心拍情報に加えて、生体反応に関する反応情報を生体から取得して、心拍と生体反応の条件を満たすか否かを判断する。なお、生体反応の一例は、使用者10の表情であり、使用者10の表情が笑顔であると判断されれば、ポジティブ感情であり、使用者10の表情が恐怖で引きつっていると判断されれば、ネガティブ感情であると判断できる。したがって、使用者10の表情から、ネガティブ感情、ポジティブ感情を切り分けることができる。   Further, in the present embodiment, the condition storage unit 52 may further store in advance a biological reaction condition different from the heartbeat that occurs in the living body when it is felt “cute”. In this case, in addition to the heartbeat information, the condition determination unit acquires reaction information related to the biological reaction from the living body, and determines whether or not the conditions of the heartbeat and the biological reaction are satisfied. An example of a biological reaction is the facial expression of the user 10, and if it is determined that the facial expression of the user 10 is a smile, it is positive emotion, and the facial expression of the user 10 is determined to be attracted by fear. If it is done, it can be judged as negative emotion. Therefore, negative emotion and positive emotion can be separated from the facial expression of the user 10.

図8は、表示部40に表示される画像の一例を示す。表示部40には、被写界に存在する被写体41と、撮像条件43と、感性表示45とが表示される。図8に示した例において、感性表示45は、「カワイイ度」の文字と「ハート」の記号の数で表示される。   FIG. 8 shows an example of an image displayed on the display unit 40. The display unit 40 displays a subject 41 existing in the object scene, an imaging condition 43, and a sensitivity display 45. In the example shown in FIG. 8, the sensitivity display 45 is displayed by the number of characters “cute” and the symbol “heart”.

制御部32は、画像データのExif情報から感性情報を読み出す。制御部32は、「かわいい」の五段階に値に対応さえた数の「ハート」の記号を表示した画像データを作成する。制御部32によって生成された「ハート」の記号の数を表示した画像データは、LCD駆動回路38により表示信号に変換され、表示部40に被写界を表示した画像に重畳して感性表示45を表示させる。   The control unit 32 reads the sensitivity information from the Exif information of the image data. The control unit 32 creates image data that displays the number of “heart” symbols corresponding to the values in the five stages of “cute”. The image data indicating the number of “heart” symbols generated by the control unit 32 is converted into a display signal by the LCD drive circuit 38 and superimposed on the image on which the object scene is displayed on the display unit 40, and the sensitivity display 45 is displayed. Is displayed.

このように、表示部40に、「ハート」の記号の数を表示した画像データを表示することによって、使用者10は、当該表示により使用者10が「かわいい」と感じていることを知ることができる。これにより、画像処理部56から撮像信号を出力しない場合であっても、使用者10の「かわいい」という感性を使用者10は表示部40を通じて知ることができ、被写界を撮像できる。   Thus, by displaying the image data indicating the number of “heart” symbols on the display unit 40, the user 10 knows that the user 10 feels “cute” by the display. Can do. Thereby, even when the imaging signal is not output from the image processing unit 56, the user 10 can know the sensitivity of the user 10 as “cute” through the display unit 40, and can image the scene.

図9は、別の画像処理装置62を説明する図である。使用者60は、画像処理装置62を用いて、表示部64に表示された画像のパラメータを変更して画像を加工する。条件判断部54は、心拍計14から使用者60の生体からの心拍に関する心拍情報を取得する。条件判断部54は、取得した心拍情報から、「かわいい」度合いを示す感性情報を作成して、画像処理部86へ出力する。画像処理部86は、取得した感性情報の番号に対応させた数の「ハート」の記号の数を表示した画像データを作成して、感性表示78を表示部64に表示させる。また、画像処理装置62は、取得した心拍情報から、選択された画像を使用者60が「かわいい」と感じる画像に加工するパラメータを検出する。なお、パラメータは、加工条件における条件の一例である。   FIG. 9 is a diagram for explaining another image processing apparatus 62. The user 60 uses the image processing device 62 to change the parameters of the image displayed on the display unit 64 and process the image. The condition determination unit 54 acquires heart rate information related to the heart rate from the living body of the user 60 from the heart rate monitor 14. The condition determination unit 54 creates sensitivity information indicating the degree of “cute” from the acquired heartbeat information, and outputs it to the image processing unit 86. The image processing unit 86 creates image data that displays the number of “heart” symbols corresponding to the number of the acquired sensitivity information, and causes the display unit 64 to display the sensitivity display 78. Further, the image processing device 62 detects a parameter for processing the selected image into an image that the user 60 feels “cute” from the acquired heartbeat information. The parameter is an example of a condition in processing conditions.

図10は、画像処理装置62の表示部64に表示される画像の一例を示す。表示部64には、メニューバー68と、パラメータ入力欄70と、実行釦71と、ツールボックス72と、コントロールバー74と、ドキュメントウインドウ76と、感性表示78とが表示される。   FIG. 10 shows an example of an image displayed on the display unit 64 of the image processing device 62. The display unit 64 displays a menu bar 68, a parameter input field 70, an execution button 71, a tool box 72, a control bar 74, a document window 76, and a sensitivity display 78.

使用者60は、ツールボックス72またはコントロールバー74に対する指示を操作部63から入力する。操作部63は、例えば、マウス、キーバードまたはタッチパネルであってよい。これにより、使用者60は、画像を加工するパラメータ種類およびパラメータ値を入力できる。画像処理装置62は、使用者60に入力されたパラメータ種類およびパラメータ値で加工をした複数の加工画像を作成して表示部64に表示する。画像処理装置62は、取得した心拍情報から、「かわいい」度合いを示す情報を算出する。画像処理装置62は、当該情報に基づいて感性表示78を作成して、表示部64に表示する。   The user 60 inputs an instruction for the tool box 72 or the control bar 74 from the operation unit 63. The operation unit 63 may be a mouse, a keyboard, or a touch panel, for example. Thereby, the user 60 can input the parameter type and parameter value for processing the image. The image processing device 62 creates a plurality of processed images processed with the parameter type and parameter value input by the user 60 and displays them on the display unit 64. The image processing device 62 calculates information indicating the degree of “cute” from the acquired heartbeat information. The image processing device 62 creates a sensitivity display 78 based on the information and displays it on the display unit 64.

また、画像処理部86は、パラメータ入力欄70に入力されたパラメータ種類における、使用者が最も「かわいい」と感じるパラメータ値を検出して、当該パラメータ値によって加工された加工画像を、ドキュメントウインドウ76に表示する。   Further, the image processing unit 86 detects a parameter value that the user feels most “cute” in the parameter type input in the parameter input field 70, and displays a processed image processed by the parameter value as a document window 76. To display.

図11は、画像処理装置62の機能ブロック図を示す。なお、図11において、図6と同じ要素には共通の参照番号を付して、重複する説明を省略する。画像処理装置62は、操作部63と、表示部64と、通信部82と、画像格納部84と、条件格納部52と、条件判断部54と、画像処理部86とを有する。   FIG. 11 shows a functional block diagram of the image processing apparatus 62. In FIG. 11, the same elements as those in FIG. 6 are denoted by common reference numerals, and redundant description is omitted. The image processing device 62 includes an operation unit 63, a display unit 64, a communication unit 82, an image storage unit 84, a condition storage unit 52, a condition determination unit 54, and an image processing unit 86.

使用者60は、操作部63から、画像処理部86に加工する元画像を選択する指示を入力する。なお、加工する元画像は、画像格納部84に格納されている画像であってもよく、ネットワーク90を通じて外部サーバ83に格納されている画像であってもよい。ネットワーク90を介して外部サーバ83に格納されている画像を選択した場合、通信部82は、画像処理部86に入力された指示に基づいて、ネットワーク90を介して外部サーバに格納された画像を取得する。画像処理部86は、使用者60の選択した画像を、画像格納部84または通信部82から読み出して元画像として表示部64のドキュメントウインドウ76に表示する。   The user 60 inputs an instruction for selecting an original image to be processed to the image processing unit 86 from the operation unit 63. Note that the original image to be processed may be an image stored in the image storage unit 84 or an image stored in the external server 83 via the network 90. When an image stored in the external server 83 is selected via the network 90, the communication unit 82 selects an image stored in the external server via the network 90 based on an instruction input to the image processing unit 86. get. The image processing unit 86 reads the image selected by the user 60 from the image storage unit 84 or the communication unit 82 and displays it on the document window 76 of the display unit 64 as an original image.

画像処理部86は、ドキュメントウインドウ76に表示された元画像に対し、操作部63からパラメータ入力欄70に入力されたパラメータ種類における種々のパラメータで加工をした複数の加工画像を作成して表示部64に順次表示する。画像処理部86は、複数の加工画像に対する処理として、複数の加工画像のうち、格納部に格納された条件を満たすと判断された心拍情報を取得した時点で、表示部64に表示された加工画像の加工条件情報に、使用者60により選択されたことを示す指標を付与する。指標の一例は、選択されたことを示す選択情報である。   The image processing unit 86 creates a plurality of processed images obtained by processing the original image displayed in the document window 76 with various parameters in the parameter type input from the operation unit 63 into the parameter input field 70. 64 are sequentially displayed. The image processing unit 86 performs processing on the plurality of processed images at the time of acquiring the heart rate information determined to satisfy the conditions stored in the storage unit among the plurality of processed images. An index indicating that the image is selected by the user 60 is assigned to the image processing condition information. An example of the index is selection information indicating that the index has been selected.

図12は、元画像の加工条件を手動で設定するマニュアルパラメータ設定処理の一例を説明するフローチャートである。マニュアルパラメータの設定処理は、画像処理装置62が起動された後に開始する。   FIG. 12 is a flowchart for explaining an example of manual parameter setting processing for manually setting the processing conditions of the original image. The manual parameter setting process starts after the image processing apparatus 62 is activated.

ステップS201において、画像処理部86は、操作部63からパラメータ種およびパラメータ値の変更の指示を受け付ける。なお、本実施形態において、パラメータ種およびパラメータ値の変更の指示は、ツールボックス72またはコントロールバー74を操作することにより入力される。画像処理部86は、受け付けたパラメータ変更の指示に基づいて元画像を変更して表示部64に表示する(S202)。   In step S <b> 201, the image processing unit 86 receives an instruction to change the parameter type and parameter value from the operation unit 63. In the present embodiment, an instruction to change the parameter type and parameter value is input by operating the tool box 72 or the control bar 74. The image processing unit 86 changes the original image based on the received parameter change instruction and displays it on the display unit 64 (S202).

条件判断部54は、心拍計14から心拍情報を取得する(S203)。条件判断部54は、取得した心拍情報からΔR−Rの絶対値を算出する。条件判断部54は、「かわいい」を五段階で示す番号からなる感性情報を算出して(S204)、画像処理部86に出力する。画像処理部86は、「カワイイ度」の文字と「ハート」の記号の数で表示される感性表示を作成して、表示部64に表示させる(S205)。これにより、使用者60は、表示部64に表示される感性情報を確認しながら、加工条件を変更することができ、使用者60は自らが「かわいい」と感じる画像に加工するパラメータ種およびパラメータ値を検出できる。   The condition determination unit 54 acquires heart rate information from the heart rate monitor 14 (S203). The condition determination unit 54 calculates the absolute value of ΔR−R from the acquired heartbeat information. The condition determination unit 54 calculates sensitivity information including numbers indicating “cute” in five levels (S204), and outputs the sensitivity information to the image processing unit 86. The image processing unit 86 creates a sensibility display that is displayed by the number of characters of “Kawaii” and “Heart”, and displays it on the display unit 64 (S205). Accordingly, the user 60 can change the processing conditions while confirming the sensitivity information displayed on the display unit 64, and the user 60 can process the parameter types and parameters to be processed into an image that he / she feels “cute”. The value can be detected.

ステップS205に続いて、画像処理部86は、使用者60から終了指示が入力されたか否かを判断する(S206)。画像処理部86は、終了指示が入力されたと判断した場合(S206:Yes)、マニュアルパラメータ設定処理を終了する。一方、終了指示が入力されていないと判断した場合(S206:No)、処理をステップS201に戻す。   Following step S205, the image processing unit 86 determines whether an end instruction is input from the user 60 (S206). If the image processing unit 86 determines that an end instruction has been input (S206: Yes), the manual parameter setting process ends. On the other hand, if it is determined that the end instruction has not been input (S206: No), the process returns to step S201.

図13は、自動パラメータ設定処理の一例を説明するフローチャートである。自動パラメータ設定処理は、パラメータ入力欄70にパラメータ種類が入力され、実行釦71が選択されることによって開始する。   FIG. 13 is a flowchart for explaining an example of the automatic parameter setting process. The automatic parameter setting process starts when a parameter type is input to the parameter input field 70 and the execution button 71 is selected.

ステップS301において、画像処理部86は、入力されたパラメータ種類の中から変更するパラメータ種類を設定する(S301)。画像処理部86は、入力されたパラメータ種類の変更可能範囲における全てのパラメータについて、加工条件を記録した加工情報を作成する(S302)。画像処理部86は、ある一つの加工情報に基づいてパラメータ値を変更した加工画像を表示部64に表示する(S303)。   In step S301, the image processing unit 86 sets a parameter type to be changed from the input parameter types (S301). The image processing unit 86 creates processing information in which processing conditions are recorded for all parameters in the changeable range of the input parameter type (S302). The image processing unit 86 displays the processed image in which the parameter value is changed based on a certain piece of processing information on the display unit 64 (S303).

条件判断部54は、心拍計14から心拍情報を取得して(S304)、ΔR−Rの絶対値を算出する。条件判断部54は、算出したΔR−Rの絶対値を画像処理部86で作成された加工情報に対応させて記憶する(S305)。   The condition determination unit 54 acquires heart rate information from the heart rate monitor 14 (S304), and calculates an absolute value of ΔR−R. The condition determining unit 54 stores the calculated absolute value of ΔR−R in association with the processing information created by the image processing unit 86 (S305).

条件判断部54は、ステップS302で作成した全ての加工情報に対応付けてΔR−Rの絶対値が記録されたか否かを判断する(S306)。条件判断部54は、全ての加工情報に対応付けてΔR−Rの絶対値が記録されたと判断すると(S306:Yes)、処理をステップS308へ進める。一方、条件判断部54は、全ての加工情報に対応付けてΔR−Rの絶対値が記録されていないと判断すると、表示部64に表示する画像の加工情報を、ΔR−Rの絶対値が対応つけて記録されていない加工情報に変更する指示を画像処理部86に出力して(S307)、処理をステップS303へ戻す。   The condition determination unit 54 determines whether or not the absolute value of ΔR−R is recorded in association with all the processing information created in step S302 (S306). If the condition determination unit 54 determines that the absolute value of ΔR−R has been recorded in association with all the processing information (S306: Yes), the process proceeds to step S308. On the other hand, if the condition determination unit 54 determines that the absolute value of ΔR−R is not recorded in association with all the processing information, the processing information of the image displayed on the display unit 64 is represented by the absolute value of ΔR−R. An instruction to change to processing information that is not recorded correspondingly is output to the image processing unit 86 (S307), and the process returns to step S303.

条件判断部54は、条件格納部52に格納された条件を満たすΔR−Rの絶対値が対応ついた加工条件を選択する(S308)。なお、図13に示した例において、条件格納部52に格納された条件は、「ΔR−Rの絶対値が最も大きい」である。条件判断部54は、最も大きいΔR−Rの絶対値が記録されている加工情報を選択する。条件判断部54は、選択した加工情報に選択情報を記録して(S309)、画像処理部86に加工情報を出力する。なお、選択情報を記録することは、指標を付すことの一例であり、条件判断部54による選択情報の記録は、画像処理装置62における画像に対する処理の一例である。また、ΔR−Rの絶対値が最も大きいことは、使用者60が最も「かわいい」と感じていることとになり、条件判断部54から出力される加工情報は、元画像を使用者60が最も「かわいい」と感じる画像に加工する加工情報となる。   The condition determination unit 54 selects a machining condition associated with an absolute value of ΔR−R that satisfies the condition stored in the condition storage unit 52 (S308). In the example illustrated in FIG. 13, the condition stored in the condition storage unit 52 is “the absolute value of ΔR−R is the largest”. The condition determination unit 54 selects processing information in which the absolute value of the largest ΔR−R is recorded. The condition determination unit 54 records the selection information in the selected processing information (S309), and outputs the processing information to the image processing unit 86. Note that recording the selection information is an example of attaching an index, and recording the selection information by the condition determination unit 54 is an example of processing for an image in the image processing device 62. In addition, the largest absolute value of ΔR−R means that the user 60 feels the most “cute”, and the processing information output from the condition determination unit 54 is the original image that the user 60 uses. This is the processing information that is processed into the image that feels most “cute”.

ステップS309に続いて、画像処理部86は、パラメータ入力欄70に入力されたパラメータ種類に選択情報が記録された加工情報があるか否かを判断する(S310)。画像処理部86は、パラメータ種類に選択画像が記録された加工情報がないものがあると判断すると(S310:No)、処理をS310に戻して、加工情報がないパラメータ種類に変更するパラメータを設定する。一方、画像処理部86はパラメータ種類に選択画像が記録された加工情報があると判断すると(S310:Yes)、選択情報が記録された加工情報を読み出し、当該加工情報に基づいて元画像を加工した画像を生成して、表示部64のドキュメントウインドウ76に表示して、自動パラメータ設定処理は終了する。   Subsequent to step S309, the image processing unit 86 determines whether there is processing information in which selection information is recorded for the parameter type input in the parameter input field 70 (S310). When the image processing unit 86 determines that there is no processing information in which the selected image is recorded in the parameter type (S310: No), the process returns to S310 to set the parameter to be changed to the parameter type without the processing information. To do. On the other hand, when the image processing unit 86 determines that there is processing information in which the selected image is recorded in the parameter type (S310: Yes), the processing information in which the selection information is recorded is read, and the original image is processed based on the processing information. The generated image is generated and displayed on the document window 76 of the display unit 64, and the automatic parameter setting process ends.

以上説明したように、画像処理装置62は、表示部に感性表示78表示させる。これにより、使用者60は、年齢・性別といった社会的制約にかかわらず、「かわいい」と感じる画像に加工することができる。また、画像処理装置62は、使用者60が選択したパラメータ種類において、最も「かわいい」と感じる加工情報を検出する。これにより、使用者60は、年齢・性別といった社会的制約にかかわらず、「かわいい」と感じる画像に加工する条件を容易に検出できる。   As described above, the image processing device 62 displays the sensitivity display 78 on the display unit. As a result, the user 60 can process an image that feels “cute” regardless of social restrictions such as age and sex. Further, the image processing device 62 detects processing information that is most “cute” in the parameter type selected by the user 60. As a result, the user 60 can easily detect the conditions for processing an image that feels “cute” regardless of social restrictions such as age and sex.

なお、図13に示した例においては、変更するパラメータ種類を定めて、順番に最も「かわいい」と感じるパラメータを選択したが、全てのパラメータ種類におけるすべてのパラメータ値の組み合わせの画像を表示させて、その中から「ΔR−Rの絶対値が最も大きい」画像に加工する加工情報を選択してもよい。これにより、使用者60が最も「かわいい」と感じる画像に加工する条件を検出できる。   In the example shown in FIG. 13, the parameter type to be changed is determined, and the parameter that feels the most “cute” is selected in order, but an image of combinations of all parameter values in all parameter types is displayed. Among them, processing information to be processed into an image having “the largest absolute value of ΔR−R” may be selected. Accordingly, it is possible to detect a condition for processing the image that the user 60 feels most “cute”.

また、画像処理装置62は、使用者60により選択された画像に感性情報を付与して、当該感性情報に基づいて画像を分類または検索できてもよい。図14は、画像へ感性情報を記録する処理の一例を説明するフローチャートである。   In addition, the image processing device 62 may add sensitivity information to the image selected by the user 60, and may classify or search the image based on the sensitivity information. FIG. 14 is a flowchart for explaining an example of processing for recording sensitivity information on an image.

ステップS401において、使用者60は、感性情報を付与したい画像を選択する。使用者60により選択された画像は、表示部64のドキュメントウインドウ76に表示される(S402)。条件判断部54は、心拍計14から心拍情報を取得する(S403)。   In step S401, the user 60 selects an image to which sensitivity information is to be added. The image selected by the user 60 is displayed in the document window 76 of the display unit 64 (S402). The condition determination unit 54 acquires heart rate information from the heart rate monitor 14 (S403).

条件判断部54は、取得した心拍情報に基づいてΔR−R絶対値を算出して、当該ΔR−R絶対値に対応する感性情報を作成する(S404)。条件判断部54は、作成した感性情報を画像処理部86へ出力する。   The condition determining unit 54 calculates an ΔR-R absolute value based on the acquired heartbeat information, and creates sensitivity information corresponding to the ΔR-R absolute value (S404). The condition determination unit 54 outputs the created sensitivity information to the image processing unit 86.

画像処理部86は、感性情報を使用者60に選択された画像データに記録する。画像処理部86は、例えば、作成した感性情報をExif情報として、画像データに記録され、画像へ感性情報を記録する処理は終了する。   The image processing unit 86 records the sensitivity information in the image data selected by the user 60. For example, the image processing unit 86 records the created sensitivity information as Exif information in the image data, and the process of recording the sensitivity information on the image ends.

このように、画像処理装置62は、感性情報が記録されていない画像データに感性情報を記録し、当該感性情報を画像を分類または検索するのに使用できる。図15は、感性情報に基づく、画像の検索処理の一例を説明するフローチャートである。   As described above, the image processing device 62 records sensitivity information in image data in which sensitivity information is not recorded, and can use the sensitivity information to classify or search images. FIG. 15 is a flowchart illustrating an example of an image search process based on sensitivity information.

ステップS501において、使用者60は、検索条件として操作部63から感性条件を入力する。図10に示した例においては、パラメータ入力欄70に感性条件を入力してもよい。また、感性条件の入力は、「ハート」の記号の数を入力してもよい。   In step S501, the user 60 inputs a sensitivity condition from the operation unit 63 as a search condition. In the example shown in FIG. 10, the sensitivity condition may be input in the parameter input field 70. Further, the sensitivity condition may be input by inputting the number of “heart” symbols.

操作部63から入力された感性条件は、画像処理部86に出力される。画像処理部86は、画像格納部84に格納されている画像の中から、入力された感性条件に一致する画像データを検索する。画像処理部86は、感性条件に一致する画像を検索できたか否かを判断する(S502)。画像処理部86は、感性条件に一致する画像を検索できないと判断した場合、処理をステップS501に戻し、再び使用者60から感性条件が入力されるのを待つ。一方、画像処理部86は、感性条件に一致する画像を検索できたと判断した場合(S502:Yes)、一致した画像データを読み出して(S503)、表示部64のドキュメントウインドウ76に表示して(S504)、画像の検索処理は終了する。   The sensitivity condition input from the operation unit 63 is output to the image processing unit 86. The image processing unit 86 searches the image stored in the image storage unit 84 for image data that matches the input sensitivity condition. The image processing unit 86 determines whether or not an image matching the sensitivity condition has been searched (S502). If the image processing unit 86 determines that an image matching the sensitivity condition cannot be searched, the process returns to step S501 and waits for the user 60 to input the sensitivity condition again. On the other hand, when the image processing unit 86 determines that an image matching the sensitivity condition has been searched (S502: Yes), the image processing unit 86 reads the matched image data (S503) and displays it on the document window 76 of the display unit 64 ( S504), the image search process ends.

以上説明したように、画像処理装置62は、感性情報を用いて、画像の分類または検索を行うことができる。さらに、画像処理装置62は、他の検索条件、例えば、被写体のカテゴリー(人物・動物・ぬいぐるみ等)と感性情報との「AND」または「OR」検索を行うことができてもよい。また、上記被写体のカテゴリーごとに「かわいい」度で順位付けできてもよい。   As described above, the image processing apparatus 62 can classify or search images using the sensitivity information. Further, the image processing device 62 may be able to perform an “AND” or “OR” search of other search conditions, for example, a category of a subject (person, animal, stuffed animal, etc.) and sensitivity information. Further, it may be possible to rank each subject category with a “cute” degree.

また、画像処理装置62は、感性情報を画像データに記録する場合、感性情報を取得した時間を併せて記録してもよい。これにより、一枚の画像について、「かわいい」度の経時的な変化または平均としての「かわいい」度の算出ができる。   Further, when recording the sensitivity information in the image data, the image processing device 62 may record the time when the sensitivity information is acquired. This makes it possible to calculate the degree of “cute” as a change over time or the average “cute” degree for one image.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

10、16、60 使用者、12、18、62 画像処理装置、14 心拍計、20 撮影レンズ、22 撮像素子、24 駆動部、28 A/D変換回路、30 メモリ、32 制御部、34 メモリカードIF、36 メモリカード、38 LCD駆動回路、40、64 表示部、41 被写体、42 AFセンサ、43 撮像条件、44、63 操作部、45、78 感性表示、50 感性判断部、52 条件格納部、54 条件判断部、56、86 画像処理部、68 メニューバー、70 パラメータ入力欄、71 実行釦、72 ツールボックス、74 コントロールバー、76 ドキュメントウインドウ、82 通信部、83 外部サーバ、84 画像格納部、90 ネットワーク、100 実験システム、102 映像提示用コンピュータ、104 プロジェクター、106 100インチスクリーン、108 計測用コンピュータ、110 生体計測装置、112 被験者、152、154、156 プロファイル 10, 16, 60 User, 12, 18, 62 Image processing device, 14 Heart rate monitor, 20 Shooting lens, 22 Image sensor, 24 Drive unit, 28 A / D conversion circuit, 30 Memory, 32 Control unit, 34 Memory card IF, 36 Memory card, 38 LCD drive circuit, 40, 64 Display unit, 41 Subject, 42 AF sensor, 43 Imaging condition, 44, 63 Operation unit, 45, 78 Sensitivity display, 50 Sensitivity judgment unit, 52 Condition storage unit, 54 Condition determining unit, 56, 86 Image processing unit, 68 Menu bar, 70 Parameter input field, 71 Execution button, 72 Tool box, 74 Control bar, 76 Document window, 82 Communication unit, 83 External server, 84 Image storage unit, 90 network, 100 experimental system, 102 video presentation computer, 104 Projector, 106 100-inch screen, 108 measurement computer, 110 biological measurement device, 112 subject, 152, 154, 156 profile

Claims (8)

「かわいい」と感じた場合に生体に生じる心拍の条件を予め格納する条件格納部と、
生体からの心拍に関する心拍情報を取得し、取得した前記心拍情報に含まれる心拍が前記条件格納部に格納されている条件を満たすか否かを判断する条件判断部と、
前記条件判断部により前記条件を満たすと判断された場合に、画像に対する処理を実行する画像処理部と
を備え
前記条件は、心拍のR−R間隔であって、安静時におけるR−R間隔を減じた値であるΔR−Rが予め定められた閾値より小さいこと、且つ、前記ΔR−Rの分散が予め定められた閾値より小さいことを含む画像処理装置。
A condition storage unit that stores in advance a heartbeat condition that occurs in the living body when it is felt "cute";
A condition determination unit that acquires heart rate information related to a heart rate from a living body, and determines whether or not a heart rate included in the acquired heart rate information satisfies a condition stored in the condition storage unit;
An image processing unit that performs processing on an image when the condition determining unit determines that the condition is satisfied ;
The condition is the RR interval of the heartbeat, ΔR-R, which is a value obtained by subtracting the RR interval at rest, is smaller than a predetermined threshold, and the variance of the ΔR-R is predetermined. An image processing apparatus including less than a predetermined threshold .
「かわいい」と感じた場合に生体に生じる心拍の条件を予め格納する条件格納部と、A condition storage unit that stores in advance a heartbeat condition that occurs in the living body when it is felt "cute";
生体からの心拍に関する心拍情報を取得し、取得した前記心拍情報に含まれる心拍が前記条件格納部に格納されている条件を満たすか否かを判断する条件判断部と、A condition determination unit that acquires heart rate information related to a heart rate from a living body, and determines whether or not a heart rate included in the acquired heart rate information satisfies a condition stored in the condition storage unit;
前記条件判断部により前記条件を満たすと判断された場合に、画像に対する処理を実行する画像処理部とAn image processing unit that executes processing on an image when the condition determining unit determines that the condition is satisfied;
を備え、With
前記条件は、心拍のR−R間隔であって、安静時におけるR−R間隔を減じた値であるΔR−Rの分散が予め定められた閾値より小さいこと、且つ、前記ΔR−Rの時間微分値が負であって、絶対値が予め定められた閾値より大きいことを含む画像処理装置。The condition is the RR interval of the heartbeat, and the variance of ΔR-R, which is a value obtained by subtracting the RR interval at rest, is smaller than a predetermined threshold, and the time of ΔR-R An image processing apparatus including a differential value being negative and an absolute value being greater than a predetermined threshold value.
「かわいい」と感じた場合に生体に生じる心拍の条件を予め格納する条件格納部と、A condition storage unit that stores in advance a heartbeat condition that occurs in the living body when it is felt "cute";
生体からの心拍に関する心拍情報を取得し、取得した前記心拍情報に含まれる心拍が前記条件格納部に格納されている条件を満たすか否かを判断する条件判断部と、A condition determination unit that acquires heart rate information related to a heart rate from a living body, and determines whether or not a heart rate included in the acquired heart rate information satisfies a condition stored in the condition storage unit;
前記条件判断部により前記条件を満たすと判断された場合に、画像に対する処理を実行する画像処理部とAn image processing unit that executes processing on an image when the condition determining unit determines that the condition is satisfied;
を備え、With
前記条件格納部は、心拍のR−R間隔であって、安静時におけるR−R間隔を減じた値であるΔR−Rの絶対値の範囲を、複数に分けた生体の「かわいい」度合いのそれぞれに対応付けて格納し、The condition storage unit divides the absolute value range of ΔR-R, which is a value obtained by subtracting the RR interval at rest, which is the RR interval of the heartbeat, into a plurality of “cute” degrees of the living body. Store them in association with each other
前記条件判断部は、前記条件を満たすと判断したときの前記ΔR−Rの絶対値を算出し、算出した前記ΔR−Rの絶対値が前記条件格納部に格納されている前記範囲の何れに含まれるかを検知することで、「かわいい」度合いを検出し、「かわいい」度合いを示す感性情報を作成して前記画像処理部に出力し、The condition determination unit calculates an absolute value of the ΔR-R when it is determined that the condition is satisfied, and the calculated absolute value of the ΔR-R is stored in any of the ranges stored in the condition storage unit. By detecting whether it is included, the degree of “cute” is detected, and Kansei information indicating the degree of “cute” is created and output to the image processing unit,
前記画像処理部は、前記感性情報に基づいて画像に対する処理を実行する画像処理装置。The image processing unit is an image processing device that performs processing on an image based on the sensitivity information.
「かわいい」と感じた場合に生体に生じる心拍の条件を予め格納する条件格納部と、A condition storage unit that stores in advance a heartbeat condition that occurs in the living body when it is felt "cute";
生体からの心拍に関する心拍情報を取得し、取得した前記心拍情報に含まれる心拍が前記条件格納部に格納されている条件を満たすか否かを判断する条件判断部と、A condition determination unit that acquires heart rate information related to a heart rate from a living body, and determines whether or not a heart rate included in the acquired heart rate information satisfies a condition stored in the condition storage unit;
前記条件判断部により前記条件を満たすと判断された場合に、画像に対する処理を実行する画像処理部とAn image processing unit that executes processing on an image when the condition determining unit determines that the condition is satisfied;
を備え、With
前記条件判断部は、心拍のR−R間隔であって、安静時におけるR−R間隔を減じた値であるΔR−Rの時系列データから多次元の特徴量を抽出して、機械学習、ARモデル、ニューラルネットワーク、および、テンプレートのマッチングの少なくとも1つによって前記条件を満たすか否かを判断する画像処理装置。The condition determination unit extracts a multidimensional feature amount from time-series data of ΔR-R, which is a value obtained by subtracting the RR interval at rest, which is the RR interval of the heartbeat, and performs machine learning. An image processing apparatus that determines whether or not the condition is satisfied by at least one of an AR model, a neural network, and template matching.
前記画像処理部は、前記画像に対する処理として、被写界を撮像して前記画像を生成する請求項1から4の何れか一項に記載の画像処理装置。 Wherein the image processing section, as the processing of the image, the image processing apparatus according to claims 1 to generate the image by capturing an object scene to any one of 4. 前記画像処理部は、
元画像に対して異なる加工条件で加工をした複数の加工画像を生成し、画像表示部に順次表示するとともに、前記処理として、前記複数の加工画像のうち、前記条件を満たすと判断された前記心拍情報を取得した時点で前記画像表示部に表示されていた加工画像の加工条件に、前記生体により選択されたことを示す指標を付与する請求項1から4の何れか一項に記載の画像処理装置。
The image processing unit
A plurality of processed images processed with different processing conditions with respect to the original image are generated and sequentially displayed on the image display unit, and the processing is determined to satisfy the condition among the plurality of processed images. The image according to any one of claims 1 to 4 , wherein an index indicating that the living body has been selected is added to the processing condition of the processed image displayed on the image display unit at the time when the heartbeat information is acquired. Processing equipment.
前記条件格納部は、「かわいい」と感じた場合に生体に生じる、心拍とは異なる生体反応の条件をさらに予め格納し、
前記条件判断部は、前記心拍情報に加えて、生体反応に関する反応情報を生体から取得して、前記心拍および前記生体反応の条件を満たすか否かを判断する請求項1から6のいずれか1項に記載の画像処理装置。
The condition storage unit further stores in advance biological reaction conditions that are different from heartbeats, which occur in the living body when feeling “cute”,
7. The condition determination unit according to claim 1, wherein the condition determination unit acquires reaction information related to a biological reaction in addition to the heartbeat information from the living body, and determines whether the condition of the heartbeat and the biological reaction is satisfied. The image processing apparatus according to item.
前記生体反応は、前記生体の表情である、請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the biological reaction is a facial expression of the living body.
JP2013180720A 2013-08-30 2013-08-30 Image processing device Active JP6198530B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013180720A JP6198530B2 (en) 2013-08-30 2013-08-30 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013180720A JP6198530B2 (en) 2013-08-30 2013-08-30 Image processing device

Publications (2)

Publication Number Publication Date
JP2015050614A JP2015050614A (en) 2015-03-16
JP6198530B2 true JP6198530B2 (en) 2017-09-20

Family

ID=52700280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013180720A Active JP6198530B2 (en) 2013-08-30 2013-08-30 Image processing device

Country Status (1)

Country Link
JP (1) JP6198530B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6393990B2 (en) * 2014-01-20 2018-09-26 株式会社ニコン Image processing device
JP7097012B2 (en) * 2017-05-11 2022-07-07 学校法人 芝浦工業大学 Kansei estimation device, Kansei estimation system, Kansei estimation method and program
WO2019159352A1 (en) * 2018-02-19 2019-08-22 日本電気株式会社 Psychosomatic state estimation device, psychosomatic state estimation method, and computer-readable recording medium
CN111277755B (en) * 2020-02-12 2021-12-07 广州小鹏汽车科技有限公司 Photographing control method and system and vehicle

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250977A (en) * 2004-03-05 2005-09-15 Nikon Corp Photographing apparatus, image reproducing device, image appreciation room, data accumulation/analysis apparatus, silver salt camera, and scanner
JP2005260892A (en) * 2004-03-15 2005-09-22 Nec Corp Mental picture scenery recorder
JP5515192B2 (en) * 2005-02-17 2014-06-11 セイコーエプソン株式会社 Image recording apparatus, image recording method, and control program
JP5018375B2 (en) * 2007-09-27 2012-09-05 カシオ計算機株式会社 Imaging apparatus, playback apparatus, imaging control setting method, and program
JP2012059107A (en) * 2010-09-10 2012-03-22 Nec Corp Emotion estimation device, emotion estimation method and program
JP5257525B2 (en) * 2012-01-12 2013-08-07 ソニー株式会社 Information processing apparatus, imaging control method, and program

Also Published As

Publication number Publication date
JP2015050614A (en) 2015-03-16

Similar Documents

Publication Publication Date Title
EP2772828B1 (en) Individual body discrimination device and individual body discrimination method
US9747902B2 (en) Method and system for assisting patients
JP6521845B2 (en) Device and method for measuring periodic fluctuation linked to heart beat
US20120083675A1 (en) Measuring affective data for web-enabled applications
JP6356963B2 (en) Machinery
JP2007068620A (en) Psychological condition measuring apparatus
JP6198530B2 (en) Image processing device
US20130102854A1 (en) Mental state evaluation learning for advertising
JP5789735B2 (en) Content evaluation apparatus, method, and program thereof
JP2006087743A (en) Recognizing ability measuring apparatus and method
JP6132335B2 (en) Emotion estimation device and emotion estimation method
US20130052621A1 (en) Mental state analysis of voters
CN113764099A (en) Psychological state analysis method, device, equipment and medium based on artificial intelligence
Jayawardena et al. Automated filtering of eye gaze metrics from dynamic areas of interest
KR20130043369A (en) Apparatus for deciding user&#39;s intention and method therof
JPWO2017085894A1 (en) Pulse wave analyzer, pulse wave analysis method, and pulse wave analysis program
WO2017154477A1 (en) Pulse estimating device, pulse estimating system, and pulse estimating method
CN114241565A (en) Facial expression and target object state analysis method, device and equipment
JP2011244841A (en) Biological information measurement apparatus and method of biological information measurement
JP4774532B2 (en) Facial expression image record retrieval device
JP7514521B2 (en) HEART RATE MEASUREMENT SYSTEM, HEART RATE MEASUREMENT METHOD, AND HEART RATE MEASUREMENT PROGRAM
JP5918998B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP6149084B2 (en) Individual discrimination device and individual discrimination method
US20240223884A1 (en) Image capturing method
JP6363561B2 (en) Information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170822

R150 Certificate of patent or registration of utility model

Ref document number: 6198530

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250