JP2020129268A - Learning request device, learning device, inference model using device, inference model using method, inference model using program and imaging device - Google Patents

Learning request device, learning device, inference model using device, inference model using method, inference model using program and imaging device Download PDF

Info

Publication number
JP2020129268A
JP2020129268A JP2019021597A JP2019021597A JP2020129268A JP 2020129268 A JP2020129268 A JP 2020129268A JP 2019021597 A JP2019021597 A JP 2019021597A JP 2019021597 A JP2019021597 A JP 2019021597A JP 2020129268 A JP2020129268 A JP 2020129268A
Authority
JP
Japan
Prior art keywords
inference
information
engine
model
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019021597A
Other languages
Japanese (ja)
Other versions
JP7166951B2 (en
Inventor
豊田 哲也
Tetsuya Toyoda
哲也 豊田
和寛 羽田
Kazuhiro Haneda
和寛 羽田
伊藤 大
Masaru Ito
大 伊藤
和彦 長
Kazuhiko Cho
和彦 長
野中 修
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2019021597A priority Critical patent/JP7166951B2/en
Publication of JP2020129268A publication Critical patent/JP2020129268A/en
Application granted granted Critical
Publication of JP7166951B2 publication Critical patent/JP7166951B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

To enable a device that uses inference by machine learning to effectively function in consideration of constraints during actual use.SOLUTION: A learning request device comprises: a specification setting unit generating specification information describing setting of a plurality of specification items for requesting specification of an inference model; and a control unit performing control for transmitting the specification information together with teacher data to a learning device generating the inference model, the specification setting unit includes in the specification information a specification item for setting whether an inference engine using the inference model infers in cooperation with other combined inference device.SELECTED DRAWING: Figure 1

Description

本発明は、利用条件との整合性に留意した学習依頼装置、学習装置、推論モデル利用装置、推論モデル利用方法、推論モデル利用プログラム及び撮像装置に関する。 The present invention relates to a learning requesting device, a learning device, an inference model using device, an inference model using method, an inference model using program, and an imaging device in which consistency with usage conditions is taken into consideration.

従来、ロジック回路を用いて、人が記述したルールに従って処理を行うルールベース制御の装置が採用されることがある。ルールベース制御による推論を行うことで、各種問題を解決することが可能である。また、近年、深層学習等の機械学習により生成した推論モデルを利用して各種問題を解決するコンピュータシステムも採用されるようになってきている。特に、深層学習を利用した装置は、例えば、画像解析、音声解析、自然言語処理等について極めて有効な推論を行うことができる。 Conventionally, a rule-based control device that performs processing according to a rule described by a person using a logic circuit may be adopted. It is possible to solve various problems by performing inference by rule-based control. In recent years, computer systems that solve various problems using inference models generated by machine learning such as deep learning have also been adopted. In particular, a device using deep learning can make extremely effective inferences regarding image analysis, voice analysis, natural language processing, and the like.

例えば、特許文献1には、異常検知に際して、異常の有無を判断するための異常度の閾値を定める技術が開示されている。特許文献1の装置においては、異常の検知対象から収集されたデータを学習した学習結果を利用することで異常度を算出するようになっている。 For example, Patent Document 1 discloses a technique of setting a threshold value of an abnormality degree for determining the presence or absence of abnormality when detecting an abnormality. In the apparatus of Patent Document 1, the degree of abnormality is calculated by using the learning result obtained by learning the data collected from the abnormality detection target.

特開2018−148350号公報JP, 2018-148350, A

機械学習により有効な推論モデルを得るためには、学習の仕方や学習に用いる教師データとして適切なものを採用する必要がある。機械学習による推論の有効性は学習の影響を受け、また、十分な学習を行ったとしても正しい推論が得られるとは限らない。場合によっては、ルールベースを用いた推論の方が、機械学習による推論よりもより正しい推論結果が得られることもある。 In order to obtain an effective inference model by machine learning, it is necessary to adopt appropriate data as a learning method and teacher data used for learning. The effectiveness of inference by machine learning is affected by learning, and even if sufficient learning is performed, correct inference cannot always be obtained. In some cases, inference using a rule base may provide more correct inference results than inference using machine learning.

そこで、ルールベースを用いた推論の利点と機械学習による推論の利点とを考慮した仕組みが重要であるが、学習の仕方や推論モデルの利用方法等について十分に考慮されたシステムは開発されていない。 Therefore, it is important to have a mechanism that takes into consideration the advantages of inference using rule bases and inference by machine learning, but a system that fully considers the learning method and the usage of inference models has not been developed. ..

本発明は、これまでのようにルールベースのロジック回路の利点を考慮し、機械学習による推論を利用する装置を有効に機能させることを可能にすることができる学習依頼装置、学習装置、推論モデル利用装置、推論モデル利用方法、推論モデル利用プログラム及び撮像装置を提供することを目的とする。 The present invention considers the advantages of the rule-based logic circuit as in the past, and can effectively enable a device that uses inference by machine learning to function, a learning request device, a learning device, and an inference model. An object is to provide a utilization device, an inference model utilization method, an inference model utilization program, and an imaging device.

本発明の一態様による学習依頼装置は、推論モデルの仕様を要求するための複数の仕様項目の設定を記述した仕様情報を生成する仕様設定部と、上記仕様情報を教師データと共に上記推論モデルを生成する学習装置に送信するための制御を行う制御部とを具備し、上記仕様設定部は、上記仕様情報中に、上記推論モデルを利用する推論エンジンが、他の併用推論機器と連携して推論を行うか否かを設定する仕様項目を含める。 A learning requesting apparatus according to an aspect of the present invention includes a specification setting unit that generates specification information describing settings of a plurality of specification items for requesting specifications of an inference model; The specification setting unit includes a control unit that performs control for transmission to a learning device to generate, and an inference engine that uses the inference model in the specification information, in cooperation with another combination inference device. Include a specification item that sets whether to make inference.

本発明の一態様による学習装置は、推論モデルの仕様を決定するための複数の仕様項目の設定を記述した仕様情報であって、上記推論モデルを利用する推論エンジンが他の併用推論機器と連携して推論を行うための仕様情報に基づいて上記推論モデルを構築する推論モデル化部と、上記仕様情報に基づいて上記併用推論機器との連携の仕方に関する推論設定情報を上記推論モデルを構築するための推論モデル情報に付加して送信するための制御を行う制御部とを具備する。 A learning device according to one aspect of the present invention is specification information describing settings of a plurality of specification items for determining specifications of an inference model, and an inference engine using the inference model cooperates with other combined inference devices. Then, the inference model is constructed based on the specification information for performing the inference, and the inference model is constructed based on the specification information and the inference setting information on how to cooperate with the combined reasoning device. And a control unit that performs control for adding and transmitting to the inference model information.

本発明の一態様による推論モデル利用装置は、推論エンジンと併用推論機器とが連携して推論を行うことを前提にした推論モデルを構築するための推論モデル情報であって、上記推論エンジンと上記併用推論機器との連携の仕方に関する推論設定情報が付加された上記推論モデル情報を受信する通信部と、上記推論モデル情報に基づいて構成される推論モデルを用いて推論を行う上記推論エンジンと、上記併用推論機器と、上記推論設定情報に基づいて、上記推論エンジンと上記併用推論機器とを連携させて推論を実行させる制御部とを具備する。 The inference model utilization apparatus according to one aspect of the present invention is inference model information for constructing an inference model on the assumption that an inference engine and a combined inference device cooperate with each other to perform inference. A communication unit that receives the inference model information to which the inference setting information regarding the way of cooperating with the combined inference device is added, the inference engine that performs inference using the inference model configured based on the inference model information, The combination reasoning device includes a control unit that causes the inference engine and the combination reasoning device to cooperate with each other to perform inference based on the inference setting information.

本発明の一態様による推論モデル利用方法は、推論エンジンと併用推論機器とが連携して推論を行うことを前提にした推論モデルを構築するための推論モデル情報であって、上記推論エンジンと上記併用推論機器との連携の仕方に関する推論設定情報が付加された上記推論モデル情報を受信し、上記推論モデル情報に基づいて構成される推論モデルを用いて上記推論エンジンを構築し、上記推論設定情報に基づいて、上記推論エンジンと上記併用推論機器とを連携させて推論を実行させる。 The inference model utilization method according to one aspect of the present invention is inference model information for constructing an inference model on the assumption that an inference engine and a combined inference device cooperate with each other to perform inference. The inference model information to which the inference setting information regarding the way of cooperating with the combined inference device is added is received, the inference engine is constructed by using the inference model configured based on the inference model information, and the inference setting information is set. Based on the above, the inference engine and the combined inference device are linked to execute inference.

本発明の一態様による推論モデル利用プログラムは、コンピュータに、推論エンジンと併用推論機器とが連携して推論を行うことを前提にした推論モデルを構築するための推論モデル情報であって、上記推論エンジンと上記併用推論機器との連携の仕方に関する推論設定情報が付加された上記推論モデル情報を受信し、上記推論モデル情報に基づいて構成される推論モデルを用いて上記推論エンジンを構築し、上記推論設定情報に基づいて、上記推論エンジンと上記併用推論機器とを連携させて推論を実行させる手順を実行させる。 The inference model utilization program according to an aspect of the present invention is inference model information for constructing an inference model on the assumption that an inference engine and a combined inference device cooperate with each other to perform inference in a computer. The inference model information to which the inference setting information regarding the way of cooperation between the engine and the combined inference device is added is received, and the inference engine is constructed using the inference model configured based on the inference model information. Based on the inference setting information, the procedure for causing the inference engine and the combined inference device to cooperate with each other to execute inference is executed.

本発明の一態様による撮像装置は、被写体の撮像画像を取得する撮像部と、推論エンジンと併用推論機器とが連携して推論を行うことを前提にした推論モデルを構築するための推論モデル情報であって、上記推論エンジンと上記併用推論機器との連携の仕方に関する推論設定情報が付加された上記推論モデル情報を受信する通信部と、上記推論モデル情報に基づいて構成される推論モデルを用いて推論を行う上記推論エンジンと、上記併用推論機器と、上記推論設定情報に基づいて、上記推論エンジンと上記併用推論機器とを連携させて推論を実行させることにより、上記撮像画像から所定の対象物を検出する制御部とを具備する。 The image capturing apparatus according to one aspect of the present invention includes inference model information for constructing an inference model based on the assumption that an image capturing unit that acquires a captured image of a subject and an inference engine and a combination inference device cooperate with each other to perform inference. And using a communication unit that receives the inference model information to which the inference setting information regarding the way of cooperation between the inference engine and the combined inference device is added, and an inference model configured based on the inference model information. A predetermined object from the captured image by causing the inference engine and the combined inference device to cooperate with each other to perform inference based on the inference engine for performing inference by using the inference engine, the combined inference device, and the inference setting information. And a control unit for detecting an object.

本発明の他の態様による推論モデル利用装置は、外部に推論モデルの作成を依頼するための通信部と、搭載すべき前記推論モデルの要求仕様を表示部に一覧表示可能な制御部とを具備する。 An inference model utilization apparatus according to another aspect of the present invention includes a communication unit for externally requesting creation of an inference model, and a control unit capable of displaying a list of required specifications of the inference model to be mounted on a display unit. To do.

本発明によれば、機械学習による推論を利用する装置を有効に機能させることを可能にすることができるという効果を有する。 According to the present invention, there is an effect that it is possible to effectively operate a device that uses inference by machine learning.

本発明の第1の実施の形態に係る学習依頼装置、学習装置及び撮像装置を示すブロック図である。It is a block diagram showing a learning request device, a learning device, and an imaging device concerning a 1st embodiment of the present invention. ルールベースエンジンを用いた処理を示す説明図である。It is explanatory drawing which shows the process using a rule base engine. 推論エンジンを用いた処理を示す説明図である。It is explanatory drawing which shows the process which used the inference engine. ルールベースエンジンと推論エンジンとを連携して用いた処理を示す説明図である。It is explanatory drawing which shows the process which used the rule base engine and the inference engine in cooperation. 表示部14の表示画面14a上に表示された仕様設定メニュー表示DMの一例を示す説明図である。6 is an explanatory diagram showing an example of a specification setting menu display DM displayed on a display screen 14a of the display unit 14. FIG. 推論エンジンと併用推論機器との連携の仕方の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of the method of cooperation with an inference engine and a combination reasoning apparatus. 推論エンジンと併用推論機器との連携の仕方の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of the method of cooperation with an inference engine and a combination reasoning apparatus. 推論エンジンと併用推論機器との連携の仕方の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of the method of cooperation with an inference engine and a combination reasoning apparatus. 撮像装置10による撮影の様子を示す説明図である。FIG. 4 is an explanatory diagram showing a state of shooting by the image pickup apparatus 10. 学習依頼装置30の動作を説明するためのフローチャートである。It is a flow chart for explaining operation of learning request device 30. 学習装置20の動作を説明するためのフローチャートである。6 is a flowchart for explaining the operation of learning device 20. 第1手法における学習装置20による学習及び学習の結果得られる推論モデルを説明するための説明図である。It is explanatory drawing for demonstrating the learning by the learning apparatus 20 in a 1st method, and the inference model obtained as a result of learning. 撮像装置10の動作を説明するためのフローチャートである。6 is a flowchart for explaining the operation of the image pickup apparatus 10. ルールベースエンジン18による推論を説明するための説明図である。5 is an explanatory diagram for explaining inference by the rule-based engine 18. FIG. 推論エンジン17による推論を説明するための説明図である。5 is an explanatory diagram for explaining inference by the inference engine 17. FIG. 一連の推論の検出結果に基づく画像表示の例を示す説明図である。It is explanatory drawing which shows the example of the image display based on the detection result of a series of inference. 第2手法における学習装置20による学習及び学習の結果得られる推論モデルを説明するための説明図である。It is explanatory drawing for demonstrating the learning by the learning apparatus 20 in a 2nd method, and the inference model obtained as a result of learning. 撮像装置10の動作を説明するためのフローチャートである。6 is a flowchart for explaining the operation of the image pickup apparatus 10. 撮像装置10の動作を説明するためのフローチャートである。6 is a flowchart for explaining the operation of the image pickup apparatus 10. 第2の実施の形態を示すブロック図である。It is a block diagram which shows 2nd Embodiment. 第2の実施の形態を示すブロック図である。It is a block diagram which shows 2nd Embodiment.

以下、図面を参照して本発明の実施の形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
本発明は、機械学習による推論モデルを有効に活用するためのもので、推論モデルを利用するハードウェア、装置との整合性を考慮したものである。
推論モデルを機械学習によって得る場合、学習時に与える教師データや学習用のコンピュータの性能と、実使用時の入力データと実使用時の電子回路の性能との差異を十分に考慮しなければ、思惑通りの推論結果を得ることが出来ない。したがって、推論モデル利用時の制約条件等を十分に考慮した、学習のステップが重要となる。このいわば、「推論モデルの要求仕様」を標準化できるような工夫によって、きわめて自由度の高い学習環境や、豊富な教師データ類を活用可能にして、利用環境下において、さらに高精度な出力が可能な推論モデルの取得を可能としている。
(First embodiment)
The present invention is for effectively utilizing an inference model based on machine learning, and takes into consideration compatibility with hardware and devices that use the inference model.
When obtaining an inference model by machine learning, it is necessary to fully consider the difference between the performance of the teaching data or the computer for learning given during learning and the performance of the input data during actual use and the performance of the electronic circuit during actual use. You can't get the exact inference results. Therefore, the learning step that fully considers the constraint conditions when using the inference model is important. In other words, it is possible to utilize a learning environment with a high degree of freedom and abundant teacher data by devising a method that can standardize the "requirement specification of the inference model", and it is possible to output even more accurate under the usage environment. It is possible to acquire various inference models.

図1は本発明の第1の実施の形態に係る学習依頼装置、学習装置及び撮像装置を示すブロック図である。本実施の形態は機械学習による推論モデルを有効に活用する一例として、推論モデルを利用する推論エンジンの他に併用推論機器を有する装置における推論モデルの活用例について説明する。即ち、本実施の形態は、ルールベースを用いた推論を実行する併用推論機器であるルールベースエンジン及び機械学習による推論を実行する推論エンジンを有する装置において、より有効な推論を実現するために、学習のための仕様情報を作成し、学習結果の推論モデルの利用の仕方等を示す推論設定情報を含む推論モデル情報を生成し、推論モデル情報を用いてルールベースエンジンと推論エンジンとを効果的に動作させることを可能にするものである。なお、図1では、ルールベースエンジン及び推論エンジンを有する装置として撮像装置を例に説明するが、撮像装置に限定されるものではない。また、併用推論機器として、ルールベースエンジンを採用する例を説明するが、機械学習による推論を実行する推論エンジン、例えば推論モデルが更新不能な推論エンジンを採用してもよい。
なお、推論モデルの活用例として、推論モデルを利用する推論エンジンが併用推論機器と連携して推論を行う例を説明するが、併用推論機器が存在しない場合においても、「推論モデルの要求仕様」を記述した仕様情報の作成、仕様情報に基づいて作成された推論モデルの利用の仕方等を示す推論設定情報を含む推論モデル情報の生成によって、推論モデルを有効に活用できることは以下の説明から明らかである。
FIG. 1 is a block diagram showing a learning request device, a learning device, and an imaging device according to the first embodiment of the present invention. In the present embodiment, as an example of effectively utilizing an inference model by machine learning, an example of utilizing an inference model in an apparatus having a combined inference device in addition to an inference engine using the inference model will be described. That is, in the present embodiment, in order to realize more effective inference in a device having a rule-based engine that is a combined inference device that executes inference using a rule base and an inference engine that executes inference by machine learning, Create specification information for learning, generate inference model information including inference setting information indicating how to use the inference model as a learning result, and use the inference model information to effectively operate a rule-based engine and an inference engine. It is possible to operate. Note that, in FIG. 1, an imaging device is described as an example of a device having a rule-based engine and an inference engine, but the device is not limited to the imaging device. Further, although an example in which a rule-based engine is adopted as the combined reasoning device is described, an inference engine that executes inference by machine learning, for example, an inference model in which an inference model cannot be updated may be adopted.
As an example of utilizing the inference model, an example in which an inference engine that uses the inference model performs inference in cooperation with the combined inference device will be described. It is clear from the following explanation that the inference model can be effectively used by creating the inference model information including the inference setting information indicating how to use the inference model created based on the specification information and the inference model created based on the specification information. Is.

先ず、図2Aから図2Cを参照して、ルールベースエンジンと推論エンジンとを連携して用いる例について説明する。図2Aはルールベースエンジンを用いた処理を示す説明図であり、図2Bは推論エンジンを用いた処理を示す説明図であり、図2Cはルールベースエンジンと推論エンジンとを連携して用いた処理を示す説明図である。図2Aから図2Cは撮像装置のホワイトバランスゲイン(WBゲイン)を求めるフローを示している。なお、図2Aから図2Cにおいて、推論エンジンによる処理はハッチングにて示してある。 First, an example of using a rule-based engine and an inference engine in cooperation will be described with reference to FIGS. 2A to 2C. 2A is an explanatory diagram showing a process using a rule-based engine, FIG. 2B is an explanatory diagram showing a process using an inference engine, and FIG. 2C is a process using a rule-based engine and an inference engine in cooperation with each other. FIG. 2A to 2C show a flow for obtaining a white balance gain (WB gain) of the image pickup apparatus. 2A to 2C, the processing by the inference engine is shown by hatching.

図2Aの例では、画像入力に対して、光源色判定及び被写体色判定が行われる。ルールベースエンジンは、これらの判定結果を用いて、予め設定されているルールに従って総合判定を行い、ホワイトバランスゲインを求める。図2Bの例では、画像入力に対して、推論エンジンは、ホワイトバランスゲインを推定する(WB推定)。 In the example of FIG. 2A, the light source color determination and the subject color determination are performed on the image input. The rule-based engine uses these determination results to make a comprehensive determination according to a preset rule to obtain a white balance gain. In the example of FIG. 2B, the inference engine estimates the white balance gain with respect to the image input (WB estimation).

図2Cの例において、推論エンジンは、画像入力に対してホワイトバランスゲインの推論結果を直接出力するのではなく、先ず入力画像から光源マップを求める。一方、ルールベースエンジンは、光源色を判定する。推論エンジンは、ルールベースエンジンが求めた光源色を光源マップを用いて補正する。そして、推論エンジンによる光源色の補正結果と被写体色の判定結果とに基づく総合判定により、ホワイトバランスゲインが求められる。 In the example of FIG. 2C, the inference engine does not directly output the inference result of the white balance gain with respect to the image input, but first obtains the light source map from the input image. On the other hand, the rule-based engine determines the light source color. The inference engine corrects the light source color obtained by the rule-based engine using the light source map. Then, the white balance gain is obtained by comprehensive judgment based on the correction result of the light source color by the inference engine and the judgment result of the subject color.

図1の撮像装置10は、このように連携して推論を行う推論エンジン17とルールベースエンジン18とを備える。撮像装置10は、被写体を撮像して得た画像を記録する。撮像装置10としては、デジタルカメラやビデオカメラだけでなく、スマートフォンやタブレット端末に内蔵されるカメラを採用してもよい。なお、推論エンジンがルールベースエンジンの機能をカバーする場合は、ルールベースエンジンはなくてもよい。 The imaging device 10 of FIG. 1 includes an inference engine 17 and a rule-based engine 18 that perform inference in this way. The imaging device 10 records an image obtained by imaging a subject. As the imaging device 10, not only a digital camera or a video camera but also a camera built in a smartphone or a tablet terminal may be adopted. If the inference engine covers the function of the rule-based engine, the rule-based engine may be omitted.

撮像装置10は、撮像装置10の各部を制御する制御部11を備えている。制御部11は、CPU(Central Processing Unit)等を用いたプロセッサによって構成されて、図示しないメモリに記憶されたプログラムに従って動作して各部を制御するものであってもよいし、ハードウェアの電子回路で機能の一部又は全部を実現するものであってもよい。 The imaging device 10 includes a control unit 11 that controls each unit of the imaging device 10. The control unit 11 may be configured by a processor using a CPU (Central Processing Unit) or the like and operate according to a program stored in a memory (not shown) to control each unit, or an electronic circuit of hardware. May realize some or all of the functions.

撮像装置10の撮像部12は、撮像素子12a及び光学系12bを有している。光学系12bは、ズームやフォーカシングのための図示しないレンズや絞り等を備えている。光学系12bは、これらのレンズを駆動する図示しないズーム(変倍)機構、ピント及び絞り機構を備えている。 The imaging unit 12 of the imaging device 10 has an imaging element 12a and an optical system 12b. The optical system 12b includes a lens, a diaphragm, and the like (not shown) for zooming and focusing. The optical system 12b includes a zoom (variable magnification) mechanism, a focus and a diaphragm mechanism (not shown) that drives these lenses.

撮像素子12aは、CCDやCMOSセンサ等によって構成されており、光学系12bによって被写体光学像が撮像素子12aの撮像面に導かれるようになっている。撮像素子12aは、被写体光学像を光電変換して被写体の撮像画像(撮像信号)を取得する。 The image pickup device 12a is composed of a CCD, a CMOS sensor, or the like, and an optical system 12b guides a subject optical image to the image pickup surface of the image pickup device 12a. The image sensor 12a photoelectrically converts the subject optical image to obtain a captured image (imaging signal) of the subject.

制御部11の撮像制御部11aは、光学系12bのズーム機構、ピント機構及び絞り機構を駆動制御して、ズーム、絞り及びピントを調節することができるようになっている。撮像部12は、撮像制御部11aに制御されて撮像を行い、撮像画像(動画像及び静止画像)の撮像信号を制御部11に出力する。 The imaging control unit 11a of the control unit 11 can drive and control the zoom mechanism, the focus mechanism, and the aperture mechanism of the optical system 12b to adjust the zoom, aperture, and focus. The imaging unit 12 is controlled by the imaging control unit 11a to perform imaging, and outputs an imaging signal of a captured image (moving image and still image) to the control unit 11.

撮像装置10には操作部13が設けられている。操作部13は、図示しないレリーズボタン、ファンクションボタン、撮影モード設定、パラメータ操作等の各種スイッチ、ダイヤル、リング部材等を含み、ユーザ操作に基づく操作信号を制御部11に出力する。制御部11は、操作部13からの操作信号に基づいて、各部を制御するようになっている。 The imaging device 10 is provided with an operation unit 13. The operation unit 13 includes a release button, a function button, various switches for shooting mode setting, parameter operation, etc., dials, ring members, and the like (not shown), and outputs an operation signal based on a user operation to the control unit 11. The control unit 11 controls each unit based on an operation signal from the operation unit 13.

制御部11は、撮像部12からの撮像画像(動画像及び静止画像)を取込む。制御部11の画像処理部11bは、取込んだ撮像画像に対して、所定の信号処理、例えば、色調整処理、マトリックス変換処理、ノイズ除去処理、その他各種の信号処理を行う。 The control unit 11 captures the captured image (moving image and still image) from the image capturing unit 12. The image processing unit 11b of the control unit 11 performs predetermined signal processing on the captured image, such as color adjustment processing, matrix conversion processing, noise removal processing, and other various signal processing.

撮像装置10には表示部14が設けられており、制御部11には、表示制御部11fが設けられている。表示部14は、例えば、LCD(液晶表示装置)等の表示画面を有する表示器であり、表示画面は撮像装置10の例えば筐体背面等に設けられる。表示制御部11fは、画像処理部11bによって信号処理された撮像画像を表示部14に表示させるようになっている。また、表示制御部11fは、撮像装置10の各種メニュー表示や警告表示等を表示部14に表示させることもできるようになっている。 The image pickup apparatus 10 is provided with a display unit 14, and the control unit 11 is provided with a display control unit 11f. The display unit 14 is, for example, a display device having a display screen such as an LCD (liquid crystal display device), and the display screen is provided, for example, on the back surface of the housing of the imaging device 10. The display control unit 11f causes the display unit 14 to display the captured image signal-processed by the image processing unit 11b. The display control unit 11f can also display various menu displays, warning displays, and the like of the imaging device 10 on the display unit 14.

撮像装置10には通信部15が設けられており、制御部11には、通信制御部11eが設けられている。通信部15は、通信制御部11eに制御されて、学習装置20及び学習依頼装置30との間で情報を送受することができるようになっている。通信部15は、例えば、ブルートゥース(登録商標)等の近距離無線による通信及び例えば、Wi−Fi(登録商標)等の無線LANによる通信が可能である。なお、通信部15は、ブルートゥースやWi−Fiに限らず、各種通信方式での通信を採用することが可能である。通信制御部11eは、通信部15を介して、学習装置20から推論モデル情報を受信することができる。この推論モデル情報は、推論エンジン17のネットワーク17aにより所望の推論モデルを構築するためのものである。 The imaging device 10 is provided with a communication unit 15, and the control unit 11 is provided with a communication control unit 11e. The communication unit 15 is controlled by the communication control unit 11e so that information can be transmitted and received between the learning device 20 and the learning request device 30. The communication unit 15 is capable of short-range wireless communication such as Bluetooth (registered trademark) and wireless LAN communication such as Wi-Fi (registered trademark). Note that the communication unit 15 is not limited to Bluetooth or Wi-Fi, but can employ communication in various communication systems. The communication control unit 11e can receive the inference model information from the learning device 20 via the communication unit 15. This inference model information is for constructing a desired inference model by the network 17a of the inference engine 17.

制御部11には記録制御部11cが設けられている。記録制御部11cは、信号処理後の撮像画像を圧縮処理し、圧縮後の画像を記録部16に与えて記録させることができる。記録部16は、所定の記録媒体によって構成されて、制御部11から与えられた情報を記録すると共に、記録されている情報を制御部11に出力することができる。また、記録部16としては、例えばカードインターフェースを採用してもよく、この場合には記録部16はメモリカード等の記録媒体に画像データを記録可能である。 The controller 11 is provided with a recording controller 11c. The recording control unit 11c can compress the captured image after the signal processing and give the compressed image to the recording unit 16 for recording. The recording unit 16 is composed of a predetermined recording medium, can record the information given from the control unit 11, and can output the recorded information to the control unit 11. A card interface, for example, may be used as the recording unit 16, and in this case, the recording unit 16 can record image data on a recording medium such as a memory card.

記録部16は、画像データ記録領域16aを有しており、記録制御部11cは、画像データを画像データ記録領域16aに記録するようになっている。また、記録制御部11cは、記録部16に記録されている情報を読み出して再生することも可能である。 The recording unit 16 has an image data recording area 16a, and the recording control unit 11c records the image data in the image data recording area 16a. The recording control unit 11c can also read and reproduce the information recorded in the recording unit 16.

また、記録部16は、推論設定記録領域16bを有している。記録制御部11cは、受信された推論モデル情報を記録部16の推論設定記録領域16bに記録することができるようになっている。こうして、推論設定記録領域16bには、推論エンジン17を構成するネットワーク17aの設定に関する推論モデル情報が記録されるようになっている。なお、推論モデル情報には、上述したように、推論設定情報も含まれる。また、記録部16のテストデータ記録領域16cには、推論エンジン17の動作を検証するためのテストデータが記録される。 The recording unit 16 also has an inference setting recording area 16b. The recording control unit 11c can record the received inference model information in the inference setting recording area 16b of the recording unit 16. In this way, the inference setting recording area 16b is configured to record the inference model information regarding the setting of the network 17a constituting the inference engine 17. The inference model information also includes inference setting information as described above. Moreover, in the test data recording area 16c of the recording unit 16, test data for verifying the operation of the inference engine 17 is recorded.

推論設定情報は、後述する仕様情報に基づいて生成されるものであり、所望の推論結果を得るための推論エンジン17と併用推論機器であるルールベースエンジン18との連携の仕方を規定するものである。推論設定情報としては、仕様情報をそのまま用いてもよく、また、仕様情報に基づいて生成されていてもよい。例えば、推論設定情報により、推論エンジン17とルールベースエンジン18との入出力の関係等が示される。 The inference setting information is generated based on the specification information described later, and defines how to cooperate with the inference engine 17 for obtaining a desired inference result and the rule-based engine 18, which is a combined inference device. is there. As the inference setting information, the specification information may be used as it is, or may be generated based on the specification information. For example, the inference setting information indicates the input/output relationship between the inference engine 17 and the rule-based engine 18.

ルールベースエンジン18は、ロジック回路18aを備えている。ロジック回路18aは、予め設定されたルールに従って推論を行うものであり、入力に対する推論によって出力を得る。図1の例では、ロジック回路18aは、撮像部12からの撮像画像が入力されて、推論結果を出力する。本実施の形態においては、ルールベースエンジン18からの推論結果は、制御部11に供給されると共に推論エンジン17にも供給される場合がある。 The rule-based engine 18 includes a logic circuit 18a. The logic circuit 18a performs inference according to a preset rule and obtains an output by inferring an input. In the example of FIG. 1, the logic circuit 18a receives the captured image from the image capturing unit 12 and outputs the inference result. In the present embodiment, the inference result from the rule-based engine 18 may be supplied to the control unit 11 and the inference engine 17 as well.

推論エンジン17は、ネットワーク17aを有している。ネットワーク17aは、推論設定記録領域16bに記録されている推論モデル情報に含まれる設定値を用いて構築されており、機械学習における学習が完了することによって得られるネットワーク、即ち、推論モデルを構成する。図1の例では、ネットワーク17aは、撮像部12からの撮像画像が入力されて、推論結果を出力する。本実施の形態においては、推論エンジン17からの推論結果は、制御部11に供給されると共にルールベースエンジン18にも供給される場合がある。 The inference engine 17 has a network 17a. The network 17a is constructed using setting values included in the inference model information recorded in the inference setting recording area 16b, and constitutes a network obtained by completing learning in machine learning, that is, an inference model. .. In the example of FIG. 1, the network 17a receives the captured image from the image capturing unit 12 and outputs the inference result. In the present embodiment, the inference result from the inference engine 17 may be supplied to the control unit 11 and the rule-based engine 18.

即ち、本実施の形態においては、推論エンジン17は、撮像部12からの撮像画像だけでなく、ルールベースエンジン18の推論結果が与えられて推論を行い、推論結果を得る場合がある。同様に、ルールベースエンジン18は、撮像部12からの撮像画像だけでなく、推論エンジン17の推論結果が与えられて推論を行い、推論結果を得る場合がある。 That is, in the present embodiment, the inference engine 17 may make an inference by not only the captured image from the image capturing unit 12 but also the inference result of the rule-based engine 18, and obtain the inference result. Similarly, the rule-based engine 18 may give an inference result by not only the captured image from the imaging unit 12 but also the inference result of the inference engine 17.

このような推論エンジン17とルールベースエンジン18との連携の関係については、推論モデル情報中の推論設定情報に記述されている。制御部11には、推論設定部11dが設けられており、推論設定部11dは、推論設定記録領域16bから推論設定情報を読み出して、推論エンジン17及びルールベースエンジン18を制御する。推論設定部11dは、推論エンジン17及びルールベースエンジン18の少なくとも一方の推論結果を用いて総合判定を行う。 The relationship of cooperation between the inference engine 17 and the rule base engine 18 is described in the inference setting information in the inference model information. The control unit 11 is provided with an inference setting unit 11d, and the inference setting unit 11d reads inference setting information from the inference setting recording area 16b and controls the inference engine 17 and the rule-based engine 18. The inference setting unit 11d uses the inference result of at least one of the inference engine 17 and the rule-based engine 18 to make a comprehensive determination.

本実施の形態においては、推論設定情報の元となる仕様情報は、学習依頼装置30の後述する仕様設定部31aにより生成されるようになっている。また、本実施の形態においては、この仕様設定部31aと同一機能を有する仕様設定部11gが制御部11に設けられている。仕様設定部31a,11gは、推論エンジン17に採用する推論モデルの生成に必要な推論モデル情報の仕様を記述した仕様情報を生成することができるようになっている。なお、仕様設定部11gは、生成した仕様情報を通信部15を介して学習依頼装置30に送信する。 In the present embodiment, the specification information, which is the basis of the inference setting information, is generated by the specification setting unit 31a of the learning requesting device 30 described later. Further, in the present embodiment, the control unit 11 is provided with a specification setting unit 11g having the same function as the specification setting unit 31a. The specification setting units 31a and 11g are capable of generating specification information describing the specifications of the inference model information necessary for generating the inference model adopted by the inference engine 17. The specification setting unit 11g transmits the generated specification information to the learning requesting device 30 via the communication unit 15.

仕様設定部31a,11gは、仕様情報中の一部の情報を自動生成すると共に、一部の情報をユーザの入力操作に基づいて生成する。仕様設定部11gは、表示制御部11fを制御して、仕様情報の確認及び変更のための仕様設定メニュー表示を表示させることができるようになっている。なお、仕様設定部31aについても、学習依頼装置30に設けられた図示しない表示部に、仕様情報の確認及び変更のための仕様設定メニュー表示を表示させることができるようになっている。 The specification setting units 31a and 11g automatically generate some information in the specification information and also generate some information based on a user's input operation. The specification setting unit 11g can control the display control unit 11f to display a specification setting menu display for checking and changing the specification information. The specification setting unit 31a can also display a specification setting menu display for confirming and changing the specification information on a display unit (not shown) provided in the learning requesting device 30.

推論モデルを機械学習によって得る場合、学習時に与える教師データや学習用のコンピュータの性能と、実使用時の入力データと実使用時の電子回路の性能との差異を十分に考慮しなければ、思惑通りの推論結果を得ることが出来ない。したがって、推論モデル利用時の制約条件等を十分に考慮した、学習のステップが重要となる。このいわば、「推論モデルの要求仕様」を標準化できるようにしたのが、この図に示したような情報類である。様々な組織や個人が、いろいろな手段で学習の効率化、高性能化を行っているが、こうしたベースがないと、正しく機能する推論モデルを、実際の装置に搭載して性能を発揮させることは困難である。つまり、きわめて自由度の高い学習環境や、豊富な教師データ類を活用可能にして、利用環境下において、さらに高精度な出力が可能な推論モデルの取得を可能とするために、こうした要求仕様の明確な設定が重要となる。これらは手動入力したり、機器に搭載された記録部に記録された、あるいは外部から通信によって得られた情報によって、データ設定すればよい。このように、機械学習による推論モデルを有効に活用するためには細心の整合が重要で、図3は推論モデルを利用するハードウェア、装置との整合性を考慮して一覧にしたものの例である。したがって、ここに示した要求仕様は、いくつかの項目は必要でない場合もあり、さらに温湿度、気圧など環境の制約や回路の電源電圧やクロックの仕様等、項目を追加すべき状況もあることは言うまでもない。必要に応じて、この推論モデルを利用しない条件などを記載してもよい。
このように、本実施の形態では、外部に推論モデルの作成を依頼するための通信部を有し、表示部に搭載すべき推論モデルの要求仕様を一覧表示可能な推論モデル利用装置を提供可能であり、この推論モデル利用装置は、装置との整合性にすぐれた推論モデルを外部機器に依頼可能な高精度推論装置となる。
When obtaining an inference model by machine learning, it is necessary to fully consider the difference between the performance of the teacher data or the computer for learning given during learning and the performance of the input data during actual use and the performance of the electronic circuit during actual use. You can't get the exact inference results. Therefore, the learning step that fully considers the constraint conditions when using the inference model is important. In this sense, it is the information classes shown in this figure that have made it possible to standardize the "inference model requirement specifications". Various organizations and individuals are improving learning efficiency and performance by various means, but without such a base, inference models that function correctly should be installed in actual devices to demonstrate their performance. It is difficult. In other words, in order to enable the use of a highly flexible learning environment and abundant teaching data, and to obtain an inference model that enables even more accurate output under the usage environment, these required specifications Clear settings are important. These may be manually input, data may be recorded in a recording unit mounted on the device, or data may be set based on information obtained by external communication. As described above, in order to effectively use the inference model by machine learning, meticulous matching is important, and FIG. 3 shows an example of the list in consideration of the consistency with the hardware and the device using the inference model. is there. Therefore, the required specifications shown here may not require some items, and there may be situations where additional items such as environmental restrictions such as temperature and humidity, atmospheric pressure, and circuit power supply voltage and clock specifications should be added. Needless to say. If necessary, conditions or the like not using this inference model may be described.
As described above, in the present embodiment, it is possible to provide the inference model utilization apparatus which has the communication unit for requesting the creation of the inference model outside and can display the list of the required specifications of the inference model to be mounted on the display unit. This inference model utilization device is a high-precision inference device that can request an inference model having excellent consistency with the device to an external device.

図3は表示部14の表示画面14a上に表示された仕様設定メニュー表示DMの一例を示す説明図である。図3の例では、仕様情報中には、15個の仕様項目が含まれるが、仕様項目は適宜設定可能である。図3の例は画像中の所定の検出対象を検出するための推論モデルを作成するための仕様情報の仕様項目を示している。 FIG. 3 is an explanatory diagram showing an example of the specification setting menu display DM displayed on the display screen 14 a of the display unit 14. In the example of FIG. 3, the specification information includes 15 specification items, but the specification items can be set appropriately. The example of FIG. 3 shows specification items of specification information for creating an inference model for detecting a predetermined detection target in an image.

検出対象項目は、教師データに検出対象を示す検出対象情報がアノテーションとして付されていることを示す情報である。ハードウェア情報項目は、推論モデルを使用する機器に関する情報を示し、機器名、ネットワークの層数、クロック周波数及びメモリ容量を指定するものである。応答時間項目は、画像入力から推論出力までの時間を指定するものである。図3の例では、正解率、信頼性項目は、90%以上の推論の信頼性を確保することを指定するものであり、入力画像サイズ、その他項目は、入力画像サイズがFHD(full high definition)で、画像処理として処理Aを採用することを指定するものである。 The detection target item is information indicating that the detection target information indicating the detection target is attached to the teacher data as an annotation. The hardware information item indicates information about a device that uses the inference model, and specifies the device name, the number of network layers, the clock frequency, and the memory capacity. The response time item specifies the time from image input to inference output. In the example of FIG. 3, the correct answer rate and the reliability item specify that the inference reliability of 90% or more is ensured, and the input image size and other items have the input image size of FHD (full high definition). ) Specifies that the processing A is adopted as the image processing.

また、入力画像系統数項目は、入力画像が2系統切替えられることを指定するものであり、この指定によって、推論エンジン17は、撮像部12からの画像とルールベースエンジン18からの画像とを入力可能である。つまり、この指定は、推論エンジン17とルールベースエンジン18の連携のために、ルールベースエンジン18の出力を推論エンジン17に与えることを可能にするものである。 The input image system number item specifies that the input image can be switched to two systems. By this specification, the inference engine 17 inputs the image from the imaging unit 12 and the image from the rule-based engine 18. It is possible. In other words, this designation enables the output of the rule-based engine 18 to be given to the inference engine 17 for the cooperation of the inference engine 17 and the rule-based engine 18.

また、本実施の形態においては、併用検出器、補助情報項目が設定される。この項目は、併用して使用する併用推論機器を指定するものである。図1の例では、推論エンジン17と連携して推論を行うルールベースエンジン18が併用推論機器として指定される。図3の例ではルールベースエンジン18は、仕様**に従って、顔検出を行う機能を有する装置であることが分かる。また、補助情報項目は、ルールベースエンジン18の出力を推論エンジン17に用いる場合において、ルールベースエンジン18のどのような出力を用いるかを補助情報として指定するものである。例えば、顔検出を行う場合において、ルールベースエンジン18において検出された顔の座標や顔部の画像等を補助情報として指定して、推論エンジン17の入力とすることを指定することができる。即ち、この指定は、ルールベースエンジン18から推論エンジン17への入力を規定するものである。 Further, in the present embodiment, the combined detector and the auxiliary information item are set. This item specifies the combination reasoning device used together. In the example of FIG. 1, the rule-based engine 18 that performs inference in cooperation with the inference engine 17 is designated as the combined inference device. In the example of FIG. 3, it can be seen that the rule-based engine 18 is a device having a function of detecting a face according to the specification **. Further, the auxiliary information item specifies what kind of output of the rule-based engine 18 is used as auxiliary information when the output of the rule-based engine 18 is used for the inference engine 17. For example, when face detection is performed, the coordinates of the face detected by the rule-based engine 18, the image of the face portion, and the like can be designated as auxiliary information and designated as input to the inference engine 17. That is, this designation defines the input from the rule-based engine 18 to the inference engine 17.

納入時期項目は、推論モデル情報の納入時期を指定するものである。教師データ、対象項目は、教師データの格納フォルダ及び検出対象(ファイル)を指定するものであり、図3の例ではXフォルダ、検出対象Yであることを示している。その他データ利用項目は、入力が画像である場合画像以外のデータの利用を指定するものである。例えば、画像中の建物の検出に際して、画像の傾斜角度をその他のデータとして利用すること等を可能にするものである。テストサンプル項目は、推論モデルのテスト用のサンプルデータを指定するものであり、図3の例では提供しないことが分かる。発動条件、制限項目は、推論を発動する条件や、制限について指定するものであり、例えば、画像取得時であって、画像の輝度が所定値以下の場合には推論を実行しない等の指定が可能である。 The delivery time item specifies the delivery time of the inference model information. The teacher data and the target item specify a storage folder of the teacher data and a detection target (file), and in the example of FIG. 3, it is shown as an X folder and a detection target Y. The other data use item specifies use of data other than an image when the input is an image. For example, when detecting a building in an image, the inclination angle of the image can be used as other data. It is understood that the test sample item specifies sample data for testing the inference model and is not provided in the example of FIG. The activation condition and the restriction item are used to specify the condition and the restriction that activate the inference.For example, at the time of image acquisition, if the brightness of the image is less than a predetermined value, the inference is not executed. It is possible.

補足情報項目は、補足的な情報を指定するものであり、例えば、検出した画像部分に枠を表示させたりテキストを表示させたりする指定が可能である。また、履歴情報項目は、以前の推論モデルの履歴を例えばバージョン情報によって指定するのである。 The supplementary information item designates supplementary information, and for example, it is possible to designate display of a frame or text in the detected image portion. The history information item specifies the history of the previous inference model by, for example, version information.

本実施の形態には、項目優先度項目が設定される。項目優先度項目は、仕様設定情報中のいずれの仕様項目を優先して推論モデルを生成すべきかを指定するものであり、図3の例では、検出対象項目、ハードウェア情報項目、正解率、信頼性項目、応答時間項目、入力画像サイズ、その他項目、入力画像系統数項目の順で、優先度が設定されていることを示している。 In this embodiment, item priority items are set. The item priority item specifies which specification item in the specification setting information should be given priority to generate the inference model. In the example of FIG. 3, the detection target item, the hardware information item, the correct answer rate, It shows that the priority is set in the order of reliability item, response time item, input image size, other item, and input image system number item.

仕様設定部31a,11gは、これらの仕様項目のうちの所定の仕様項目を自動生成し、他の仕様項目をユーザ入力によって生成する。例えば、仕様設定部31a,11gは、撮像装置10の仕様に基づいて所定の仕様項目を自動生成してもよい。例えば、仕様設定部11g,31aは、図示しないメモリに記憶された、仕様情報生成用のプログラムを実行することで、所定の仕様項目についての情報を自動生成するようになっていてもよい。また、仕様設定部11g,31aは、仕様情報生成用の図示しない推論エンジンを用いて、所定の仕様項目を自動生成するようになっていてもよい。 The specification setting units 31a and 11g automatically generate predetermined specification items among these specification items and generate other specification items by user input. For example, the specification setting units 31a and 11g may automatically generate predetermined specification items based on the specifications of the imaging device 10. For example, the specification setting units 11g and 31a may automatically generate information about predetermined specification items by executing a specification information generation program stored in a memory (not shown). Further, the specification setting units 11g and 31a may be configured to automatically generate predetermined specification items by using an inference engine (not shown) for generating specification information.

仕様設定部11gは、生成した仕様情報を学習依頼装置30に送信する。学習依頼装置30は、仕様情報に基づいて、学習装置20に学習を依頼するものである。学習依頼装置30は、仕様設定部31aによって生成した仕様情報又は仕様設定部11gによって生成された仕様情報に基づいて学習装置20に学習を依頼する。 The specification setting unit 11g transmits the generated specification information to the learning request device 30. The learning requesting device 30 requests the learning device 20 for learning based on the specification information. The learning requesting device 30 requests the learning device 20 for learning based on the specification information generated by the specification setting unit 31a or the specification information generated by the specification setting unit 11g.

学習依頼装置30は、通信部32を有しており、学習装置20は通信部22を有している。これらの通信部22,32は、通信部15と同様の構成を有しており、通信部22,32,15相互間において通信が可能である。 The learning requesting device 30 has a communication unit 32, and the learning device 20 has a communication unit 22. These communication units 22 and 32 have the same configuration as the communication unit 15, and the communication units 22, 32 and 15 can communicate with each other.

学習依頼装置30は、学習依頼装置30の各部を制御する制御部31を有しており、学習装置20は学習装置20の各部を制御する制御部21を有している。制御部21,31は、CPUやFPGA等を用いたプロセッサによって構成されていてもよく、図示しないメモリに記憶されたプログラムに従って動作して各部を制御するものであってもよいし、ハードウェアの電子回路で機能の一部又は全部を実現するものであってもよい。 The learning request device 30 has a control unit 31 that controls each unit of the learning request device 30, and the learning device 20 has a control unit 21 that controls each unit of the learning device 20. The control units 21 and 31 may be configured by a processor using a CPU, an FPGA, or the like, and may operate according to a program stored in a memory (not shown) to control each unit, or may be a hardware unit. An electronic circuit may realize some or all of the functions.

なお、学習部20全体が、CPU、GPU、FPGA等を用いたプロセッサによって構成されて、図示しないメモリに記憶されたプログラムに従って動作して学習を制御するものであってもよいし、ハードウェアの電子回路で機能の一部又は全部を実現するものであってもよい。 The entire learning unit 20 may be configured by a processor using a CPU, a GPU, an FPGA, or the like, and operate according to a program stored in a memory (not shown) to control the learning. An electronic circuit may realize some or all of the functions.

学習依頼装置30は、大量の学習用データを記録した画像分類記録部33を有している。画像分類記録部33は、ハードディスクやメモリ媒体等の図示しない記録媒体により構成されており、複数の画像を画像中に含まれる対象物の種類毎に分類して記録する。図9の例では、画像分類記録部33は、対象物画像群34を記憶しており、対象物画像群34は、対象物の種類毎に教師データ34a及びテストデータ34bを含む。また、制御部31は、仕様設定部11gと同様の機能を有する仕様設定部31aを有する。学習依頼装置30の制御部31は、通信部32を制御して、仕様情報及び教師データ34aを学習装置20に送信する。 The learning requesting device 30 has an image classification recording unit 33 that records a large amount of learning data. The image classification recording unit 33 is composed of a recording medium (not shown) such as a hard disk or a memory medium, and records a plurality of images by classifying them according to the types of objects included in the images. In the example of FIG. 9, the image classification recording unit 33 stores an object image group 34, and the object image group 34 includes teacher data 34a and test data 34b for each type of object. The control unit 31 also includes a specification setting unit 31a having the same function as the specification setting unit 11g. The control unit 31 of the learning requesting device 30 controls the communication unit 32 to transmit the specification information and the teacher data 34a to the learning device 20.

なお、テストデータ34bは教師データ34aに類似するデータであるが、学習装置20には提供しないデータであり、学習依頼装置30や撮像装置10において、学習装置20の学習の結果得られた推論モデルのテストに用いるものである。学習依頼装置30はテストデータ34bを撮像装置10に送信することができる。撮像装置10は学習依頼装置30からのテストデータをテストデータ記録領域16cに記録する。 The test data 34b is similar to the teacher data 34a, but is not provided to the learning device 20, and the inference model obtained as a result of the learning of the learning device 20 in the learning requesting device 30 or the imaging device 10. It is used for the test. The learning requesting device 30 can send the test data 34b to the imaging device 10. The imaging device 10 records the test data from the learning requesting device 30 in the test data recording area 16c.

学習部20の母集合作成部24は、学習依頼装置30から送信された教師データを教師データ記録部23に記録する。母集合作成部24は、入力データ設定部24a及び出力項目設定部24bを有している。入力データ設定部24aは学習に用いる入力データを設定し、出力項目設定部24bは推論の結果得られるべき出力を設定する。入力データ設定部24a及び出力項目設定部24bの設定は、学習依頼装置30から受信した仕様情報に基づいて行われる。 The population creating unit 24 of the learning unit 20 records the teacher data transmitted from the learning requesting device 30 in the teacher data recording unit 23. The population creating unit 24 has an input data setting unit 24a and an output item setting unit 24b. The input data setting unit 24a sets the input data used for learning, and the output item setting unit 24b sets the output that should be obtained as a result of the inference. The setting of the input data setting unit 24a and the output item setting unit 24b is performed based on the specification information received from the learning requesting device 30.

入出力モデル化部25は、大量の教師データにより期待される出力が得られるように、ネットワークデザインを決定し、その設定情報である推論モデル情報を生成する。入出力モデル化部25には仕様照合部25aが設けられている。仕様照合部25aは、仕様情報を記憶する図示しないメモリを有しており、入出力モデル化部25により求められた推論モデル情報が仕様情報に対応するものとなっているか否かを判定する。入出力モデル化部25は、推論モデル情報が仕様情報に対応するものとなるまで、ネットワークデザインの構築を行う。 The input/output modeling unit 25 determines the network design so that the expected output can be obtained by a large amount of teacher data, and generates the inference model information which is the setting information. The input/output modeling unit 25 is provided with a specification matching unit 25a. The specification matching unit 25a has a memory (not shown) that stores specification information, and determines whether the inference model information obtained by the input/output modeling unit 25 corresponds to the specification information. The input/output modeling unit 25 builds a network design until the inference model information corresponds to the specification information.

本実施の形態においては、入出力モデル化部25は、構築した推論モデルが、併用推論機器と連携して推論を行うものであるか否かの情報及び、併用推論機器と連携して推論を行うものである場合にはその連携の仕方についての情報を含む推論設定情報を生成し、生成した推論設定情報を推論モデル情報に付加するようになっている。例えば、入出力モデル化部25は、推論モデル情報のヘッダ情報に推論設定情報を付加してもよい。例えば、入出力モデル化部25は、推論モデル情報のヘッダ情報として、ネットワークの構造を示す情報、ウェイト及びバイアスの情報、連携する併用推論機器の情報、併用推論機器との連携の仕方の情報等を含む情報を生成する。 In the present embodiment, the input/output modeling unit 25 determines whether or not the constructed inference model is to perform inference in cooperation with the combined inference device and the inference in cooperation with the combined inference device. When it is to be performed, the inference setting information including the information on the way of cooperation is generated, and the generated inference setting information is added to the inference model information. For example, the input/output modeling unit 25 may add the inference setting information to the header information of the inference model information. For example, the input/output modeling unit 25 uses, as the header information of the inference model information, information indicating the structure of the network, information on weights and biases, information on the combined reasoning device to be cooperated, information on how to cooperate with the combined reasoning device, etc. Generate information that includes.

なお、入出力モデル化部25は、ヘッダ情報ではなく、推論モデル情報にメタ情報として推論設定情報を付加してもよく、また、推論モデル情報とは別データの推論設定情報を推論モデル情報に関連付けるようにしてもよい。また、入出力モデル化部25は、推論設定情報として、仕様情報をそのまま推論モデル情報に付加してもよい。 The input/output modeling unit 25 may add the inference setting information as meta information to the inference model information instead of the header information, and the inference setting information of data different from the inference model information may be added to the inference model information. You may make it related. Further, the input/output modeling unit 25 may add the specification information as it is to the inference model information as the inference setting information.

入出力モデル化部25は、生成した推論設定情報を含む推論モデル情報を、通信部22を介して撮像装置10の制御部11に送信する。制御部11は、上述したように、推論モデル情報を推論設定記録領域16bに記録させる。推論設定部11dは、推論設定情報に基づいて、推論エンジン17及びルールベースエンジン18の動作を制御することにより、推論エンジン17及びルールベースエンジン18の推論を利用した推論結果を得ることを可能にする。 The input/output modeling unit 25 transmits the inference model information including the generated inference setting information to the control unit 11 of the imaging device 10 via the communication unit 22. As described above, the control unit 11 records the inference model information in the inference setting recording area 16b. The inference setting unit 11d controls the operations of the inference engine 17 and the rule-based engine 18 based on the inference setting information, thereby making it possible to obtain the inference result using the inference of the inference engine 17 and the rule-based engine 18. To do.

次に、このように構成された実施の形態の動作について図4から図17を参照して説明する。図4から図6は推論エンジンと併用推論機器との連携の仕方の例を説明するための説明図である。 Next, the operation of the embodiment configured as described above will be described with reference to FIGS. 4 to 17. FIG. 4 to FIG. 6 are explanatory diagrams for explaining an example of how the inference engine and the combined inference device cooperate with each other.

推論エンジン17とルールベースエンジン18が連携して推論する手法として、図4から図6に示す3つの手法について説明する。図4から図6の例は、入力画像中から所定の検出対象を検出する推論を行うものである。 As a method for inferring the inference engine 17 and the rule-based engine 18 in cooperation, three methods shown in FIGS. 4 to 6 will be described. The examples of FIGS. 4 to 6 are to infer that a predetermined detection target is detected from the input image.

図4の例は、推論エンジン17による推論と併用推論機器であるルールベースエンジン18による推論とを相互に独立して実行させる手法(以下、第1手法という)を示している。入力画像は推論エンジン17及びルールベースエンジン18の両方に与えられ、推論エンジン17及びルールベースエンジン18それぞれ独立して推論を行う。推論エンジン17からは推論結果として検出対象の画像上の位置情報及びその信頼性が出力され、ルールベースエンジン18からも推論結果として検出対象の画像上の位置情報及びその信頼性が出力される。制御部11は、信頼性の情報に基づいて位置情報を選択して、検出対象を決定する。 The example of FIG. 4 shows a method (hereinafter, referred to as a first method) in which the inference by the inference engine 17 and the inference by the rule-based engine 18, which is a combined inference device, are executed independently of each other. The input image is given to both the inference engine 17 and the rule-based engine 18, and the inference engine 17 and the rule-based engine 18 independently infer. The inference engine 17 outputs position information on an image to be detected and its reliability as an inference result, and the rule-based engine 18 outputs position information on an image to be detected and its reliability as an inference result. The control unit 11 selects the position information based on the reliability information and determines the detection target.

図5は推論エンジン17による推論を優先しつつ、推論エンジン17による推論結果を併用推論機器であるルールベースエンジン18に与えて推論精度を向上させる手法(以下、第2手法という)を示している。入力画像は先ず推論エンジン17に与えられる。推論エンジン17は推論結果を制御部11に出力すると共に、例えば十分な信頼度の推論結果が得られない場合において推論結果あるいは推論不能の判定結果をルールベースエンジン18に出力する。この結果を受けて、ルールベースエンジン18は、推論を行い推論結果を制御部11に出力する。制御部11は、信頼性の情報に基づいて位置情報を選択して、検出対象を決定する。 FIG. 5 shows a method (hereinafter, referred to as a second method) for giving priority to the inference by the inference engine 17 and giving the inference result by the inference engine 17 to the rule-based engine 18 which is a combined inference device to improve the inference accuracy. .. The input image is first given to the inference engine 17. The inference engine 17 outputs the inference result to the control unit 11, and also outputs the inference result or the inference inability determination result to the rule base engine 18 when the inference result with sufficient reliability cannot be obtained, for example. In response to this result, the rule-based engine 18 makes an inference and outputs the inference result to the control unit 11. The control unit 11 selects the position information based on the reliability information and determines the detection target.

図6は推論エンジン17による推論を優先しつつ、併用推論機器であるルールベースエンジン18の推論結果を推論エンジン17に与えて、推論エンジン17よる推論度を向上させる手法(以下、第3手法という)を示している。入力画像は推論エンジン17及び併用推論機器であるルールベースエンジン18の両方に与えられる。ルールベースエンジン18は推論結果を制御部11に出力すると共に、例えば推論エンジン17の推論精度を向上させるための補助情報を推論エンジン17に出力する。例えば、ルールベースエンジン18は、検出対象の顔を検出しその顔の座標や顔画像等を推論エンジン17に補助情報として出力する。この結果を受けて、推論エンジン17は、推論を行い推論結果を制御部11に出力する。制御部11は、信頼性の情報に基づいて位置情報を選択して、検出対象を決定する。なお、連携の仕方は上記第1〜第3手法に限定されるものではない。例えば、併用推論機器の推論結果を優先して用いるようにしてもよい。 FIG. 6 shows a method of giving the inference result of the rule-based engine 18 which is a combined inference device to the inference engine 17 while giving priority to the inference by the inference engine 17 to improve the inference degree by the inference engine 17 (hereinafter referred to as the third method). ) Is shown. The input image is given to both the inference engine 17 and the rule-based engine 18, which is a combined inference device. The rule-based engine 18 outputs the inference result to the control unit 11, and outputs auxiliary information for improving the inference accuracy of the inference engine 17 to the inference engine 17, for example. For example, the rule-based engine 18 detects the face to be detected and outputs the coordinates of the face, the face image, etc. to the inference engine 17 as auxiliary information. Upon receiving this result, the inference engine 17 makes an inference and outputs the inference result to the control unit 11. The control unit 11 selects the position information based on the reliability information and determines the detection target. Note that the way of cooperation is not limited to the above first to third methods. For example, the inference result of the combined inference device may be preferentially used.

次に、第1〜第3手法の具体例について説明する。 Next, specific examples of the first to third methods will be described.

図7は撮像装置10による撮影の様子を示す説明図である。本実施の形態における撮像装置10は、図7に示す筐体10a中に図1中の各回路が収納されており、筐体10aの背面に表示部14の表示画面14aが設けられている。ユーザ41は、例えば、右手42で筐体10aを把持して、表示部14の表示画面14aを見ながら被写体を視野範囲に捉えた状態で撮影を行う。筐体10aの上面には、操作部13を構成するレリーズスイッチ43が設けられている。図7の例では、被写体はブロック塀45の上にいる猫46である。ユーザ41は、右手42の人差し指42aでレリーズスイッチ43を押下することで撮影を行う。 FIG. 7 is an explanatory diagram showing a state of shooting by the image pickup apparatus 10. In the image pickup apparatus 10 according to the present embodiment, each circuit in FIG. 1 is housed in a housing 10a shown in FIG. 7, and a display screen 14a of a display unit 14 is provided on the back surface of the housing 10a. The user 41, for example, grips the housing 10a with the right hand 42, and shoots while viewing the display screen 14a of the display unit 14 and capturing the subject in the visual field range. A release switch 43 that constitutes the operation unit 13 is provided on the upper surface of the housing 10a. In the example of FIG. 7, the subject is the cat 46 on the block wall 45. The user 41 performs shooting by pressing the release switch 43 with the index finger 42a of the right hand 42.

図7の例において、撮像装置10の推論エンジン17及びルールベースエンジン18は、推論により撮像画像中から猫10を検出するように構成されるものとする。ルールベースエンジン18は、例えば、公知の手法により、猫の顔検出が可能となるように構成される。 In the example of FIG. 7, it is assumed that the inference engine 17 and the rule-based engine 18 of the imaging device 10 are configured to detect the cat 10 in the captured image by inference. The rule-based engine 18 is configured to be able to detect the face of a cat by a known method, for example.

(第1手法)
図8は学習依頼装置30の動作を説明するためのフローチャートであり、図9は学習装置20の動作を説明するためのフローチャートである。
(First method)
8 is a flowchart for explaining the operation of the learning request device 30, and FIG. 9 is a flowchart for explaining the operation of the learning device 20.

学習依頼装置30の制御部31は、図8のステップS1において、推論エンジン17に設定する推論モデルの要求仕様の設定を行うか否かを判定する。要求仕様の設定を行わない場合には、制御部31は、ステップS2において、教師データフォルダの作成が指示されているか否かを判定し、指示されている場合には、ステップS3において教師データフォルダを作成する。即ち、制御部31は、猫検出の推論のための教師データとなる画像の収集及びアノテーション付与を行う。収集された教師データは、画像分類記録部33の対象物画像群34に教師データ34aとして記録される。また、対象物画像群34にはテストデータ34bも記録される。 In step S1 of FIG. 8, the control unit 31 of the learning request device 30 determines whether to set the required specifications of the inference model set in the inference engine 17. If the required specifications are not set, the control unit 31 determines in step S2 whether or not the instruction data folder creation is instructed. If instructed, the instruction data folder is created in step S3. To do. That is, the control unit 31 collects and annotates an image serving as teacher data for inferring cat detection. The collected teacher data is recorded in the object image group 34 of the image classification recording unit 33 as teacher data 34a. The test data 34b is also recorded in the object image group 34.

制御部31は、要求仕様の設定を行う場合には、ステップS1からステップS4に移行して、仕様設定部31aにより図3に示した仕様項目の設定を行う。上述したように、仕様設定部31aは、仕様項目の一部については自動生成し、他の一部についてはユーザの入力操作に基づいて作成する。制御部31は、ステップS5において、全ての仕様項目の入力が終了したか否かを判定し、終了していない場合には処理をステップS1に戻し、終了している場合には、設定した仕様項目による仕様情報及び教師データを学習装置20に送信して学習を依頼する。 When setting the required specifications, the control unit 31 proceeds from step S1 to step S4, and sets the specification items shown in FIG. 3 by the specification setting unit 31a. As described above, the specification setting unit 31a automatically creates some of the specification items and creates other parts based on the user's input operation. In step S5, the control unit 31 determines whether or not input of all specification items is completed. If not completed, the process returns to step S1, and if completed, the set specification is set. The specification information and the teacher data according to the items are transmitted to the learning device 20 to request the learning.

図10は、第1手法における学習装置20による学習及び学習の結果得られる推論モデルを説明するための説明図である。学習装置20の制御部21は、図9のステップS11において、学習依頼の待機状態である。制御部21は、学習依頼が発生すると、処理をステップS12に移行して学習依頼装置30から仕様情報を受信して要求された仕様を取得する。また、制御部21は、学習依頼装置30から教師データを取得して教師データ記録部23に記録する(ステップS13)。制御部21は、仕様及び必要性に応じて、教師データを追加記録する(ステップS14)。母集合作成部24は、仕様情報に基づく要求仕様に従って、入力データ設定部24a及び出力項目設定部24bによって、入力及び出力を設定する。入出力モデル化部25は、設定された入力及び出力に応じて教師データに基づく学習を行う。 FIG. 10 is an explanatory diagram for explaining learning by the learning device 20 in the first method and an inference model obtained as a result of learning. The control unit 21 of the learning device 20 is in a standby state for a learning request in step S11 of FIG. When the learning request is generated, the control unit 21 moves the process to step S12, receives the specification information from the learning request device 30, and acquires the requested specifications. Further, the control unit 21 acquires the teacher data from the learning request device 30 and records it in the teacher data recording unit 23 (step S13). The control unit 21 additionally records the teacher data according to the specifications and necessity (step S14). The population creating unit 24 sets the input and output by the input data setting unit 24a and the output item setting unit 24b according to the required specifications based on the specification information. The input/output modeling unit 25 performs learning based on the teacher data according to the set input and output.

図10に示すように、入出力モデル化部25により、所定のネットワークN1には入力及び出力に対応する大量の画像が教師データとして与えられる。図10の例では、教師データとして、猫の画像であって、顔を横から見た猫の画像が入力される。この場合の猫の画像には、顔部分を破線枠で囲むようにアノテーションが設定されている。なお、顔の向きは、撮像装置10を基準にして説明しており、以下の説明では、横から見た顔を横向きの顔ということもある。即ち、横向きの顔は、猫が顔を撮像装置10の光軸方向に向けていないことをいう。また、後述する正面向きの顔とは、顔が撮像装置10の光軸方向に向いていることをいう。 As shown in FIG. 10, the input/output modeling unit 25 provides a large amount of images corresponding to inputs and outputs to the predetermined network N1 as teacher data. In the example of FIG. 10, an image of a cat, which is an image of a cat whose face is viewed from the side, is input as teacher data. In the cat image in this case, annotations are set so that the face portion is surrounded by a broken line frame. Note that the face orientation has been described with reference to the imaging device 10, and in the following description, a face viewed from the side may be referred to as a sideways face. That is, a sideways face means that the cat does not face its face in the optical axis direction of the imaging device 10. Further, the front-faced face to be described later means that the face faces the optical axis direction of the imaging device 10.

大量の教師データによる学習を行うことで、ネットワークN1は、入力に対応する出力が得られるように、ネットワークデザインが決定される。即ち、図10の例では、猫の画像が入力されると、猫の顔が横を向いている場合にはその顔の画像部分を囲む位置に破線枠を表示するための情報が信頼度の情報と共に得られる。即ち、図10の例では、横向きの顔の猫の画像を検出する推論モデルが構築される。 By performing learning with a large amount of teacher data, the network design of the network N1 is determined so that an output corresponding to an input can be obtained. That is, in the example of FIG. 10, when a cat image is input, when the cat's face is facing sideways, the information for displaying the broken line frame at the position surrounding the image portion of the face is the reliability. Obtained with information. That is, in the example of FIG. 10, an inference model for detecting an image of a cat with a horizontal face is constructed.

なお、深層学習(ディープ・ラーニング)」は、ニューラル・ネットワークを用いた「機械学習」の過程を多層構造化したものである。情報を前から後ろに送って判定を行う「順伝搬型ニューラル・ネットワーク」が代表的なものである。これは、最も単純なものでは、N1個のニューロンで構成される入力層、パラメータで与えられるN2個のニューロンで構成される中間層、判別するクラスの数に対応するN3個のニューロンで構成される出力層の3層があればよい。そして、入力層と中間層、中間層と出力層の各ニューロンはそれぞれが結合加重で結ばれ、中間層と出力層はバイアス値が加えられることで、論理ゲートの形成が容易である。簡単な判別なら3層でもよいが、中間層を多数にすれば、機械学習の過程において複数の特徴量の組み合わせ方を学習することも可能となる。近年では、9層〜152層のものが、学習にかかる時間や判定精度、消費エネルギーの関係から実用的になっている。 “Deep learning” is a multi-layered structure of the “machine learning” process using a neural network. A "forward-propagation neural network" that sends information from the front to the back to make a determination is typical. In the simplest case, this consists of an input layer consisting of N1 neurons, an intermediate layer consisting of N2 neurons given by parameters, and N3 neurons corresponding to the number of classes to be discriminated. It is sufficient if there are three output layers. Then, the neurons of the input layer and the intermediate layer, and the neurons of the intermediate layer and the output layer are connected by connection weights, respectively, and a bias value is applied to the intermediate layer and the output layer, which facilitates formation of the logic gate. For simple determination, three layers may be used, but if the number of intermediate layers is increased, it becomes possible to learn how to combine a plurality of feature amounts in the machine learning process. In recent years, 9 to 152 layers have become practical in view of the time required for learning, determination accuracy, and energy consumption.

機械学習に採用するネットワークN1としては、公知の種々のネットワークを採用してもよい。例えば、CNN(Convolution Neural Network)を利用したR−CNN(Regions with CNN features)やFCN(Fully Convolutional Networks)等を用いてもよい。これは、画像の特徴量を圧縮する、「畳み込み」と呼ばれる処理を伴い、最小限処理で動き、パターン認識に強い。また、より複雑な情報を扱え、順番や順序によって意味合いが変わる情報分析に対応して、情報を双方向に流れる「再帰型ニューラル・ネットワーク」(全結合リカレントニューラルネット)を利用してもよい。 Various known networks may be adopted as the network N1 adopted for machine learning. For example, R-CNN (Regions with CNN features) using FCN (Convolution Neural Network) or FCN (Fully Convolutional Networks) may be used. This involves a process called "convolution" that compresses the feature amount of an image, moves with a minimum amount of processing, and is strong in pattern recognition. In addition, a “recursive neural network” (fully connected recurrent neural network) may be used that can handle more complicated information and corresponds to information analysis whose meaning changes depending on the order or the order.

これらの技術の実現のためには、CPUやFPGA(Field Programmable Gate Array)といったこれまでの汎用的な演算処理回路などを使ってもよいが、ニューラル・ネットワークの処理の多くが行列の掛け算であることから、行列計算に特化したGPU(Graphic Processing Unit)やTensor Processing Unit(TPU)と呼ばれるものが利用される場合もある。近年ではこうした人工知能(AI)専用ハードの「ニューラル・ネットワーク・プロセッシング・ユニット(NPU)」がCPUなどその他の回路とともに集積して組み込み可能に設計され、処理回路の一部になっている場合もある。 In order to realize these technologies, a general-purpose arithmetic processing circuit such as a CPU or an FPGA (Field Programmable Gate Array) may be used, but most neural network processing is matrix multiplication. Therefore, what is called GPU (Graphic Processing Unit) or Tensor Processing Unit (TPU) specialized for matrix calculation may be used. In recent years, such artificial intelligence (AI) dedicated hardware "neural network processing unit (NPU)" is designed so that it can be integrated and integrated with other circuits such as a CPU, and it may be a part of a processing circuit. is there.

また、深層学習に限らず、公知の各種機械学習の手法を採用して推論モデルを取得してもよい。例えば、サポートベクトルマシン、サポートベクトル回帰という手法もある。ここでの学習は、識別器の重み、フィルター係数、オフセットを算出するもので、他には、ロジスティック回帰処理を利用する手法もある。機械に何かを判定させる場合、人間が機械に判定の仕方を教える必要があり、今回の実施例では、画像の判定を、機械学習により導出する手法を採用したが、そのほか、特定の判断を人間が経験則・ヒューリスティクスによって獲得したルールを適応するルールベースの手法を応用して用いてもよい。 Further, the inference model may be acquired by adopting various known machine learning methods as well as deep learning. For example, there are methods such as support vector machine and support vector regression. The learning here is to calculate the weight of the discriminator, the filter coefficient, and the offset, and there is another method using logistic regression processing. In order to make a machine judge something, it is necessary for a human to teach the machine how to make a judgment.In this example, a method of deriving an image judgment by machine learning was adopted. You may apply and use the rule-based method which applies the rule which the human acquired by the rule of thumb and heuristics.

入出力モデル化部25は、ステップS16において、生成した推論モデルが必要仕様を満たしているか否かを判定する。満たしていない場合には、入出力モデル化部25は、次のステップS17において、仕様が仕様情報中の優先度で指定された条件を満足しているか否かを判定する。例えは、項目優先度が図3に示すものである場合には、入出力モデル化部25は、生成した推論モデルが、検出対象項目、ハードウェア情報項目、正解率、信頼性項目、応答時間項目、入力画像サイズ、その他項目及び入力画像系統数項目の各項目の仕様を満足しているか否かを判定する。満足していている場合には、入出力モデル化部25は、教師データの再設定等を行って(ステップS18)、所定回数以上に到達したことを判定(ステップS19)した後、所定回数未満である場合には、処理をステップS15に戻して、推論モデル化を繰り返す。 The input/output modeling unit 25 determines in step S16 whether the generated inference model satisfies the necessary specifications. If not satisfied, the input/output modeling unit 25 determines whether the specification satisfies the condition specified by the priority in the specification information in the next step S17. For example, when the item priority is as shown in FIG. 3, the input/output modeling unit 25 determines that the generated inference model includes the detection target item, the hardware information item, the correct answer rate, the reliability item, and the response time. It is determined whether or not the specifications of each item such as item, input image size, other item, and input image system number item are satisfied. If satisfied, the input/output modeling unit 25 resets the teacher data and the like (step S18), determines that it has reached the predetermined number of times or more (step S19), and then less than the predetermined number of times. If so, the process returns to step S15 and the inference modeling is repeated.

入出力モデル化部25は、ステップS17において、生成した推論モデルが優先度で指定された条件を満足していないと判定した場合、又は、ステップS19において、推論モデル化を所定回数以上繰り返したと判定した場合には、処理をステップS20に移行して、有効な推論モデルを構築することが苦手な画像であることを示す苦手画像情報を学習依頼装置30に対して送信する。 The input/output modeling unit 25 determines in step S17 that the generated inference model does not satisfy the condition specified by the priority, or in step S19 that the inference modeling is repeated a predetermined number of times or more. In that case, the process proceeds to step S20, and image information which is not good at constructing an effective inference model is transmitted to the learning requesting device 30.

入出力モデル化部25は、ステップS16において、生成した推論モデルが必要仕様を満たしたと判定した場合には、処理をステップS21に移行して、学習依頼装置30及び必要に応じて指定された機器(例えば撮像装置10)に対して推論モデル情報を送信する。 When the input/output modeling unit 25 determines in step S16 that the generated inference model satisfies the required specifications, the process proceeds to step S21, and the learning requesting device 30 and the device designated as necessary. The inference model information is transmitted to (for example, the imaging device 10).

本実施の形態においては、この送信に際して、入出力モデル化部25は、推論モデル情報に、仕様情報に基づいて生成した推論設定情報を付加するようになっている。推論設定情報には、図10の例では、推論エンジンによる推論と併用推論機器による推論とを相互に独立して実行させ、各推論の信頼度等に基づいて推論結果を得る、即ち、第1手法による検出を行うことを示す情報が含まれる。 In the present embodiment, at the time of this transmission, the input/output modeling unit 25 adds the inference setting information generated based on the specification information to the inference model information. In the example of FIG. 10, the inference setting information and the inference by the combined inference device are executed independently of each other in the inference setting information, and the inference result is obtained based on the reliability of each inference, that is, the first inference result. It includes information indicating that the detection by the method is performed.

学習依頼装置30の制御部31は、推論モデル情報を受信すると、図8のステップS7において、テストデータ34bを用いて、学習結果の良否判定を行う。制御部31は、テストが良好である(OK)の判定を行った場合には、学習装置20に対して、テスト対象の推論モデル情報を撮像装置10に送信するように依頼し、テストが不良(NG)の判定を行った場合には、再学習を学習装置20に依頼する。なお、この場合には、要求仕様の追加や修正を行ってもよい。なお、学習依頼装置30は、OK判定した推論モデル情報を撮像装置10に直接送信してもよい。 Upon receiving the inference model information, the control unit 31 of the learning requesting device 30 determines whether the learning result is good or bad using the test data 34b in step S7 of FIG. When the control unit 31 determines that the test is good (OK), the control unit 31 requests the learning device 20 to transmit the inference model information of the test target to the imaging device 10, and the test is defective. When the determination is (NG), the re-learning is requested to the learning device 20. In this case, the required specifications may be added or modified. The learning requesting device 30 may directly transmit the inference model information, which is determined to be OK, to the imaging device 10.

図11は撮像装置10の動作を説明するためのフローチャートである。 FIG. 11 is a flow chart for explaining the operation of the image pickup apparatus 10.

撮像装置10の制御部11は、図11のステップS31において、撮影モードが指定されているか否かを判定する。撮影モードが指定されていない場合には、制御部11は、ステップS32において推論モデルの取得が指示されているか否かを判定する。推論モデル取得が指示されていない場合には処理をステップS31に戻し、指示されている場合には、次のステップS33において、推論モデルの仕様を確認する。即ち、制御部11は、学習装置20又は学習依頼装置30から推論モデル情報を受信し、受信した推論モデル情報に基づいて、推論エンジン17のネットワーク17aを構築する。こうして、ネットワーク17aには、図10のN1と同様の推論モデルが構築される。推論設定部11dは、推論モデル情報に付加されている推論設定情報を読み出して、内蔵されているルールベースエンジン18の機能を考慮して、必要な仕様を満足しているか否かの確認を行う。 The control unit 11 of the imaging device 10 determines whether or not the shooting mode is designated in step S31 of FIG. When the shooting mode is not designated, the control unit 11 determines whether or not the acquisition of the inference model is instructed in step S32. When the inference model acquisition is not instructed, the process is returned to step S31, and when instructed, the specification of the inference model is confirmed in the next step S33. That is, the control unit 11 receives the inference model information from the learning device 20 or the learning request device 30, and builds the network 17a of the inference engine 17 based on the received inference model information. In this way, an inference model similar to N1 of FIG. 10 is constructed in the network 17a. The inference setting unit 11d reads out the inference setting information added to the inference model information, and considers the function of the built-in rule-based engine 18 to check whether the necessary specifications are satisfied. ..

制御部11は、ステップS34において、仕様確認の結果が良好(OK)であるか否かを判定する。良好でない場合には、制御部11は、ステップS38において、要求仕様の再設定を要求するための情報を学習装置20又は学習依頼装置30に送信する。仕様確認の結果が良好な場合には、制御部11は、テストデータ記録領域16cからテストデータを読み出して、推論のテストを実行する。制御部11は、テストの結果、十分な信頼性が得られたか否かを判定し、十分な信頼性が得られた場合には取得した推論モデル情報を確定し(ステップS37)、得られない場合には、ステップS38において、要求仕様の再設定を要求する。 In step S34, the control unit 11 determines whether the result of the specification confirmation is good (OK). If it is not good, the control unit 11 transmits information for requesting the resetting of the required specifications to the learning device 20 or the learning requesting device 30 in step S38. When the result of the specification confirmation is good, the control unit 11 reads the test data from the test data recording area 16c and executes the inference test. The control unit 11 determines whether or not sufficient reliability has been obtained as a result of the test, and when sufficient reliability has been obtained, the acquired inference model information is confirmed (step S37) and cannot be obtained. In this case, in step S38, the request specifications are reset.

制御部11は、撮影モードが指定されている場合には、ステップS31からステップS41に処理を移行して撮像画像を取り込む。撮像部12からの撮像画像は制御部11に与えられると共に、推論エンジン17及びルールベースエンジン18にも与えられる。制御部11の推論設定部11dは、推論設定情報に基づいて、第1手法により、推論エンジン17及びルールベースエンジン18の双方に独立して推論を行うように指示する。 When the shooting mode is designated, the control unit 11 shifts the processing from step S31 to step S41 and captures a captured image. The captured image from the image capturing unit 12 is provided to the control unit 11 and also to the inference engine 17 and the rule base engine 18. Based on the inference setting information, the inference setting unit 11d of the control unit 11 instructs both the inference engine 17 and the rule-based engine 18 to perform inference independently by the first method.

図7に示すようにユーザ41は撮影を行う。制御部11の表示制御部11fは、撮像部12からの撮像画像を表示部14に与えてライブビュー画像を表示させる。また、推論エンジン17及びルールベースエンジン18は、順次入力される撮像画像に対して推論を実施する(ステップS42)。 As shown in FIG. 7, the user 41 takes a picture. The display control unit 11f of the control unit 11 gives the captured image from the image capturing unit 12 to the display unit 14 to display the live view image. Further, the inference engine 17 and the rule-based engine 18 perform inference on the sequentially input captured images (step S42).

図12はルールベースエンジン18による推論を説明するための説明図であり、図13は推論エンジン17による推論を説明するための説明図である。 FIG. 12 is an explanatory diagram for explaining the inference by the rule-based engine 18, and FIG. 13 is an explanatory diagram for explaining the inference by the inference engine 17.

いま、ある瞬間に図12に示す撮像画像PI1がルールベースエンジン18に入力されるものとする。ルールベースエンジン18は、公知の顔検出処理によって、猫の正面向きの顔の部分を検出する。ルールベースエンジン18は、検出結果として、猫の顔の部分を囲う実線枠PO1aの情報を出力する。この情報は、ルールベースエンジン18から制御部11に供給される。表示制御部11fは、ルールベースエンジン18の検出結果に基づいて、ライブビュー画像上に実線枠PO1aを重畳した表示画像PO1を表示する。 Now, it is assumed that the captured image PI1 shown in FIG. 12 is input to the rule-based engine 18 at a certain moment. The rule-based engine 18 detects a face portion of the cat facing forward by a known face detection process. As a detection result, the rule-based engine 18 outputs the information of the solid frame PO1a surrounding the cat's face portion. This information is supplied from the rule-based engine 18 to the control unit 11. The display control unit 11f displays the display image PO1 in which the solid line frame PO1a is superimposed on the live view image based on the detection result of the rule-based engine 18.

また、ある瞬間に図13に示す撮像画像PI2が推論エンジン17に入力されるものとする。推論エンジン17は、学習装置20又は学習依頼装置30から提供を受けた推論モデル情報に基づくネットワーク17aにより、猫の横向きの顔の部分を検出する。推論エンジン17は、検出結果として、猫の横向きの顔の部分を囲う破線枠PO2aの情報を出力する。この情報は、推論エンジン17から制御部11に供給される。表示制御部11fは、推論エンジン17の検出結果に基づいて、ライブビュー画像上に破線枠PO2aを重畳した表示画像PO2を表示する。 It is also assumed that the captured image PI2 shown in FIG. 13 is input to the inference engine 17 at a certain moment. The inference engine 17 detects the sideways face portion of the cat by the network 17a based on the inference model information provided by the learning device 20 or the learning requesting device 30. The inference engine 17 outputs, as a detection result, information about a broken line frame PO2a that surrounds the sideways face of the cat. This information is supplied from the inference engine 17 to the control unit 11. The display control unit 11f displays the display image PO2 in which the broken line frame PO2a is superimposed on the live view image based on the detection result of the inference engine 17.

図14は一連の推論の検出結果に基づく画像表示の例を示す説明図である。図14は表示部14の表示画面14a上に表示されるライブビュー画像を示しており、図7の撮影の様子に示すようにユーザ41がブロック塀45上の猫46の撮影を試みる状態において、時間の経過と共に順次撮像されてライブビュー表示される画像のうちの画像P1〜P6を示している。画像P1は、比較的広い範囲を撮像して得られたものであり、ブロック塀45上の猫46の画像を含む。制御部11の表示制御部11fは、ステップS43において、推論エンジン17及びルールベースエンジン18を動作させて猫の画像の検出を行っていることを示す「発動」の表示P1aを表示画面14a上に表示させる。 FIG. 14 is an explanatory diagram showing an example of image display based on a detection result of a series of inferences. FIG. 14 shows a live view image displayed on the display screen 14a of the display unit 14, and in the state where the user 41 tries to shoot the cat 46 on the block fence 45 as shown in the shooting state of FIG. The images P1 to P6 among the images sequentially captured and displayed in live view over time are shown. The image P1 is obtained by capturing a relatively wide range, and includes an image of the cat 46 on the block fence 45. In step S43, the display control unit 11f of the control unit 11 causes the invocation engine 17 and the rule-based engine 18 to operate to display the "invoking" display P1a indicating that the image of the cat is being detected on the display screen 14a. Display it.

ここで、視野範囲内に主に猫のみが撮影されるように、ユーザ41がズーム操作を行うものとする。画像P2以降の画像はこの状態でのライブビュー画像を示している。画像P2は猫の顔が正面向きで撮像されたものである。この場合には、ルールベースエンジン18により猫の顔が検出されて、顔の周囲を囲む実線枠の情報が制御部11に供給される。制御部11は、検出が行われたことを判定すると、推論エンジン17による検出が利用されたかルールベースエンジン18による検出が利用されたかを判定する(ステップS45)。例えば、制御部11は、推論エンジン17及びルールベースエンジン18から出力される信頼度によって、この判定を行ってもよい。画像P2ではルールベースエンジン18の検出結果が採用されるので、処理をステップS46に移行して、表示制御部11fは、ライブビュー画像上に実線枠表示P2bを表示する。また、表示制御部11fは、ルールベースエンジン18が発動されて猫の顔の検出が行われたことを示す「R発動」の表示P2a及び「顔検出」の文字を表示する。 Here, it is assumed that the user 41 performs the zoom operation so that mainly the cat is photographed within the visual field range. Images after the image P2 show live view images in this state. The image P2 is an image of a cat's face facing forward. In this case, the cat-face is detected by the rule-based engine 18, and the information of the solid line frame surrounding the face is supplied to the control unit 11. When determining that the detection is performed, the control unit 11 determines whether the detection by the inference engine 17 is used or the detection by the rule-based engine 18 is used (step S45). For example, the control unit 11 may make this determination based on the reliability output from the inference engine 17 and the rule-based engine 18. Since the detection result of the rule-based engine 18 is adopted in the image P2, the process proceeds to step S46, and the display control unit 11f displays the solid line frame display P2b on the live view image. Further, the display control unit 11f displays the display P2a of "R activation" and the characters of "face detection" indicating that the rule-based engine 18 has been activated to detect the face of the cat.

次の画像P3は猫の顔が横向きで撮像されたものである。この場合には、推論エンジン17により猫の横向きの顔が検出されて、顔の周囲を囲む破線枠の情報が制御部11に供給される。この場合には、表示制御部11fは、ステップS45の次のステップS47において、ライブビュー画像上に破線枠表示P3bを表示する。また、表示制御部11fは、推論エンジン17が発動されて猫の顔の検出が行われたことを示す「A発動」の表示P3a及び「AI推論」の文字を表示する。 The next image P3 is an image of the face of a cat taken in landscape orientation. In this case, the inference engine 17 detects the sideways face of the cat, and the information of the broken line frame surrounding the face is supplied to the control unit 11. In this case, the display control unit 11f displays the broken line frame display P3b on the live view image in step S47 following step S45. Further, the display control unit 11f displays the display P3a of "Activated A" indicating that the inference engine 17 is activated and the face of the cat is detected, and the characters of "AI Inference".

次の画像P4も猫の顔が横向きで撮像されたものである。この場合には、推論エンジン17からの情報に基づく破線枠表示P4b、推論エンジン17が発動されて猫の顔の検出が行われたことを示す「A発動」の表示P4a及び「AI推論」の文字がライブビュー画像上に表示される。 The next image P4 is also the image of the face of the cat taken in the horizontal direction. In this case, the broken line frame display P4b based on the information from the inference engine 17, the display P4a of "A activation" indicating that the inference engine 17 is activated and the face of the cat is detected, and the "AI inference" The characters are displayed on the live view image.

また、次の画像P5は再び猫の顔が正面向きで撮像されたものである。この場合には、ルールベースエンジン18により猫の顔が検出されて、ルールベースエンジン18からの情報に基づく実線枠表示P5b、ルールベースエンジン18が発動されて猫の顔の検出が行われたことを示す「R発動」の表示P5a及び「顔検出」の文字がライブビュー画像上に表示される。 Further, the next image P5 is an image in which the face of the cat is imaged in the front direction again. In this case, the face of the cat is detected by the rule-based engine 18, the solid line frame display P5b based on the information from the rule-based engine 18, and the rule-based engine 18 is activated to detect the face of the cat. The "R triggered" display P5a and "FACE DETECTION" are displayed on the live view image.

最後の画像P6は、「発動」の表示P6aにより、推論エンジン17及びルールベースエンジン18の推論による猫の検出は発動されていることが示されている。しかし、猫の顔は検出されていない状態を示している。 In the final image P6, the display "P6a" indicating "Activated" indicates that the detection of the cat by the inference of the inference engine 17 and the rule-based engine 18 is activated. However, the cat's face is in the undetected state.

制御部11は、ステップS48において、動画撮影操作又は静止画撮影操作が行われたか否かを判定する。これらの操作が行われた場合には、撮影や記録を行う(ステップS49)。なお、動画撮影時には、動画撮影の終了操作によって、撮像画像がファイル化される。撮影操作が行われていない場合には、制御部11は処理をステップS31に戻す。 In step S48, the control unit 11 determines whether the moving image shooting operation or the still image shooting operation is performed. When these operations are performed, shooting and recording are performed (step S49). It should be noted that at the time of shooting a moving image, a captured image is converted into a file by an operation of ending the moving image shooting. When the shooting operation is not performed, the control unit 11 returns the process to step S31.

このように、第1手法では、推論エンジン17及び併用推論機器であるルールベースエンジン18は、相互に独立して動作しており、例えば推論を分担して行う場合等に採用される。 As described above, in the first method, the inference engine 17 and the rule-based engine 18, which is a combined inference device, operate independently of each other, and are used, for example, when sharing inference.

(第2手法)
学習装置20及び学習依頼装置30における動作は、第1手法〜第3手法において同一であるが、各第1手法〜第3手法においては、仕様情報及び教師データが異なる。
(Second method)
The operations of the learning device 20 and the learning request device 30 are the same in the first method to the third method, but the specification information and the teacher data are different in each of the first method to the third method.

図15は、第2手法における学習装置20による学習及び学習の結果得られる推論モデルを説明するための説明図である。 FIG. 15 is an explanatory diagram for explaining learning by the learning device 20 in the second method and an inference model obtained as a result of learning.

図15において、所定のネットワークN2には入力及び出力に対応する大量の画像が教師データとして与えられる。図15の例は、猫の画像であって、顔が正面向きの猫の画像と顔が横向きの猫の画像とが入力される。そして、顔が正面向きの猫の画像では、顔部分の位置情報(実線枠)がアノテーションとして設定されており、顔が横向きの猫の画像では、顔部分を破線枠で囲むようにアノテーションが設定されている。更に、第2手法では、顔が正面向きの猫の画像については、併用推論機器の利用を促すためのアノテーションが設定されている。 In FIG. 15, a large amount of images corresponding to inputs and outputs are given as teacher data to a predetermined network N2. In the example of FIG. 15, an image of a cat, in which an image of a cat with its face facing forward and an image of a cat with its face facing sideways are input. The position information (solid line frame) of the face part is set as an annotation in the image of the cat with the face facing forward, and the annotation is set so that the face part is surrounded by the broken line frame in the image of the cat with the face facing sideways. Has been done. Furthermore, in the second method, an annotation for prompting the use of the combined reasoning device is set for an image of a cat whose face is facing forward.

これにより、ネットワークN2は、入力に対応する出力が得られるように、ネットワークデザインが決定される。即ち、図15の例では、猫の画像が入力されると、猫の顔が正面を向いている場合には、併用推論機器の利用を促すと共に、その顔の画像部分の位置情報(実線枠)が信頼度の情報と共に得られ、猫の顔が横を向いている場合にはその顔の画像部分を囲む位置に破線枠を表示するための情報が信頼度の情報と共に得られる。 Accordingly, the network design of the network N2 is determined so that the output corresponding to the input can be obtained. That is, in the example of FIG. 15, when a cat image is input, if the cat's face is facing the front, the use of the combined reasoning device is prompted and the position information of the image portion of the face (solid line frame ) Is obtained together with the reliability information, and when the cat's face is facing sideways, information for displaying a broken line frame at the position surrounding the image portion of the face is obtained together with the reliability information.

図16は撮像装置10の動作を説明するためのフローチャートである。図16において図11と同一の手順には同一符号を付して説明を省略する。なお、第2手法においても、ルールベースエンジン18は、図12に示すように、正面を向いた猫の顔を検出するものとする。 FIG. 16 is a flowchart for explaining the operation of the image pickup apparatus 10. 16, the same steps as those in FIG. 11 are designated by the same reference numerals and the description thereof will be omitted. In the second method as well, the rule-based engine 18 detects a face of a cat facing the front, as shown in FIG.

制御部11は、撮影モードが指定されている場合には、ステップS31からステップS41に処理を移行して撮像画像を取り込む。撮像部12からの撮像画像は制御部11に与えられると共に、推論エンジン17及びルールベースエンジン18にも与えられる。制御部11の推論設定部11dは、推論モデル情報に付加された推論設定情報に基づいて、推論エンジン17及びルールベースエンジン18に対して、第2手法により推論を行うように制御する。 When the shooting mode is designated, the control unit 11 shifts the processing from step S31 to step S41 and captures a captured image. The captured image from the image capturing unit 12 is provided to the control unit 11 and also to the inference engine 17 and the rule base engine 18. The inference setting unit 11d of the control unit 11 controls the inference engine 17 and the rule-based engine 18 to infer by the second method, based on the inference setting information added to the inference model information.

制御部11は、次のステップS52において、推論エンジン17による推論結果が併用推論機器の利用を促すものであるか否かを判定する。 In the next step S52, the control unit 11 determines whether or not the inference result by the inference engine 17 prompts the use of the combined inference device.

いま、ある瞬間に図13に示す撮像画像PI2が推論エンジン17に入力されるものとする。推論エンジン17は、学習装置20又は学習依頼装置30から提供を受けた推論モデル情報に基づくネットワーク17aにより、猫の横向きの顔の部分を検出する。推論エンジン17は、検出結果として、猫の横向きの顔の部分を囲う破線枠PO2a(図13参照)の情報を出力する。この情報は、推論エンジン17から制御部11に供給される。この場合には、制御部11は、ステップS52からステップS53に移行して、推論の信頼性が高いか否かを判定する。制御部11は、推論の信頼性が高い場合には、検出結果を表示する。即ち、表示制御部11fは、推論エンジン17の検出結果に基づいて、ライブビュー画像上に破線枠PO2aを重畳した表示画像PO2を表示する。 Now, it is assumed that the captured image PI2 shown in FIG. 13 is input to the inference engine 17 at a certain moment. The inference engine 17 detects the sideways face portion of the cat by the network 17a based on the inference model information provided by the learning device 20 or the learning requesting device 30. As a detection result, the inference engine 17 outputs the information of the broken line frame PO2a (see FIG. 13) surrounding the sideways face portion of the cat. This information is supplied from the inference engine 17 to the control unit 11. In this case, the control unit 11 proceeds from step S52 to step S53 and determines whether or not the inference reliability is high. The control unit 11 displays the detection result when the inference reliability is high. That is, the display control unit 11f displays the display image PO2 in which the broken line frame PO2a is superimposed on the live view image based on the detection result of the inference engine 17.

また、ある瞬間に図12に示す撮像画像PI1が推論エンジン17及びルールベースエンジン18に入力されるものとする。推論エンジン17は、推論モデル情報に基づくネットワーク17aにより、猫の正面向きの顔の部分を検出する。推論エンジン17は、検出結果として、猫の正面向きの顔の画像位置の情報及びルールベースエンジン18に検出を促す情報を制御部11に出力する。この場合には、制御部11は、ステップS52からステップS55に処理を移行して、推論エンジン17の推論結果、即ち、猫の顔の画像位置の情報をルールベースエンジン18に与えて、ルールベースエンジン18に猫の顔を検出させる。ルールベースエンジン18は、公知の顔検出処理によって、猫の正面向きの顔の部分を検出する。この場合には、ルールベースエンジン18には、猫の顔の画像位置の情報が与えられており、ルールベースエンジン18は、より高精度に猫の顔の検出が可能である。 It is also assumed that the captured image PI1 shown in FIG. 12 is input to the inference engine 17 and the rule-based engine 18 at a certain moment. The inference engine 17 detects the frontal face portion of the cat by the network 17a based on the inference model information. The inference engine 17 outputs to the control unit 11 as a detection result, information on the image position of the face of the cat facing forward and information for prompting the rule-based engine 18 to perform detection. In this case, the control unit 11 shifts the processing from step S52 to step S55, gives the inference result of the inference engine 17, that is, the information of the image position of the face of the cat, to the rule base engine 18, and the rule base engine 18 Cause the engine 18 to detect the face of a cat. The rule-based engine 18 detects a face portion of the cat facing forward by a known face detection process. In this case, the rule-based engine 18 is provided with the information on the image position of the cat's face, and the rule-based engine 18 can detect the cat's face with higher accuracy.

ルールベースエンジン18は、検出結果として、猫の顔の部分を囲う実線枠PO1a(図12参照)の情報を出力する。この情報は、ルールベースエンジン18から制御部11に供給される。表示制御部11fは、ルールベースエンジン18の検出結果に基づいて、ライブビュー画像上に実線枠PO1aを重畳した表示画像PO1を表示する(ステップS56)。 As a detection result, the rule-based engine 18 outputs the information of the solid line frame PO1a (see FIG. 12) surrounding the cat face portion. This information is supplied from the rule-based engine 18 to the control unit 11. The display control unit 11f displays the display image PO1 in which the solid line frame PO1a is superimposed on the live view image based on the detection result of the rule-based engine 18 (step S56).

このように第2手法では、推論エンジン17は、推論結果をルールベースエンジン18に与えて、ルールベースエンジン18において推論を行わせている。これにより、ルールベースエンジン18において高い推論精度が得られる画像等について、より精度を向上させるための情報をルールベースエンジン18に提供することができ、結果的に高い推論精度の検出が可能である。 As described above, in the second method, the inference engine 17 gives the inference result to the rule base engine 18 to cause the rule base engine 18 to make an inference. As a result, it is possible to provide the rule-based engine 18 with information for improving the accuracy of an image or the like for which the rule-based engine 18 can obtain high inference accuracy, and as a result, it is possible to detect high inference accuracy. ..

(第3手法)
第3手法においても、学習装置20及び学習依頼装置30における動作は他の手法と同一であり、仕様情報及び教師データが他の手法と異なる。
(Third method)
Also in the third method, the operations of the learning device 20 and the learning requesting device 30 are the same as those of the other methods, and the specification information and the teacher data are different from those of the other methods.

第3手法においては、学習装置20において作成される推論モデルは、入力として、撮像画像だけでなく、併用推論機器の検出結果が用いられるように設定される。例えば、併用推論機器から猫の顔部の画像や猫の顔部の画像位置等の情報が入力され、撮像部12から猫の画像が入力された場合には、猫の顔を検出する推論モデルが構築されるように、学習が行われる。 In the third method, the inference model created in the learning device 20 is set so that not only the captured image but also the detection result of the combined inference device is used as an input. For example, when information such as a cat face image and a cat face image position is input from the combined inference device, and a cat image is input from the imaging unit 12, an inference model for detecting a cat face. Learning is done so that

図17は撮像装置10の動作を説明するためのフローチャートである。図17において図11と同一の手順には同一符号を付して説明を省略する。なお、第3手法においても、ルールベースエンジン18は、図12に示すように、正面を向いた猫の顔を検出するものとする。 FIG. 17 is a flow chart for explaining the operation of the image pickup apparatus 10. In FIG. 17, the same steps as those in FIG. 11 are designated by the same reference numerals and description thereof will be omitted. In the third method as well, the rule-based engine 18 detects a face of a cat facing the front, as shown in FIG.

制御部11は、撮影モードが指定されている場合には、ステップS31からステップS41に処理を移行して撮像画像を取り込む。撮像部12からの撮像画像は制御部11に与えられると共に、推論エンジン17及びルールベースエンジン18にも与えられる。制御部11の推論設定部11dは、推論モデル情報に付加された推論設定情報に基づいて、推論エンジン17及びルールベースエンジン18に対して、第3手法により推論を行うように制御する。 When the shooting mode is designated, the control unit 11 shifts the processing from step S31 to step S41 and captures a captured image. The captured image from the image capturing unit 12 is provided to the control unit 11 and also to the inference engine 17 and the rule base engine 18. The inference setting unit 11d of the control unit 11 controls the inference engine 17 and the rule-based engine 18 to infer by the third method based on the inference setting information added to the inference model information.

制御部11は、ステップS41の次のステップS61において、ルールベースエンジン18に推論を実行させて猫の顔を検出させる。ルールベースエンジン18からの検出結果は制御部11に与えられる。制御部11は、ルールベースエンジン18の検出結果の判定を行う(ステップS62)。 In step S61 subsequent to step S41, the control unit 11 causes the rule-based engine 18 to perform inference and detect a cat face. The detection result from the rule-based engine 18 is given to the control unit 11. The control unit 11 determines the detection result of the rule-based engine 18 (step S62).

次に、制御部11は、ステップS63において、推論エンジン17に推論を実行させる。この場合には、制御部11は、ルールベースエンジン18の検出結果を推論エンジン17に与える。これにより、推論エンジン17は、撮像部12からの入力画像とルールベースエンジン18の推論結果とが与えられ、これらの入力を用いた推論によって、推論結果を得る。推論エンジン17の推論結果は制御部11に出力される。 Next, the control unit 11 causes the inference engine 17 to execute inference in step S63. In this case, the control unit 11 gives the detection result of the rule-based engine 18 to the inference engine 17. As a result, the inference engine 17 is given the input image from the imaging unit 12 and the inference result of the rule-based engine 18, and obtains the inference result by inference using these inputs. The inference result of the inference engine 17 is output to the control unit 11.

制御部11は、ステップS64において、推論エンジン17の推論結果について判定を行う。更に、制御部11は、ステップS65において、推論エンジン17及びルールベースエンジン18の推論結果に対する総合判定によって、検出結果を得る。 The control unit 11 determines the inference result of the inference engine 17 in step S64. Further, in step S65, the control unit 11 obtains a detection result by comprehensive judgment of the inference results of the inference engine 17 and the rule-based engine 18.

このように第3手法では、ルールベースエンジン18は、推論結果を推論エンジン17に与えており、推論エンジン17の推論の精度をより向上させることができる。 As described above, in the third method, the rule-based engine 18 gives the inference result to the inference engine 17, and the inference accuracy of the inference engine 17 can be further improved.

このように本実施の形態においては、併用推論機器の利用を想定して推論モデルを構築するための学習を行うことで、より有効な推論の実現が可能である。学習依頼装置はこのような併用推論機器の利用を想定した学習のための仕様情報を作成することで、学習装置において有効な推論モデルの構築を可能にする。また、学習装置は、推論モデルを利用する装置において、推論モデルの利用の仕方等を示す推論設定情報を推論モデル情報に付加して伝送する。これにより、推論モデルを利用する装置において、受信した推論モデル情報に付加された推論設定情報に基づいて、併用推論機器と推論モデルを用いる推論エンジンとを連携して使用することが可能となる。こうして、併用推論機器である例えばルールベースエンジンと推論エンジンとを効果的に動作させてより有効な推論結果を得ることが可能となる。 As described above, in the present embodiment, more effective inference can be realized by performing learning for constructing an inference model on the assumption of using a combination inference device. The learning requesting device makes it possible to construct an effective inference model in the learning device by creating specification information for learning assuming the use of such a combination reasoning device. Further, the learning device adds inference setting information indicating how to use the inference model to the inference model information in the device using the inference model and transmits the information. As a result, in the device using the inference model, the combined inference device and the inference engine using the inference model can be used in cooperation with each other based on the inference setting information added to the received inference model information. In this way, it is possible to effectively operate the combined reasoning device, for example, the rule-based engine and the reasoning engine to obtain a more effective reasoning result.

(第2の実施の形態)
図18及び図19は第2の実施の形態を示すブロック図である。本実施の形態は学習装置の構成が図1と異なり、図18及び図19は、図1の学習装置20に追加する構成を示している。
(Second embodiment)
18 and 19 are block diagrams showing the second embodiment. The configuration of the learning device in this embodiment is different from that in FIG. 1, and FIGS. 18 and 19 show a configuration added to the learning device 20 in FIG.

図18及び図19の画像データベース(DB)51a及び正解データベース(DB)51bは、図1の学習装置20内の教師データ記録部23に相当するものであり、教師データ中の画像データの集まりを画像DB51aとし、教師データ中のアノテーションデータの集まりを正解DB51bとして表している。 The image database (DB) 51a and the correct answer database (DB) 51b in FIGS. 18 and 19 correspond to the teacher data recording unit 23 in the learning device 20 in FIG. 1, and collect the image data in the teacher data. An image DB 51a is shown, and a collection of annotation data in the teacher data is shown as a correct answer DB 51b.

本実施の形態における学習装置は、学習装置20の構成の他に、併用推論機器53、検出精度測定器54、正解情報出力部55、検出精度データベース(DB)56及び検出精度情報出力部57を備えている。制御部21(図1参照)は、図18に示すように、併用推論機器53を用い、画像DB51a中の各画像データ52を併用推論機器53に与えて推論処理を実行させるようになっている。併用推論機器53の検出結果は検出精度測定器54に与えられる。 The learning device according to the present embodiment includes a combination inference device 53, a detection accuracy measuring device 54, a correct answer information output unit 55, a detection accuracy database (DB) 56, and a detection accuracy information output unit 57 in addition to the configuration of the learning device 20. I have it. As shown in FIG. 18, the control unit 21 (see FIG. 1) uses the combined reasoning device 53 and supplies each image data 52 in the image DB 51a to the combined reasoning device 53 to execute the inference process. .. The detection result of the combination inference device 53 is given to the detection accuracy measuring device 54.

また、正解情報出力部55は、正解DB51bから併用推論機器53に入力された画像データに対応する正解情報を取得して検出精度測定器54に出力する。検出精度測定器54は、併用推論機器53の検出結果と正解情報との比較によって、併用推論機器53の検出精度を測定して測定結果を検出精度DB56に出力する。検出精度DB56は、各画像毎に併用推論機器53の推論の検出精度を格納する。 In addition, the correct answer information output unit 55 acquires correct answer information corresponding to the image data input to the combined inference device 53 from the correct answer DB 51b and outputs it to the detection accuracy measuring instrument 54. The detection accuracy measuring device 54 measures the detection accuracy of the combined inference device 53 by comparing the detection result of the combined inference device 53 with the correct answer information, and outputs the measurement result to the detection accuracy DB 56. The detection accuracy DB 56 stores the detection accuracy of the inference of the combined inference device 53 for each image.

入出力モデル化部25は、推論モデルNの学習時において、図19に示すように、各画像データ52を推論モデルNに与え、正解情報出力部55からの正解情報を推論モデルNに与える。また、検出精度情報出力部57は、推論モデルNに入力される画像データ52に対応する検出精度の情報を検出精度DB56から読み出す。入出力モデル化部25は、制御部21に制御されて、検出精度情報出力部57からの検出精度の情報を推論モデルNの構築時に利用する。 At the time of learning the inference model N, the input/output modeling unit 25 gives each image data 52 to the inference model N and gives the correct answer information from the correct answer information output unit 55 to the inference model N as shown in FIG. Further, the detection accuracy information output unit 57 reads out the detection accuracy information corresponding to the image data 52 input to the inference model N from the detection accuracy DB 56. The input/output modeling unit 25 is controlled by the control unit 21 and uses the information about the detection accuracy from the detection accuracy information output unit 57 when constructing the inference model N.

例えば、制御部21は、推論モデルNの構築に際して、教師データとして推論モデルNに入力する画像に対応する検出精度情報を利用することで、検出精度が高い画像については併用推論機器による推論を促すように学習を行ってもよい。また、画像の検出精度が所定の閾値より高い場合にはこの画像についてのこれ以上の学習は不要と判定し、検出精度が所定の閾値よりも低い画像についてのみ学習を行うようになっていてもよい。この場合には、信頼度が比較的低くなる画像についての十分な学習が可能となり、全体として検出精度を向上させることができる可能性がある。 For example, when the inference model N is constructed, the control unit 21 uses the detection accuracy information corresponding to the image input to the inference model N as teacher data, and prompts the inference by the combined inference device for the image with high detection accuracy. You may learn as follows. Further, if the detection accuracy of the image is higher than the predetermined threshold value, it is determined that no further learning is required for this image, and even if only the image whose detection accuracy is lower than the predetermined threshold value is learned. Good. In this case, it is possible to sufficiently learn an image having a relatively low reliability, and it is possible to improve the detection accuracy as a whole.

このように本実施の形態においては、学習に際して併用推論機器による検出精度の情報を利用することができ、より有効な推論を可能にする推論モデルの構築が可能となる。 As described above, in the present embodiment, the information about the detection accuracy of the combined reasoning device can be used for learning, and the inference model that enables more effective inference can be constructed.

上記実施の形態においては、撮像のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラでもよく、さらに、携帯電話やスマートフォンなど携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも勿論構わない。 In the above embodiment, a digital camera is used as an imaging device, but the camera may be a digital single lens reflex camera, a compact digital camera, a video camera, a movie camera, or a mobile phone. Of course, a camera built in a personal digital assistant (PDA) such as a smartphone or a smart phone may be used.

本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements within a range not departing from the gist of the invention in an implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in each of the above embodiments. For example, some of all the constituent elements shown in the embodiment may be deleted. Furthermore, the constituent elements of different embodiments may be combined appropriately.

なお、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。 It should be noted that even if the operation flow in the claims, the specification, and the drawings is described by using “first,” “next,” and the like for convenience, it is essential that the operations are performed in this order. It does not mean. Further, it goes without saying that the steps constituting these operation flows can be appropriately omitted for the portions that do not affect the essence of the invention.

なお、ここで説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定可能であることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを介してダウンロードしたものでもよい。 Of the techniques described here, the control mainly described in the flowchart is often settable by a program and may be stored in a recording medium or a recording unit. The recording medium and the recording unit may be recorded at the time of product shipment, may be used as a distributed recording medium, or may be downloaded via the Internet.

なお、実施例中で、「部」(セクションやユニット)として記載した部分は、専用の回路や、複数の汎用の回路を組み合わせて構成してもよく、必要に応じて、予めプログラムされたソフトウェアに従って動作を行うマイコン、CPUなどのプロセッサ、あるいはFPGAなどシーケンサを組み合わせて構成されてもよい。また、その制御の一部または全部を外部の装置が引き受けるような設計も可能で、この場合、有線や無線の通信回路が介在する。通信は、ブルートゥースやWiFi、電話回線などで行えばよく、USBなどで行っても良い。専用の回路、汎用の回路や制御部を一体としてASICとして構成してもよい。 It should be noted that, in the embodiments, a portion described as a “section” (section or unit) may be configured by a dedicated circuit or a combination of a plurality of general-purpose circuits, and if necessary, preprogrammed software may be used. It may be configured by combining a microcomputer that operates according to the above, a processor such as a CPU, or a sequencer such as an FPGA. It is also possible to design such that a part or all of the control is taken over by an external device, and in this case, a wired or wireless communication circuit intervenes. The communication may be performed using Bluetooth, WiFi, a telephone line, or the like, and may be performed using USB or the like. A dedicated circuit, a general-purpose circuit, and a control unit may be integrally configured as an ASIC.

1…撮像装置、10…制御部、11…画像処理部、11a…画質改善部、12…表示制御部、13…記録制御部、14…行為検出部、20…撮像部、21…光学系、22…撮像素子、23…変位付与部、30…特定範囲推定部、31…シーン判定部、32…良好構図記憶部、33…改善予測部、41…表示部、42…操作部、43…センサ部、44…記録部。 DESCRIPTION OF SYMBOLS 1... Imaging device, 10... Control part, 11... Image processing part, 11a... Image quality improvement part, 12... Display control part, 13... Recording control part, 14... Action detection part, 20... Imaging part, 21... Optical system, 22... Image sensor, 23... Displacement giving section, 30... Specific range estimation section, 31... Scene determination section, 32... Good composition storage section, 33... Improvement prediction section, 41... Display section, 42... Operation section, 43... Sensor Part, 44... Recording part.

Claims (14)

推論モデルの仕様を要求するための複数の仕様項目の設定を記述した仕様情報を生成する仕様設定部と、
上記仕様情報を教師データと共に上記推論モデルを生成する学習装置に送信するための制御を行う制御部とを具備し、
上記仕様設定部は、上記仕様情報中に、上記推論モデルを利用する推論エンジンが、他の併用推論機器と連携して推論を行うか否かを設定する仕様項目を含める
ことを特徴とする学習依頼装置。
A specification setting unit that generates specification information that describes the setting of multiple specification items for requesting the specification of the inference model,
A control unit for performing control for transmitting the specification information together with teacher data to a learning device that generates the inference model,
The learning is characterized in that the specification setting unit includes, in the specification information, a specification item for setting whether or not an inference engine that uses the inference model performs inference in cooperation with another combined inference device. Requesting device.
上記仕様設定部は、上記仕様情報中に、上記他の併用推論機器の機能の情報及び上記推論エンジンと上記他の併用推論機器との間の入出力に関する情報を設定する仕様項目を含める
ことを特徴とする請求項1に記載の学習依頼装置。
The specification setting unit includes, in the specification information, a specification item for setting information about the function of the other combined reasoning device and information about input/output between the inference engine and the other combined reasoning device. The learning requesting device according to claim 1.
上記仕様設定部は、上記仕様情報中に、上記複数の仕様項目の優先度を設定する仕様項目を含める
ことを特徴とする請求項1に記載の学習依頼装置。
The learning requesting device according to claim 1, wherein the specification setting unit includes, in the specification information, a specification item for setting priorities of the plurality of specification items.
推論モデルの仕様を決定するための複数の仕様項目の設定を記述した仕様情報であって、上記推論モデルを利用する推論エンジンが他の併用推論機器と連携して推論を行うための仕様情報に基づいて上記推論モデルを構築する推論モデル化部と、
上記仕様情報に基づいて上記併用推論機器との連携の仕方に関する推論設定情報を上記推論モデルを構築するための推論モデル情報に付加して送信するための制御を行う制御部と
を具備することを特徴とする学習装置。
Specification information that describes the settings of multiple specification items for determining the specifications of the inference model, and that is used by the inference engine that uses the above inference model to perform inference in cooperation with other combined inference devices. An inference modeling unit that builds the above inference model based on
And a control unit for performing control for adding and transmitting inference setting information regarding how to cooperate with the combined inference device based on the specification information to the inference model information for constructing the inference model. Characteristic learning device.
上記制御部は、上記推論設定情報として上記仕様情報を上記推論モデル情報に付加する
ことを特徴とする請求項4に記載の学習装置。
The learning device according to claim 4, wherein the control unit adds the specification information as the inference setting information to the inference model information.
上記制御部は、上記推論設定情報を上記推論モデル情報のヘッダ情報として上記推論モデル情報に付加する
ことを特徴とする請求項4に記載の学習装置。
The learning apparatus according to claim 4, wherein the control unit adds the inference setting information to the inference model information as header information of the inference model information.
推論エンジンと併用推論機器とが連携して推論を行うことを前提にした推論モデルを構築するための推論モデル情報であって、上記推論エンジンと上記併用推論機器との連携の仕方に関する推論設定情報が付加された上記推論モデル情報を受信する通信部と、
上記推論モデル情報に基づいて構成される推論モデルを用いて推論を行う上記推論エンジンと、
上記併用推論機器と、
上記推論設定情報に基づいて、上記推論エンジンと上記併用推論機器とを連携させて推論を実行させる制御部と
を具備することを特徴とする推論モデル利用装置。
Inference model information for constructing an inference model on the assumption that the inference engine and the combined use inference device perform inference in cooperation with each other, and inference setting information related to how the inference engine and the combined use inference device cooperate with each other. A communication unit that receives the inference model information added with
An inference engine that performs inference using an inference model configured based on the inference model information,
With the above combination reasoning device,
An inference model utilization apparatus, comprising: a control unit that causes the inference engine and the combined inference device to cooperate with each other to execute inference based on the inference setting information.
上記制御部は、上記推論設定情報に基づいて、上記推論エンジンと上記併用推論機器とを相互に独立して動作させ、上記推論エンジンの第1の推論結果の信頼度と上記併用推論機器の第2の推論結果の信頼度とに基づいて、上記第1又は第2の推論結果を得る
ことを特徴とする請求項7に記載の推論モデル利用装置。
The control unit operates the inference engine and the combined inference device independently of each other based on the inference setting information to determine the reliability of the first inference result of the inference engine and the combination inference device 8. The inference model utilizing apparatus according to claim 7, wherein the first or second inference result is obtained based on the reliability of the second inference result.
上記制御部は、上記推論設定情報に基づいて、上記推論エンジンの第1の推論結果を上記併用推論機器に与えて、上記併用推論機器の第2の推論結果を得る
ことを特徴とする請求項7に記載の推論モデル利用装置。
The control unit gives a first inference result of the inference engine to the combined inference device based on the inference setting information to obtain a second inference result of the combined inference device. The inference model utilization device according to 7.
上記制御部は、上記推論設定情報に基づいて、上記併用推論機器の第2の推論結果を上記推論エンジンに与えて、上記推論エンジンの第1の推論結果を得る
ことを特徴とする請求項7に記載の推論モデル利用装置。
8. The control unit gives the second inference result of the combined inference device to the inference engine based on the inference setting information to obtain the first inference result of the inference engine. The inference model utilization device described in.
推論エンジンと併用推論機器とが連携して推論を行うことを前提にした推論モデルを構築するための推論モデル情報であって、上記推論エンジンと上記併用推論機器との連携の仕方に関する推論設定情報が付加された上記推論モデル情報を受信し、
上記推論モデル情報に基づいて構成される推論モデルを用いて上記推論エンジンを構築し、
上記推論設定情報に基づいて、上記推論エンジンと上記併用推論機器とを連携させて推論を実行させる
ことを特徴とする推論モデル利用方法。
Inference model information for constructing an inference model on the assumption that the inference engine and the combined use inference device perform inference in cooperation with each other, and inference setting information related to how the inference engine and the combined use inference device cooperate with each other. Receives the above inference model information with
Build the above inference engine using an inference model configured based on the above inference model information,
A method for using an inference model, characterized by causing the inference engine and the combined inference device to cooperate with each other to execute inference based on the inference setting information.
コンピュータに、
推論エンジンと併用推論機器とが連携して推論を行うことを前提にした推論モデルを構築するための推論モデル情報であって、上記推論エンジンと上記併用推論機器との連携の仕方に関する推論設定情報が付加された上記推論モデル情報を受信し、
上記推論モデル情報に基づいて構成される推論モデルを用いて上記推論エンジンを構築し、
上記推論設定情報に基づいて、上記推論エンジンと上記併用推論機器とを連携させて推論を実行させる
手順を実行させるための推論モデル利用プログラム。
On the computer,
Inference model information for constructing an inference model on the assumption that the inference engine and the combined use inference device perform inference in cooperation with each other, and inference setting information related to how the inference engine and the combined use inference device cooperate with each other. Receives the above inference model information with
Build the above inference engine using the inference model configured based on the above inference model information,
A reasoning model utilization program for executing a procedure for causing the reasoning engine and the combined reasoning device to cooperate with each other based on the reasoning setting information.
被写体の撮像画像を取得する撮像部と、
推論エンジンと併用推論機器とが連携して推論を行うことを前提にした推論モデルを構築するための推論モデル情報であって、上記推論エンジンと上記併用推論機器との連携の仕方に関する推論設定情報が付加された上記推論モデル情報を受信する通信部と、
上記推論モデル情報に基づいて構成される推論モデルを用いて推論を行う上記推論エンジンと、
上記併用推論機器と、
上記推論設定情報に基づいて、上記推論エンジンと上記併用推論機器とを連携させて推論を実行させることにより、上記撮像画像から所定の対象物を検出する制御部と
を具備することを特徴とする撮像装置。
An imaging unit that acquires a captured image of the subject,
Inference model information for constructing an inference model on the assumption that the inference engine and the combined use inference device perform inference in cooperation with each other, and inference setting information related to how the inference engine and the combined use inference device cooperate with each other. A communication unit that receives the inference model information added with
An inference engine that performs inference using an inference model configured based on the inference model information,
With the above combination reasoning device,
And a controller that detects a predetermined object from the captured image by causing the inference engine and the combined inference device to cooperate with each other to execute inference based on the inference setting information. Imaging device.
外部に推論モデルの作成を依頼するための通信部と、
搭載すべき前記推論モデルの要求仕様を表示部に一覧表示可能な制御部と
を具備することを特徴とする推論モデル利用装置。
A communication unit for requesting the creation of an inference model externally,
An inference model utilizing apparatus comprising: a control unit capable of displaying a list of required specifications of the inference model to be mounted on a display unit.
JP2019021597A 2019-02-08 2019-02-08 Learning request device, learning device, inference model utilization device, inference model utilization method, inference model utilization program, and imaging device Active JP7166951B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019021597A JP7166951B2 (en) 2019-02-08 2019-02-08 Learning request device, learning device, inference model utilization device, inference model utilization method, inference model utilization program, and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019021597A JP7166951B2 (en) 2019-02-08 2019-02-08 Learning request device, learning device, inference model utilization device, inference model utilization method, inference model utilization program, and imaging device

Publications (2)

Publication Number Publication Date
JP2020129268A true JP2020129268A (en) 2020-08-27
JP7166951B2 JP7166951B2 (en) 2022-11-08

Family

ID=72174666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019021597A Active JP7166951B2 (en) 2019-02-08 2019-02-08 Learning request device, learning device, inference model utilization device, inference model utilization method, inference model utilization program, and imaging device

Country Status (1)

Country Link
JP (1) JP7166951B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022239979A1 (en) * 2021-05-10 2022-11-17 현대자동차주식회사 Method and apparatus for enabling artificial intelligence service in m2m system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0395603A (en) * 1989-09-08 1991-04-22 Hitachi Ltd Operation support method for process applying multiple decision
JPH06124196A (en) * 1992-10-12 1994-05-06 Hitachi Ltd Model preparation supporting system
JP2004294360A (en) * 2003-03-28 2004-10-21 Hitachi High-Technologies Corp Method and apparatus for classifying defects
JP2017059031A (en) * 2015-09-17 2017-03-23 日本電気株式会社 Information processing apparatus, information processing method, and program
JP2018152063A (en) * 2017-03-14 2018-09-27 オムロン株式会社 Device, method, and program for evaluating learning results
JP6431231B1 (en) * 2017-12-24 2018-11-28 オリンパス株式会社 Imaging system, learning apparatus, and imaging apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0395603A (en) * 1989-09-08 1991-04-22 Hitachi Ltd Operation support method for process applying multiple decision
JPH06124196A (en) * 1992-10-12 1994-05-06 Hitachi Ltd Model preparation supporting system
JP2004294360A (en) * 2003-03-28 2004-10-21 Hitachi High-Technologies Corp Method and apparatus for classifying defects
JP2017059031A (en) * 2015-09-17 2017-03-23 日本電気株式会社 Information processing apparatus, information processing method, and program
JP2018152063A (en) * 2017-03-14 2018-09-27 オムロン株式会社 Device, method, and program for evaluating learning results
JP6431231B1 (en) * 2017-12-24 2018-11-28 オリンパス株式会社 Imaging system, learning apparatus, and imaging apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
VILLENA-ROMAN, JULIO: "Hybrid Approach Combining Machine Learning and a Rule-Based Expert System for Text Categorization", PROCEEDINGS OF THE TWENTY-FOURTH INTERNATIONAL FLORIDA ARTIFICIAL INTELLIGENCE RESEARCH SOCIETY CONF, JPN6022029341, 20 May 2011 (2011-05-20), pages 323 - 328, XP055616968, ISSN: 0004827353 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022239979A1 (en) * 2021-05-10 2022-11-17 현대자동차주식회사 Method and apparatus for enabling artificial intelligence service in m2m system

Also Published As

Publication number Publication date
JP7166951B2 (en) 2022-11-08

Similar Documents

Publication Publication Date Title
US9338311B2 (en) Image-related handling support system, information processing apparatus, and image-related handling support method
US11281940B2 (en) Image file generating device and image file generating method
JP7064346B2 (en) Image pickup device, information terminal, control method of image pickup device, and control method of information terminal
US8520096B2 (en) Apparatus and method for learning photographing profiles of digital imaging device for recording personal life history
KR20210028218A (en) Image processing methods and devices, electronic devices and storage media
CN110910340A (en) Annotation device and annotation method
US20200412982A1 (en) Laminated image pickup device, image pickup apparatus, image pickup method, and recording medium recorded with image pickup program
KR20150026123A (en) Method for proccessing digital image and apparatus of the same
JP2020035094A (en) Machine learning device, teacher data generation device, inference model, and teacher data generation method
CN104349047A (en) Image photographing apparatus and photographing method thereof
JP7403995B2 (en) Information processing device, control method and program
JP2020119322A (en) Learning requesting device and method for requesting learning
JP7166951B2 (en) Learning request device, learning device, inference model utilization device, inference model utilization method, inference model utilization program, and imaging device
JP2020123174A (en) Image file generating apparatus, image file generating method, image management apparatus, and image management method
KR102187238B1 (en) Device and method for user-participated human 3D modeling
JP2019008636A (en) Imaging System
JP2019191933A (en) Learning device, imaging device, image processing device, and learning method
JP4772756B2 (en) Imaging apparatus and imaging program
JP4818997B2 (en) Face detection device and face detection program
JP2020061601A (en) Photographic inspection support device and program of the same
JP7152244B2 (en) LEARNING DEVICE, LEARNING METHOD AND PROGRAM
JP7200030B2 (en) Learning device, imaging device, learning system, AI information providing device, learning method and learning program
JP2011041042A (en) Digital camera
JP7236869B2 (en) IMAGING DEVICE, IMAGING METHOD AND IMAGING PROGRAM
WO2023286652A1 (en) Learning apparatus, prediction appraratus, and imaging appraratus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221026

R151 Written notification of patent or utility model registration

Ref document number: 7166951

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151