JP7488467B2 - PART IDENTIFICATION PROGRAM, PART IDENTIFICATION METHOD, AND INFORMATION PROCESSING APPARATUS - Google Patents
PART IDENTIFICATION PROGRAM, PART IDENTIFICATION METHOD, AND INFORMATION PROCESSING APPARATUS Download PDFInfo
- Publication number
- JP7488467B2 JP7488467B2 JP2020151807A JP2020151807A JP7488467B2 JP 7488467 B2 JP7488467 B2 JP 7488467B2 JP 2020151807 A JP2020151807 A JP 2020151807A JP 2020151807 A JP2020151807 A JP 2020151807A JP 7488467 B2 JP7488467 B2 JP 7488467B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- image information
- information
- image
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 45
- 230000010365 information processing Effects 0.000 title claims description 39
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000013461 design Methods 0.000 claims description 48
- 238000012545 processing Methods 0.000 claims description 47
- 238000010586 diagram Methods 0.000 description 24
- 238000005516 engineering process Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 15
- 238000013473 artificial intelligence Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 9
- 230000015654 memory Effects 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 8
- 238000013500 data storage Methods 0.000 description 7
- 230000002950 deficient Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000007257 malfunction Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013403 standard screening design Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
本発明は、部品特定プログラム、部品特定方法及び情報処理装置に関する。 The present invention relates to a part identification program, a part identification method, and an information processing device.
工場の組み立てラインなどにおいて、組み立て対象などの装置に含まれる部品の不具合が検出された際、作業者が不具合部品の部品名、部品番号、症状などを人手によりシステムに入力することがあった。また、修理の際には、作業者がBOM(Bills Of Material)から不具合部品の部品番号を探し出し、代わりの部品を手配する場合があった。このように人が部品名や部品番号などを指定することにより部品を特定する手法がある。 When a defect is detected in a part included in a device being assembled on a factory assembly line, a worker may manually enter the name, part number, and symptoms of the defective part into a system. Also, when repairing a part, a worker may find the part number of the defective part in a bill of materials (BOM) and order a replacement part. In this way, there is a method for identifying parts by having a person specify the part name, part number, etc.
一方、自動運転などの分野ではAI(Artificial Intelligence)による物体検出技術が活用されている。物体検出技術では、画像の中から車両や人などが特定される。
また、従来、部品単体を複数方向から撮影し、撮像画像と各分類項目の画像とを比較することで、その部品がどの分類に属するかを判定する技術が提案されている(たとえば、特許文献1参照)。
Meanwhile, in fields such as autonomous driving, object detection technology using AI (Artificial Intelligence) is being used, which identifies vehicles, people, etc. from images.
Furthermore, a technique has been proposed in the past in which an individual component is photographed from multiple directions and the photographed images are compared with images of each classification item to determine which classification the component belongs to (see, for example, Japanese Patent Laid-Open No. 2003-233694).
また、従来、複数の部品を組合せて構成された3次元モデルをもとに画面に表示された2次元画像への入力操作により、目的の部品の2次元画像を選択し出力する技術が提案されている(たとえば、特許文献2参照)。 Also, a technology has been proposed in the past that selects and outputs a two-dimensional image of a target part by inputting operations into a two-dimensional image displayed on a screen based on a three-dimensional model constructed by combining multiple parts (see, for example, Patent Document 2).
上記のように人が部品名や部品番号などを指定することにより部品を特定する手法では、表記ゆれや入力ミスなどが生じ、システムに蓄積された情報が有効に活用できない可能性があることに加え、手間と時間がかかる。一方、上記のようなAIによる物体検出技術を用いて、複数の部品を含む装置の撮像画像から部品を特定しようとする場合、小さい部品では、数ピクセル程度の画素数となる場合もあり、特定が困難である。また、部品の撮像画像と各分類項目の画像とを比較し、その部品がどの分類に属するかを判定する技術は、部品単体の分類をするものであり、複数の部品を含む装置の撮像画像から部品を特定するものではない。 As described above, the method of identifying parts by having a person specify the part name or part number is time-consuming and laborious, in addition to the risk of inconsistent spelling or input errors, which may prevent the information stored in the system from being effectively utilized. On the other hand, when using the above-mentioned AI-based object detection technology to identify parts from captured images of a device that contains multiple parts, small parts may only have a pixel count of a few pixels, making them difficult to identify. Furthermore, the technology that compares captured images of a part with images of each classification item and determines which classification the part belongs to classifies individual parts, and does not identify parts from captured images of a device that contains multiple parts.
1つの側面では、本発明は、複数の部品を含む装置の撮像画像から部品を特定可能な部品特定プログラム、部品特定方法及び情報処理装置を提供することを目的とする。 In one aspect, the present invention aims to provide a part identification program, a part identification method, and an information processing device that can identify parts from a captured image of a device that includes multiple parts.
1つの実施態様では、複数の部品を含む装置の撮像画像についての入力された第1の画像情報に基づいて、前記撮像画像を表示装置に表示し、前記第1の画像情報に基づいて、記憶部に記憶された前記装置の設計データから、前記撮像画像における前記装置の表示状態と同じ表示状態を示す第2の画像情報を生成し、前記第2の画像情報と前記設計データに基づいて、表示された前記撮像画像において指定された第1の指定位置に対応する前記第2の画像情報の座標にある部品を特定し、前記設計データに含まれる、特定した前記部品の情報を出力する、処理をコンピュータに実行させる部品特定プログラムが提供される。 In one embodiment, a part identification program is provided that causes a computer to execute the following processes: based on input first image information about a captured image of a device including a plurality of parts, the captured image is displayed on a display device; based on the first image information, second image information is generated from design data of the device stored in a storage unit, the second image information showing the same display state as the display state of the device in the captured image; based on the second image information and the design data, a part located at the coordinates of the second image information corresponding to a first designated position designated in the displayed captured image is identified; and information on the identified part included in the design data is output.
また、1つの実施態様では部品特定方法が提供される。
また、1つの実施態様では情報処理装置が提供される。
Also provided in one embodiment is a method for identifying a part.
In one embodiment, an information processing device is provided.
1つの側面では、本発明は、複数の部品を含む装置の撮像画像から部品を特定可能となる。 In one aspect, the present invention makes it possible to identify parts from a captured image of a device that includes multiple parts.
以下、発明を実施するための形態を、図面を参照しつつ説明する。
(第1の実施の形態)
図1は、第1の実施の形態の情報処理装置及び部品特定方法の一例を示す図である。
Hereinafter, an embodiment of the invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 illustrates an example of an information processing apparatus and a part identification method according to a first embodiment.
情報処理装置10は、たとえば、撮像装置11aによって撮影された装置15の撮像画像を表示装置14aの画面に表示し、撮像画像においてユーザによって指定された位置にある部品を、装置15の設計データを利用することで特定する。
For example, the
情報処理装置10は、入力部11、記憶部12、処理部13、出力部14を有する。
入力部11は、処理部13の制御のもと、外部から入力された情報を取得し、処理部13に出力するインタフェース回路である。入力部11には、撮像装置11aによって得られる装置15(複数の部品(たとえば、図1の部品15a,15bなど)を含む)の撮像画像の画像情報が入力される。撮像装置11aは、たとえば、CCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラなどである。
The
The
入力される画像情報は、たとえば、工場における組み立てラインの、ある工程における装置15を撮影した撮像画像の画像情報である。
なお、入力される画像情報は、予め情報処理装置10の外部の記憶装置に記憶されたものであってもよいし、ネットワークを介して別の情報処理装置から送信されたものであってもよい。また、撮像画像は、複数の視点から得られた画像であってもよい。
The input image information is, for example, image information of a captured image of the
The input image information may be stored in advance in an external storage device of the
また、入力部11は、ユーザによる入力装置11b(マウス、キーボード、タッチパネルなど)の操作によって入力される情報を取得する。
記憶部12は、RAM(Random Access Memory)などの揮発性の記憶装置、または、HDD(Hard Disk Drive)やフラッシュメモリなどの不揮発性の記憶装置である。
Furthermore, the
The
記憶部12は、装置15の設計データ12aなどの各種データを記憶する。設計データ12aは、たとえば、装置15の3次元モデルである。設計データ12aは、装置15に含まれる部品の座標情報のほか、部品名、その部品の取付位置、材質などを含む。また、設計データ12aは、その部品についてのBOMの部品番号などを含んでいてもよい。
The
また、記憶部12は、ある部品において発生した現象の内容(障害の内容など)を、設計データ12aにおけるその部品の情報と紐付けて記憶していてもよい。
処理部13は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などのハードウェアであるプロセッサにより実現される。ただし、処理部13は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの電子回路を含んでもよい。プロセッサは、RAMなどのメモリに記憶されたプログラムを実行する。たとえば、部品特定プログラムが実行される。なお、複数のプロセッサの集合を「マルチプロセッサ」または単に「プロセッサ」ということがある。処理部13が部品特定プログラムを実行した場合の処理(部品特定方法)については後述する。
Furthermore, the
The processing unit 13 is realized by a processor, which is hardware such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). However, the processing unit 13 may include an electronic circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The processor executes a program stored in a memory such as a RAM. For example, a part identification program is executed. A set of multiple processors may be called a "multiprocessor" or simply a "processor". The processing (part identification method) when the processing unit 13 executes the part identification program will be described later.
出力部14は、処理部13の制御のもと、画像情報に基づく画像を表示装置14aに出力するインタフェース回路である。
処理部13が部品特定プログラムを実行すると、たとえば、図1に示すような処理(部品特定方法)が行われる。
The
When the processing unit 13 executes the part identification program, for example, a process (part identification method) as shown in FIG. 1 is performed.
入力部11は、撮像装置11aから入力された、装置15の撮像画像についての画像情報を取得する(ステップS1)。
処理部13は、装置15の撮像画像についての入力された画像情報に基づいて、出力部14に、撮像画像を表示装置14aに表示させる(ステップS2)。
The
The processing unit 13 causes the
処理部13は、入力された画像情報に基づいて、記憶部12に記憶された装置15の設計データ12aから、撮像画像における装置15の表示状態と同じ表示状態を示す画像情報を生成する(ステップS3)。
Based on the input image information, the processing unit 13 generates image information showing the same display state of the
たとえば、処理部13は、入力された画像情報に基づいて、設計データ12aにより表される装置15の表示サイズ、表示位置、または向きを、撮像画像における装置15の表示サイズ、表示位置、または向きと一致させることで、上記の画像情報を生成する。
For example, the processing unit 13 generates the above image information by matching the display size, display position, or orientation of the
なお、設計データ12aには、撮像画像に現れている装置15の部品以外の部品についての情報も含まれている場合がある。たとえば、ノートパソコンの組み立てラインにおけるある工程の撮像画像には、バッテリーが現れていない場合もあるし、別の工程の撮像画像には、電源装置が現れていない場合もある。
Note that the
このような場合に対応するために、予め記憶部12に、設計データ12aから得られ、複数の部品の何れかの表示の有無がそれぞれ異なる装置15の複数の表示パターンのそれぞれについての画像情報が記憶されていてもよい。その場合、処理部13は、記憶部12に記憶された上記複数の表示パターンのそれぞれについての画像情報と、入力された画像情報との類似度に基づいて、複数の表示パターンの何れかを選択する。そして、処理部13は、入力された画像情報に基づいて、選択した表示パターンについての画像情報により表される装置15の、表示サイズ、表示位置、または向きを、撮像画像における装置15の表示サイズ、表示位置、または向きと一致させた画像情報を生成する。
To deal with such a case, the
上記のような表示状態を撮像画像に合致させる処理の、より詳細な例については後述する。
ステップS3の処理後、入力部11は、表示装置14aの画面に表示された撮像画像における、ユーザによる位置指定を受け付ける(ステップS4)。たとえば、入力装置11bの一例であるマウスによって、表示された撮像画像の所定の位置がクリックで指定された場合、処理部13は、指定位置に対応する、撮像画像が表示されている画面上の座標を取得する。
A more detailed example of the process of matching the display state with the captured image will be described later.
After the process of step S3, the
そして、処理部13は、設計データ12aから上記のように生成した画像情報において、指定位置に対応した座標にある部品を特定し(ステップS5)、設計データ12aに含まれる、特定した部品の情報を出力する(ステップS6)。
Then, the processing unit 13 identifies the part located at the coordinates corresponding to the specified position in the image information generated from the
ステップS6の処理では、処理部13は、特定した部品の情報を、出力部14を用いて表示装置14aに出力して表示させてもよいし、外部の図示しない記憶装置に出力して記憶させてもよい。また、処理部13は、特定した部品の情報を記憶部12に記憶してもよい。
In the process of step S6, the processing unit 13 may output the information on the identified parts to the
図1には、ユーザが、マウスのカーソル16を撮像画像における所定の位置に合わせてクリックした後に表示される部品の情報の例が示されている。図1の例では、ユーザによって指定され、特定された部品(指定部品)の部品名として「ねじA」、部品番号として「A0001」が表示されている。
Figure 1 shows an example of part information that is displayed after the user places the
さらに、たとえば、特定された部品において不具合などの現象が発生している場合、ユーザは、発生している現象の内容を入力装置11bにより入力することができる。ユーザが入力した情報は、指定された部品の情報に紐付けられて、たとえば、記憶部12に記憶される。
Furthermore, for example, if a phenomenon such as a malfunction occurs in a specified part, the user can input the details of the phenomenon that has occurred using the
なお、部品特定方法の処理の順序は、上記の例に限定されるものではない。たとえば、ステップS2とステップS3の処理順序を入れ替えてもよいし、ステップS3とステップS4の処理順序を入れ替えてもよい。 The order of processing in the part identification method is not limited to the above example. For example, the order of processing steps S2 and S3 may be switched, or the order of processing steps S3 and S4 may be switched.
以上のような情報処理装置10及び部品特定方法によれば、装置15の撮像画像の表示状態と同じ表示状態を示す画像情報を設計データ12aから生成することで、撮像画像のある位置を指定するだけでその位置に対応する画像情報の座標にある部品を特定できる。
According to the
また、このように特定した部品の情報が、設計データ12aから得られるため、たとえば、発生した不具合などに関する情報をシステムに登録する際にも、設計データ12aから得られた部品の部品名などを活用でき、人手による表記ゆれや入力ミスも防げる。
In addition, because the information on the parts identified in this way is obtained from the
また、設計データ12aにおける部品の情報としてBOMの部品番号を含める、またはその部品の情報にBOMの部品番号を紐付けしておけば、撮像画像上で部品を指定するだけで部品番号を取得でき、不具合部品の手配も容易になる。
In addition, if the BOM part number is included as part information in the
(第2の実施の形態)
次に、第2の実施の形態を説明する。
図2は、情報処理装置のハードウェア例を示すブロック図である。
Second Embodiment
Next, a second embodiment will be described.
FIG. 2 is a block diagram illustrating an example of hardware of the information processing device.
情報処理装置20は、CPU21、RAM22、HDD23、画像情報処理部24、入力情報処理部25、媒体リーダ26及び通信インタフェース27を有する。上記ユニットは、バスに接続されている。
The
CPU21は、プログラムの命令を実行する演算回路を含むプロセッサである。CPU21は、HDD23に記憶されたプログラムやデータの少なくとも一部をRAM22にロードし、プログラムを実行する。なお、CPU21は複数のプロセッサコアを備えてもよく、情報処理装置20は複数のプロセッサを備えてもよく、以下で説明する処理を複数のプロセッサまたはプロセッサコアを用いて並列に実行してもよい。また、複数のプロセッサの集合(マルチプロセッサ)を「プロセッサ」と呼んでもよい。
The
RAM22は、CPU21が実行するプログラムやCPU21が演算に用いるデータを一時的に記憶する揮発性の半導体メモリである。なお、情報処理装置20は、RAM以外の種類のメモリを備えてもよく、複数個のメモリを備えてもよい。
HDD23は、OS(Operating System)やミドルウェアやアプリケーションソフトウェアなどのソフトウェアのプログラム、及び、データを記憶する不揮発性の記憶装置である。プログラムには、たとえば、部品特定処理を情報処理装置20に実行させる部品特定プログラムが含まれる。なお、情報処理装置20は、フラッシュメモリやSSD(Solid State Drive)などの他の種類の記憶装置を備えてもよく、複数の不揮発性の記憶装置を備えてもよい。
The
画像情報処理部24は、CPU21からの命令にしたがって、情報処理装置20に接続されたディスプレイ24aに画像を出力する。ディスプレイ24aとしては、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ(LCD:Liquid Crystal Display)、プラズマディスプレイ(PDP:Plasma Display Panel)、有機EL(OEL:Organic Electro-Luminescence)ディスプレイなどを用いることができる。
The image
入力情報処理部25は、情報処理装置20に接続された入力装置25aや撮像装置25bから画像情報や入力情報を取得し、CPU21に出力する。入力装置25aとしては、マウスやタッチパネルやタッチパッドやトラックボールなどのポインティングデバイス、キーボード、リモートコントローラ、ボタンスイッチなどを用いることができる。また、情報処理装置20に、複数の種類の入力装置が接続されていてもよい。
The input
媒体リーダ26は、記録媒体26aに記録されたプログラムやデータを読み取る読み取り装置である。記録媒体26aとして、たとえば、磁気ディスク、光ディスク、光磁気ディスク(MO:Magneto-Optical disk)、半導体メモリなどを使用できる。磁気ディスクには、フレキシブルディスク(FD:Flexible Disk)やHDDが含まれる。光ディスクには、CD(Compact Disc)やDVD(Digital Versatile Disc)が含まれる。
The
媒体リーダ26は、たとえば、記録媒体26aから読み取ったプログラムやデータを、RAM22やHDD23などの他の記録媒体にコピーする。読み取られたプログラムは、たとえば、CPU21によって実行される。なお、記録媒体26aは、可搬型記録媒体であってもよく、プログラムやデータの配布に用いられることがある。また、記録媒体26aやHDD23を、コンピュータ読み取り可能な記録媒体ということがある。
The
通信インタフェース27は、ネットワーク27aに接続され、ネットワーク27aを介して他の情報処理装置と通信を行うインタフェースである。通信インタフェース27は、スイッチなどの通信装置とケーブルで接続される有線通信インタフェースでもよいし、基地局と無線リンクで接続される無線通信インタフェースでもよい。
The
図1に示した情報処理装置10についても、上記と同様のハードウェア構成にて実現できる。
次に、情報処理装置20の機能及び処理手順を説明する。
The
Next, the functions and processing procedures of the
図3は、情報処理装置の機能例を示すブロック図である。
情報処理装置20は、画像情報入力部31、表示状態マッチング部32、学習済モデル記憶部33、設計データ記憶部34、指定位置入力部35、部品特定部36、情報入力部37、蓄積情報記憶部38、出力部39を有する。
FIG. 3 is a block diagram illustrating an example of functions of the information processing device.
The
画像情報入力部31、表示状態マッチング部32、指定位置入力部35、部品特定部36、情報入力部37、出力部39は、たとえばCPU21が実行するプログラムモジュールを用いて実装できる。学習済モデル記憶部33、設計データ記憶部34、蓄積情報記憶部38は、たとえば、RAM22またはHDD23に確保した記憶領域を用いて実装できる。
The image
画像情報入力部31は、撮像装置25bから入力された、部品特定対象の装置の撮像画像の画像情報を取得する。
表示状態マッチング部32は、入力された画像情報に基づいて、設計データ記憶部34に記憶された部品特定対象の装置の設計データから、撮像画像におけるその装置の表示状態と同じ表示状態を示す画像情報を生成する。
The image
Based on the input image information, the display
以下に示す例では、表示状態マッチング部32は、撮像画像に表示されている複数の部品のうち少なくとも2つ検出する。部品の検出は、たとえば、AIによる物体検出技術または画像処理技術を用いて行われる。
In the example shown below, the display
AIによる物体検出技術が用いられる場合、学習済モデル記憶部33に記憶された学習済モデルを用いて、撮像画像において比較的大きい部品の検出が行われる。たとえば、部品特定対象の装置がノートパソコンの場合、ファン、通信モジュール、SSDなどが検出対象とされる。
When an AI-based object detection technology is used, relatively large parts are detected in the captured image using the learned model stored in the learned
画像処理技術を用いて部品を検出する場合、たとえば、テンプレートマッチングと呼ばれる技術を用いることができる。テンプレートマッチングによる部品検出処理の例については後述する。 When detecting parts using image processing technology, for example, a technology called template matching can be used. An example of part detection processing using template matching will be described later.
学習済モデル記憶部33は、表示状態マッチング部32がAIによる物体検出技術によって部品を検出する際に用いる学習済モデルを記憶する。学習済モデルは、撮像画像から、上記のような特定の部品を認識できるように、予めトレーニングされている。
The trained
設計データ記憶部34は、部品特定対象の装置の設計データ(以下3次元モデルとする)を記憶する。なお、以下の例では、設計データ記憶部34は、部品特定対象の装置における複数の部品の何れかの表示の有無がそれぞれ異なる複数の表示パターンのそれぞれについて、予め生成された画像情報が記憶されているものとする。
The design
指定位置入力部35は、たとえば、ユーザによる入力装置25aの操作によって、撮像画像において指定された位置の座標(撮像画像が表示される画面上の2次元座標)を取得する。
The specified
なお、ユーザが撮像対象の装置のある位置を直接、指差しなどで指定し、位置を指定している指などが装置とともに撮像画像に含まれている場合、指定位置入力部35は、撮像画像の画像情報からその指などを認識するようにしてもよい。そして、指定位置入力部35は、その指などにより指定されている位置の座標を取得する。指などの認識は、AIによる物体検出技術や画像処理技術により用いて行うことができる。
When a user directly designates a position on a device to be imaged by pointing at it, and a finger or the like designating the position is included in the captured image together with the device, the designated
部品特定部36は、指定位置入力部35から指定位置の座標を取得し、表示状態マッチング部32が生成した画像情報において、その座標にある部品を特定する。
情報入力部37は、ユーザによる入力装置25aの操作によって入力された情報を取得する。たとえば、特定された(ユーザが指定した)部品において発生した現象の内容(たとえば、発生した不具合の状況)などの情報が入力される。
The
The
蓄積情報記憶部38は、入力された情報を、部品特定部36が特定した部品の情報(たとえば、部品名や部品番号)と対応付けて蓄積情報として記憶する。
出力部39は、撮像画像、3次元モデル、特定した部品の情報、蓄積情報記憶部38に記憶されている蓄積情報などを、ディスプレイ24aに出力して表示させる。
The accumulated
The
以下、上記のような情報処理装置20による部品特定方法の一例を説明する。
図4は、部品特定方法の処理の一例の流れを示すフローチャートである。
まず、画像情報入力部31が撮像画像の画像情報を取得すると(ステップS10)、出力部39は、その画像情報に基づいて、ディスプレイ24aに撮像画像を表示させる(ステップS11)。
An example of a part identification method using the
FIG. 4 is a flowchart showing an example of the flow of processing of a part identification method.
First, when the image
指定位置入力部35は、ユーザによる位置の指定があるか否かを判定する(ステップS12)。位置の指定がない場合、ステップS10からの処理が繰り返され、位置の指定がある場合、指定位置入力部35は、指定された位置の座標を取得する(ステップS13)。
The designated
また、表示状態マッチング部32は、ステップS10の処理で取得された撮像画像の画像情報に基づいて、撮像画像に表示されている複数の部品のうち少なくとも2つを検出する(ステップS14)。
The display
ここで検出対象となる部品は、後述の3次元モデルの画像情報を撮像画像の表示状態とマッチングさせる際の位置合わせの基準として用いられるため、比較的大きな部品でよい。このため、ステップS14の処理は、たとえば、前述したようなAIによる物体検出技術または画像処理技術を用いて行うことができる。 The parts to be detected here are used as a reference for alignment when matching the image information of the three-dimensional model described below with the display state of the captured image, so they can be relatively large parts. For this reason, the processing of step S14 can be performed using, for example, the AI-based object detection technology or image processing technology described above.
図5は、部品検出結果の一例を示す図である。
図5では、装置40の撮像画像から検出された部品が枠線(以下バウンディングボックスという)で囲われている例が示されている。
FIG. 5 is a diagram showing an example of a part detection result.
FIG. 5 shows an example in which a part detected from an image captured by the
バウンディングボックス41で囲われた部品はSSDであり、バウンディングボックス42で囲われた部品はファンであり、バウンディングボックス43で囲われた部品は、無線通信モジュールである。
The component surrounded by bounding
AIによる物体検出技術を適用する場合、これらの部品を認識できるようにトレーニングされた学習済モデルが用いられる。
画像処理技術を利用して撮像画像から部品を検出する場合、たとえば、テンプレートマッチングが用いられる。
When applying AI object detection technology, pre-trained models are used to recognize these parts.
When detecting parts from a captured image using image processing technology, for example, template matching is used.
図6は、テンプレートマッチングによる部品検出処理の一例を示す図である。
テンプレートマッチングによる部品検出処理では、予めHDD23などに記憶されたテンプレート画像(部分画像)が用いられ、撮像画像中からテンプレート画像に最も類似する箇所が探索される。
FIG. 6 is a diagram showing an example of part detection processing using template matching.
In the part detection process using template matching, a template image (partial image) stored in advance in the
図6の例では、部品ごとにテンプレート画像50,51,52,53が用意されている。テンプレート画像50はファンを示し、テンプレート画像51はスピーカを示し、テンプレート画像52は無線通信モジュールを示し、テンプレート画像53はボタン型電池を示している。テンプレート画像50~53のそれぞれには部品名が紐付けられている。このようなテンプレート画像ごとに、装置40の撮像画像から最も類似する箇所が探索される。
In the example of FIG. 6,
類似度として、たとえば、テンプレート画像の画素値と撮像画像の画素値との差分の2乗和(2乗誤差)を用いることができる。
図6の例では、テンプレート画像50に最も類似する箇所としてバウンディングボックス60で囲われた箇所、テンプレート画像51に最も類似する箇所としてバウンディングボックス61a,61bで囲われた箇所が探索されている。また、テンプレート画像52に最も類似する箇所としてバウンディングボックス62で囲われた箇所、テンプレート画像53に最も類似する箇所としてバウンディングボックス63で囲われた箇所が探索されている。このようにして、部品の検出が行われる。
As the similarity, for example, the sum of squares of the differences (square error) between the pixel values of the template image and the pixel values of the captured image can be used.
6, the area surrounded by bounding
以上のようなステップS14の部品検出処理の後、表示状態マッチング部32は、設計データ記憶部34に記憶されている複数の表示パターンの何れかを選択する(ステップS15)。ステップS15の処理では、表示状態マッチング部32は、複数の表示パターンのそれぞれについての画像情報と、撮像画像の画像情報との類似度に基づいて、何れかの表示パターンを選択する。
After the part detection process in step S14 as described above, the display
表示パターンは、3次元モデルから予め作成され、撮像装置25bで撮影される可能性がある装置の表示状態をパターン化したものである。たとえば、比較的大きい部品の有無や、複数の部品を含むユニットの有無が異なる複数の表示パターンが予め作成される。
The display patterns are created in advance from a three-dimensional model, and are patterns of the display states of the device that may be captured by the
図7は、複数の表示パターンの例を示す図である。
図7には、パターン70,71,72の表示パターンの例が示されている。また、図7に示されているように、パターン70~72のそれぞれが示す表示状態における可視部品のリスト70a,71a,72aが、設計データ記憶部34に記憶されるようにしてもよい。
FIG. 7 is a diagram showing examples of a plurality of display patterns.
Fig. 7 shows examples of display patterns of
図8は、類似度に基づいた表示パターンの選択例を示す図である。
表示状態マッチング部32は、類似度に基づいて、撮像画像と最も類似する表示パターンを選択する。このとき、3次元モデルの表示パターンに含まれる部品などは色付けされている場合があり、その色は、撮像画像の色と異なる場合があり、類似度の計算に影響を与える可能性がある。この影響をなくすために、表示状態マッチング部32は、撮像画像と各表示パターンをグレースケール、または白黒画像に変換し、色情報をなくした上で、類似度の計算を行う。
FIG. 8 is a diagram showing an example of selection of a display pattern based on the similarity.
The display
図8の例では、パターン71の表示パターンの画像情報と撮像画像の画像情報との類似度が最大であるため、パターン71が選択されている。
なお、3次元モデルのデフォルトの表示パターンがある場合には、上記のように選択した表示パターンに変更するようにしてもよい。
In the example of FIG. 8, the
If there is a default display pattern for the three-dimensional model, it may be changed to the selected display pattern as described above.
次に、表示状態マッチング部32は、選択した表示パターンにおける装置と撮像画像における装置との表示サイズなどのマッチングを行う(ステップS16)。ステップS16の処理では、表示状態マッチング部32は、選択した表示パターンにおける装置の表示サイズ、表示位置、または、向きを、撮像画像における装置の表示サイズ、表示位置、または向きと一致させた画像情報を生成する。
Next, the display
表示状態マッチング部32は、たとえば、まず、選択した表示パターンにおける装置の表示サイズを、撮像画像における装置の表示サイズに合わせる。
図9は、表示サイズのマッチングの一例を示す図である。
For example, the display
FIG. 9 is a diagram showing an example of matching of display sizes.
図9には、ステップS15の処理で選択された3次元モデルの表示パターン(パターン71)における装置の表示サイズを、撮像画像における装置40の表示サイズに合わせる例が示されている。
Figure 9 shows an example in which the display size of the device in the display pattern (pattern 71) of the three-dimensional model selected in the processing of step S15 is adjusted to the display size of the
表示サイズのマッチングには、ステップS14の処理で検出された部品を囲うバウンディングボックス41~43を用いることができる。表示状態マッチング部32は、ステップS14の処理で検出した部品と同じ、3次元モデルにおける部品を囲うバウンディングボックス41a,42a,43aを設定する。そして、表示状態マッチング部32は、バウンディングボックス41a~43aがバウンディングボックス41~43と同じ大きさになるように、3次元モデルのパターン71における装置の表示サイズを変更(図9の例では拡大)する。
For display size matching, the bounding boxes 41-43 surrounding the parts detected in the processing of step S14 can be used. The display
次に、表示状態マッチング部32は、選択した表示パターンにおける装置の表示位置、または、向きを、撮像画像における装置の表示位置、または向きと一致させる。
図10は、表示位置のマッチングの一例を示す図である。
Next, the display
FIG. 10 is a diagram showing an example of matching of display positions.
表示状態マッチング部32は、たとえば、撮像画像から検出した複数の部品のうち1番大きい部品と、3次元モデルにおける同一部品との位置とが一致するように3次元モデルの表示位置を調整する。部品の位置として、部品を囲うバウンディングボックスの中心座標を用いることができる。表示位置の調整は、たとえば、3次元モデルの画像情報の座標変換により行われる。
The display
図10の例では、装置40の撮像画像から検出されたファンを囲うバウンディングボックス42の中心座標に対して、3次元モデルのパターン71に含まれるファンに設定されたバウンディングボックス42aの中心座標を一致させる例が示されている。
The example in FIG. 10 shows an example in which the center coordinates of a
図11は、向きのマッチングの一例を示す図である。
装置40の撮像画像と、パターン71の向きが異なる場合、たとえば、図11に示すように、一致させたバウンディングボックス42,42aの中心座標を中心に、向きが一致するように3次元モデルのパターン71を回転させる座標変換を行う。
FIG. 11 is a diagram showing an example of orientation matching.
If the orientation of the image captured by
たとえば、表示状態マッチング部32は、撮像画像から検出した複数の部品のうち上記の表示位置のマッチングに用いた部品以外の部品を選択する。そして、表示状態マッチング部32は、選択した部品の位置と、パターン71における同一部品の位置とが一致するようにパターン71を回転させる。たとえば、両部品のそれぞれを囲うバウンディングボックスが最も重なる向きになるようにパターン71の回転が行われる。
For example, the display
図11の例では、撮像画像とパターン71に含まれるSSDについてのバウンディングボックス41,41aが重なるように、パターン71を回転させる例が示されている。たとえば、表示状態マッチング部32は、バウンディングボックス41,41aの各頂点の座標のずれが最小になるように、パターン71を回転させる。
In the example of FIG. 11, the
以上の処理によって、選択した表示パターンにおける装置の表示サイズ、表示位置、または、向きを、撮像画像における装置の表示サイズ、表示位置、または向きと一致させた画像情報を生成することができる。つまり、撮像画像における装置と、選択した表示パターンにおける装置とを重ね合わせることができ、撮像画像における装置内の座標と、選択した表示パターンにおける装置内の座標とが一致するようになる。 By the above processing, it is possible to generate image information in which the display size, display position, or orientation of the device in the selected display pattern matches the display size, display position, or orientation of the device in the captured image. In other words, it is possible to overlay the device in the captured image and the device in the selected display pattern, so that the coordinates within the device in the captured image match the coordinates within the device in the selected display pattern.
上記のような表示状態のマッチング後、出力部39は、マッチング後の3次元モデル(表示パターン)を、ディスプレイ24aに表示させる(ステップS17)。
部品特定部36は、指定位置入力部35が取得したユーザによる指定位置の座標にある部品を、3次元モデルから特定する(ステップS18)。なお、このとき出力部39は、3次元モデルにおいて特定された部品を、ディスプレイ24aに強調表示させるようにしてもよい。
After matching the display state as described above, the
The
図12は、特定された部品の強調表示例を示す図である。
撮像画像が表示されているディスプレイ24aの画面80において、ユーザが、マウスのカーソル80aを撮像画像における所定の位置に合わせてクリックした後、出力部39は、ディスプレイ24aに表示させる画面80を画面81に切り替える。画面81には、表示状態のマッチング後の3次元モデルが示され、カーソル80aで指定された位置にある部品が、たとえば、枠線80bによって囲われることで強調表示されている。
FIG. 12 is a diagram showing an example of highlighting a specified part.
After the user places a
なお、強調表示の方法はこれに限定されるものではなく、特定された部品が他の部品とは異なる色により表示されるようにしてもよい。
ステップS18の処理後、出力部39は、部品特定部36が特定した部品の情報を設計データ記憶部34から取得し、ディスプレイ24aに表示させる(ステップS19)。これによって、処理が終了する。
The highlighting method is not limited to this, and the identified parts may be displayed in a color different from that of the other parts.
After the process of step S18, the
なお、部品特定方法の処理の順序や処理内容は、上記の例に限定されるものではない。
たとえば、ステップS18の処理において、ユーザによる指定位置に部品がない場合、部品特定部36は部品の特定ができない。しかしその場合、情報処理装置20は、たとえば、以下のような処理を行うことで部品を特定することができる。
The processing order and processing contents of the part identification method are not limited to the above example.
For example, in the process of step S18, if there is no part at the position specified by the user, the
情報処理装置20の出力部39は、表示状態のマッチング後の3次元モデルの画像情報に基づく画像において、指定位置を含む領域をディスプレイ24aに拡大表示させる。そして、部品特定部36は、拡大表示された領域においてユーザによって指定された指定位置に対応する3次元モデルの画像情報の座標にある部品を特定する。
The
図13は、3次元モデルの拡大表示例を示す図である。
表示状態マッチング後の3次元モデルの画像情報に基づく画像が表示されている画面82には、ユーザが撮像画像上で指定した位置を示すカーソル82aが示されている。カーソル82aによる指定位置に部品がない場合、出力部39は、この画像においてカーソル82aによる指定位置を含む領域82bを拡大表示した画面83を、ディスプレイ24aに表示させる。
FIG. 13 is a diagram showing an example of an enlarged display of a three-dimensional model.
A
これにより、ユーザは、領域82bの拡大図において、カーソル82aの位置を意図する部品に合わせて指定する。指定位置入力部35は、カーソル82aによって指定された位置の座標を取得し、部品特定部36は、その座標にある部品を特定する。
The user then specifies the position of the
これによって、小さい部品でも特定が容易になる。
また、ステップS19の処理で、出力部39は、部品特定部36が特定した部品について、過去に生じた現象の内容(障害情報など)や、その部品の取付位置などの特定した部品の周辺の情報についてもディスプレイ24aに表示させてもよい。
This makes even small parts easier to identify.
In addition, in the processing of step S19, the
図14は、特定した部品についての情報の表示例を示す図である。
図14には、特定した部品と対応付けて過去に入力され、蓄積情報記憶部38に記憶されている過去に生じた現象の内容(障害情報など)が、そのときの開発名称などとともに、ディスプレイ24aに表示されている。また、特定した部品の取付位置についても、設計データ記憶部34に記憶されている3次元モデルに基づいて、たとえば、図14のような囲み線90により示されている。
FIG. 14 is a diagram showing an example of displaying information about the identified part.
14, the contents of a phenomenon that occurred in the past (such as fault information) that was previously input in association with the identified part and stored in the accumulated
これによって、たとえば、ネジの中でも、カバーの右下に取り付けているネジで不具合がよく発生している、などの現象を把握することができる。また、ある部品について過去に発生した現象の内容から、今回、同じ部品について発生した障害の候補を絞ることもできる。 This makes it possible to identify, for example, a problem that frequently occurs with the screw that attaches the cover to the bottom right. In addition, by looking at problems that have occurred with a certain part in the past, it is also possible to narrow down the possible causes of a problem that has occurred with the same part this time.
なお、出力部39は、特定した部品について、設計データに含まれるその他の情報(部品の材質、大きさ、部品番号など)を表示してもよい。また、出力部39は、蓄積情報記憶部38に、特定した部品について、過去に入力された修理方法の情報がある場合、その情報をディスプレイ24aに表示してもよい。
The
また、ユーザは、入力装置25aの操作によって現象内容などを更新してもよいし、特定した部品について蓄積すべき情報を新たに入力してもよい。新たに入力された情報は、部品特定部36が特定した部品の情報に紐付けられて、蓄積情報記憶部38に蓄積情報として記憶される。
The user may also update the phenomenon details by operating the
以上のような情報処理装置20及び部品特定方法によれば、装置の撮像画像の表示状態と同じ表示状態を示す画像情報を設計データから生成することで、撮像画像のある位置を指定するだけでその位置に対応する画像情報の座標にある部品を特定できる。
According to the
また、このように特定した部品の情報が、設計データから得られるため、たとえば、発生した不具合などに関する情報を蓄積情報記憶部38に記憶する際にも、設計データから得られた部品の部品名などを活用でき、人手による表記ゆれや入力ミスも防げる。
In addition, because the information on the parts identified in this way is obtained from the design data, for example, when storing information on a defect that has occurred in the accumulated
また、設計データにおける部品の情報としてBOMの部品番号を含める、またはその部品の情報にBOMの部品番号を紐付けしておけば、撮像画像上で部品を指定するだけで部品番号を取得でき、不具合部品の手配も容易になる。 In addition, if the BOM part number is included as part information in the design data, or if the BOM part number is linked to the part information, the part number can be obtained simply by specifying the part on the captured image, making it easier to arrange for defective parts.
また、特定した部品の周辺の情報も設計データから取得できるため、分析の幅が広がる。たとえば、基板の近くにある部品でいつも障害が発生している、ネジ部品において、3部品以上締結している箇所で障害が多く発生している、などの分析が可能になる。 In addition, information about the surroundings of identified parts can also be obtained from the design data, broadening the scope of analysis. For example, it becomes possible to analyze whether failures always occur in parts close to the board, or whether failures frequently occur in screw parts where three or more parts are fastened together.
なお、前述のように、上記の処理内容は、情報処理装置20にプログラムを実行させることで実現できる。
プログラムは、コンピュータ読み取り可能な記録媒体(たとえば、記録媒体26a)に記録しておくことができる。記録媒体として、たとえば、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどを使用できる。磁気ディスクには、FD及びHDDが含まれる。光ディスクには、CD、CD-R(Recordable)/RW(Rewritable)、DVD及びDVD-R/RWが含まれる。プログラムは、可搬型の記録媒体に記録されて配布されることがある。その場合、可搬型の記録媒体から他の記録媒体(たとえば、HDD23)にプログラムをコピーして実行してもよい。
As described above, the above processing contents can be realized by causing the
The program may be recorded on a computer-readable recording medium (e.g., recording medium 26a). For example, a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory may be used as the recording medium. Magnetic disks include FDs and HDDs. Optical disks include CDs, CD-R (Recordable)/RW (Rewritable), DVDs, and DVD-R/RWs. The program may be recorded on a portable recording medium and distributed. In this case, the program may be copied from the portable recording medium to another recording medium (e.g., HDD 23) and executed.
以上、実施の形態に基づき、本発明の部品特定プログラム、部品特定方法及び情報処理装置の一観点について説明してきたが、これらは一例にすぎず、上記の記載に限定されるものではない。 The above describes one aspect of the part identification program, part identification method, and information processing device of the present invention based on the embodiment, but these are merely examples and are not limited to the above description.
10 情報処理装置
11 入力部
11a 撮像装置
11b 入力装置
12 記憶部
12a 設計データ
13 処理部
14 出力部
14a 表示装置
15 装置
15a,15b 部品
16 カーソル
REFERENCE SIGNS
Claims (8)
前記第1の画像情報に基づいて、記憶部に記憶された前記装置の設計データから、前記撮像画像における前記装置の表示状態と同じ表示状態を示す第2の画像情報を生成し、
前記第2の画像情報と前記設計データに基づいて、表示された前記撮像画像において指定された第1の指定位置に対応する前記第2の画像情報の座標にある部品を特定し、
前記設計データに含まれる、特定した前記部品の情報を出力する、
処理をコンピュータに実行させる部品特定プログラム。 displaying the captured image on a display device based on input first image information about the captured image of the device including a plurality of components;
generating second image information showing a display state of the device that is the same as a display state of the device in the captured image from design data of the device stored in a storage unit based on the first image information;
Identifying a component located at coordinates of the second image information corresponding to a first designated position designated in the displayed captured image based on the second image information and the design data;
outputting information on the identified part included in the design data;
A part identification program that causes a computer to execute a process.
前記記憶部に記憶された前記複数の表示パターンのそれぞれについての前記第3の画像情報と前記第1の画像情報との類似度に基づいて、前記複数の表示パターンの何れかを選択し、
前記第1の画像情報に基づいて、選択した表示パターンの前記第3の画像情報により表される前記装置の、第1の表示サイズ、第1の表示位置、または第1の向きを、前記撮像画像における前記装置の第2の表示サイズ、第2の表示位置、または第2の向きと一致させることで、前記第2の画像情報を生成する、
処理を前記コンピュータに実行させる請求項1に記載の部品特定プログラム。 the storage unit stores third image information for each of a plurality of display patterns obtained from the design data and each of which differs in whether or not any of the plurality of components is displayed;
selecting one of the plurality of display patterns based on a similarity between the third image information and the first image information for each of the plurality of display patterns stored in the storage unit;
generating the second image information by matching a first display size, a first display position, or a first orientation of the device represented by the third image information of a selected display pattern with a second display size, a second display position, or a second orientation of the device in the captured image based on the first image information;
The part identification program according to claim 1 , which causes the computer to execute processing.
前記撮像画像における前記第1の部品の位置と、選択した前記表示パターンにおける前記第1の部品の位置とが、一致するように前記第1の表示位置を調整し、
前記第1の表示位置の調整後に、前記撮像画像における前記第2の部品の位置と、選択した前記表示パターンにおける前記第2の部品の位置とが、一致するように前記第1の向きを回転させる、
処理を前記コンピュータに実行させる請求項3に記載の部品特定プログラム。 Detecting a first part and a second part from among the plurality of parts displayed in the captured image based on the first image information;
adjusting the first display position so that a position of the first component in the captured image coincides with a position of the first component in the selected display pattern;
after adjusting the first display position, rotating the first orientation so that a position of the second component in the captured image coincides with a position of the second component in the selected display pattern;
The part identification program according to claim 3 , which causes the computer to execute processing.
拡大表示された前記領域において指定された第2の指定位置に対応する前記第2の画像情報の座標にある前記部品を特定する、
処理を前記コンピュータに実行させる請求項1乃至4の何れか一項に記載の部品特定プログラム。 when there is no part corresponding to the first specified position, an area including the first specified position in an image based on the second image information is enlarged and displayed on the display device;
identifying the part located at coordinates of the second image information corresponding to a second designated position designated in the enlarged and displayed area;
The part identification program according to claim 1 , which causes the computer to execute a process.
複数の部品を含む装置の撮像画像についての入力された第1の画像情報に基づいて、前記撮像画像を表示装置に表示し、
前記第1の画像情報に基づいて、記憶部に記憶された前記装置の設計データから、前記撮像画像における前記装置の表示状態と同じ表示状態を示す第2の画像情報を生成し、
前記第2の画像情報と前記設計データに基づいて、表示された前記撮像画像において指定された第1の指定位置に対応する前記第2の画像情報の座標にある部品を特定し、
前記設計データに含まれる、特定した前記部品の情報を出力する、
部品特定方法。 The computer
displaying the captured image on a display device based on input first image information about the captured image of the device including a plurality of components;
generating second image information showing a display state of the device that is the same as a display state of the device in the captured image from design data of the device stored in a storage unit based on the first image information;
Identifying a component located at coordinates of the second image information corresponding to a first designated position designated in the displayed captured image based on the second image information and the design data;
outputting information on the identified part included in the design data;
How to identify parts.
前記装置の撮像画像についての入力された第1の画像情報に基づいて、前記撮像画像を表示装置に表示し、前記第1の画像情報に基づいて、前記記憶部に記憶された前記設計データから、前記撮像画像における前記装置の表示状態と同じ表示状態を示す第2の画像情報を生成し、前記第2の画像情報と前記設計データに基づいて、表示された前記撮像画像において指定された第1の指定位置に対応する前記第2の画像情報の座標にある部品を特定する処理部と、
前記設計データに含まれる、特定した前記部品の情報を出力する出力部と、
を有する情報処理装置。 A storage unit that stores design data for a device including a plurality of components;
a processing unit that displays the captured image on a display device based on input first image information about the captured image of the device, generates second image information showing the same display state of the device in the captured image from the design data stored in the storage unit based on the first image information, and identifies a component located at coordinates of the second image information corresponding to a first designated position designated in the displayed captured image based on the second image information and the design data;
an output unit that outputs information on the identified part included in the design data;
An information processing device having the above configuration.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020151807A JP7488467B2 (en) | 2020-09-10 | 2020-09-10 | PART IDENTIFICATION PROGRAM, PART IDENTIFICATION METHOD, AND INFORMATION PROCESSING APPARATUS |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020151807A JP7488467B2 (en) | 2020-09-10 | 2020-09-10 | PART IDENTIFICATION PROGRAM, PART IDENTIFICATION METHOD, AND INFORMATION PROCESSING APPARATUS |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022046001A JP2022046001A (en) | 2022-03-23 |
JP7488467B2 true JP7488467B2 (en) | 2024-05-22 |
Family
ID=80779703
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020151807A Active JP7488467B2 (en) | 2020-09-10 | 2020-09-10 | PART IDENTIFICATION PROGRAM, PART IDENTIFICATION METHOD, AND INFORMATION PROCESSING APPARATUS |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7488467B2 (en) |
-
2020
- 2020-09-10 JP JP2020151807A patent/JP7488467B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2022046001A (en) | 2022-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI709919B (en) | Auto insurance image processing method, device, server and system | |
US11886892B2 (en) | Machine learned retraining for detection of user interface controls via variance parameters | |
Kramer et al. | Hacking the kinect | |
JP2020027424A (en) | Learning data generating device, discrimination model generating device, and program | |
JP7393833B2 (en) | Computer program, method, and apparatus for generating virtual defect images using an artificial intelligence model generated based on user input | |
CN107797733A (en) | For selecting the technology of the object in image | |
US11107284B2 (en) | System and method for visualization of system components | |
US11216656B1 (en) | System and method for management and evaluation of one or more human activities | |
US20240095782A1 (en) | Artificial intelligence machine learning system for classifying images and producing a predetermined visual output | |
JP7488467B2 (en) | PART IDENTIFICATION PROGRAM, PART IDENTIFICATION METHOD, AND INFORMATION PROCESSING APPARATUS | |
JP3876607B2 (en) | Parameter setting method in image processing system | |
US11308596B2 (en) | Display system for sensing defect on large-size display | |
US11941774B2 (en) | Machine learning artificial intelligence system for producing 360 virtual representation of an object | |
US20230126242A1 (en) | Cell image processing system and cell image processing method | |
JP4915522B2 (en) | Graphic processing device | |
Tang et al. | Development of an augmented reality approach to mammographic training: overcoming some real world challenges | |
CN112084364A (en) | Object analysis method, local image search method, device, and storage medium | |
JP7501907B2 (en) | IMAGE COLLECTION DEVICE, IMAGE COLLECTION SYSTEM, IMAGE COLLECTION METHOD, AND PROGRAM | |
US20210149544A1 (en) | Information processing apparatus, information processing method, and program | |
US10324621B2 (en) | Facilitating analysis of use interface gesture patterns | |
WO2014092189A1 (en) | Image recognition device, image recognition method, and image recognition program | |
US20090153586A1 (en) | Method and apparatus for viewing panoramic images | |
JP7464263B2 (en) | DETECTION APPARATUS, DETECTION METHOD, AND PROGRAM | |
US11748960B1 (en) | Printed circuit board (PCB) virtual x-ray visualization | |
US20060047451A1 (en) | Apparatus and method for circuit diagram display, and computer product |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230608 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240325 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240422 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7488467 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |