JP2013050970A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2013050970A
JP2013050970A JP2012232867A JP2012232867A JP2013050970A JP 2013050970 A JP2013050970 A JP 2013050970A JP 2012232867 A JP2012232867 A JP 2012232867A JP 2012232867 A JP2012232867 A JP 2012232867A JP 2013050970 A JP2013050970 A JP 2013050970A
Authority
JP
Japan
Prior art keywords
image
component
screen
parts
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012232867A
Other languages
Japanese (ja)
Inventor
Naoyuki Sato
直之 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012232867A priority Critical patent/JP2013050970A/en
Publication of JP2013050970A publication Critical patent/JP2013050970A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To narrow parts to be searched by issuing an instruction with a pointer on a two-dimensional whole image displayed on an input screen on the basis of a three-dimensional model configured by assembling parts, thereby reducing work burden of a user in searching for a target part from the narrowed candidate parts and suppressing an increase in a throughput applied to a processing system.SOLUTION: An image processing method includes: extracting candidate parts subject to a selection instructed by a pointer operation of a user and included in a screen area (S402); focusing attention on the height (positions of the parts in the visual line direction) of the candidate parts on a component screen and ranking them in order of height (S403) in the screen that displays a candidate part group for a user to perform an operation for instructing a part that the user finally finds out therefrom; and determining the positions in a vertical or horizontal direction order, with the part in front thereof defined as beginning, according to the order of height on the component screen and displaying them (S404).

Description

本発明は、部品(パーツ)を組付けて構成する3次元モデルをもとに紙媒体やディスプレイ等の2次元画面に用いる画像等のデータ(以下、「画面用データ」という)を作成する処理及び作成された画面用データベースから利用する画像を検索する処理を行う画像処理装置、画像処理方法及びプログラムに関する。   The present invention is a process for creating data such as images (hereinafter referred to as “screen data”) used for a two-dimensional screen such as a paper medium or a display based on a three-dimensional model configured by assembling parts. The present invention also relates to an image processing apparatus, an image processing method, and a program for performing processing for searching for an image to be used from a created screen database.

近年、コンピュータの性能向上とグラフィック処理技術の進歩により、CAD(Computer-aided Design)やCG(Computer Graphics)を駆使し、3次元モデルを作成し、また、作成した3次元モデルを用いて立体視が可能な画像を生成する等の3次元モデルの利用も急速に広がってきている。工業製品の製造業においても進展が見られ、例えば、パーツカタログやサービスマニュアルなどにおいて製品モデルを表示する画像の作成にも利用され、このような画像を含むコンテンツを電子媒体として利用することが可能になってきて
いる。
In recent years, due to improvements in computer performance and advances in graphics processing technology, CAD (Computer-aided Design) and CG (Computer Graphics) have been used to create 3D models, and 3D models have been created using the created 3D models. The use of 3D models, such as generating images that can be used, is also rapidly expanding. Progress has also been made in the manufacturing industry of industrial products. For example, it is also used to create images that display product models in parts catalogs and service manuals, and content containing such images can be used as an electronic medium. It has become to.

機械製品や電気製品など、多くの工業製品は、複数の部品から構成されており、製品モデルの画像を利用する際には、製品を構成する部品をモデルの全体画像上で識別することが必要になる場面も頻繁に生じる。
このような場合、従来は製品の3次元モデルの表示画面上で、3次元空間上の位置または領域を指定し、各部品との幾何学的な関係から特定の部品を抽出する処理が行なわれていた。
例えば、下記特許文献1(特開平09−190456号公報)では、3次元の製品モデルの情報を読み込んだCADシステムにおいて、3次元空間上で縦、横、奥行きを有した閉空間を指定することで、指定された閉空間内に位置する製品モデルの部品を抽出する方法を提示している。また、下記特許文献2(特開2006−39872号公報)では、3次元形状モデルに対して、スタイラスをユーザが操作することによって、空間上の基準位置、基準方向及び基準位置からの距離を幾何学的探索基準として定め、この基準に当てはまる部品を抽出する方法を提示している。
Many industrial products, such as mechanical products and electrical products, are composed of multiple parts. When using product model images, it is necessary to identify the parts that make up the product on the entire model image. The scene which becomes becomes frequent.
In such a case, conventionally, a process of designating a position or region in a three-dimensional space on a display screen of a three-dimensional model of a product and extracting a specific part from a geometric relationship with each part is performed. It was.
For example, in the following Patent Document 1 (Japanese Patent Application Laid-Open No. 09-190456), in a CAD system that reads information of a three-dimensional product model, a closed space having vertical, horizontal, and depth is specified on the three-dimensional space. Presents a method for extracting parts of a product model located in a specified closed space. Further, in the following Patent Document 2 (Japanese Patent Laid-Open No. 2006-39872), the reference position in the space, the reference direction, and the distance from the reference position are geometrically determined by the user operating the stylus with respect to the three-dimensional shape model. A method for extracting a part that meets the criteria is provided.

このように、特許文献1,2のどちらも、部品を抽出する際に、ユーザの入力よって探索する3次元空間を指定するので、ユーザが抽出対象の位置を3次元空間で認識していることを前提としている。
このため、抽出対象を3次元空間で認識し、それを操作に反映させなければならず、抽出対象の部品を指定するデータ等の入力が簡単ではないために、使い勝手があまりよくない。しかも、部品を抽出する操作を行なう都度、幾何学的な関係を計算するため、部品点数が非常に多いと、処理量が多くなり、処理性能の低い計算機では十分には実用に耐える速度が得られない、という問題が生じる。
As described above, both of Patent Documents 1 and 2 specify a three-dimensional space to be searched by a user input when extracting a part, so that the user recognizes the position to be extracted in the three-dimensional space. Is assumed.
For this reason, the extraction target must be recognized in a three-dimensional space and reflected in the operation, and it is not easy to use because it is not easy to input data for designating the extraction target part. In addition, every time an operation is performed to extract a part, the geometrical relationship is calculated, so if the number of parts is very large, the amount of processing increases, and a computer with low processing performance is sufficiently fast to withstand practical use. The problem that it is not possible arises.

そこで、この問題を解決するための方法として、下記特許文献3(特開2007−42077号公報)は、3次元モデルをもとに画面に2次元の全体像を設定された視点とズーム率で表示し、この画像面上で2次元の閉領域を指定するユーザの入力によって、閉領域に含まれる部品(パーツ)を抽出する操作を行なう方法を提案している。さらに、この特許文献では、抽出した閉領域に含まれる複数の部品の中から選択できる部品をユーザが指定できるように画面上に示し、又選択された部品を2次元の全体像上にハイライトで表示する方法を提案している。   Therefore, as a method for solving this problem, the following Patent Document 3 (Japanese Patent Laid-Open No. 2007-42077) uses a viewpoint and a zoom ratio in which a two-dimensional whole image is set on a screen based on a three-dimensional model. A method has been proposed in which an operation of extracting a part (part) included in the closed region is performed by a user input for displaying and designating a two-dimensional closed region on the image plane. Further, in this patent document, a part that can be selected from a plurality of parts included in the extracted closed region is displayed on the screen so that the user can specify the selected part, and the selected part is highlighted on the two-dimensional whole image. The method of displaying with is proposed.

また、下記特許文献4(特開2008−152429号公報)は、特許文献3記載のパーツ選択方法と同様に2次元の全体像において、指定した領域の部品を抽出する方法を採用している。ただ、特許文献3における画像面上で閉領域を動かして指定する操作に代わり、碁盤目状に予め設定された領域の中から一つの領域を選択する操作を行うようにしている。   Further, Patent Document 4 (Japanese Patent Laid-Open No. 2008-152429) below employs a method of extracting parts in a specified region from a two-dimensional whole image as in the part selection method described in Patent Document 3. However, instead of the operation of moving and specifying a closed region on the image surface in Patent Document 3, an operation of selecting one region from regions preset in a grid pattern is performed.

しかしながら、特許文献3又は4では、目的とする1つの部品を見付ける場合、画像面に表示した2次元の全体像に対する領域の指定によって、指定された領域に含まれる部品群への絞り込みが行われるものの、絞り込んだ後は、ランダムにリストアップされた部品群の中から目的とする1つの部品を探し出さなければならず、多数の部品が対象になる場合には、ユーザの作業負担が大きくなり、利便性の低下は否めない。   However, in Patent Document 3 or 4, when one target component is found, the region group for the two-dimensional whole image displayed on the image plane is narrowed down to the component group included in the specified region. However, after narrowing down, it is necessary to find one target part from a group of parts listed at random, and when a large number of parts are targeted, the user's workload increases. The decline in convenience cannot be denied.

本発明は、上記した従来の検索処理において生じる問題に鑑みてなされたもので、その目的は、3次元モデルをもとに入力画面に表示した全体画像上で指定された領域に含まれる部品へ絞り込み、その中からさらに目指す部品を選択する操作を行うことによって、部品データへアクセスする検索処理において、目指す部品を探し出し、操作するユーザの負担を軽減化することにある。   The present invention has been made in view of the problems that occur in the above-described conventional search processing, and its purpose is to a component included in an area designated on an entire image displayed on an input screen based on a three-dimensional model. By narrowing down and performing an operation of selecting a target part from among them, in the search process for accessing the part data, the target part is found and the burden on the user who operates it is reduced.

本発明は、部品を組付けて構成する3次元モデルをもとに画面用データとしてそれぞれ作成された全体画像、部品画像、全体画像における部品画面領域情報及び各部品の部品画面上高さ情報を格納したデータベースと、GUI機能を持つユーザインターフェースと、前記データベースから前記ユーザインターフェースの入力画面を介して指示される検索条件に従って、部品画像を検索する検索手段と、前記検索手段の検索結果を出力する手段を有する画像処理装置であって、前記検索手段は、前記ユーザインターフェースを介して行われる1次検索条件の指示に応じて、前記データベースから取得した検索対象モデルのデータを管理するとともに、前記ユーザインターフェースの入力画面に表示する画像を生成するデータ管理部と、前記ユーザインターフェースの入力画面に表示された前記検索対象モデルの全体画像上をポインタで示す2次検索条件の指示に応じ、該指示位置により指定される前記部品画面領域情報をもとに、該領域内に含まれる部品を検索候補部品と判定し、抽出するとともに、抽出した検索候補部品について、それぞれの前記部品画面上高さ情報をもとに高さの順に順位を付与する判定処理部と、前記ユーザインターフェースの入力画面に、前記判定処理部によって抽出された検索候補部品の部品画像を、付与された順位に従って表示し、表示された検索候補部品の中から目的の部品を選択する3次検索条件の指示に応じる部品選択処理部を備えたことを特徴とする。
本発明は、部品を組付けて構成する3次元モデルをもとに画面用データとしてそれぞれ作成された全体画像、部品画像、全体画像における部品画面領域情報及び各部品の部品画面上高さ情報を格納したデータベースからGUI機能を持つユーザインターフェースの入力画面を介して指示される検索条件に従い部品画像を検索する画像処理装置が行う処理工程として、前記ユーザインターフェースを介して行われる1次検索条件の指示に応じて、前記データベースから取得した検索対象モデルのデータを管理するとともに、前記ユーザインターフェースの入力画面に表示する画像を生成するデータ管理工程と、前記ユーザインターフェースの入力画面に表示された前記検索対象モデルの全体画像上をポインタで示す2次検索条件の指示に応じ、該指示位置により指定される前記部品画面領域情報をもとに、該領域内に含まれる部品を検索候補部品と判定し抽出するとともに、抽出した検索候補部品について、それぞれの前記部品画面上高さ情報をもとに高さの順に順位を付与する判定処理工程と、前記ユーザインターフェースの入力画面に、前記判定処理工程で抽出された検索候補部品の部品画像を、付与された順位に従って表示し、表示された検索候補部品の中から目的の部品を選択する3次検索条件の指示に応じる部品選択処理工程を有することを特徴とする。
The present invention relates to an entire image, a component image, component screen area information in the entire image, and height information on the component screen of each component, each created as screen data based on a three-dimensional model configured by assembling components. A stored database; a user interface having a GUI function; search means for searching for a part image in accordance with a search condition instructed from the database via an input screen of the user interface; and a search result of the search means is output. The image processing apparatus includes a search unit that manages data of a search target model acquired from the database in accordance with an instruction of a primary search condition performed via the user interface, and the user A data management unit for generating an image to be displayed on the input screen of the interface; In response to an instruction of a secondary search condition indicated by a pointer on the entire image of the search target model displayed on the input screen of the interface, in the area based on the part screen area information specified by the indicated position A determination processing unit that determines and extracts included parts as search candidate parts, and assigns a ranking to the extracted search candidate parts in the order of height based on the height information on each part screen, and the user The part image of the search candidate part extracted by the determination processing unit is displayed on the input screen of the interface according to the assigned order, and a tertiary search condition for selecting a target part from the displayed search candidate parts A component selection processing unit that responds to an instruction is provided.
The present invention relates to an entire image, a component image, component screen area information in the entire image, and height information on the component screen of each component, each created as screen data based on a three-dimensional model configured by assembling components. As a processing step performed by an image processing apparatus that searches for a component image in accordance with a search condition instructed from a stored database via an input screen of a user interface having a GUI function, an instruction of a primary search condition performed through the user interface And managing the data of the search target model acquired from the database and generating the image to be displayed on the input screen of the user interface, and the search target displayed on the input screen of the user interface In response to the secondary search condition indication indicated by the pointer on the entire model image, Based on the parts screen area information specified by the indicated position, the parts included in the area are determined as search candidate parts and extracted, and the height information on the parts screen is extracted for the extracted search candidate parts. A determination processing step for assigning a rank in the order of height based on the image, and displaying the parts images of the search candidate parts extracted in the determination processing step on the input screen of the user interface according to the given rank It has a component selection processing step in response to an instruction of a tertiary search condition for selecting a target component from the retrieved candidate components.

本発明によると、工業製品などの形状モデルをもとに、部品を組付けた状態の全体イメージをGUIの画面に表示し、表示された全体イメージ上へのポイント操作で指定される領域に組付いている部品を検索すべき部品の候補(以下、「検索候補」或いは単に「候補」という)として絞り込み、しかも、最終的に目指す部品を探し出すためにユーザに示す候補の表示画面では、視線方向の手前にある部品から奥にある部品の順に表示するようにしたことで、部品を探し出し、操作するユーザの負担を軽減化できる。   According to the present invention, based on a shape model of an industrial product or the like, an entire image with parts assembled is displayed on a GUI screen, and is assembled in an area specified by a point operation on the displayed entire image. Narrow down the attached parts as candidate parts to be searched (hereinafter referred to as “search candidates” or simply “candidates”), and in the candidate display screen shown to the user in order to finally find the target part, the line-of-sight direction By displaying in the order from the component in front of the component to the component in the back, the burden on the user who finds and operates the component can be reduced.

パーツカタログ作成・閲覧システム(図2、参照)を構築することができ るデータ処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the data processor which can construct | assemble a parts catalog creation and browsing system (refer FIG. 2). 本発明の実施形態に係るパーツカタログ作成・閲覧システムの概略構成を 示すブロック図である。1 is a block diagram showing a schematic configuration of a parts catalog creation / viewing system according to an embodiment of the present invention. カタログ作成部(図2、参照)の構成例及び構成要素各部の処理に係る情 報の流れを説明する図である。It is a figure explaining the flow of the information which concerns on the process of the structural example of a catalog preparation part (refer FIG. 2) and each part of a component. カタログ作成部(図3)の部品画面領域計算に係る処理フローを示すフロ ーチャートである。It is a flowchart which shows the processing flow which concerns on the components screen area | region calculation of a catalog preparation part (FIG. 3). 3次元モデルの座標系に対する視線方向の定義(A)及び視線方向を座標 軸とする座標系と3次元モデルの座標系の関係(B)を説明する図である。It is a figure explaining the definition (A) of the gaze direction with respect to the coordinate system of a 3D model, and the relationship (B) of the coordinate system which uses a gaze direction as a coordinate axis, and the coordinate system of a 3D model. カタログ作成部(図3)の部品画面上高さ計算に係る処理フローを示すフ ローチャートである。It is a flowchart which shows the processing flow which concerns on the component screen height calculation of a catalog preparation part (FIG. 3). カタログ閲覧部(図2、参照)の構成例及び構成要素各部の処理に係る情 報の流れを説明する図である。It is a figure explaining the flow of the information which concerns on the process of the structural example of a catalog browsing part (refer FIG. 2) and each part of a component. カタログ閲覧部(図7)の検索・閲覧に係る処理フローを示すフローチャ ートである。7 is a flowchart showing a processing flow relating to search and browsing of a catalog browsing unit (FIG. 7). 図8の処理フローにおける候補パーツの表示処理(ステップS303)の サブシーケンスを示すフローチャートである。9 is a flowchart showing a sub-sequence of candidate part display processing (step S303) in the processing flow of FIG.

以下に、本発明に係る画像処理装置及び画像処理方法の実施形態を示す。
本実施形態の画像処理装置及び画像処理方法は、部品(パーツ)を組付けて構成する3次元(3D)モデルをもとに、パーツのカタログに利用できるパーツ画像等のデータ(以下「パーツカタログデータ」という)を画面用データとして作成し、そのデータベースを構築する処理に係る。
また、本実施形態の画像処理装置及び画像処理方法は、構築されたパーツカタログデータベースから利用するパーツ画像等のデータを検索し、閲覧する処理に係る。
なお、3次元モデル(以下では、「形状モデル」ともいう)という場合、データで3次元の形状が表現されたオブジェクトを指し、3D_CADデータはこの一つであり、このデータは、現物(実際にあるもの)を3D計測して得たデータでもよい。
Hereinafter, embodiments of an image processing apparatus and an image processing method according to the present invention will be described.
The image processing apparatus and the image processing method of this embodiment are based on a three-dimensional (3D) model configured by assembling parts (parts), and data such as part images that can be used for parts catalogs (hereinafter referred to as “part catalog data”). ”) As screen data, and the database is constructed.
Further, the image processing apparatus and the image processing method according to the present embodiment relate to processing for searching and browsing data such as part images to be used from the constructed parts catalog database.
In addition, in the case of a three-dimensional model (hereinafter also referred to as “shape model”), it refers to an object in which a three-dimensional shape is represented by data, and 3D_CAD data is one of these, and this data is the actual ( Data obtained by 3D measurement of a certain thing) may be used.

図1は、後述するパーツカタログ作成・閲覧システム(図2、参照)を構成することができるデータ処理装置のハードウェア構成を示す図である。
図1に示すデータ処理装置は、CPU(Central Processing Unit)1、メモリ2、入出力装置3及び外部入出力装置4をバス5で接続して構成するもので、この装置は、汎用のPC或いはPCに周辺機器を接続したハードウェア構成を持つデータ処理装置(システム)によって実施することができる。
FIG. 1 is a diagram showing a hardware configuration of a data processing apparatus that can constitute a parts catalog creation / viewing system (see FIG. 2) described later.
The data processing device shown in FIG. 1 is configured by connecting a CPU (Central Processing Unit) 1, a memory 2, an input / output device 3 and an external input / output device 4 via a bus 5. It can be implemented by a data processing apparatus (system) having a hardware configuration in which peripheral devices are connected to a PC.

図1において、CPU1は、このデータ処理装置の動作を制御するもので、記憶(記録)媒体としてのメモリ2内に格納(記録)した各種のアプリケーションプログラム、ワークデータ及びファイルデータ等を駆使し、各アプリケーションのデータ処理機能を実現する。なお、プログラムを記憶(記録)としては、メモリ2(カード型を含む)に限らず、HDD,CD−ROM,MO等のディスク型を含む各種記憶媒体を用いることができる。
アプリケーションプログラムとして、後述するパーツカタログデータを作成するためのプログラム及び作成されたパーツカタログデータを検索し、閲覧するためのプログラムをメモリ2等の記憶媒体にインストールすることにより、パーツカタログ作成・閲覧システム(図2、参照)のカタログ作成部20、画像補填部25、位置情報補填部26及びカタログ閲覧部27を構成する。
また、CPU1は、メモリ2及び外部入出力装置4とともに、パーツカタログ作成・閲覧システムで用いるデータベースを構築し、それぞれのデータを管理する。
In FIG. 1, a CPU 1 controls the operation of this data processing apparatus, and makes full use of various application programs, work data, file data, etc. stored (recorded) in a memory 2 as a storage (recording) medium. Implement the data processing function of each application. The storage (recording) of the program is not limited to the memory 2 (including the card type), and various storage media including disk types such as HDD, CD-ROM, and MO can be used.
As an application program, a part catalog creation / viewing system (FIG. 2) is created by installing a program for creating part catalog data, which will be described later, and a program for retrieving and browsing the created part catalog data in a storage medium such as the memory 2. ), A catalog creation unit 20, an image compensation unit 25, a position information compensation unit 26, and a catalog browsing unit 27.
The CPU 1, together with the memory 2 and the external input / output device 4, constructs a database used in the parts catalog creation / viewing system and manages the respective data.

入出力装置3は、CPU1の制御下におかれて、処理を要求するユーザによる処理条件の設定等の入力操作を受取り、さらに入力操作等に応じて変化する装置側の動作状態をユーザにディスプレイを通して知らせるユーザインターフェースとしての機能を提供する。ここでは、ディスプレイに表示された入力画面に対し、キーボード、マウス等の操作によって入力を行う、いわゆるGUI(Graphical User Interface)機能を提供する。
また、外部入出力装置4は、本体の機能を拡張するために設ける周辺装置で、例えば、処理に必要なデータを外部から得るための記録媒体を用いることができ、又データベースを構築するために容量の大きな記憶媒体を用いることができる外部記憶装置、或いはパーツカタログ作成・閲覧システムから出力されるデータを利用する、例えば、プリンタや他のディスプレイ等の出力装置である。
The input / output device 3 is under the control of the CPU 1 and receives an input operation such as setting of processing conditions by a user requesting processing, and further displays the operation state on the device side that changes according to the input operation or the like to the user. Provides a function as a user interface to inform through. Here, a so-called GUI (Graphical User Interface) function is provided in which an input screen displayed on the display is input by operating a keyboard, a mouse, or the like.
The external input / output device 4 is a peripheral device provided to expand the functions of the main body. For example, a recording medium for obtaining data necessary for processing from the outside can be used, and a database is constructed. For example, an external storage device that can use a large-capacity storage medium or an output device such as a printer or another display that uses data output from a parts catalog creation / viewing system.

次に、本実施形態のパーツカタログ作成・閲覧システムの詳細を説明する。
本実施形態のパーツカタログ作成・閲覧システムは、大別すると、パーツカタログデータベース(以下、「カタログDB」という)を作成する機能部と該カタログDBから指定したパーツカタログデータを検索し、閲覧する機能部よりなる。
カタログDBを作成する機能部は、パーツ(部品)を組合せて構成する3次元モデル(以下、「3Dデータ」ともいう)をもとに、2次元画像付きのパーツカタログのDBを作成する。作成されるDBは、パーツごとにカタログに利用できる2次元画像を含むコンテンツと各パーツを識別することができる属性や固有のデータを管理する。また、カタログDBを検索し、閲覧する機能部は、ユーザの検索要求に応じて、指定されたパーツの2次元画像データ等、カタログDBで管理されているデータを表示用のデータとして出力する処理を行う。
Next, details of the parts catalog creation / browsing system of this embodiment will be described.
The parts catalog creation / browsing system according to the present embodiment can be broadly divided into a functional unit that creates a parts catalog database (hereinafter referred to as “catalog DB”) and a functional unit that searches and browses specified parts catalog data from the catalog DB. .
A function unit that creates a catalog DB creates a parts catalog DB with a two-dimensional image based on a three-dimensional model (hereinafter also referred to as “3D data”) configured by combining parts. The created DB manages contents including a two-dimensional image that can be used for a catalog for each part, and attributes and unique data that can identify each part. The function unit that searches and browses the catalog DB is a process of outputting data managed in the catalog DB, such as two-dimensional image data of a specified part, as display data in response to a user search request. I do.

図2は、本実施形態のパーツカタログ作成・閲覧システムの概略構成を示すブロック図である。なお、このシステムを構成する、カタログ作成部20、画像補填部25、位置情報補填部26及びカタログ閲覧部27よりなるデータ処理部と、3Dデータ21、パーツリスト22、カタログデータ23及び画像データ24の各データベースは、上記で図1を参照し、説明したように、CPU1の制御下にメモリ2、入出力装置3等を用いて構築することができる。   FIG. 2 is a block diagram showing a schematic configuration of the parts catalog creation / viewing system of the present embodiment. It should be noted that a data processing unit comprising a catalog creation unit 20, an image compensation unit 25, a position information compensation unit 26, and a catalog browsing unit 27, 3D data 21, parts list 22, catalog data 23, and image data 24 constituting this system. Each database can be constructed using the memory 2, the input / output device 3, and the like under the control of the CPU 1, as described above with reference to FIG.

先ず、図2を参照して、カタログDB23を作成する機能部の構成と動作の概要を説明する。
図2において、3Dデータベース21は、カタログ作成のために利用される形状モデルを格納したデータベースで、ここでは、3D_CADデータを格納している。ここに格納された3D_CADデータは、製品を構成するパーツ単位ごとの形状情報と、これらのパーツが組付いた状態の製品全体を表す情報である。
パーツリストDB22は、カタログに含まれるべき交換可能なパーツのリストを記述したデータベースである。ここに格納されたリストデータは、パーツの名称やパーツ発注時の番号等の情報で、製品のユニット単位にまとめた形で管理される。
First, with reference to FIG. 2, an outline of the configuration and operation of the functional unit that creates the catalog DB 23 will be described.
In FIG. 2, a 3D database 21 is a database that stores a shape model used for creating a catalog. Here, 3D_CAD data is stored. The 3D_CAD data stored here is shape information for each part unit constituting the product and information representing the entire product in a state in which these parts are assembled.
The parts list DB 22 is a database describing a list of replaceable parts to be included in the catalog. The list data stored here is information such as part names and part ordering numbers, and is managed in a unit of product units.

カタログ作成部20は、カタログDB23に格納するパーツカタログデータを作成する。パーツカタログデータは、各種の形状モデルに対する全体画像や各形状モデルを構成するパーツの単体画像のほか、後述する検索・閲覧処理に利用するデータとしてパーツの画面領域情報や画面上高さ情報等を含む。なお、パーツカタログデータについては、図3に示すカタログ作成部20の実施形態とともに詳細に説明する。
カタログ作成部20で用いる画像データとしては、パーツリストDB22に格納されているリストに登録されているパーツのうち、3Dデータベース21に3D_CADデータが保存されているものは、このデータベースの保存内容を参照し、他方、3Dデータベース21に3D_CADデータが保存されていないものについては、画像補填部25により補填入力される画像データを用いる。
The catalog creation unit 20 creates part catalog data stored in the catalog DB 23. The parts catalog data includes the entire image for various shape models and the single images of the parts that make up each shape model, as well as the screen area information of the parts and the height information on the screen as data used for the search / browsing process described later. . The parts catalog data will be described in detail together with the embodiment of the catalog creation unit 20 shown in FIG.
As the image data used in the catalog creating unit 20, among the parts registered in the list stored in the parts list DB 22, if the 3D CAD data is stored in the 3D database 21, refer to the stored contents of this database. On the other hand, for the data for which 3D_CAD data is not stored in the 3D database 21, the image data supplemented by the image compensation unit 25 is used.

画像補填部25は、2次元(2D)データで画像を格納する画像DB24から画像データを補填する。カタログ作成部20は、画像補填部25を通して得た画像データにより補填をする際に、位置情報補填部26から入力される位置情報が補填する位置として指定されるので、その指定に応じてパーツカタログの作成を行う。
画像DB24に格納する画像データは、3Dデータベース21に3D_CADデータとして保存されていないパーツを予め知った上で、パーツカタログを作成する際にこれを補填するデータとして用意する。ここでは、本システムを構築する条件として、作成するパーツカタログの画像を2次元としているので、この条件によると、2Dデータでよい。従って、画像データデータベース24に格納する画像は、例えば、デジタル・スチル・カメラで撮影した画像やイラストで作成された画像を用いることができる。
The image compensation unit 25 supplements image data from the image DB 24 that stores images as two-dimensional (2D) data. When the catalog creation unit 20 performs the compensation with the image data obtained through the image compensation unit 25, the position information input from the position information compensation unit 26 is designated as the position to be compensated. Create.
The image data to be stored in the image DB 24 is prepared as data to be supplemented when a parts catalog is created after knowing parts that are not stored as 3D_CAD data in the 3D database 21 in advance. Here, since the part catalog image to be created is two-dimensional as a condition for constructing this system, 2D data is sufficient according to this condition. Accordingly, the image stored in the image data database 24 may be, for example, an image taken with a digital still camera or an image created with an illustration.

また、画像DB24から補填される上記したパーツ画像は、パーツ単体のデータであるから、カタログデータとして出力するためには、補填される画像が全体像のどの部分に組み付けられるかを指定しなければならない。
このために、位置情報補填部26を設けている。位置情報補填部26は、入出力装置3を用いるユーザの操作によって補填されるパーツ画像の位置を指定する入力が行われるので、その操作に従い指定された位置情報をカタログ作成部20に渡す。
Further, since the above-described part image supplemented from the image DB 24 is data of a single part, in order to output as catalog data, it is necessary to specify in which part of the entire image the supplemented image is to be assembled. Don't be.
For this purpose, a position information compensation unit 26 is provided. Since the position information compensation unit 26 receives an input for designating the position of a part image to be compensated by a user operation using the input / output device 3, the position information compensation unit 26 passes the designated location information to the catalog creation unit 20 in accordance with the operation.

カタログ作成部20は、各パーツが3D_CADデータとして保存されている場合、或いは2Dデータの画像によって補填される場合も、上記のようにして、カタログデータとして、指定されたパーツの2次元画像データを作成し、このデータを使用する、例えば、プリンタや他のディスプレイ等の出力装置で利用できるようにする。
このカタログデータは、パーツのカタログとしてユーザに表示する画像データやパーツの名称のほか、各パーツを識別することができる属性や固有のデータを付与し、必要な画像を検索できるようにする。
Even when each part is stored as 3D_CAD data or is supplemented with an image of 2D data, the catalog creation unit 20 uses the 2D image data of the specified part as catalog data as described above. Create and use this data, for example, in an output device such as a printer or other display.
In addition to image data and part names to be displayed to the user as a catalog of parts, this catalog data is assigned attributes and unique data that can identify each part so that necessary images can be searched.

図2に例示するシステムでは、作成されたパーツカタログの閲覧ができるようにしているので、カタログ作成部20によって作成されたパーツカタログをカタログDB23に格納し、カタログ閲覧部27を介してカタログDB23に格納したカタログデータを利用できるようにしている。
本実施形態では、後記で詳述するように、カタログ閲覧部27で扱う画像データは、3次元の形状モデルから作成した2次元画像を処理の対象とするので、カタログDB23に格納するデータは、複数の異なる視点から複数の異なるズーム段階で見た形状モデルの画像、同画像中で特定のパーツがハイライト表示された画像、複数の異なる視点から複数の異なるズーム段階で見たパーツの単体画像等を予め用意し、各画像を識別するためにパーツ名称等を付けて格納しておく。
なお、比較的単純な処理で生成可能なデータ(例えば指定拡大率の画像)等は、予め用意して格納しておくのではなく、リクエストに応じて随時生成して表示する構成としてもよい。また、カタログDB23は、情報量が大きくなる場合には、外部入出力装置4を用いて構築するとよい。
In the system illustrated in FIG. 2, since the created parts catalog can be browsed, the parts catalog created by the catalog creating unit 20 is stored in the catalog DB 23 and stored in the catalog DB 23 via the catalog viewing unit 27. Make catalog data available.
In this embodiment, as will be described in detail later, the image data handled by the catalog browsing unit 27 is a processing target of a two-dimensional image created from a three-dimensional shape model. An image of a shape model viewed from multiple different viewpoints at different zoom levels, an image with a particular part highlighted in the same image, and a single image of a part viewed from multiple different viewpoints at different zoom levels Etc. are prepared in advance, and part names are stored in order to identify each image.
Note that data that can be generated by relatively simple processing (for example, an image with a specified enlargement ratio) or the like may be generated and displayed as needed in response to a request, instead of being prepared and stored in advance. The catalog DB 23 may be constructed using the external input / output device 4 when the amount of information increases.

「パーツカタログデータの作成」
カタログ作成部20の構成及び動作について、より詳しく説明する。
図3は、カタログ作成部20の構成例及び構成要素各部の処理に係る情報の流れを示す図である。
図3において、入力装置278は、GUI機能を持つユーザインターフェースの入力部(図1の入出力装置3の入力部に当たる)で、マウスやキーボードを有し、ユーザの操作によりパーツカタログデータの作成に必要な指示や情報などを入力する。この実施形態では、パーツカタログデータの作成に必要な視線方向を設定する指示操作を行う。なお、ズームによって変倍率を設定する方法をとる場合には、変倍率を設定するズーム段階の入力操作を受け入れるようにしてもよい。
"Creating parts catalog data"
The configuration and operation of the catalog creation unit 20 will be described in more detail.
FIG. 3 is a diagram illustrating a configuration example of the catalog creation unit 20 and a flow of information related to processing of each component.
In FIG. 3, an input device 278 is an input unit of a user interface having a GUI function (corresponding to the input unit of the input / output device 3 of FIG. 1), has a mouse and a keyboard, and is necessary for creation of parts catalog data by a user operation. Enter various instructions and information. In this embodiment, an instruction operation for setting a line-of-sight direction necessary for creating part catalog data is performed. In the case of taking a method of setting a zoom ratio by zooming, an input operation at a zoom stage for setting the zoom ratio may be accepted.

モデルデータ管理部201は、内部記憶部(メモリ2)でパーツカタログデータの作成処理において扱うデータを管理する。ここで管理するデータは、予めメモリ2や外部記憶装置に構築しておいた3Dデータベース21及びパーツリストDB22に用意された3次元モデルを構成するデータをもとに、処理対象モデルを構成する各パーツについて、パーツ単体の形状を表す情報(以下、「単体形状情報」という)、各パーツを組付けた状態でモデル全体の形状を表す情報(以下、「組付形状情報」という)及びパーツ管理情報(「部品ID」等)を少なくとも含む3次元モデル情報である。これらの3次元モデル情報は、モデルデータ管理部21を通してカタログDB23に格納するデータを作成する後段のデータ処理部である、カタログデータ作成処理部202、部品画面領域計算処理部203及び部品画面上高さ計算処理部204に渡される。   The model data management unit 201 manages data handled in the part catalog data creation process in the internal storage unit (memory 2). The data to be managed here is based on the data constituting the three-dimensional model prepared in the 3D database 21 and the parts list DB 22 previously built in the memory 2 or the external storage device. For parts, information indicating the shape of a single part (hereinafter referred to as “single shape information”), information indicating the shape of the entire model with each part assembled (hereinafter referred to as “assembled shape information”), and parts management This is three-dimensional model information including at least information (such as “part ID”). These three-dimensional model information is a subsequent data processing unit that creates data to be stored in the catalog DB 23 through the model data management unit 21, and is a catalog data creation processing unit 202, a component screen area calculation processing unit 203, and a component screen top height. To the calculation processing unit 204.

カタログデータ作成処理部202は、モデルデータ管理部201から受け取った組付形状情報と各パーツの単体形状情報及び入力装置31で設定された視線方向をもとに、3次元モデルの全体画像、各パーツに対応したハイライト付全体画像及び単体画像を作成する。上記したハイライト付全体画像とは、着目しているパーツ形状をハイライト表示させたモデル全体の画像で、着目パーツのハイライト表示は、着目パーツを他のパーツとは異なる表示形態、例えば特定色(赤色等)で表示したり、点滅させて表示したりすることにより実現される。また、上記したパーツの単体画像は、着目しているパーツ形状だけの画像で、部品の名称やID等のパーツを特定することができる情報を付属情報とする。
なお、上記の各画像は、設定された視線方向の画像が作成される。このためには、3次元モデル情報の座標変換を必要とする(詳細は、図4の処理フローのステップS102における説明、参照)。また、設定ズーム変倍率が設定されている場合には、設定されたズーム段階ごとに上記の各画像を作成する。
The catalog data creation processing unit 202 is based on the assembly shape information received from the model data management unit 201, the individual shape information of each part, and the line-of-sight direction set by the input device 31. Create an entire image with highlights and a single image corresponding to the part. The above-mentioned whole image with highlight is an image of the entire model in which the shape of the part of interest is highlighted. The highlighted display of the part of interest is a display form different from other parts, for example, specific This is realized by displaying in color (red, etc.) or blinking. Further, the above-described single image of the part is an image of only the part shape of interest, and information that can identify the part such as the name and ID of the part is attached information.
In addition, the image of the set eyes | visual_axis direction is produced as said each image. For this purpose, coordinate conversion of the three-dimensional model information is required (for details, see the description in step S102 of the processing flow in FIG. 4). When the set zoom magnification is set, each of the above images is created for each set zoom level.

部品画面領域計算処理部203は、入力装置31で設定された視線方向から見た全体画像の画面を所定の矩形領域(碁盤目状)に分割し、分割領域ごとに、その領域に存在するパーツを対応付けた部品画面領域ファイルを作成する。
部品画面領域計算処理部203は、図4の処理フローに示す手順を行うことで、この部品画面領域ファイルを作成することができる。
図4の処理フローによると、まず、視線方向が設定される(ステップS101)。ここで設定する視線方向は、3次元空間で自由に定められる。
この視線方向は、多くとればとるほど、各々のパーツの形状の特徴を表現することができ、パーツを検索するときにも、検出漏れを無くすことが可能になるが、情報量が増加するので、対象とするモデルの形状を考慮して適当な数に調整するとよい。視線方向の設定は、入力装置31を通して行う。
図5(A)は、3次元モデルの座標系に対する視線方向を説明する図である。同図に示すように、視線方向は、3次元モデルのxyz直交座標系に対し、xy面内の方向を角度αで、xy面に対する垂直面内の方向を角度βとして定義している。
The part screen area calculation processing unit 203 divides the entire image screen viewed from the line-of-sight direction set by the input device 31 into a predetermined rectangular area (a grid pattern), and the parts existing in that area for each divided area. Create a parts screen area file in which
The component screen area calculation processing unit 203 can create this component screen area file by performing the procedure shown in the processing flow of FIG.
According to the processing flow of FIG. 4, first, the line-of-sight direction is set (step S101). The line-of-sight direction set here is freely determined in a three-dimensional space.
The more you take this line-of-sight direction, the more you can express the characteristics of the shape of each part, and it is possible to eliminate omissions when searching for parts, but the amount of information increases. It is preferable to adjust to an appropriate number in consideration of the shape of the target model. The line-of-sight direction is set through the input device 31.
FIG. 5A is a diagram for explaining the line-of-sight direction with respect to the coordinate system of the three-dimensional model. As shown in the figure, the line-of-sight direction is defined with respect to the xyz orthogonal coordinate system of the three-dimensional model as the angle α in the xy plane and the angle β in the direction perpendicular to the xy plane.

次に、3次元モデルの座標系で与えられている3次元モデルの座標(各パーツ座標)値をステップS101で設定された視線方向軸の座標系に変換する(ステップS102)。この手順は、後段で各パーツに係る部品画面領域情報を求めるための前提として、3次元モデルを視線方向から見たときの画面においてそれぞれのパーツがどのような配置になるかを、視線方向軸の座標系の座標値(i,j,k)で表すために行う。
図5(B)は、視線方向軸の座標系を説明する図である。同図に示すように、視線方向軸の座標系は、視線方向軸kを1軸と、これに直交する2軸をi,jとし、i,j,k軸の直交座標系をなす。視線方向のk軸は、上記で図5(A)を参照して示したように、xyz直交座標系に対し、xy面内の方向を角度αで、xy面に対する垂直面内の方向を角度βとして定義しており、i軸は、xy面内の角度αの軸とk軸を含む面内で、k軸とπ/2をなす(直交する)。
Next, the coordinate (each part coordinate) value of the three-dimensional model given in the coordinate system of the three-dimensional model is converted into the coordinate system of the line-of-sight direction axis set in step S101 (step S102). This procedure is based on the assumption that the parts screen area information for each part will be obtained later, and how the parts are arranged on the screen when the 3D model is viewed from the line of sight. This is performed in order to express with coordinate values (i, j, k) of the coordinate system.
FIG. 5B is a diagram for explaining the coordinate system of the line-of-sight direction axis. As shown in the figure, the coordinate system of the line-of-sight direction axis is an orthogonal coordinate system of i, j, and k axes, with the line-of-sight axis k as one axis and the two axes orthogonal thereto as i and j. As shown with reference to FIG. 5A above, the k-axis in the line-of-sight direction is an angle α in the direction in the xy plane and an angle in the direction perpendicular to the xy plane with respect to the xyz orthogonal coordinate system. It is defined as β, and the i-axis forms π / 2 with the k-axis (orthogonal) in a plane including the axis of the angle α in the xy plane and the k-axis.

座標変換は、元の3次元モデルのxyz座標系を、視線方向として与えられた極座標αおよびβ(図5(A)、参照)を用いて、z軸周りにα回転した後、y軸まわりにβ回転し、このときのx軸,y軸,z軸をそれぞれi軸,j軸,k軸に対応させる。
つまり、元の3次元モデルの座標系において、i軸,j軸,k軸方向の各単位ベクトル(x,y,z,)(x,y,z,)(x,y,z,)は、下記式 (1) のように表すことができる。
The coordinate transformation is performed by rotating the xyz coordinate system of the original three-dimensional model by α around the z axis using polar coordinates α and β (see FIG. 5A) given as the line-of-sight direction, and then around the y axis. And the x, y, and z axes at this time correspond to the i, j, and k axes, respectively.
That is, in the coordinate system of the original three-dimensional model, unit vectors (x i , y i , z i ) (x j , y j , z j ) (x k ) in the i-axis, j-axis, and k-axis directions are used. , Y k , z k ) can be expressed as in the following formula (1).

Figure 2013050970
Figure 2013050970

従って、この座標変換は、下記式 (2) を用いて、変換前の3次元モデルの座標系の座標値(x,y,z)から変換後の視線方向軸の座標系の座標値(i,j,k)を得る計算を行う。   Accordingly, this coordinate conversion is performed using the following equation (2) from the coordinate value (x, y, z) of the coordinate system of the three-dimensional model before conversion to the coordinate value (i of the coordinate system of the gaze direction axis after conversion. , J, k).

Figure 2013050970
Figure 2013050970

図4の処理フローに戻ると、部品画面領域計算処理部203は、ステップS102で変換した座標値によって、視線方向から見た全体画像(パーツを組付けたモデル全体の画像)を表した画面を得ることができるので、次に、その画面を領域分割し、各パーツがどの領域に存在するかを判断する(ステップS103)。ここでは、領域分割を座標軸(i,j軸)に沿って行う。即ち、それぞれの領域が矩形となるように、碁盤目状に(座標軸方向に決めた所定の矩形分割領域に)領域を切り分ける。また、それぞれの矩形領域には、ID(画面領域ID)を割り振る。領域分割において、分割数は、多くとればとるほど、パーツを検索する際に、検出漏れを無くすことが可能になるが、情報量が増加するので、対象とするモデルの大きさや形状を考慮して、予め各軸について適当な分割数を決めておく。   Returning to the processing flow of FIG. 4, the component screen area calculation processing unit 203 displays a screen representing the entire image (image of the entire model in which the parts are assembled) viewed from the line-of-sight direction based on the coordinate values converted in step S102. Next, the screen is divided into regions, and it is determined in which region each part exists (step S103). Here, the region division is performed along the coordinate axes (i, j axes). That is, the areas are cut into a grid pattern (in a predetermined rectangular divided area determined in the coordinate axis direction) so that each area is rectangular. Further, an ID (screen area ID) is assigned to each rectangular area. In area division, the larger the number of divisions, the more omission of detection can be eliminated when searching for parts.However, since the amount of information increases, the size and shape of the target model must be taken into account. Thus, an appropriate division number is determined in advance for each axis.

各パーツがどの領域に存在するかは、パーツの形状を表現する3次元空間上の点が、どの分割領域に存在するかを幾何学的な計算に基づいて判断し、存在する領域のIDを判断結果として得る。なお、ここでは、パーツの形状を表わす点が視線方向(k軸)から見た画面のどの矩形分割領域(i−j面に設定された領域)にあるか、座標値(i,j)で判断するので、k軸の座標値による判断は不要である。
各パーツがどの領域に存在するかをパーツの形状を表現する全ての点について判断し、得られる判断結果は、下記[表1]に示すように、3次元モデルを構成する全パーツの部品IDそれぞれに対して、部品が存在する画面領域IDを対応付けた管理ファイルの形でメモリ2等に保存する。
なお、[表1]では、下記のように、各パーツ上の全ての点について、点が存在する画面領域IDを書き込む。
In which area each part exists, it is determined based on geometric calculation which point in the three-dimensional space that expresses the shape of the part exists, and the ID of the existing area is determined. Obtained as a judgment result. It should be noted that here, the coordinate value (i, j) indicates in which rectangular divided area (area set on the ij plane) of the screen viewed from the line-of-sight direction (k-axis). Since the determination is made, determination based on the k-axis coordinate value is unnecessary.
Judgment is made for all points representing the shape of the part in which region each part is present, and the obtained determination result is the part ID of all parts constituting the three-dimensional model as shown in [Table 1] below. Each is stored in the memory 2 or the like in the form of a management file in which a screen area ID in which a part exists is associated.
In [Table 1], as shown below, the screen area ID where the points exist is written for all the points on each part.

Figure 2013050970
Figure 2013050970

次に、分割した全画面領域の各々に存在する部品を対応付ける部品画面領域情報を作成する(ステップS104)。
このステップは、ステップS103で各パーツがどの領域に存在するかを判断し、得られた結果をもとに、部品画面領域情報として、分割した画面領域ごとに存在するパーツの全てを挙げる。つまり、下記[表1]に示した管理ファイルにおける部品IDを基準に画面領域IDを並べた形から、画面領域IDを基準に部品IDを並べ替え、下記[表2]に示すように、分割した全画面領域の画面領域IDそれぞれに対して、存在する部品IDを対応付けた管理(部品画面領域)ファイルを作成する。なお、このファイルは、設定された視線方向の数だけの分が作成される。また、変倍率を設定するズーム段階の設定操作が
できるようにした場合には、さらに段階数分のファイルが作成される。
この後、部品画面領域計算処理部203は、ステップS104で作成した部品画面領域ファイルをパーツカタログDB23に蓄積し(ステップS105)、この処理フローを終了する。
なお、図4及び5にて説明した部品画面領域ファイルの作成処理は、基本的には、上記[特許文献4]に記載された従来法を採用しているので、[特許文献4]の説明を参照されたい。
Next, component screen area information for associating components existing in each of the divided entire screen areas is created (step S104).
In this step, it is determined in step S103 in which area each part exists, and based on the obtained result, all the parts existing in each divided screen area are listed as the parts screen area information. That is, the part IDs are rearranged based on the screen area ID from the form in which the screen area IDs are arranged on the basis of the part IDs in the management file shown in [Table 1] below, and divided as shown in [Table 2] below. A management (component screen region) file in which an existing component ID is associated with each screen region ID of the entire screen region is created. Note that as many files as the number of set line-of-sight directions are created. In addition, when the zoom stage setting operation for setting the zoom ratio can be performed, files corresponding to the number of stages are further created.
Thereafter, the parts screen area calculation processing unit 203 accumulates the parts screen area file created in step S104 in the parts catalog DB 23 (step S105), and ends this processing flow.
4 and 5 basically uses the conventional method described in the above [Patent Document 4], the description of [Patent Document 4]. Please refer to.

Figure 2013050970
Figure 2013050970

図3のカタログ作成部20における部品画面上高さ計算処理部204は、パーツを組付けたモデル画像の画面(入力装置31で設定された視線方向から見た)におけるパーツの高さ情報を各パーツに対応付けて表す部品画面上高さファイルを作成する。
部品画面上高さ計算処理部204は、図6の処理フローに示す手順を行うことで、この部品画面上高さファイルを作成することができる。
図6の処理フローによると、まず、視線方向が設定され(ステップS201)、次いで、3次元モデルの座標系で与えられている3次元モデルの座標(各パーツ座標)値をステップS201で設定された視線方向軸の座標系に変換する(ステップS202)。
なお、このステップS201及び202の処理は、図4及び5を参照して説明した部品画面領域ファイルの作成処理におけるステップS101及び102と同一の処理を部品画面上高さファイルの作成の前段の処理として行う。よって、ここでは、上記したステップS101及び102の説明を参照することとし、ここでは、記載を省略する。
The part screen height calculation processing unit 204 in the catalog creation unit 20 of FIG. 3 displays each part height information on the model image screen (viewed from the line-of-sight direction set by the input device 31) in which the parts are assembled. Create a height file on the part screen that is displayed in association with the part.
The component screen height calculation processing unit 204 can create the component screen height file by performing the procedure shown in the processing flow of FIG.
According to the processing flow of FIG. 6, first, the line-of-sight direction is set (step S201), and then the coordinate (each part coordinate) value of the three-dimensional model given in the coordinate system of the three-dimensional model is set in step S201. It is converted to the coordinate system of the viewing direction axis (step S202).
The processing in steps S201 and 202 is the same as the processing in steps S101 and S102 in the component screen area file creation processing described with reference to FIGS. Do as. Therefore, the description of steps S101 and S102 described above is referred to here, and the description is omitted here.

部品画面上高さ計算処理部204は、3次元モデルに組付けたパーツごとに、ステップS202で座標変換した座標値のk軸方向の座標値をもとに、部品画面上の高さを求める(ステップS203)。この実施形態では、各パーツの形状を表現する点のk軸方向の座標値の相加平均を算出し、求める部品画面上の高さとする。このk軸方向の座標値の相加平均値は、k軸を視線方向に合わせた直交座標系のi−j面から各点の距離の平均を意味する。つまり、視線方向において、パーツが手前にあるか奥にあるかを、パーツの形状を表現する点の平均値として数値化したもので、この値が大きければ大きい程、観察者にとって手前に位置することを意味し、小さいほど奥にあることを意味する。   The height calculation processing unit 204 on the component screen obtains the height on the component screen based on the coordinate value in the k-axis direction of the coordinate value converted in step S202 for each part assembled in the three-dimensional model. (Step S203). In this embodiment, the arithmetic average of the coordinate values in the k-axis direction of the points representing the shape of each part is calculated and set as the height on the component screen to be obtained. The arithmetic average value of the coordinate values in the k-axis direction means the average of the distances of the respective points from the ij plane of the orthogonal coordinate system in which the k-axis is aligned with the line-of-sight direction. In other words, in the line-of-sight direction, whether the part is in front or behind is quantified as an average value of the points expressing the shape of the part. The larger this value, the closer to the observer It means that the smaller it is, the deeper it is.

各パーツのk軸方向の座標値の相加平均値を全てのパーツについて算出し、得られる算出結果は、下記[表3]に示すように、3次元モデルを構成する全パーツの部品IDそれぞれに対して、算出された平均値を対応付けた管理(部品画面上高さ)ファイルを作成する(ステップS204)。なお、このファイルは、設定された視線方向の数だけの分が作成される。また、変倍率を設定するズーム段階の設定操作ができるようにした場合には、さらに段階数分のファイルが作成される。
この後、部品画面上高さ計算処理部204は、ステップS204で作成した部品画面上高さファイルをパーツカタログDB23に蓄積し(ステップS205)、この処理フローを終了する。
The arithmetic mean value of the coordinate values in the k-axis direction of each part is calculated for all parts, and the obtained calculation results are the part IDs of all the parts constituting the three-dimensional model as shown in [Table 3] below. In step S204, a management (part screen height) file is created in association with the calculated average value. Note that as many files as the number of set line-of-sight directions are created. In addition, when the zoom stage setting operation for setting the zoom ratio can be performed, files corresponding to the number of stages are further created.
Thereafter, the component screen height calculation processing unit 204 accumulates the component screen height file created in step S204 in the parts catalog DB 23 (step S205), and ends this processing flow.

Figure 2013050970
Figure 2013050970

「パーツカタログデータの検索・閲覧」
カタログ閲覧部27の構成及び動作について、より詳しく説明する。
カタログ閲覧部27は、カタログDB23を閲覧する際に、ユーザの要求に応じ、目的のカタログデータを検索する処理を行う。この実施形態では、ユーザの要求をGUIの画面を通して受付ける際に、先ず、ユーザにより指定されたモデルのデータをカタログDB23から取得(以下、これを「1次検索」という)し、取得した当該モデルの全体像を表示した画面をユーザに示し、表示された画面に対しユーザが指定した画面領域のパーツ(後述する候補パーツ)を検索(以下、これを「2次検索」という)し、さらに、取得した候補パーツの単体画像をユーザに画面表示し、その中からユーザにより指定されたパーツのカタログデータを最終的に検索(以下、これを「3次検索」という)する処理を行う。
つまり、ユーザの選択用に表示する全体像及びカタログ用のデータとして出力するパーツの画像、いずれも画面用(2次元)データとする。このようにすることで、ユーザが選択するパーツを探し出す作業を簡便にするとともに、処理系の負担を軽くすることができる。
"Search and browse parts catalog data"
The configuration and operation of the catalog browsing unit 27 will be described in more detail.
When browsing the catalog DB 23, the catalog browsing unit 27 performs a process of searching for target catalog data in response to a user request. In this embodiment, when accepting a user's request through the GUI screen, first, the model data designated by the user is acquired from the catalog DB 23 (hereinafter referred to as “primary search”), and the acquired model The user is presented with a screen displaying the whole image of the screen, and searches for parts (candidate parts to be described later) of the screen area designated by the user on the displayed screen (hereinafter referred to as “secondary search”), A single image of the obtained candidate part is displayed on the screen to the user, and a process of finally searching the catalog data of the part designated by the user from the image (hereinafter referred to as “tertiary search”) is performed.
That is, the whole image displayed for user selection and the part image output as catalog data are both screen (two-dimensional) data. By doing in this way, the operation | work which searches for the part which a user selects can be simplified, and the burden of a processing system can be eased.

また、この実施形態では、ユーザが求めるパーツを選択する際に、その作業負担を軽減するために、次に示す付加機能を備える。
一つは、GUIの画面に表示された全体像から2次検索でパーツを指定する際に、画面上の全体画像に対しポイント(位置)を指示する操作をユーザに行わせ、ユーザが指定した位置の画面領域(図4のステップ103で分割した領域)内に存在するパーツを検索候補(以下、単に「候補」ともいう)として絞り込み、絞り込んだ候補パーツをユーザに示す機能である。
もう一つは、候補パーツから、最終的に求めるパーツを選択させる際に、絞り込んだ複数の候補パーツに、視線方向における位置順、という基準で順位を付け、順位に従いGUIの画面を通してユーザに提示する機能である。つまり、複数の候補パーツを単体画像によって表示する際に、表示の仕方で手前にあるパーツであるか奥にあるパーツであるかが分かるように示す。
これらの付加機能によると、目指すパーツの組付け位置を概ね把握していれば、例え内部にあってもパーツの選択作業が容易に行えるようになる。
In this embodiment, the following additional functions are provided in order to reduce the work load when the user selects a desired part.
First, when a part is specified by secondary search from the entire image displayed on the GUI screen, the user performs an operation to specify a point (position) on the entire image on the screen. This is a function that narrows down parts existing in the position screen area (area divided in step 103 in FIG. 4) as search candidates (hereinafter also simply referred to as “candidates”) and indicates the narrowed candidate parts to the user.
The other is to select a candidate part from the candidate parts, and rank the multiple candidate parts that have been narrowed down based on the order of position in the line of sight, and present them to the user through the GUI screen according to the order. It is a function to do. That is, when a plurality of candidate parts are displayed as a single image, it is shown so that it can be seen whether it is a part at the front or a part at the back in the way of display.
According to these additional functions, if the assembly position of the desired part is roughly grasped, the part can be easily selected even if it is inside.

図7は、パーツカタログ作成・閲覧システム(図2)のカタログ閲覧部の構成例及び構成要素各部の処理に係る情報の流れを示す図である。
図7において、入力装置278は、GUI機能を持つユーザインターフェースの入力部(図1の入出力装置3の入力部に当たる)で、マウスやキーボードを有し、ユーザの操作により検索・閲覧に必要な指示や情報などを入力する。
出力装置279は、GUI機能を持つユーザインターフェースの出力部(図1の入出力装置3の出力部に当たる)で、ディスプレイを有し、その表示画面を通して、検索・閲覧要求に係るユーザの入力を受付ける際に必要な情報や検索・閲覧結果をユーザに示す。なお、出力部としては、図1の外部入出力装置4の出力部を用いることができる。
FIG. 7 is a diagram illustrating a configuration example of the catalog browsing unit of the parts catalog creation / viewing system (FIG. 2) and a flow of information relating to processing of each component.
In FIG. 7, an input device 278 is an input unit of a user interface having a GUI function (corresponding to the input unit of the input / output device 3 of FIG. 1) and has a mouse and a keyboard, and is necessary for searching and browsing by a user operation. Enter instructions and information.
The output device 279 is an output unit of a user interface having a GUI function (corresponding to the output unit of the input / output device 3 in FIG. 1), has a display, and accepts a user input related to a search / view request through the display screen. Information and search / browsing results necessary to the user are shown to the user. As the output unit, the output unit of the external input / output device 4 of FIG. 1 can be used.

データ管理部271は、内部の記憶部でカタログ作成・閲覧に係る処理において扱う各種のデータを管理する。
具体的には、データ管理部271は、閲覧要求時に、入力装置278を通してユーザが指示した形状モデルに対し、カタログDB23に格納されたカタログデータを参照し、指示に従って、形状モデルに対する全体画像や、当該形状モデルを構成する全てのパーツについて、ハイライト付全体画像、単体画像、部品画面領域情報(上記表1、参照)及び部品画面上高さ情報(上記表3、参照)を取り出して、内部の記憶部へ書き出し、検索・閲覧に係る処理に応じるためにこれらの情報を管理する。
The data management unit 271 manages various types of data handled in the processing related to catalog creation / viewing in the internal storage unit.
Specifically, the data management unit 271 refers to the catalog data stored in the catalog DB 23 for the shape model instructed by the user through the input device 278 at the time of the browsing request, and in accordance with the instruction, For all the parts that make up the shape model, the entire image with highlight, single image, parts screen area information (see Table 1 above) and parts screen height information (see Table 3 above) This information is managed in order to write to the storage unit and to respond to processing related to search and browsing.

なお、上記したハイライト付全体画像は、着目しているパーツ形状の部分をハイライト表示させたモデル全体の画像で、着目パーツのハイライト表示は、着目パーツを他のパーツとは異なる表示形態、例えば特定色(赤色等)で表示したり、点滅させて表示したりすることにより実現される。
また、上記したパーツの単体画像は、着目しているパーツ形状だけの画像で、パーツの名称等のパーツを特定することができる情報を付属情報とする。
また、上記した部品画面領域情報は、各パーツそれぞれに対して、パーツが存在する分割画面領域の対応関係を示す情報(上記表1、参照)であり、部品画面上高さ情報は、視線方向における各パーツの平均高さで各パーツに単一の値をとる情報(上記表3、参照)である。
なお、本実施形態では、ユーザに示す上記した各種の画像、並びに部品画面領域情報や部品画面上高さ情報は、複数の視点、および、複数のズーム段階(例えば、ズームパラメータを0.0から1.0までの数値で与える)による画像と情報が管理される。
Note that the entire image with highlights is an image of the entire model that highlights the part of the shape of the part of interest. The highlighted display of the part of interest is a display form in which the part of interest differs from other parts. For example, it is realized by displaying in a specific color (red or the like) or blinking.
Further, the above-described single image of a part is an image of only the part shape of interest, and information that can identify the part such as the name of the part is attached information.
Further, the above-described component screen area information is information (see Table 1 above) indicating the correspondence between the divided screen areas where the parts exist for each part, and the height information on the component screen is the line-of-sight direction. This is information (see Table 3 above) that takes a single value for each part at the average height of each part.
In the present embodiment, the above-described various images, the component screen area information and the component screen height information shown to the user have a plurality of viewpoints and a plurality of zoom stages (for example, zoom parameters from 0.0 to 0.0). Images and information are managed by a numerical value up to 1.0).

図7の内外判定処理部272は、出力装置279のディスプレイに表示された形状モデルの全体画像の中から選択対象とするパーツを絞り込むための判定を行う。判定方法は、指示した範囲選択情報としてユーザに全体画像を表示した画面で位置を指示するポインタの操作を行わせ、ユーザが指定した位置の画面領域(画面ごとに座標軸方向に分割した矩形分割領域)を定め、定めた領域内に存在するパーツを上記部品画面領域情報に基づいて判定する。
また、領域内に存在するパーツとして判定されたパーツを選択対象の候補パーツとして抽出し、抽出した候補パーツのハイライト付全体画像を識別する情報を、複数の視点及び複数のズーム段階ごとに取り出して、パーツ選択処理部273に渡す。
The inside / outside determination processing unit 272 in FIG. 7 performs determination for narrowing down parts to be selected from the entire image of the shape model displayed on the display of the output device 279. In the determination method, the user operates the pointer indicating the position on the screen displaying the entire image as the specified range selection information, and the screen area at the position specified by the user (rectangular divided area divided in the coordinate axis direction for each screen) ) And a part existing in the determined area is determined based on the part screen area information.
Also, a part determined as a part existing in the region is extracted as a candidate part to be selected, and information for identifying the entire image with highlight of the extracted candidate part is extracted for each of a plurality of viewpoints and a plurality of zoom stages. To the parts selection processing unit 273.

また、内外判定処理部272は、このときに、抽出した候補パーツを出力装置279のディスプレイに表示して、最終的に求めるパーツの選択をユーザの入力操作に委ねるので、候補パーツの単体画像或いはその名称を出力装置279に渡す。
ただ、本実施形態では、候補パーツを出力装置279のディスプレイに表示するときに、抽出された各パーツを何の工夫も無しにランダムな状態のまま、リストといった形でユーザに表示すると、候補パーツ群の中から目的とする1つのパーツを探し出さなければならず、多数のパーツが候補になる場合には、ユーザの作業負担が大きくなり、利便性を低下させる。
Further, at this time, the inside / outside determination processing unit 272 displays the extracted candidate parts on the display of the output device 279 and leaves the selection of the finally obtained part to the user's input operation. The name is passed to the output device 279.
However, in this embodiment, when displaying the candidate parts on the display of the output device 279, if the extracted parts are displayed in a random state without any ingenuity in the form of a list, the candidate parts are displayed. One target part must be found from the group, and when a large number of parts are candidates, the work burden on the user is increased and convenience is reduced.

そこで、絞り込んだ複数の候補パーツの視線方向の位置に着目し、GUI画面で全体画像を見るユーザに対し手前から奥に向かう順位に従い対象となる各パーツの単体画像の画面表示を工夫し、ユーザに示す。ここに、ユーザに対し手前にあるか奥にあるかは、部品画面上高さ情報(上記表3、参照)によって決める。
順位に従うGUI画面の表示の仕方として、例えば、候補パーツ群の中から目的とする1つのパーツを選択するためにユーザに示す画面において、上下或いは左右方向の順に各候補パーツの単位画像を表示する場合には、手前にあるパーツを先頭に上下或いは左右方向の順に表示位置を決める、といった工夫をする。このような表示をすることで、絞り込んだ候補パーツから求めるパーツを選択するユーザの作業を容易にする。特に多数のパーツ候補を示す場合に有効となる。
また、上記した順位により候補パーツの表示を行うための情報は、内外判定処理部272から出力装置279に渡す候補パーツの単体画像の情報に付加される。
Therefore, paying attention to the position in the line-of-sight direction of the plurality of candidate parts that have been narrowed down, the screen display of the single image of each target part is devised according to the order from the front to the back for the user who sees the entire image on the GUI screen, and the user Shown in Here, whether it is in front of or behind the user is determined by the height information on the parts screen (see Table 3 above).
As a way of displaying the GUI screen according to the ranking, for example, on the screen shown to the user in order to select one target part from the candidate part group, the unit images of the candidate parts are displayed in the vertical and horizontal directions. In such a case, the display position is determined in the order of up and down or left and right with the part at the front as the head. Such display facilitates the user's work of selecting a desired part from the narrowed candidate parts. This is particularly effective when a large number of part candidates are shown.
Information for displaying candidate parts in the above-described order is added to the information of the single image of the candidate part that is passed from the inside / outside determination processing unit 272 to the output device 279.

図7のパーツ選択処理部273は、前段の内外判定処理部272で判定結果として抽出された候補パーツのハイライト付全体画像を識別する情報を受取る。また、受取った候補パーツの前記情報を処理対象として管理し、出力装置279のディスプレイに表示された候補パーツの単体画像の中から、入力装置278を通してユーザが指定した1つのパーツのハイライト付全体画像を識別する情報を、複数の視点、および、複数のズーム段階ごとに取り出して、最終的に選択されたパーツの情報として画像切替処理部274に渡す。   The part selection processing unit 273 in FIG. 7 receives information for identifying the entire image with highlight of the candidate part extracted as a determination result by the inside / outside determination processing unit 272 in the previous stage. Further, the received information on the candidate parts is managed as a processing target, and the entire highlighted part of one part designated by the user through the input device 278 is selected from the single images of the candidate parts displayed on the display of the output device 279. Information for identifying an image is taken out for each of a plurality of viewpoints and a plurality of zoom stages, and is finally passed to the image switching processing unit 274 as information on a selected part.

図7の画像切替処理部274は、前段のパーツ選択処理部273でユーザの操作により最終的に選択されたパーツのハイライト付全体画像を識別する情報を受取る。また、受取ったパーツの前記情報をもとに、当該パーツのハイライト付全体画像を選択結果として出力装置279のディスプレイに表示するための処理を行う。このとき、表示するハイライト付全体画像に対し、複数の視点、および、複数のズーム段階から要求する画像がユーザにより指示されるので、この指示を入力装置278から受け取る。なお、指示がない場合はデフォルトの視点方向及びズーム率を適用することができる。
つまり、画像切替処理部274は、データ管理部271が管理する当該パーツの画像データを取得し、かつパーツ選択処理部273から渡された最終的に選択されたパーツのハイライト付全体画像を識別する情報とユーザが指示する視点方向とズーム段階に従って、当該パーツのハイライト付全体画像を取り出し、出力装置279のディスプレイに表示する。
The image switching processing unit 274 in FIG. 7 receives information for identifying the entire image with highlight of the part finally selected by the user's operation in the previous part selection processing unit 273. Further, based on the received information of the part, a process for displaying the highlighted whole image of the part as a selection result on the display of the output device 279 is performed. At this time, for the entire image with highlights to be displayed, a plurality of viewpoints and images requested from a plurality of zoom stages are instructed by the user. If there is no instruction, the default viewpoint direction and zoom ratio can be applied.
That is, the image switching processing unit 274 acquires the image data of the part managed by the data management unit 271 and identifies the entire image with highlight of the finally selected part passed from the part selection processing unit 273. In accordance with the information to be performed, the viewpoint direction indicated by the user, and the zoom level, the entire image with highlight of the part is extracted and displayed on the display of the output device 279.

次に、上記したカタログ閲覧部(図7)の検索・閲覧に係る処理手順を図8及び図9に示す処理フローを参照して説明する。
まず、1次検索条件の指示として、GUI機能を提供する出力装置279のディスプレイに、カタログDB23に格納された形状モデルの一覧等の選択画面を表示し、その画面上でユーザに入力装置278を通して閲覧したいパーツのある選択対象の形状モデルを指定させる(ステップS301)。この指定操作が行われると、これを受け、データ管理部271は、指定された形状モデルに対する全体画像や、このモデルを形成する全てのパーツについて、カタログDB23から上述したハイライト付全体画像、単体画像、部品画面領域情報及び部品画面上高さ情報を、複数の視点及び複数のズーム段階ごとに取り出して、内部の記憶部へ書き出すとともに、指定された形状モデルの全体画像を出力装置279のディスプレイに表示する(ステップS302)。
Next, a processing procedure related to search and browsing by the catalog browsing unit (FIG. 7) will be described with reference to the processing flows shown in FIGS.
First, as an instruction for the primary search condition, a selection screen such as a list of shape models stored in the catalog DB 23 is displayed on the display of the output device 279 providing the GUI function, and the user passes the input device 278 on the screen. A shape model to be selected with a part to be browsed is designated (step S301). When this designation operation is performed, the data management unit 271 receives this, and the entire image with respect to the designated shape model and the entire image with highlights described above from the catalog DB 23 for all the parts forming this model. The image, component screen area information, and component screen height information are extracted for each of a plurality of viewpoints and a plurality of zoom stages, and written to an internal storage unit, and an entire image of a specified shape model is displayed on the output device 279. (Step S302).

次に、2次検索条件の指示として、出力装置279のディスプレイに表示された形状モデルの全体画像の中から検索対象のパーツを絞り込むために、ユーザに出力装置279のディスプレイに表示した形状モデルの全体画像の画面上で閲覧したいパーツのある領域を入力装置278のポインタで指定させる。
ポインタの指定操作が行われると、この入力を受け、内外判定処理部272は、選択対象のパーツの候補を抽出し、結果を出力装置279のディスプレイに表示する(ステップS303)。内外判定処理部272によって行われる領域の指定からパーツ候補を抽出し、抽出したパーツの単体画像を表示するまでの処理を、図9に示すサブシーケンスの処理フローを参照して説明する。
Next, in order to narrow down the parts to be searched from the entire image of the shape model displayed on the display of the output device 279 as an instruction for the secondary search condition, the shape model displayed on the display of the output device 279 is displayed to the user. An area with a part to be viewed on the entire image screen is designated by the pointer of the input device 278.
When the pointer designation operation is performed, the inside / outside determination processing unit 272 receives the input, extracts candidate parts to be selected, and displays the result on the display of the output device 279 (step S303). A process from extracting a part candidate from designation of an area performed by the inside / outside determination processing unit 272 to displaying a single image of the extracted part will be described with reference to a processing flow of a subsequence shown in FIG.

図9の処理フローによると、内外判定処理部272は、先ず、データ管理部271に取り込まれた検索対象の形状モデルの情報から1つのパーツのハイライト付全体画像、単体画像、部品画面領域情報(上記表1、参照)及び部品画面上高さ情報の組み合わせを取得する(ステップS401)。
次いで、ユーザがポインタの入力により指示した位置をもとに、当該位置が属する分割画面領域を求め、求めた画面領域の情報(画面領域ID)と前段で取得したこのパーツの部品画面領域情報(上記表1、参照)とを比較して、この画面領域内にパーツが存在するか否かを確認する(ステップS402)。この確認は、このパーツの部品画面領域情報に記された画面領域IDとポインタ入力により求めた画面領域IDが一致した場合に存在すると判断する。
ここで、画面領域内にパーツが存在しなければ(ステップS402-NO)、ユーザが要求するパーツではないから、選択対象の候補パーツから外し、内外判定をする次のパーツを検索対象の形状モデルのパーツ群から取り出すため、内外判定処理を行っていないパーツが存在するか、否かをチェックする(ステップS405)。
According to the processing flow of FIG. 9, the inside / outside determination processing unit 272 firstly selects an entire image with a highlight of one part, a single image, and part screen area information from the information of the shape model to be searched that is fetched into the data management unit 271. (See Table 1 above) and the combination of the height information on the component screen is acquired (step S401).
Next, based on the position instructed by the input of the pointer by the user, the divided screen area to which the position belongs is obtained, information on the obtained screen area (screen area ID) and the part screen area information (this part screen area information acquired in the previous stage) Compared with Table 1 above, it is confirmed whether or not there is a part in this screen area (step S402). This confirmation is determined to exist when the screen area ID written in the part screen area information of this part matches the screen area ID obtained by the pointer input.
Here, if there is no part in the screen area (step S402-NO), it is not the part requested by the user, so it is excluded from the candidate parts to be selected, and the next part to be judged inside / out is determined as the geometric model to be searched. Therefore, it is checked whether or not there is a part that has not been subjected to the inside / outside determination process (step S405).

他方、ステップS402で画面領域内にパーツが存在すれば(ステップS402-YES)、このパーツを選択対象の候補パーツとして、パーツに係る上記した情報の組み合わせを抽出する。
このとき、当該候補パーツについて得た部品画面上高さ情報を、これまでに抽出した候補パーツについて得た部品画面上高さ情報と比べ、高さ順に順位を付与し、付与された順位を示す情報を各候補パーツの上記した情報の組み合わせの1情報に加える(ステップS403)。
次いで、内外判定処理部272は、抽出された候補パーツを出力装置279のディスプレイに表示する(ステップS404)。このとき、各候補パーツは、注目パーツをハイライトで示したハイライト付全体画像と注目パーツの単体画像(パーツの名称のみとして実施してもよい)とを組み合わせて表示する。なお、ハイライト付全体画像は、着目パーツを他のパーツとは異なる表示形態で示せばよく、例えば、全体画像を半透明(破線)或いはワイヤフレーム像で描画し、注目するパーツを実像で描画する等の方法を採る。
On the other hand, if there is a part in the screen area in step S402 (step S402-YES), the combination of the information related to the part is extracted with this part as a candidate part to be selected.
At this time, the height information on the parts screen obtained for the candidate parts is compared with the height information on the parts screen obtained for the candidate parts extracted so far, and the ranks are given in order of height, and the given ranks are shown. Information is added to one piece of information combination described above for each candidate part (step S403).
Next, the inside / outside determination processing unit 272 displays the extracted candidate parts on the display of the output device 279 (step S404). At this time, each candidate part is displayed in combination with the highlighted whole image with the highlighted part highlighted, and a single image of the focused part (which may be implemented only as the name of the part). The highlighted whole image only needs to be displayed in a different display form from the other parts. For example, the whole image is drawn as a translucent (dashed line) or wire frame image, and the part of interest is drawn as a real image. The method of doing etc. is taken.

抽出された候補パーツが多くなく、表示するハイライト付全体画像と単体画像の組み合わせが、少ない場合には、これらを1画面に表示することができる。このとき、各候補パーツは、先に定めた部品画面上の高さの順位に従い、手前にあるパーツを先頭に上下或いは左右方向の順に位置を決めて表示する。
ただ、対象形状モデルからの候補パーツの抽出条件やディスプレイの大きさ等と関係するが、候補パーツが多数抽出され、一覧で全部の候補パーツを表示することができない場合が起きる。この場合には、単体画像(パーツの名称でもよい)のみを一覧で順位に従った位置をとって表示し、この一覧画面において、選択操作を受け付け、選択したパーツのハイライト付全体画像を開く機能キーを設け、ユーザがこの機能キーへの操作により選択したパーツをハイライト付全体画像で確認できるようにする、といった方法を採ってもよい。
When there are not many candidate parts extracted and there are few combinations of the entire image with highlight and the single image to be displayed, these can be displayed on one screen. At this time, each candidate part is displayed with its position determined in the order of the top or bottom or the left and right direction, starting from the front part according to the height order on the parts screen.
However, although it is related to the extraction conditions of candidate parts from the target shape model, the size of the display, etc., there are cases where a large number of candidate parts are extracted and not all candidate parts can be displayed in the list. In this case, only a single image (which may be the name of a part) is displayed in a list in a position according to the order, and on this list screen, a selection operation is accepted and an entire image with highlight of the selected part is opened. A method may be adopted in which a function key is provided so that a part selected by the user by operating the function key can be confirmed on the entire image with highlight.

内外判定処理部272は、上記の表示動作を行うと同時に、抽出した候補パーツのハイライト付全体画像を識別する情報を、複数の視点、および、複数のズーム段階ごとに取り出して、パーツ選択処理部273に渡す(ステップS404)。このハイライト付全体画像は、当該パーツが、後のステップでユーザに選択された場合に、表示対象となるものとして、予めパーツ選択処理部273に供給しておくものである。
次いで、ステップS401〜404の内外判定に伴う処理を未だ行っていないパーツがあるか否かをチェックし(ステップS405)、未処理のパーツがある場合には(ステップS405-YES)、ステップS401へ戻る。
また、全てのパーツの内外判定に伴う処理が終われば(ステップS405-NO)、このサブシーケンスの処理フロー(図9)を抜ける。
The inside / outside determination processing unit 272 performs the above-described display operation, and simultaneously extracts information for identifying the extracted overall image with highlight of the candidate part for each of a plurality of viewpoints and a plurality of zoom stages, and performs a part selection process. To the unit 273 (step S404). The highlighted whole image is supplied to the parts selection processing unit 273 in advance as a display target when the part is selected by the user in a later step.
Next, it is checked whether or not there is a part that has not yet been subjected to the processing associated with the inside / outside determination in steps S401 to S404 (step S405). If there is an unprocessed part (step S405-YES), the process proceeds to step S401. Return.
Further, when the process accompanying the inside / outside determination of all the parts is completed (step S405-NO), the process flow of this subsequence (FIG. 9) is exited.

サブシーケンスの処理フロー(図9)を抜けると、図8のフローに戻り、前段までの処理で指定領域内に絞り込まれた候補パーツの中からユーザが最終的に求めるパーツを選択する処理に対応する(ステップS304)。即ち、パーツ選択処理部273は、3次検索条件の指示として、出力装置279のディスプレイに表示された候補パーツの単体画像又はパーツ名の中から、求める1つのパーツを指定するユーザの入力装置278への操作を受け、データ管理部271に取り込まれた検索対象の情報から、指定されたパーツのハイライト付全体画像を識別する情報を、複数の視点、および、複数のズーム段階ごとに取得し、画像切替処理部274に渡す。   After exiting the sub-sequence processing flow (FIG. 9), the processing returns to the flow of FIG. (Step S304). That is, the part selection processing unit 273 designates one part to be obtained from a single part image or part name of a candidate part displayed on the display of the output device 279 as an instruction for the tertiary search condition. In response to the operation, information for identifying the entire image with the highlight of the specified part is acquired for each of a plurality of viewpoints and a plurality of zoom stages from the search target information captured by the data management unit 271. The image is transferred to the image switching processing unit 274.

次に、画像切替処理部274は、ユーザが最終的な選択結果としてパーツ選択処理部273から受取ったパーツのハイライト付全体画像を識別する情報を管理し、デフォルト或いはユーザの表示要求に応じて画面表示を切替える(ステップS305)。
即ち、画像切替処理部274は、パーツ選択処理部273から渡された最終的に選択されたパーツのハイライト付全体画像を識別する情報をもとに、データ管理部271が管理する当該パーツの画像データを取得し、ユーザが指示する視点方向とズーム段階に従って、当該パーツのハイライト付全体画像を取り出し、出力装置279のディスプレイに表示する。なお、ユーザの表示要求が指示されない場合は、デフォルトの視点方向及びズーム率を適用する。
Next, the image switching processing unit 274 manages information for identifying the whole image with highlight of the part received from the part selection processing unit 273 as a final selection result by the user, and responds to a default or user display request. The screen display is switched (step S305).
That is, the image switching processing unit 274, based on the information for identifying the entire image with highlight of the finally selected part passed from the part selection processing unit 273, the part of the part managed by the data management unit 271. Image data is acquired, and an entire image with highlight of the part is taken out and displayed on the display of the output device 279 in accordance with the viewpoint direction and the zoom level designated by the user. If the user's display request is not instructed, the default viewpoint direction and zoom ratio are applied.

この後、ユーザが目的とするパーツのカタログデータを閲覧することができ、対象とした形状モデルについて、新たな選択を行わない場合には、終了キーを操作する等の入力を行い、その入力操作を確認し(ステップS306-YES)、この処理フローを終える。
他方、さらに別のパーツの閲覧を続けて行う場合には、継続キーを操作する等の入力を行い、その入力操作を確認し(ステップS306-NO)、ステップS303へ戻って、再びステップS306までの処理フローを繰り返す。
After this, the user can browse the catalog data of the target part, and if the target shape model is not selected, input such as operating the end key is performed. Is confirmed (step S306-YES), and this processing flow ends.
On the other hand, when continuing to browse another part, input such as operating the continuation key is performed, the input operation is confirmed (step S306-NO), the process returns to step S303, and again to step S306. Repeat the process flow.

以上に示した実施形態により、表示された形状モデルの全体画像上の特定のポイントの指示操作で、当該ポイントの近辺に組付いているパーツを目指すパーツの候補として絞り込みことができ、しかも、最終的にパーツを探し出すためにユーザに示す候補パーツの一覧表示画面では、部品画面上の高さの順位に従い、手前にあるパーツを先頭に上下或いは左右方向の順に位置を決めて表示するようにしたことで、パーツを探し出す場合にユーザに掛かる作業負担が軽減できる。
また、パーツを検索・閲覧する処理を2次元画像データの操作により行うようにし、モデルの3次元形状データを利用する従来法(上記[背景技術」の項の記載、参照)に比べて、軽い処理で目的の動作を得るようにしたので、処理性能の低いコンピュータ上でも十分実用に耐えることができる。
According to the embodiment described above, by pointing to a specific point on the entire image of the displayed shape model, it is possible to narrow down as a candidate for a part aiming at a part assembled in the vicinity of the point. In the candidate parts list display screen that is shown to the user in order to search for parts, according to the order of height on the parts screen, the position of the part in front is determined and displayed in the vertical or horizontal order. As a result, the burden on the user when searching for parts can be reduced.
In addition, the process of searching and browsing parts is performed by manipulating the two-dimensional image data, and is lighter than the conventional method using the three-dimensional shape data of the model (refer to the description in the above [Background Art] section). Since the target operation is obtained by the processing, it can sufficiently withstand practical use even on a computer with low processing performance.

1・・CPU(Central Processing Unit)、2・・メモリ、3・・入出力装置、4・・外部入出力装置、5・・バス、20・・カタログ作成部、21・・3Dデータベース、22・・パーツリストデータベース、23・・カタログデータベース、24・・画像データベース、25・・画像補填部、26・・位置情報補填部、27・・カタログ閲覧部、201・・モデルデータ管理部、202・・カタログデータ作成処理部、203・・部品画面領域計算処理部、204・・部品画面上高さ計算処理部、271・・データ管理部、272・・内外判定処理部、273・・パーツ選択処理部、274・・画像切替処理部、278・・入力装置、279・・出力装置。   1 .... CPU (Central Processing Unit) 2 .... Memory 3 .... I / O device 4 .... External I / O device 5 .... Bus 20 .... Catalog creation unit 21, ... 3D database 22, ... .. parts list database, 23 .. catalog database, 24 .. image database, 25 .. image compensation unit, 26 .. location information compensation unit, 27 .. catalog browsing unit, 201 .. model data management unit, 202. Catalog data creation processing unit 203 ..Part screen area calculation processing unit 204 ..Part screen height calculation processing unit 271 ..Data management unit 272 ..Internal / external determination processing unit 273 ..Part selection processing unit 274... Image switching processing unit 278... Input device 279.

特開平09−190456号公報JP 09-190456 A 特開2006−39872号公報JP 2006-39872 A 特開2007−42077号公報JP 2007-42077 A 特開2008−152429号公報JP 2008-152429 A

Claims (6)

部品を組付けて構成する3次元モデルをもとに画面用データとしてそれぞれ作成された全体画像、部品画像、全体画像における部品画面領域情報及び各部品の部品画面上高さ情報を格納したデータベースと、GUI機能を持つユーザインターフェースと、前記データベースから前記ユーザインターフェースの入力画面を介して指示される検索条件に従って、部品画像を検索する検索手段と、前記検索手段の検索結果を出力する手段を有する画像処理装置であって、
前記検索手段は、前記ユーザインターフェースを介して行われる1次検索条件の指示に応じて、前記データベースから取得した検索対象モデルのデータを管理するとともに、前記ユーザインターフェースの入力画面に表示する画像を生成するデータ管理部と、
前記ユーザインターフェースの入力画面に表示された前記検索対象モデルの全体画像上をポインタで示す2次検索条件の指示に応じ、該指示位置により指定される前記部品画面領域情報をもとに、該領域内に含まれる部品を検索候補部品と判定し抽出するとともに、抽出した検索候補部品について、それぞれの前記部品画面上高さ情報をもとに高さの順に順位を付与する判定処理部と、
前記ユーザインターフェースの入力画面に、前記判定処理部によって抽出された検索候補部品の部品画像を、付与された順位に従って表示し、表示された検索候補部品の中から目的の部品を選択する3次検索条件の指示に応じる部品選択処理部を備えたことを特徴とする画像処理装置。
A database that stores the entire image, the component image, the component screen area information in the entire image, and the height information on the component screen of each component, each created as screen data based on a three-dimensional model configured by assembling the components; An image having a user interface having a GUI function, search means for searching for a part image in accordance with a search condition specified from the database via an input screen of the user interface, and means for outputting a search result of the search means A processing device comprising:
The search means manages the data of the search target model acquired from the database and generates an image to be displayed on the input screen of the user interface in accordance with an instruction of a primary search condition performed via the user interface. A data management unit to
In response to an instruction of a secondary search condition indicated by a pointer on the entire image of the search target model displayed on the input screen of the user interface, the area is determined based on the part screen area information specified by the indicated position. A determination processing unit that determines and extracts a component included in the search candidate component, and gives a rank order to the extracted search candidate component based on the height information on each component screen;
A tertiary search for displaying the part image of the search candidate part extracted by the determination processing unit on the input screen of the user interface according to the given order, and selecting a target part from the displayed search candidate parts An image processing apparatus comprising a component selection processing unit that responds to a condition instruction.
請求項1に記載された画像処理装置において、
前記データベースが、前記全体画像及び部品画像として、複数視線方向とズーム段階を変えて表示することができる画像及び各部品のハイライト表示をすることができる画像を格納するとともに、全体画像における部品画面領域情報及び各部品の部品画面上高さ情報として、複数視線方向とズーム段階を変えたときにそれぞれ適用する情報を格納したものであり、
前記データ管理部は、前記ユーザインターフェースの入力画面を介して指示された視線方向とズーム段階に応じて、当該入力画面に表示する全体画像、ハイライト表示を含む部品画像を生成し、
前記判定処理部は、前記ユーザインターフェースの入力画面を介して指示された視線方向とズーム段階に応じて、検索候補部品の判定に用いる前記部品画面領域情報及び順位の付与に用いる前記部品画面上高さ情報を切り替えることを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The database stores, as the entire image and the component image, an image that can be displayed by changing a plurality of viewing directions and zoom stages, and an image that can highlight each component, and a component screen in the entire image. As the area information and the height information on the parts screen of each part, information to be applied when changing the plurality of line-of-sight directions and the zoom stage is stored.
The data management unit generates a whole image to be displayed on the input screen and a component image including a highlight display according to the line-of-sight direction and the zoom stage instructed via the input screen of the user interface,
The determination processing unit is configured to use the component screen area information used for determination of the search candidate component and the component screen top height used for determination of the search candidate component according to the line-of-sight direction and the zoom level instructed via the input screen of the user interface. An image processing apparatus characterized by switching information.
部品を組付けて構成する3次元モデルをもとに画面用データとしてそれぞれ作成された全体画像、部品画像、全体画像における部品画面領域情報及び各部品の部品画面上高さ情報を格納したデータベースからGUI機能を持つユーザインターフェースの入力画面を介して指示される検索条件に従い部品画像を検索する画像処理装置が行う処理工程として、
前記ユーザインターフェースを介して行われる1次検索条件の指示に応じて、前記データベースから取得した検索対象モデルのデータを管理するとともに、前記ユーザインターフェースの入力画面に表示する画像を生成するデータ管理工程と、
前記ユーザインターフェースの入力画面に表示された前記検索対象モデルの全体画像上をポインタで示す2次検索条件の指示に応じ、該指示位置により指定される前記部品画面領域情報をもとに、該領域内に含まれる部品を検索候補部品と判定し抽出するとともに、抽出した検索候補部品について、それぞれの前記部品画面上高さ情報をもとに高さの順に順位を付与する判定処理工程と、
前記ユーザインターフェースの入力画面に、前記判定処理工程で抽出された検索候補部品の部品画像を、付与された順位に従って表示し、表示された検索候補部品の中から目的の部品を選択する3次検索条件の指示に応じる部品選択処理工程を有することを特徴とする画像処理方法。
From the database storing the entire image, the component image, the component screen area information in the entire image, and the height information on the component screen of each component created as screen data based on the three-dimensional model constructed by assembling the components As processing steps performed by an image processing apparatus that searches for a component image according to a search condition instructed via an input screen of a user interface having a GUI function,
A data management step of managing data of a search target model acquired from the database and generating an image to be displayed on an input screen of the user interface in response to an instruction of a primary search condition performed via the user interface; ,
In response to an instruction of a secondary search condition indicated by a pointer on the entire image of the search target model displayed on the input screen of the user interface, the area is determined based on the part screen area information specified by the indicated position. A determination processing step of determining and extracting a component included in a search candidate component, and assigning a rank in order of height based on the height information on each component screen for the extracted search candidate component,
The part image of the search candidate part extracted in the determination processing step is displayed on the input screen of the user interface in accordance with the assigned order, and the target part is selected from the displayed search candidate parts. An image processing method comprising a component selection processing step in response to a condition instruction.
請求項3に記載された画像処理方法において、
前記データベースが、前記全体画像及び部品画像として、複数視線方向とズーム段階を変えて表示することができる画像及び各部品のハイライト表示をすることができる画像を格納するとともに、全体画像における部品画面領域情報及び各部品の部品画面上高さ情報として、複数視線方向とズーム段階を変えたときにそれぞれ適用する情報を格納したものであり、
前記データ管理工程は、前記ユーザインターフェースの入力画面を介して指示された視線方向とズーム段階に応じて、当該入力画面に表示する全体画像、ハイライト表示を含む部品画像を生成し、
前記判定処理工程は、前記ユーザインターフェースの入力画面を介して指示された視線方向とズーム段階に応じて、検索候補部品の判定に用いる前記部品画面領域情報及び順位の付与に用いる前記部品画面上高さ情報を切り替えることを特徴とする画像処理方法。
The image processing method according to claim 3,
The database stores, as the entire image and the component image, an image that can be displayed by changing a plurality of viewing directions and zoom stages, and an image that can highlight each component, and a component screen in the entire image. As the area information and the height information on the parts screen of each part, information to be applied when changing the plurality of line-of-sight directions and the zoom stage is stored.
The data management step generates a whole image to be displayed on the input screen according to the line-of-sight direction and zoom stage instructed via the input screen of the user interface, a component image including a highlight display,
In the determination processing step, the height of the component screen used for assigning the component screen area information and the rank used for determining the search candidate component according to the line-of-sight direction and the zoom stage instructed via the input screen of the user interface. An image processing method characterized by switching information.
請求項3又は4に記載された画像処理方法の各工程をコンピュータに行わせるためのプログラム。   The program for making a computer perform each process of the image processing method described in Claim 3 or 4. 請求項5に記載されたプログラムを記録したコンピュータ読取可能な記録媒体。

A computer-readable recording medium on which the program according to claim 5 is recorded.

JP2012232867A 2012-10-22 2012-10-22 Image processing device, image processing method, and program Pending JP2013050970A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012232867A JP2013050970A (en) 2012-10-22 2012-10-22 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012232867A JP2013050970A (en) 2012-10-22 2012-10-22 Image processing device, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008204444A Division JP2010039932A (en) 2008-08-07 2008-08-07 Image processing apparatus, image processing method and program

Publications (1)

Publication Number Publication Date
JP2013050970A true JP2013050970A (en) 2013-03-14

Family

ID=48012913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012232867A Pending JP2013050970A (en) 2012-10-22 2012-10-22 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2013050970A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108604256A (en) * 2016-02-18 2018-09-28 三菱日立电力***株式会社 Parts information retrieves device, parts information search method and program
JP2021005421A (en) * 2020-10-07 2021-01-14 日立建機株式会社 Selection support system for repair component of work machine

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074398A (en) * 2000-09-05 2002-03-15 Oki Electric Ind Co Ltd Image processor
JP2007042077A (en) * 2005-07-07 2007-02-15 Ricoh Co Ltd Part selecting apparatus, part selection method, program and recording medium
JP2008152429A (en) * 2006-12-15 2008-07-03 Ricoh Co Ltd Image processor, image processing method, program and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074398A (en) * 2000-09-05 2002-03-15 Oki Electric Ind Co Ltd Image processor
JP2007042077A (en) * 2005-07-07 2007-02-15 Ricoh Co Ltd Part selecting apparatus, part selection method, program and recording medium
JP2008152429A (en) * 2006-12-15 2008-07-03 Ricoh Co Ltd Image processor, image processing method, program and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108604256A (en) * 2016-02-18 2018-09-28 三菱日立电力***株式会社 Parts information retrieves device, parts information search method and program
JP2021005421A (en) * 2020-10-07 2021-01-14 日立建機株式会社 Selection support system for repair component of work machine

Similar Documents

Publication Publication Date Title
JP5062884B2 (en) Image search apparatus, image search method and program
JP2009054018A (en) Image retrieving device, image retrieving method, and program
JP4902499B2 (en) Image display device, image display method, and image display system
KR102096113B1 (en) Panoptic visualization document printing
CN108052580B (en) Spatio-temporal data immersive visual analysis method based on multilayer associated network
JP4675855B2 (en) Information processing apparatus, user interface method, and program
US20130167016A1 (en) Panoptic Visualization Document Layout
KR102056492B1 (en) Panoptic visualization document navigation
WO2013095753A1 (en) Panoptic visualization document navigation
EP2711897B1 (en) Panoptic visualization document differencing
KR102017895B1 (en) Panoptic visualization document collection
JP5862243B2 (en) Information processing apparatus, control method therefor, and program
WO2013180266A1 (en) Image generation system, image generation application server, image generation method, and program
JP2010039932A (en) Image processing apparatus, image processing method and program
KR102017894B1 (en) Panoptic visualization document layout
JP2013050970A (en) Image processing device, image processing method, and program
US20140095987A1 (en) Panoptic Visualization Document Access Control
JP4979358B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP4675856B2 (en) Information processing apparatus, user interface method, and program
JP2009169533A (en) Image arrangement data generation device and image arrangement data generation method
JP6264208B2 (en) Display program, display method, and display device
JP5152581B2 (en) Image data processing apparatus and method, program, and recording medium
JP2009104337A (en) Data management device and method
JP2015219598A (en) Image formation apparatus and control method of the same
EP2879063A1 (en) Panoptic visualization document printing

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131011

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140303

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140708