JP2010108221A - Data processing apparatus, data processing method, and program - Google Patents

Data processing apparatus, data processing method, and program Download PDF

Info

Publication number
JP2010108221A
JP2010108221A JP2008279264A JP2008279264A JP2010108221A JP 2010108221 A JP2010108221 A JP 2010108221A JP 2008279264 A JP2008279264 A JP 2008279264A JP 2008279264 A JP2008279264 A JP 2008279264A JP 2010108221 A JP2010108221 A JP 2010108221A
Authority
JP
Japan
Prior art keywords
unit
arrangement
program
data processing
definition file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008279264A
Other languages
Japanese (ja)
Inventor
Ryo Kihara
亮 木原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2008279264A priority Critical patent/JP2010108221A/en
Publication of JP2010108221A publication Critical patent/JP2010108221A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)
  • Stored Programmes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a data processing apparatus, a data processing method and a program easily obtaining the behavior of a system and allowing a third part to quickly check deliverables. <P>SOLUTION: A modeling device (10) includes: a processing unit (25) for processing a figure showing the operation of a program on the basis of the layout of a plurality of elements using source codes; a storage unit (30) for storing a definition file defining possible states of objects; an assigning unit (22) for assigning, based on the definition file in the storage unit, colors at least to the elements laid out corresponding to the objects in the figure processed by the processing unit; and a display unit (50) for displaying the figure containing the elements to which the colors are assigned by the assigning unit. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、UML(Unified Modeling Language)標準に準拠したシーケンス図等を用いてモデリングを行うことができるデータ処理装置、データ処理方法、およびプログラムに関するものである。   The present invention relates to a data processing apparatus, a data processing method, and a program that can perform modeling using a sequence diagram or the like that conforms to the UML (Unified Modeling Language) standard.

UML標準に準拠したオブジェクト指向プログラミングによるソフトウェア開発が盛んに行われている。ソフトウェア開発に加え、説明用の資料作成、デバッキング等を容易とするため、UML標準の定める複数のモデル図からソースコードを作成可能な技術が開示されている(特許文献1参照)。
特開2004−70810号公報
Software development based on object-oriented programming conforming to the UML standard has been actively conducted. In addition to software development, a technique capable of creating source code from a plurality of model diagrams defined by the UML standard is disclosed in order to facilitate creation of explanatory materials, debugging, and the like (see Patent Document 1).
JP 2004-70810 A

特許文献1が開示する技術は、小規模または中規模程度のシステム開発には効果的であるが、巨視的な視点でシステムの挙動を把握しづらく、大規模のシステム開発では、第三者が成果物を素早く確認することが困難である。なお、成果物とは、ソフトウェア開発の結果をいう。   The technology disclosed in Patent Document 1 is effective for small-scale or medium-scale system development, but it is difficult to grasp the system behavior from a macroscopic viewpoint. It is difficult to quickly confirm the deliverables. The deliverable means the result of software development.

本発明は、システムの挙動を容易に把握し、第三者が成果物を素早く確認することができるデータ処理装置、データ処理方法、およびプログラムを提供することにある。   An object of the present invention is to provide a data processing device, a data processing method, and a program capable of easily grasping the behavior of a system and allowing a third party to quickly confirm a product.

本発明のデータ処理装置は、ソースコードを基に、プログラムの動作が複数の配置物の配置によって示される図に関する処理を行う処理部と、オブジェクトの取り得る状態が定義された定義ファイルを格納する記憶部と、前記記憶部の前記定義ファイルに基づいて、少なくとも、前記処理部によって処理される前記図の前記オブジェクトに対応した配置物に色を割り当てる割当部と、前記割当部によって割り当てられた色の配置物を含む前記図を表示する表示部とを有する。   The data processing apparatus according to the present invention stores, based on source code, a processing unit that performs processing related to a diagram in which the operation of a program is indicated by the arrangement of a plurality of arrangement objects, and a definition file that defines states that the object can take. Based on the definition file in the storage unit, at least a storage unit, an allocation unit that allocates a color to an arrangement corresponding to the object of the figure processed by the processing unit, and a color allocated by the allocation unit And a display unit for displaying the figure including the arrangement.

好適には、前記複数のオブジェクトは、所定数のオブジェクトによってグループ化され、前記割当部は、前記グループ化された前記オブジェクトに対応した配置物に色を割り当てる。   Preferably, the plurality of objects are grouped by a predetermined number of objects, and the assigning unit assigns a color to an arrangement corresponding to the grouped objects.

好適には、前記図は、シーケンス図を含み、前記割当部は、前記パラメータの前記処理部の処理による時間変化に応じて、前記オブジェクトに対応した配置物の色を変更する。   Preferably, the figure includes a sequence diagram, and the allocating unit changes the color of the arrangement corresponding to the object in accordance with a change in the time of the parameter by the processing of the processing unit.

好適には、前記表示部に表示される前記シーケンス図の各配置物に対して深度を設定する深度設定部を有する。   Preferably, a depth setting unit is provided for setting a depth for each arrangement in the sequence diagram displayed on the display unit.

好適には、前記シーケンス図の各配置物を前記表示部に3次元的に表示させる可視化部を有する。   Preferably, a visualizing unit is provided for displaying each arrangement in the sequence diagram three-dimensionally on the display unit.

本発明のデータ処理方法は、ソースコードを基に、プログラムの動作が複数の配置物の配置によって示される図に関する処理を行うデータ処理方法であって、オブジェクトの取り得る状態が定義された定義ファイルを格納する第1のステップと、前記第1のステップにおける前記定義ファイルに基づいて、少なくとも、前記図の前記オブジェクトに対応した配置物に色を割り当てる第2のステップと、前記第2のステップによって割り当てられた色の配置物を含む前記図を表示する第3のステップとを有する。   The data processing method of the present invention is a data processing method for performing processing related to a diagram in which the operation of a program is indicated by the arrangement of a plurality of arrangements based on source code, and a definition file in which states that an object can take are defined A second step of assigning a color to an arrangement corresponding to the object of the figure, based on the definition file in the first step, and a second step And a third step of displaying the figure including an arrangement of assigned colors.

本発明のプログラムは、ソースコードを基に、プログラムの動作が複数の配置物の配置によって示される図に関する処理を行うプログラムであって、オブジェクトの取り得る状態が定義された定義ファイルを格納する第1の処理と、前記第1の処理における前記定義ファイルに基づいて、少なくとも、前記図の前記オブジェクトに対応した配置物に色を割り当てる第2の処理と、前記第2の処理によって割り当てられた色の配置物を含む前記図を表示する第3の処理とをコンピュータに実行させる。   The program of the present invention is a program that performs processing related to a diagram in which the operation of the program is indicated by the arrangement of a plurality of arrangement objects based on the source code, and stores a definition file that defines states that the object can take. 1 process, at least a second process for assigning a color to an arrangement corresponding to the object in the figure, and a color assigned by the second process, based on the definition file in the first process. And causing the computer to execute a third process for displaying the figure including the arrangement.

本発明によれば、システムの挙動を容易に把握し、第三者が成果物を素早く確認することができる。   According to the present invention, the behavior of the system can be easily grasped, and a third party can quickly confirm the deliverable.

以下、本発明の実施形態を図面に関連付けて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態に係るデータ処理装置としてのモデリング装置の構成例を示す概略ブロック図である。
図1に図示するモデリング装置10は、CPU20、記憶部30、操作部40、および表示部50を有する。
FIG. 1 is a schematic block diagram showing a configuration example of a modeling apparatus as a data processing apparatus according to an embodiment of the present invention.
A modeling apparatus 10 illustrated in FIG. 1 includes a CPU 20, a storage unit 30, an operation unit 40, and a display unit 50.

モデリング装置10は、ソースコードを解析し、シーケンス図やクラス図等を作成することで、開発されたソフトウェアの分析が可能な装置である。モデリング装置10は、UML標準に準拠したオブジェクト指向プログラミングにより、ソフトウェア開発を行うことも可能である。モデリング装置10には、オブジェクト指向プログラミング言語として、例えば、Java(登録商標)、C、C++を採用することができる。   The modeling device 10 is a device that can analyze the developed software by analyzing the source code and creating a sequence diagram, a class diagram, and the like. The modeling apparatus 10 can also perform software development by object-oriented programming compliant with the UML standard. As the object-oriented programming language, for example, Java (registered trademark), C, C ++ can be adopted for the modeling apparatus 10.

CPU20は、操作部40から入力されたユーザの指示に基づいて、モデリングに関する処理を行う。CPU20は、ユーザによって記述されたシーケンス図をプログラム言語に準拠したソースコードに変換する。そして、CPU20は、ソースコードをコンパイルして、プログラムを実行する。この他、CPU20は、記憶部30とのアクセスの調停、表示部50の表示制御等、モデリング装置10全般の制御を行う。CPU20の詳細については、後述する。   The CPU 20 performs processing related to modeling based on a user instruction input from the operation unit 40. The CPU 20 converts the sequence diagram described by the user into source code conforming to the program language. Then, the CPU 20 compiles the source code and executes the program. In addition, the CPU 20 performs overall control of the modeling apparatus 10 such as arbitration of access to the storage unit 30 and display control of the display unit 50. Details of the CPU 20 will be described later.

記憶部30は、ランダムアクセス可能なメモリやハードディスクによって構成されている。記憶部30には、シーケンス図の作成時に使用する定義ファイル31、オペレーティングシステム、Java(登録商標)等のプログラム、コンパイラなどが格納されている。記憶部30には、プログラムの処理過程で生じる一時的なデータ等も格納される。   The storage unit 30 is configured by a randomly accessible memory or a hard disk. The storage unit 30 stores a definition file 31 used when creating a sequence diagram, an operating system, a program such as Java (registered trademark), a compiler, and the like. The storage unit 30 also stores temporary data and the like generated during the program processing.

操作部40は、たとえば、キーボードやマウス等の入力デバイスによって構成されている。操作部40は、ユーザによる操作を操作に応じた信号に変換して、この信号をCPUに出力する。   The operation unit 40 is constituted by an input device such as a keyboard and a mouse, for example. The operation unit 40 converts a user operation into a signal corresponding to the operation, and outputs this signal to the CPU.

表示部50は、たとえば、液晶ディスプレイによって構成されている。表示部50は、CPU20から入力された映像信号に基づいた種々の情報を表示する。   The display unit 50 is configured by, for example, a liquid crystal display. The display unit 50 displays various information based on the video signal input from the CPU 20.

ここで、分析の結果として表示に利用されるシーケンス図について説明する。
図2は、本発明の実施形態に係るシーケンス図について説明するための図である。
Here, a sequence diagram used for display as a result of analysis will be described.
FIG. 2 is a diagram for explaining a sequence diagram according to the embodiment of the present invention.

図2に図示するシーケンス図60は、オブジェクト61、生命線62、活性化区間63、メッセージ64によって構成されている。この他、シーケンス図60には、停止記号(不図示)等も含まれる。本実施形態では、シーケンス図の各構成要素を単にアイテム(配置物)ともいう。   A sequence diagram 60 illustrated in FIG. 2 includes an object 61, a lifeline 62, an activation section 63, and a message 64. In addition, the sequence diagram 60 includes a stop symbol (not shown) and the like. In the present embodiment, each component in the sequence diagram is also simply referred to as an item (arrangement).

なお、オブジェクトとは、データを扱うための関数(メソッド)を一つのクラスをインスタンス化したものである。クラスとは、オブジェクト指向プログラミングにおいて、データとその操作手順であるメソッドを纏めてオブジェクトのひな形を定義したものである。   An object is an instantiation of a class of a function (method) for handling data. A class is an object-oriented programming that defines a template for an object by combining data and methods that are the operation procedures.

シーケンス図60は、システム内でコラボレーションを行うオブジェクトグループ間の相互作用をアイテムを用いて視覚的に表現したものである。図2に図示するように、シーケンス図60は、ウインドウ51上に配置されたアイテムによって記述される。   The sequence diagram 60 is a visual representation of the interaction between object groups that collaborate in the system using items. As shown in FIG. 2, the sequence diagram 60 is described by items arranged on the window 51.

一般的なシーケンス図は、X−Y平面の2次元で表示される。これに対し、モデリング装置10では、シーケンス図60が、X−Y−Z面の3次元で表示される。これにより、オブジェクト61を対象とするアイテム等から離れた位置に配置する必要がなくなる。これに加え、視点の移動により、ミクロ的にもマクロ的にもシステムの挙動を把握することができる。特に、不具合周辺部でのシステムの挙動に注目することができる。   A general sequence diagram is displayed in two dimensions on the XY plane. On the other hand, in the modeling apparatus 10, the sequence diagram 60 is displayed in three dimensions on the XYZ plane. Thereby, it is not necessary to arrange the object 61 at a position away from the item or the like targeted. In addition to this, the behavior of the system can be grasped microscopically and macroscopically by moving the viewpoint. In particular, attention can be paid to the behavior of the system in the vicinity of the defect.

本実施形態では、各階層のレベルを「深度」と表現する。深度は、オブジェクト61の表示または非表示を判断するための尺度として使用される。一定の深度以上のオブジェクト61を非表示とすることで、マクロ的なシステムの把握の際に、重要性のある情報のみを把握し、繁雑さを軽減することができる。本実施形態では、深度4以上のオブジェクト61が非表示となるように設定されている。これにより、図2には、深度1から深度3までのオブジェクト61が表示されている。図2の破線領域Cに図示する深度4のオブジェクト61は、非表示であることを示している。   In the present embodiment, the level of each hierarchy is expressed as “depth”. The depth is used as a scale for determining whether the object 61 is displayed or not. By hiding the object 61 having a certain depth or more, only the important information can be grasped when the macro system is grasped, and the complexity can be reduced. In the present embodiment, the object 61 having a depth of 4 or more is set so as not to be displayed. As a result, in FIG. 2, objects 61 from depth 1 to depth 3 are displayed. The object 61 having a depth of 4 illustrated in the broken line area C in FIG. 2 indicates that it is not displayed.

シーケンス図の作成時には、モデリング装置10によって、シーケンス図60が自動的に生成される。これらの処理は、実行時のログと状態定義ファイルとを参照して行われる。そして、ユーザは、この生成されたシーケンス図60を見やすいように、視点を3次元座標で設定する。   When creating the sequence diagram, the modeling device 10 automatically generates the sequence diagram 60. These processes are performed with reference to the execution log and the state definition file. Then, the user sets the viewpoint with three-dimensional coordinates so that the generated sequence diagram 60 can be easily seen.

モデリング装置10では、内部パラメータに対応して定義された状態毎に、全てのオブジェクト61に対して事前に決定した色を割り当てることができる。この状態とは、パラメータに格納される値、インスタンスの有無、インスタンス化されるサブクラスの種類、オブジェクト61が含む任意のオブジェクトインスタンスの数等を指す。この状態は、ユーザによって定義され、定義ファイル31に書き込まれる。   In the modeling apparatus 10, a predetermined color can be assigned to all the objects 61 for each state defined corresponding to the internal parameter. This state refers to the value stored in the parameter, the presence / absence of an instance, the type of subclass to be instantiated, the number of arbitrary object instances included in the object 61, and the like. This state is defined by the user and written in the definition file 31.

図2の例では、深度1のオブジェクト61には緑色が割り当てられ、深度2のオブジェクト61にはピンク色が割り当てられる。   In the example of FIG. 2, green is assigned to the object 61 at the depth 1, and pink is assigned to the object 61 at the depth 2.

シーケンス図60に基づいたプログラムが実行されると、各オブジェクト61は、クラスが内包するパラメータによって、状態が時間と共に動的に変化する。一般的なシーケンス図は、上述した状態の定義がないため、プログラム内部の変動状況が把握しづらい。   When the program based on the sequence diagram 60 is executed, the state of each object 61 dynamically changes with time according to the parameters included in the class. A general sequence diagram does not have the definition of the state described above, so it is difficult to grasp the fluctuation state inside the program.

これに対し、本実施形態のシーケンス図60では、オブジェクト61に色が割り当てられたため、時間の推移と共に変化するプログラム全体の内部の変動状況を容易に把握することができる。   On the other hand, in the sequence diagram 60 of this embodiment, since a color is assigned to the object 61, it is possible to easily grasp the internal fluctuation state of the entire program that changes with time.

プログラムの処理が進行するにつれて、オブジェクト61の活性化区間63の状態も時間と共に変化する。図2に図示する破線領域Aの活性化区間63では、状態が変化する状態変化点にて、この活性化区間63の色が定義ファイル31の定義よりに割り当てられた色(たとえば緑)に変化する。   As the processing of the program proceeds, the state of the activation section 63 of the object 61 also changes with time. In the activation section 63 of the broken line area A shown in FIG. 2, the color of the activation section 63 changes to a color (for example, green) assigned based on the definition of the definition file 31 at the state change point where the state changes. To do.

オブジェクト61に対する色の割当は、複数のオブジェクト61を一纏めとしてグループ化し、グループ単位で色を割り当てることもできる。これにより、図2に図示する破線領域Bの活性化区間63では、深度1のオブジェクト61に連動し、深度3のオブジェクト61の色が割り当てられた色に変化する。   The color assignment to the object 61 can be performed by grouping a plurality of objects 61 together and assigning colors in units of groups. Thereby, in the activation section 63 of the broken line area B illustrated in FIG. 2, the color of the object 61 at the depth 3 changes to the assigned color in conjunction with the object 61 at the depth 1.

無論、ライブラリの用途に応じて、グループ化されたオブジェクト61に対して深度を個別に割り当てることもできる。   Of course, the depth can also be individually assigned to the grouped objects 61 according to the purpose of the library.

本実施形態では、図2の破線領域Dに図示するように、メソッドに対して設定された深度とオブジェクトとに対し、この深度の合計が規定値以上となった場合には、メソッドを非表示にすることができる。この規定値は好適に設定することができる。   In the present embodiment, as shown in the broken line area D of FIG. 2, the method is not displayed when the total depth of the depth and the object set for the method exceeds a specified value. Can be. This specified value can be suitably set.

図1に図示するCPU20は、次のように構成されている。具体的には、図1に図示するように、CPU20は、状態取得部21、割当部22、深度設定部23、可視化部24、および処理部25を有する。   The CPU 20 shown in FIG. 1 is configured as follows. Specifically, as illustrated in FIG. 1, the CPU 20 includes a state acquisition unit 21, an allocation unit 22, a depth setting unit 23, a visualization unit 24, and a processing unit 25.

状態取得部21は、オブジェクトメソッド、シーケンス図60の状態変化の表示に関連したオブジェクト61の種類、その数およびその状態を取得する。状態取得部21は、予め用意された任意の区間、任意のシーケンスでの実行時ログを分析し、その区間でオブジェクト61の生成数、タイミング等をデータベース化する。これらの状態取得部21による処理は、実行時ログとソースコードの分析プロセス中に行われる。   The state acquisition unit 21 acquires the object method, the type, the number, and the state of the object 61 related to the display of the state change in the sequence diagram 60. The state acquisition unit 21 analyzes an execution time log in an arbitrary section and an arbitrary sequence prepared in advance, and creates a database of the number of generated objects 61, the timing, and the like in the section. The processing by the state acquisition unit 21 is performed during the analysis process of the runtime log and the source code.

割当部22は、記憶部30の定義ファイル31を参照し、定義ファイル31に基づいてオブジェクト61に色を割り当てる。割当部22は、ユーザによってグループ化されたオブジェクト61毎に色を割り当てることもできる。   The allocation unit 22 refers to the definition file 31 in the storage unit 30 and allocates a color to the object 61 based on the definition file 31. The assigning unit 22 can also assign a color to each object 61 grouped by the user.

深度設定部23は、一定の深度以上のオブジェクト61を非表示とする。   The depth setting unit 23 hides the object 61 having a certain depth or more.

可視化部24は、3次元のシーケンス図60を表示部50に表示させる。可視化部24は、シーケンス図60における描画領域の生成およびその初期化を行う。   The visualization unit 24 displays a three-dimensional sequence diagram 60 on the display unit 50. The visualization unit 24 generates a drawing area in the sequence diagram 60 and initializes it.

コラボレーション図もシーケンス図と同様に、割当部22によってオブジェクトに色が割り当てられる。可視化部24は、このコラボレーション図を表示部50に表示させ、この描画領域の生成およびその初期化を行う。なお、コラボレーション図は、オブジェクト61間の繋がりを表したものである。可視化部24は、記憶部30の定義ファイル31の設定を参照し、たとえば、深度4以上のオブジェクト61等のアイテムを非表示にすることもできる。   Similar to the sequence diagram, the collaboration diagram assigns colors to objects by the assigning unit 22. The visualization unit 24 displays the collaboration diagram on the display unit 50, and generates and initializes the drawing area. Note that the collaboration diagram represents the connection between the objects 61. The visualization unit 24 can refer to the setting of the definition file 31 in the storage unit 30 and hide, for example, items such as the object 61 having a depth of 4 or more.

処理部25は、ソースコードを実行する。   The processing unit 25 executes the source code.

モデリング装置10の動作を図3に関連付けて説明する。
図3は、本発明の実施形態に係るモデリング装置の動作例を示すフローチャートである。
The operation of the modeling apparatus 10 will be described with reference to FIG.
FIG. 3 is a flowchart showing an operation example of the modeling apparatus according to the embodiment of the present invention.

以下の説明では、モデリング装置10は、予めシーケンスを任意のパラメータ、任意の区間で実行したときの実行時ログを有し、同一のシーケンスを実行するものとする。   In the following description, it is assumed that the modeling apparatus 10 has a runtime log when a sequence is executed in advance in an arbitrary parameter and an arbitrary section, and executes the same sequence.

初期設定として、記憶部30の定義ファイル31には、シーケンス図60に配置すべき全てのオブジェクト61に対して、パラメータに対応した状態毎に色が割り当てられる旨の定義がされている。   As an initial setting, the definition file 31 of the storage unit 30 defines that colors are assigned to all objects 61 to be arranged in the sequence diagram 60 for each state corresponding to the parameters.

更に、この定義ファイル31には、一定以上の深度(たとえば深度4)のアイテムを非表示にするための設定が定義されている。その後、シーケンス図60に基づいたプログラムが実行され、ユーザによるプログラムの動作確認が開始される。   Furthermore, the definition file 31 defines settings for hiding items with a depth greater than a certain depth (for example, depth 4). Thereafter, the program based on the sequence diagram 60 is executed, and the user confirms the operation of the program.

なお、以下の処理において、可視化部24は、シーケンス図60を3次元で表示部50に表示させるものとする。初めに、状態取得部21は、表示するクラスメソッドを把握する(ステップST1)。   In the following processing, the visualization unit 24 displays the sequence diagram 60 on the display unit 50 in three dimensions. First, the state acquisition unit 21 grasps a class method to be displayed (step ST1).

そして、ユーザが、ウインドウ上のカーソルを操作し、シーケンス図60の表示させたい開始点までの処理を実行する指示をCPU20に与えるものとする。処理部25は、この指示を受けて、前述のシーケンス図60の開始点までの処理を実行する(ステップST2)。   Then, it is assumed that the user operates the cursor on the window to give the CPU 20 an instruction to execute processing up to the start point to be displayed in the sequence diagram 60. In response to this instruction, the processing unit 25 executes processing up to the start point of the sequence diagram 60 described above (step ST2).

その後、可視化部24は、コラボレーション図の描画領域を生成し、この描画領域を初期化する(ステップST3)。状態取得部21は、シーケンス図60に生成されているオブジェクト61の種類、その数およびその状態を取得する(ステップST4)。   Thereafter, the visualization unit 24 generates a drawing area for the collaboration diagram and initializes the drawing area (step ST3). The state acquisition unit 21 acquires the type, number, and state of the objects 61 generated in the sequence diagram 60 (step ST4).

可視化部24は、現状で生成されたオブジェクト61に対し、コラボレーション図を生成し、これを表示部50に表示させる(ステップST5)。このときのオブジェクト61等の配置のX座標、Y座標は、可視化部24によるシーケンス図60の3次元表示に使用される。なお、各アイテムの配置は、好適に変更することができる。   The visualization unit 24 generates a collaboration diagram for the currently generated object 61 and displays it on the display unit 50 (step ST5). The X coordinate and Y coordinate of the arrangement of the object 61 and the like at this time are used for the three-dimensional display of the sequence diagram 60 by the visualization unit 24. In addition, arrangement | positioning of each item can be changed suitably.

次に、可視化部24は、シーケンス図の描画領域を生成し、この描画領域を初期化する(ステップST6)。ただし、可視化部24は、この初期化の際には、現時点でのシーケンス図60における実行状態の表示も初期化する。   Next, the visualization unit 24 generates a drawing area of the sequence diagram and initializes the drawing area (step ST6). However, the visualization unit 24 also initializes the display of the execution state in the current sequence diagram 60 at the time of this initialization.

この初期化後、ユーザは、所望する任意の単位量だけ処理を実行する指示をCPU20に与えるものとする。処理部25は、この指示を受けて、任意の単位量だけ、これを処理する(ステップST7)。そして、状態取得部21は、シーケンス図60に生成されているオブジェクト61の種類、その数およびその状態を取得する(ステップST8)。   After this initialization, it is assumed that the user gives an instruction to the CPU 20 to execute processing for an arbitrary unit amount desired. In response to this instruction, the processing unit 25 processes this by an arbitrary unit amount (step ST7). Then, the state acquisition unit 21 acquires the type, number and state of the objects 61 generated in the sequence diagram 60 (step ST8).

その後、状態取得部21は、シーケンス図60に生成されているオブジェクトの数が増加したか否かを判別する(ステップST9)。   Thereafter, the state acquisition unit 21 determines whether or not the number of objects generated in the sequence diagram 60 has increased (step ST9).

ステップST9において、オブジェクト61の数が増加していない場合には(NO)、深度設定部23は、シーケンス図60のZ方向に一層追記する(ステップST10)。これにより、アイテムが3次元的に、シーケンスの続きが描画される。このとき、可視化部24が、記憶部30の定義ファイル31の設定を参照し、たとえば、深度4以上のオブジェクト61等のアイテムを非表示にすることもできる。   In step ST9, when the number of objects 61 has not increased (NO), the depth setting unit 23 additionally writes in the Z direction of the sequence diagram 60 (step ST10). Thereby, the continuation of the sequence is drawn in three dimensions. At this time, the visualization unit 24 can refer to the setting of the definition file 31 in the storage unit 30 and hide, for example, an item such as the object 61 having a depth of 4 or more.

CPU20は、ユーザからの入力を受け付け(ステップST11)、ステップST7の処理が任意の終了点であれば、一連の処理が終了する(ステップST12)。   The CPU 20 receives an input from the user (step ST11), and if the process of step ST7 is an arbitrary end point, the series of processes ends (step ST12).

一方、ステップST9において、オブジェクト61の数が増加した場合には(YES)、コラボレーション図にオブジェクトが追記され(ステップST13)、割当部22は、記憶部30の定義ファイル31を参照し、定義ファイル31に基づいてオブジェクト61に色を割り当てる。なお、追加されるアイテムの一も好適に設定可能である。   On the other hand, when the number of objects 61 has increased in step ST9 (YES), the objects are added to the collaboration diagram (step ST13), and the allocating unit 22 refers to the definition file 31 in the storage unit 30 and defines the definition file. A color is assigned to the object 61 based on 31. One item to be added can also be set appropriately.

このとき、ユーザによってグループ化されたオブジェクト61毎に色を割り当てることもできる。そして、可視化部24は、シーケンス図60を再描画する(ステップST14)。その後、ステップST10の処理が実行される。   At this time, a color can also be assigned to each object 61 grouped by the user. Then, the visualization unit 24 redraws the sequence diagram 60 (step ST14). Thereafter, the process of step ST10 is executed.

以上説明したように、本実施形態によれば、シーケンス図のオブジェクトに色が割り当てられるため、システムの挙動を容易に把握し、成果物を素早く把握することができる。シーケンス図が3次元で表示されるため、オブジェクトを対象とするアイテムから離れた位置に配置する必要がなくなるだけではなく、視点の移動により、ミクロ的にもマクロ的にもシステムの挙動を把握することができる。オブジェクト61等をグループ化することができるため、定義される状態の数を削減することができる。   As described above, according to the present embodiment, since colors are assigned to objects in the sequence diagram, it is possible to easily grasp the behavior of the system and quickly grasp the product. Since the sequence diagram is displayed in three dimensions, it is not only necessary to dispose the object at a position away from the target item, but the system behavior can be grasped microscopically and macroscopically by moving the viewpoint. be able to. Since the objects 61 and the like can be grouped, the number of defined states can be reduced.

以上詳細に説明した方法は、上記手順に応じたプログラムとして形成し、CPU20等のコンピュータで実行するように構成することも可能である。このようなプログラムは、半導体メモリ、磁気ディスク、光ディスク、フロッピー(登録商標)ディスク等の記録媒体、この記録媒体をセットしたコンピュータによりアクセスし、上記プログラムを実行するように構成可能である。   The method described in detail above can be formed as a program according to the above procedure, and can be configured to be executed by a computer such as the CPU 20. Such a program can be configured to be accessed by a recording medium such as a semiconductor memory, a magnetic disk, an optical disk, and a floppy (registered trademark) disk, or a computer in which the recording medium is set, to execute the program.

なお、CPU20の各構成要素は、CPU20の行う処理を説明するためのものに過ぎない。上述した各ステップ(ST1〜ST14)の処理は、ソフトウェア的に処理されるが、その一部あるいは全てをハードウェア的に処理することもできる。   Note that each component of the CPU 20 is only for explaining processing performed by the CPU 20. The processing of each step (ST1 to ST14) described above is processed by software, but part or all of the processing can also be processed by hardware.

本発明の実施形態に係るデータ処理装置としてのモデリング装置の構成例を示す概略ブロック図である。It is a schematic block diagram which shows the structural example of the modeling apparatus as a data processor which concerns on embodiment of this invention. 本発明の実施形態に係るシーケンス図ついて説明するための図である。It is a figure for demonstrating about the sequence diagram which concerns on embodiment of this invention. 本発明の実施形態に係るモデリング装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the modeling apparatus which concerns on embodiment of this invention.

符号の説明Explanation of symbols

10…モデリング装置、20…CPU、21…状態取得部、22…割当部、23…深度設定部、24…可視化部、25…処理部、30…記憶部、31…定義ファイル、40…操作部、50…表示部、51…ウインドウ、61…オブジェクト、62…生命線、63…活性化区間、64…メッセージ   DESCRIPTION OF SYMBOLS 10 ... Modeling apparatus, 20 ... CPU, 21 ... State acquisition part, 22 ... Assignment part, 23 ... Depth setting part, 24 ... Visualization part, 25 ... Processing part, 30 ... Storage part, 31 ... Definition file, 40 ... Operation part , 50 ... Display section, 51 ... Window, 61 ... Object, 62 ... Lifeline, 63 ... Activation section, 64 ... Message

Claims (7)

ソースコードを基に、プログラムの動作が複数の配置物の配置によって示される図に関する処理を行う処理部と、
オブジェクトの取り得る状態が定義された定義ファイルを格納する記憶部と、
前記記憶部の前記定義ファイルに基づいて、少なくとも、前記処理部によって処理される前記図の前記オブジェクトに対応した配置物に色を割り当てる割当部と、
前記割当部によって割り当てられた色の配置物を含む前記図を表示する表示部と
を有するデータ処理装置。
A processing unit that performs processing related to a diagram in which the operation of the program is indicated by the arrangement of a plurality of arrangement objects based on the source code;
A storage unit for storing a definition file in which states that an object can take are defined;
An assigning unit that assigns a color to an arrangement corresponding to the object of the figure processed by the processing unit based on the definition file of the storage unit;
A data processing apparatus comprising: a display unit configured to display the figure including the arrangement of colors allocated by the allocation unit.
前記複数のオブジェクトは、所定数のオブジェクトによってグループ化され、
前記割当部は、前記グループ化された前記オブジェクトに対応した配置物に色を割り当てる
請求項1記載のデータ処理装置。
The plurality of objects are grouped by a predetermined number of objects,
The data processing device according to claim 1, wherein the assigning unit assigns a color to an arrangement corresponding to the grouped objects.
前記図は、シーケンス図を含み、
前記割当部は、前記パラメータの前記処理部の処理による時間変化に応じて、前記オブジェクトに対応した配置物の色を変更する
請求項1または2記載のデータ処理装置。
The figure includes a sequence diagram;
The data processing apparatus according to claim 1, wherein the allocating unit changes a color of an arrangement corresponding to the object according to a time change due to processing of the parameter by the processing unit.
前記表示部に表示される前記シーケンス図の各配置物に対して深度を設定する深度設定部を有する
請求項3に記載のデータ処理装置。
The data processing device according to claim 3, further comprising a depth setting unit that sets a depth for each arrangement in the sequence diagram displayed on the display unit.
前記シーケンス図の各配置物を前記表示部に3次元的に表示させる可視化部を有する
請求項3または4記載のデータ処理装置。
The data processing device according to claim 3, further comprising a visualization unit that three-dimensionally displays each arrangement in the sequence diagram on the display unit.
ソースコードを基に、プログラムの動作が複数の配置物の配置によって示される図に関する処理を行うデータ処理方法であって、
オブジェクトの取り得る状態が定義された定義ファイルを格納する第1のステップと、
前記第1のステップにおける前記定義ファイルに基づいて、少なくとも、前記図の前記オブジェクトに対応した配置物に色を割り当てる第2のステップと、
前記第2のステップによって割り当てられた色の配置物を含む前記図を表示する第3のステップと
を有するデータ処理方法。
A data processing method for performing processing related to a diagram in which operation of a program is indicated by arrangement of a plurality of arrangement objects based on source code,
A first step of storing a definition file in which possible states of the object are defined;
A second step of assigning a color to at least an arrangement corresponding to the object of the figure based on the definition file in the first step;
And a third step of displaying the figure including the arrangement of the colors assigned by the second step.
ソースコードを基に、プログラムの動作が複数の配置物の配置によって示される図に関する処理を行うプログラムであって、
オブジェクトの取り得る状態が定義された定義ファイルを格納する第1の処理と、
前記第1の処理における前記定義ファイルに基づいて、少なくとも、前記図の前記オブジェクトに対応した配置物に色を割り当てる第2の処理と、
前記第2の処理によって割り当てられた色の配置物を含む前記図を表示する第3の処理と
をコンピュータに実行させるプログラム。
A program that performs processing related to a diagram in which the operation of the program is indicated by the arrangement of a plurality of arrangement objects based on the source code,
A first process for storing a definition file in which possible states of the object are defined;
Based on the definition file in the first process, at least a second process for assigning a color to an arrangement corresponding to the object in the figure;
A program for causing a computer to execute a third process for displaying the figure including an arrangement of colors assigned by the second process.
JP2008279264A 2008-10-30 2008-10-30 Data processing apparatus, data processing method, and program Pending JP2010108221A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008279264A JP2010108221A (en) 2008-10-30 2008-10-30 Data processing apparatus, data processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008279264A JP2010108221A (en) 2008-10-30 2008-10-30 Data processing apparatus, data processing method, and program

Publications (1)

Publication Number Publication Date
JP2010108221A true JP2010108221A (en) 2010-05-13

Family

ID=42297618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008279264A Pending JP2010108221A (en) 2008-10-30 2008-10-30 Data processing apparatus, data processing method, and program

Country Status (1)

Country Link
JP (1) JP2010108221A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101916765B1 (en) * 2018-02-27 2018-11-09 주식회사 쓰리디타다 Apparatus for 3d modeling and recording medium recording program for executing 3d modeling operation
JP2021180020A (en) * 2016-10-11 2021-11-18 グリーン ヒルズ ソフトウェア,インコーポレイテッド Systems and methods for summarization and visualization of trace data

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021180020A (en) * 2016-10-11 2021-11-18 グリーン ヒルズ ソフトウェア,インコーポレイテッド Systems and methods for summarization and visualization of trace data
JP2022043324A (en) * 2016-10-11 2022-03-15 グリーン ヒルズ ソフトウェア,インコーポレイテッド Systems and methods for summarization and visualization of trace data
JP7051269B2 (en) 2016-10-11 2022-04-11 グリーン ヒルズ ソフトウェア,インコーポレイテッド Systems and methods for summarizing and visualizing trace data
JP7336545B2 (en) 2016-10-11 2023-08-31 グリーン ヒルズ ソフトウェア,インコーポレイテッド System and method for trace data summarization and visualization
KR101916765B1 (en) * 2018-02-27 2018-11-09 주식회사 쓰리디타다 Apparatus for 3d modeling and recording medium recording program for executing 3d modeling operation

Similar Documents

Publication Publication Date Title
CN106462488B (en) Performance optimization hint presentation during debug
CN103999128B (en) There is the Graphics Processing Unit of command processor
US8203558B2 (en) Dynamic shader generation
EP1884899A2 (en) Efficient processing of operator graphs representing three-dimensional character animation
CN1713192A (en) Method and device for processing logic mode establishment and carrying out
JP2018509686A (en) Edit and manipulate ink strokes
CN1755647A (en) Test automation stack layering
Karran et al. Synctrace: Visual thread-interplay analysis
JP6514352B2 (en) Information processing apparatus, information processing method, non-transitory computer readable storage medium
EP3338179A1 (en) Graphical representation of data in a program code editor
CN109766196A (en) A kind of method for scheduling task, device and equipment
CN103577172A (en) Graphic processing engine system
JP2010108221A (en) Data processing apparatus, data processing method, and program
GB2476548A (en) Relational modeling for performance analysis of multi-core processors using virtual tasks
TWI694377B (en) Development platform of mobile native applications
Silva et al. A review of milestones in the history of GUI prototyping tools
Rohman et al. Innovations in Interior Room Design using Markerless Augmented Reality Mobile-based Simultaneous Localization and Mapping Algorithm
JP2013196708A (en) Development device for controller program and creation method
US20130342549A1 (en) Apparatus and method for processing rendering data
JP2012150716A (en) Method, program and system for controlling operation of computer
KR20140077115A (en) Defining object groups in 3d
JP2011165051A (en) Development support device, method and program
JP2009266196A (en) Final framework
KR102208635B1 (en) System and method for supporting feedback settings for interaction type
JPH08263130A (en) Simulation system