WO2023148821A1 - プログラミング装置 - Google Patents

プログラミング装置 Download PDF

Info

Publication number
WO2023148821A1
WO2023148821A1 PCT/JP2022/003829 JP2022003829W WO2023148821A1 WO 2023148821 A1 WO2023148821 A1 WO 2023148821A1 JP 2022003829 W JP2022003829 W JP 2022003829W WO 2023148821 A1 WO2023148821 A1 WO 2023148821A1
Authority
WO
WIPO (PCT)
Prior art keywords
teaching
unit
points
programming device
user
Prior art date
Application number
PCT/JP2022/003829
Other languages
English (en)
French (fr)
Inventor
大貴 林
Original Assignee
ファナック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ファナック株式会社 filed Critical ファナック株式会社
Priority to PCT/JP2022/003829 priority Critical patent/WO2023148821A1/ja
Priority to TW112103031A priority patent/TW202332557A/zh
Publication of WO2023148821A1 publication Critical patent/WO2023148821A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Definitions

  • the present invention relates to programming devices.
  • Online teaching methods and offline teaching methods have been proposed as methods for teaching robots to perform predetermined actions.
  • a teaching method using a teaching playback system is known (Patent Document 1).
  • an off-line teaching method there is a teaching method using a simulation method. Off-line teaching by simulation method creates 3D models of robots, end effectors, workpieces, peripheral devices, etc., and creates an operation program while operating the entire system in a virtual space displayed on a personal computer. , there is no need to operate the actual machine, and it is widely used.
  • simulation-type offline teaching it is necessary to operate the virtual teaching operation panel displayed on the computer in the same way as online teaching. Specifically, an operation of moving the robot model to a teaching position and an operation of registering the teaching position are required. Moreover, every time a teaching position is registered, an operation of inputting operating conditions such as operating speed, interpolation format, and movement format is required. It takes a lot of time and effort to operate such a teaching operation panel. In addition, because it is necessary to display the robot model and the teaching operation panel on the screen, the robot model has to be displayed in a small size, making it difficult to check the robot model and increasing the time and effort required to operate the teaching operation panel. I was letting Therefore, a simulation-type off-line teaching method that is less troublesome than the conventional method is desired.
  • a programming device is a programming device that teaches an operation program for a robot offline, and includes an operation unit and a three-dimensional model of the robot that repeats movement and stop according to a user's operation on the operation unit.
  • a display unit for displaying, a recording unit for successively recording a plurality of teaching candidate points as the three-dimensional model stops, and a plurality of teaching candidate points selected according to a user instruction from the recorded plurality of teaching candidate points as teaching points.
  • a creation unit for creating an operation program based on the plurality of registered teaching points.
  • FIG. 1 is a functional block diagram of the programming device according to this embodiment.
  • FIG. 2 is a diagram showing an example of a teaching screen for manually registering a teaching position displayed on the display section of the programming device of FIG.
  • FIG. 3 is a diagram showing an example of a teaching screen for automatic registration of teaching positions displayed on the display section of the programming device of FIG.
  • FIG. 4 is a diagram showing an example of an edit screen displayed on the display section of the programming device shown in FIG.
  • FIG. 5 is a flow chart showing an example of a procedure for creating an operation program by the programming device of FIG.
  • the programming device is mainly used for teaching a motion program while utilizing a motion simulation of a robot device.
  • an operation program is taught for causing a robot device having a hand attached to the wrist of a robot arm mechanism to perform a work picking operation.
  • components having substantially the same functions and configurations are denoted by the same reference numerals, and redundant description will be given only when necessary.
  • the programming device 1 As shown in FIG. 1, in the programming device 1 according to the present embodiment, hardware such as an operation unit 3, a display unit 4, a communication unit 5, and a storage unit 6 are connected to a processor 2 (CPU or the like). Configured.
  • the programming device 1 is provided by general information processing terminals such as personal computers and tablets.
  • the operation unit 3 has input devices such as a keyboard, mouse, and jog.
  • a touch panel or the like that serves as both the operation unit 3 and the display unit 4 may be used.
  • a user can input various information to the programming device 1 via the operation unit 3 .
  • the various information includes selection information regarding the teaching mode, interpolation format, and movement format, program name, input information of operation speed, and operation information of the robot device displayed on the teaching screen.
  • the interpolation format is a condition regarding the interpolation format between two teaching points.
  • the interpolation format "kakujiku" represents circular interpolation between two teaching points so that each joint of the robot apparatus is not burdened.
  • Interpolation forms also include other interpolation forms such as linear interpolation.
  • the movement form is a condition regarding how to move between a plurality of teaching points.
  • the movement type "Ichigime” indicates that the movement must pass through the teaching point.
  • the movement type "namerake” indicates smooth movement so as to pass through the taught point or its vicinity without necessarily passing through the taught point.
  • the operating speed is expressed as a percentage of a predefined maximum speed. For example, the operation speed "100%" indicates that the robot device is operated at the maximum speed.
  • the display unit 4 has a display device such as an LCD.
  • the display unit 4 displays the teaching screen created by the teaching screen creating unit 22, the editing screen created by the editing screen creating unit 23, and the like.
  • the storage unit 6 has storage devices such as HDD and SSD.
  • a teaching program 61 and data of a three-dimensional model 62 are stored in advance in the storage unit 6 .
  • the data of the three-dimensional model 62 includes three-dimensional model data of the robot device and three-dimensional model data of the workpiece.
  • Data for the three-dimensional model 62 are provided by CAD data.
  • a three-dimensional model of a robot device may be simply referred to as a robot device
  • a three-dimensional model of a workpiece may simply be referred to as a workpiece.
  • the storage unit 6 stores various types of information generated in the process of automatic registration of teaching candidate points.
  • the various types of information include information on the setting of the motion program such as the program name, interpolation format, motion speed and movement format, information on a plurality of teaching candidate points recorded by a teaching candidate point recording unit 26 described later, and teaching points. and information on a plurality of teaching points registered by the registration unit 27 .
  • the communication unit 5 controls transmission and reception of data with the robot control device.
  • an operation program created by the programming device 1 is provided to the robot control device by the processing of the communication unit 5 .
  • the programming device 1 When the teaching program 61 stored in the storage unit 6 is executed by the processor 2, the programming device 1 includes a three-dimensional model creating unit 21, a teaching screen creating unit 22, an editing screen creating unit 23, and an operation state specifying unit 24. , an operation condition setting unit 25, a teaching point candidate recording unit 26, a teaching point registration unit 27, and a program creation unit 28.
  • the 3D model creation unit 21 uses the data of the 3D model 62 stored in the storage unit 6 to create a 3D model of the robot device and the workpiece.
  • the teaching screen creation unit 22 creates a teaching screen for offline teaching of the operation program of the robot device. Details of the teaching screen will be described later.
  • the edit screen creation unit 23 creates an edit screen for accepting operations for selecting a plurality of teaching points to be actually used in the motion program from the plurality of teaching candidate points recorded by the teaching candidate point recording unit 26 and for accepting operations for correcting motion conditions. create. Details of the edit screen will be described later.
  • the operating state identifying unit 24 identifies the operating state of the robot device.
  • the robot device can be moved according to user operations on the simulation area 110 .
  • a plurality of commands for moving the robot device are assigned to a plurality of types of operations via the operation unit 3, respectively.
  • the operation state specifying unit receives user operation input from the operation unit 3, and detects that the robot device has started to move, and that the robot device has changed from a moving state to a stopped state in accordance with input of a command to operate the robot device. Identify the transition.
  • the term "stopped state” as used herein refers to a state in which a command for operating the robot device has not been input from the operation unit 3 for a predetermined elapsed time. This elapsed time can be arbitrarily changed according to a user instruction.
  • the operating condition setting unit 25 sets the interpolation format, movement format, program name, and operating speed input via the operation unit 3 as operating conditions.
  • the teaching candidate point recording unit 26 stores the position and the hand posture of the hand reference point of the robot device at the timing when the motion state specifying unit 24 specifies that the robot device has changed from the moving state to the stopped state as the teaching candidate point. is recorded in the storage unit 6 as.
  • the teaching candidate point includes information about the position of the hand reference point and information about the hand posture.
  • the position of the end-of-hand reference point is set at an intermediate position between a pair of fingers of the robot hand.
  • the position of the hand reference point is represented by positions (X, Y, Z) on three orthogonal axes in the virtual space, and the hand posture is represented by rotation angles (W, P, R) around each axis.
  • the teaching point registration unit 27 registers in the storage unit 6 a teaching candidate point selected according to a user's operation on the editing screen from the plurality of teaching candidate points recorded by the teaching candidate point recording unit 26 as a teaching point.
  • the program creation unit 28 creates an operation program based on the operation conditions set by the operation condition setting unit 25 and the plurality of teaching points registered by the teaching point registration unit 27.
  • FIG. 2 and 3 show an example of the teaching screen.
  • the teaching screens 100 and 200 include a pull-down menu 101 for switching teaching modes.
  • the teaching mode pull-down list includes a "manual mode” in which the user manually registers each teaching position, and an "automatic mode” in which teaching positions are automatically registered one after another.
  • FIG. 2 shows an example of a teaching screen 100 (referred to as automatic teaching screen 100) when "automatic mode" is selected as the teaching mode.
  • the automatic teaching screen 100 has a plurality of input fields 102 and 104 for receiving input of the program name and the operation speed of the robot device, and a plurality of pull-down menus 103 and 105 for receiving input of interpolation format and movement format. include.
  • the automatic teaching screen 100 is configured to collectively accept various operating conditions necessary for creating an operating program.
  • the automatic teaching screen 100 also includes a simulation area 110 that displays a virtual space in which the robot device 70 and the workpiece W are arranged.
  • a three-dimensional model of the robot device 70 which is a robot arm mechanism 71 equipped with a robot hand 72 at the wrist, and the workpiece W created by the three-dimensional model creating unit 21 is two-dimensionally displayed.
  • the positions and orientations of the robot device 70 and the work W displayed in the simulation area 110 can be changed by user operation via the operation unit 3 . For example, when operating with a mouse, the hand reference point RP of the robot device 70 can be moved to a desired position while the hand reference point RP is selected.
  • the hand reference point RP of the robot device 70 can be changed to a desired orientation by a predetermined operation on the simulation area 110 .
  • the automatic teaching screen 100 is configured so that the user can directly operate the robot device 70 via the operation section 3 .
  • the automatic teaching screen 100 displays a teaching end button 120 for accepting the end of teaching of the robot device 70 displayed in the simulation area 110 .
  • FIG. 3 shows a teaching screen 200 (referred to as manual teaching screen 200) when "manual mode" is selected as the teaching mode.
  • manual teaching screen 200 includes simulation area 110 similar to automatic teaching screen 100 .
  • the manual teaching screen 200 has a teaching operation panel 130 for accepting input of a program name, operating speed of the robot device, interpolation format and movement format, and movement operation of the robot device. Is displayed.
  • FIG. 4 shows an example of an edit screen.
  • the editing screen 300 includes a teaching point candidate display area 310 arranged on the left side, a teaching point display area 320 arranged on the right side, and a selection button 330 arranged therebetween.
  • the teaching candidate point display area 310 a list of a plurality of teaching candidate points 311, 312, 313, and 314 arranged according to the recorded order is displayed.
  • a list of a plurality of taught points 321, 322, and 323 arranged according to the operation order is displayed in the taught point display area 320.
  • the user can select a specific teaching candidate point from a plurality of teaching candidate points 311, 312, 313, and 314 and click the select button 330 to register the specific teaching candidate point as a teaching point.
  • the order of registered teaching points can be changed by operating buttons 341 and 342 .
  • the registered teaching point can be deleted by operating the delete button 343 .
  • the operating conditions can be arbitrarily changed by selecting teaching points.
  • Editing screen 300 displays an editing end button 350 for accepting the end of editing, and a button 360 for returning to automatic teaching screen 100 to restart teaching.
  • the automatic teaching point registration processing will be described below with reference to FIG. It is assumed that the programming device 1 displays an automatic teaching screen 100 as shown in FIG.
  • the program name, interpolation format, motion speed, and movement format input according to the user's operation on the teaching screen are collectively accepted (S11). Also, monitoring of the operating state of the robot device 70 displayed on the automatic teaching screen 100 is started (S12). It waits until the user's operation on the robot device 70 via the operation unit 3 is accepted (S13; NO). When a user operation on the robot device 70 is received via the operation unit 3 and the robot device 70 starts moving (S13; YES), there is no user operation on the robot device 70 for a certain period of time, and teaching candidate points are recorded until the robot device 70 stops. (S14; NO).
  • step S15 When the operation of the robot device 70 is stopped without any user operation on the robot device 70 for a certain period of time (S14; YES), the position and hand posture of the hand reference point RP of the robot device 70 at that time are recorded as teaching candidate points. (S15).
  • the processing from step S13 to step S15 is repeatedly executed until the end of teaching (step S16; NO).
  • the end of teaching here is triggered by clicking the end of teaching button 120 or by switching the teaching mode.
  • the teaching is completed (S16; YES)
  • monitoring of the operating state of the robot device 70 is completed (S17), and an edit screen 300 as shown in FIG. 4 is displayed (S18). Then, a teaching point registration process is accepted by a user's operation on the editing screen 300 (S19).
  • the programming device 1 has the following effects.
  • each time the robot device 70 displayed on the automatic teaching screen 100 stops the position and posture of the hand reference point RP at the time of stop can be recorded one after another as teaching candidate points.
  • the robot device 70 In order to record the position of the hand reference point RP and the hand posture as teaching candidate points, the robot device 70 should be stopped, and no special operation such as button operation for recording is required. The user only needs to operate the robot device 70, and the trouble of teaching the operation program can be saved.
  • various operation conditions necessary for creating an operation program can be collectively received by user operation via the operation unit 3 for each input field and each pull-down menu displayed on the automatic teaching screen 100 .
  • the user can operate the operation unit 3 such as a mouse operation and a jog operation on the robot device without worrying about the movement, speed, and path between the teaching points.
  • the simulation area 110 can be widened, and the robot device 70 can be displayed in a large size.
  • the position and posture of the robot device 70 can be easily confirmed, operation errors caused by the robot device 70 being small and difficult to confirm can be reduced, and the stress of operating the robot device 70 can be reduced. can be done.
  • the erroneously recorded teaching candidate point can be displayed by the user on the edit screen 300 after teaching. It is only necessary not to register it as a teaching point by an operation. Therefore, when a teaching candidate point is recorded with an incorrect hand reference point RP position and hand posture, there is no need to perform an operation to delete the erroneously recorded teaching candidate point. , the robot device 70 can be continuously operated without interruption. In this manner, a phase of inputting operation conditions necessary for creating an operation program on the automatic teaching screen 100 and recording of teaching candidate points and a phase of editing the input operating conditions and recorded teaching candidate points are time-divided. 2, it is not necessary to repeat the teaching position recording work and the teaching position editing work, and as a result, the operation program can be taught efficiently.
  • the position and orientation of the hand reference point RP of the robot device 70 at the time when the robot device 70 transitions from the operating state to the stopped state are recorded as teaching candidate points.
  • the trigger is not limited to stopping the robot device 70.
  • the point of time when there is no user operation on the simulation area 110 for a certain period of time or the point of time when there is no user operation on the automatic teaching screen 100 for a certain period of time may be used as the trigger for recording the teaching candidate point.
  • a command for recording teaching candidate points may be assigned to a specific operation by the operation unit 3 so that the recording can be performed manually.
  • the position and orientation of the hand reference point RP of the robot device 70 are recorded as teaching candidate points.
  • the position of the reference point to be recorded is not limited to the hand reference point as long as the teaching candidate point can be uniquely identified.
  • the position and orientation of a predetermined point on the robot device 70 may be recorded as a teaching candidate point.
  • teaching candidate points are indicated by coordinates (X, Y, Z, W, P, R).
  • the display mode of teaching candidate points is not limited to this embodiment.
  • a plurality of teaching candidate points may be superimposed and displayed with matching positions and orientations. At this time, it is desirable to distinguish and display the teaching candidate points selected as teaching points and the teaching candidate points that have not been selected.
  • the programming device 1 has a function of collectively accepting operation conditions on the teaching screen 100 in order to save the user's time and effort. , and a function of accepting an operation of selecting teaching candidate points to be registered as teaching points from teaching candidate points in editing work on an editing screen 300 displayed after teaching work.
  • the programming device may have only one of the above functions from the viewpoint of saving the user's trouble.
  • the configuration may be such that a control device for controlling the robot has the functions of the programming device.
  • each function of the programming device 1 according to this embodiment can be used to save the user's trouble in online teaching such as direct teaching using an actual machine.
  • online teaching such as direct teaching using an actual machine.
  • direct teaching by registering the position where the robot device has actually stopped as a teaching candidate point or teaching point, the operation for registering it as a teaching candidate point or teaching point becomes unnecessary, and the user's trouble in direct teaching is reduced. can be omitted.
  • the user can move the robot device without worrying about the operation speed and operation path.

Abstract

目的は、手間のかからないシミュレーション型のオフラインティーチングを実現することにある。本開示の一態様に係るプログラミング装置1は、ロボットの動作プログラムの教示をオフラインで行うプログラミング装置であって、操作部3と、操作部に対するユーザ操作に従って移動と停止を繰り返すようにロボットの3次元モデルを表示する表示部4と、3次元モデルの停止に従って複数の教示候補点を次々と記録する記録部26と、記録された複数の教示候補点のうちユーザ指示に従って選択された複数の教示候補点を教示点として登録する教示点登録部27と、登録された複数の教示点に基づいて動作プログラムを作成する作成部28と、を具備する。

Description

プログラミング装置
 本発明は、プログラミング装置に関する。
 ロボットに所定の動作を教示する方法として、オンラインで教示する方法やオフラインで教示する方法等が提案されている。例えば、オンラインで教示する方法として、ティーチングプレイバック方式による教示方法が知られている(特許文献1)。一方、オフラインで教示する方法として、シミュレーション方式による教示方法がある。シミュレーション方式によるオフラインティーチングは、ロボット、エンドエフェクタ、ワーク、周辺機器などの3次元モデルを作成し、パソコンに表示された仮想空間内で全体のシステムを動作させながら動作プログラムを作成することができるため、実機を操作する必要がなく、広く利用されている。
特開平09-062335号公報
 しかしながら、シミュレーション型のオフラインティーチングでは、コンピュータ上に表示された仮想的な教示操作盤をオンラインティーチングの時と同様に操作する必要がある。具体的には、ロボットモデルを教示位置へ移動させる操作、その教示位置を登録する操作が必要となる。また、教示位置を登録するごとに、動作速度、補間形式、移動形式などの動作条件を入力する操作が必要である。このような教示操作盤の操作は非常に手間がかかるものである。また、画面上にロボットモデルと教示操作盤とを表示する必要があるため、ロボットモデルを小さく表示せざるを得ず、ロボットモデルの確認がしづらいことも、教示操作盤の操作の手間を増長させていた。そのため、従来の方法に比べて手間のかからないシミュレーション型のオフラインティーチングの方法が望まれている。
 本開示の一態様に係るプログラミング装置は、ロボットの動作プログラムの教示をオフラインで行うプログラミング装置であって、操作部と、操作部に対するユーザ操作に従って移動と停止を繰り返すようにロボットの3次元モデルを表示する表示部と、3次元モデルの停止に従って複数の教示候補点を次々と記録する記録部と、記録された複数の教示候補点のうちユーザ指示に従って選択された複数の教示候補点を教示点として登録する教示点登録部と、登録された複数の教示点に基づいて動作プログラムを作成する作成部と、を具備する。
 本態様によれば、従来の方法に比べて手間のかからないシミュレーション型のオフラインティーチングを実現することができる。
図1は、本実施形態に係るプログラミング装置の機能ブロック図である。 図2は、図1のプログラミング装置の表示部に表示される教示位置を手動で登録する場合の教示画面の一例を示す図である。 図3は、図1のプログラミング装置の表示部に表示される教示位置を自動で登録する場合の教示画面の一例を示す図である。 図4は、図1のプログラミング装置の表示部に表示される編集画面の一例を示す図である。 図5は、図1のプログラミング装置による動作プログラムの作成手順の一例を示すフローチャートである。
 以下、図面を参照しながら本実施形態に係るプログラミング装置を説明する。本実施形態に係るプログラミング装置は、主にロボット装置の動作シミュレーションを利用しながら動作プログラムを教示する用途に使用されるものである。本実施形態では、ロボットアーム機構の手首にハンドが装着されたロボット装置に対してワークのピッキング作業を実施させるための動作プログラムを教示する。以下の説明において、略同一の機能及び構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行う。
 図1に示すように、本実施形態に係るプログラミング装置1は、プロセッサ2(CPU等)に対して操作部3、表示部4、通信部5、及び記憶部6などのハードウェアが接続されて構成される。プログラミング装置1は、パソコン、タブレット等の一般的な情報処理端末により提供される。
 操作部3は、キーボード、マウス、ジョグ等の入力装置を有する。なお、操作部3と表示部4とを兼用するタッチパネル等を使用するようにしてもよい。ユーザは、操作部3を介して、各種情報をプログラミング装置1に入力することができる。各種情報は、教示モード、補間形式、及び移動形式に関する選択情報、プログラム名、動作速度の入力情報、教示画面に表示されたロボット装置の操作情報を含む。補間形式は、2つの教示点の間の補間形式に関する条件である。例えば、補間形式「カクジク」は、ロボット装置の各関節部に負担がかからないように2つの教示点の間を円弧補間することを表す。補間形式は、直線補間などの他の補間形式も含む。移動形式は、複数の教示点の間をどのように移動させるかに関する条件である。例えば、移動形式「イチギメ」は、教示点を必ず通るように移動させることを表す。移動形式「ナメラカ」は、教示点を必ずしも通る必要はなく、教示点又はその付近を通るように滑らかに移動させることを表す。動作速度は、予め規定された最大速度に対する割合として表現されている。例えば動作速度「100%」は最大速度でロボット装置を動作させることを表している。
 表示部4は、LCDなどの表示装置を有する。表示部4は、教示画面作成部22により作成された教示画面、編集画面作成部23により作成された編集画面等を表示する。
 記憶部6は、HDD、SSDなどの記憶装置を有する。記憶部6には、教示プログラム61、3次元モデル62のデータが予め記憶されている。3次元モデル62のデータは、ロボット装置の3次元モデルデータ、ワークの3次元モデルデータを含む。3次元モデル62のデータは、CADデータにより提供される。明細書の記載において、ロボット装置の3次元モデルを単にロボット装置、ワークの3次元モデルを単にワークと称する場合がある。
 記憶部6には、教示候補点の自動登録処理の過程で発生された各種情報が記憶される。例えば、各種情報は、プログラム名、補間形式、動作速度及び移動形式などの動作プログラムの設定に関する情報と、後述の教示候補点記録部26により記録された複数の教示候補点に関する情報と、教示点登録部27により登録された複数の教示点に関する情報と、を含む。
 通信部5は、ロボット制御装置との間でデータの送受信を制御する。例えば、通信部5の処理により、プログラミング装置1により作成された動作プログラムがロボット制御装置に提供される。
 記憶部6に記憶されている教示プログラム61がプロセッサ2により実行されることで、プログラミング装置1は、3次元モデル作成部21、教示画面作成部22、編集画面作成部23、動作状態特定部24,動作条件設定部25、教示候補点記録部26、教示点登録部27、及びプログラム作成部28として機能する。
 3次元モデル作成部21は、記憶部6に記憶された3次元モデル62のデータを用いて、ロボット装置及びワークの3次元モデルを作成する。
 教示画面作成部22は、ロボット装置の動作プログラムをオフラインで教示するための教示画面を作成する。教示画面の詳細は後述する。
 編集画面作成部23は、教示候補点記録部26により記録された複数の教示候補点から実際に動作プログラムで使用する複数の教示点の選択操作、動作条件の修正操作を受け付けるための編集画面を作成する。編集画面の詳細は後述する。
 動作状態特定部24は、ロボット装置の動作状態を特定する。教示画面上において、ロボット装置は、シミュレーション領域110上のユーザ操作に従って動かすことができる。ロボット装置を動かすための複数のコマンドが操作部3を介した複数種類の操作にそれぞれ割り当てられている。動作状態特定部は、操作部3からのユーザ操作の入力を受け付け、ロボット装置を動作させるコマンドが入力されたことに従って、ロボット装置が動き出したこと、ロボット装置が動いている状態から停止した状態に遷移したことを特定する。ここでの停止した状態とは、ロボット装置を動作させるコマンドの入力が操作部3から予め決められた経過時間ない状態をいう。この経過時間は、ユーザ指示に従って任意に変更可能である。
 動作条件設定部25は、操作部3を介して入力された補間形式、移動形式、プログラム名、動作速度を動作条件として設定する。
 教示候補点記録部26は、動作状態特定部24によりロボット装置が動いている状態から停止した状態に遷移したことが特定されたタイミングにおけるロボット装置の手先基準点の位置及び手先姿勢を教示候補点として記憶部6に記録する。教示候補点は、手先基準点の位置に関する情報と手先姿勢に関する情報とを含む。手先基準点の位置はロボットハンドの一対のフィンガーの中間位置に設定されている。手先基準点の位置は仮想空間内の直交3軸上の位置(X、Y,Z)で表され、手先姿勢は、各軸周りの回転角度(W、P,R)で表される。
 教示点登録部27は、教示候補点記録部26により記録された複数の教示候補点から、編集画面上のユーザ操作に従って選択された教示候補点を教示点として記憶部6に登録する。
 プログラム作成部28は、動作条件設定部25により設定された動作条件と、教示点登録部27により登録された複数の教示点とに基づいて、動作プログラムを作成する。
 以下、教示画面作成部22により作成される教示画面について図2、図3を参照して説明する。図2、図3は教示画面の一例を示している。図2,図3に示すように、教示画面100、200には、教示モードを切り替えるプルダウンメニュー101が含まれる。教示モードのプルダウンリストは、1つ1つの教示位置をユーザが手動で登録する“手動モード”と、教示位置が自動的に次々と登録される“自動モード”とを含む。
 図2は、教示モードとして“自動モード”が選択されたときの教示画面100(自動教示画面100と称する)の一例を示している。図2に示すように、自動教示画面100は、プログラム名及びロボット装置の動作速度の入力を受け付ける複数の入力欄102,104、補間形式及び移動形式の入力を受け付ける複数のプルダウンメニュー103,105を含む。このように、自動教示画面100は、動作プログラムの作成に必要な各種動作条件を一括して受け付けられるように構成される。
 また、自動教示画面100は、ロボット装置70及びワークWが配置された仮想空間を表示するシミュレーション領域110を含む。シミュレーション領域110には、3次元モデル作成部21により作成された手首部にロボットハンド72を装備したロボットアーム機構71であるロボット装置70及びワークWの3次元モデルが2次元的に表示される。シミュレーション領域110に表示されたロボット装置70及びワークWの位置や姿勢は、操作部3を介したユーザ操作により、変更することができる。例えば、マウスで操作する場合、ロボット装置70の手先基準点RPは、手先基準点RPを選択した状態で所望の位置に移動させることができる。また、ロボット装置70の手先基準点RPは、シミュレーション領域110上の所定の操作によって所望の向きに変更することができる。このように、自動教示画面100は、ユーザが操作部3を介してロボット装置70を直接的に操作できるように構成される。自動教示画面100には、シミュレーション領域110に表示されたロボット装置70の教示の終了を受け付ける教示終了ボタン120が表示される。
 図3は、教示モードとして“手動モード”が選択されたときの教示画面200(手動教示画面200と称する)を示している。図3に示すように、手動教示画面200には、自動教示画面100と同様のシミュレーション領域110を含む。一方、自動教示画面100とは異なる構成として、手動教示画面200には、プログラム名、ロボット装置の動作速度、補間形式及び移動形式の入力、ロボット装置の移動操作を受け付けるための教示操作盤130が表示される。
 以下、編集画面作成部23により作成される編集画面について図4を参照して説明する。図4は編集画面の一例を示している。図4に示すように、編集画面300は、左側に配置された教示候補点表示領域310と、右側に配置された教示点表示領域320と、それらの間に配置された選択ボタン330とを含む。教示候補点表示領域310には、記録された順序に従って整列された複数の教示候補点311,312,313,314が一覧表示される。教示点表示領域320には、動作順序に従って整列された複数の教示点321,322,323が一覧表示される。ユーザは、複数の教示候補点311,312,313,314から特定の教示候補点を選択し、選択ボタン330をクリックすることで、当該特定の教示候補点を教示点として登録することができる。登録した教示点の順序は、ボタン341,342の操作により変更することができる。また、登録した教示点は、削除ボタン343の操作により削除することができる。さらに、教示点を選択することで、動作条件を任意に変更することができる。編集画面300には、編集終了を受け付ける編集終了ボタン350と、教示を再開するために自動教示画面100に戻るためのボタン360とが表示される。
 以下、図5を参照して、教示点の自動登録処理について説明する。プログラミング装置1には、図2に示すような自動教示画面100が表示されているものとする。
 教示画面上のユーザ操作に従って入力されたプログラム名、補間形式、動作速度及び移動形式を一括して受け付ける(S11)。また、自動教示画面100に表示されたロボット装置70の動作状態の監視を開始する(S12)。ロボット装置70に対する操作部3を介したユーザ操作を受け付けるまで待機する(S13;NO)。ロボット装置70に対する操作部3を介したユーザ操作を受け付け、ロボット装置70が動き出すと(S13;YES)、ロボット装置70に対するユーザ操作が一定期間なく、ロボット装置70が停止するまで教示候補点の記録を待機する(S14;NO)。ロボット装置70に対するユーザ操作が一定期間なく、ロボット装置70の動作が停止されると(S14;YES)、その時点におけるロボット装置70の手先基準点RPの位置及び手先姿勢を教示候補点として記録する(S15)。工程S13乃至工程S15の処理は、教示終了まで、繰り返し実行される(工程S16;NO)。ここでの教示終了とは、教示終了ボタン120がクリックされたこと、または教示モードが切り替えられたことを契機とするものである。教示が終了されると(S16;YES)、ロボット装置70の動作状態の監視を終了するとともに(S17)、図4に示すような編集画面300を表示する(S18)。そして、編集画面300上のユーザ操作により教示点の登録処理を受け付ける(S19)。ユーザによる教示点の登録は、編集が終了されるまで繰り返し行われる(S20;NO)。編集が終了されると(S20;YES)、工程S19において登録された複数の教示点と、工程S11において受け付けた動作条件とに基づいて、動作プログラムを作成し(S21)、作成した動作プログラムを工程S11のおいて受け付けたプログラム名を付して保存する。
 本実施形態に係るプログラミング装置1によれば、以下のような効果を奏する。すなわち、自動教示画面100に表示されたロボット装置70の動作が停止するたびに、停止時点における手先基準点RPの位置及び手先姿勢を教示候補点として次々と記録することができる。手先基準点RPの位置及び手先姿勢を教示候補点として記録するためには、ロボット装置70を停止させればよく、記録するためのボタン操作等の特別な操作が不要である。ユーザは、ロボット装置70を動かす操作だけすればよく、動作プログラムの教示の手間を省くことができる。
 また、自動教示画面100に表示された各入力欄、各プルダウンメニューに対する操作部3を介したユーザ操作により、動作プログラムの作成に必要な各種動作条件を一括して受け付けることができる。それにより、教示点間の動き、速度、経路をユーザが気にすることなく、ロボット装置に対するマウス操作、ジョグ操作等の操作部3の操作を行うことができる。
 このように、動作プログラムの作成に必要な動作条件を一括して受け付け、教示位置は自動的に記録されるため、図3の手動教示画面200に示すような教示操作盤130を表示する必要がない。図2の自動教示画面100に示すように、シミュレーション領域110を広くとることができ、ロボット装置70を大きく表示することができる。それにより、ロボット装置70の位置、姿勢が確認しやすくなり、ロボット装置70が小さく、確認しにくいがために発生していた操作ミスを減らせ、また、ロボット装置70を操作するストレスを低減することができる。その結果、ロボット装置70の動作プログラムを教示する手間を低減することができる。
 また、ロボット装置70の手先基準点RPの位置や手先姿勢が誤った状態で教示候補点として記録されてしまっても、その誤って記録された教示候補点を教示後の編集画面300上のユーザ操作によって、教示点として登録しなければよいだけである。そのため、手先基準点RPの位置及び手先姿勢が誤った状態で教示候補点として記録した時点で、誤って記録された教示候補点を削除するような操作をする必要はなく、自動教示画面100上のロボット装置70に対する操作を中断することなく、継続して行うことができる。このように、自動教示画面100上で動作プログラムの作成に必要な動作条件を入力し、教示候補点の記録するフェーズと、入力した動作条件と記録した教示候補点を編集するフェーズとを時分割で分けたことによって、教示位置を記録する作業と教示位置を編集作業とを繰り返し行う必要はなく、結果として効率的に動作プログラムを教示することができる。
 本実施形態では、ロボット装置70が動作している状態から停止した状態に遷移した時点におけるロボット装置70の手先基準点RPの位置及び向きを教示候補点として記録していた。しかしながら、ユーザがシミュレーション領域110に表示されたロボット装置70を操作しながら、自動的に教示候補点を記録できるのであれば、その契機はロボット装置70の停止に限定されない。例えば、シミュレーション領域110に対するユーザ操作が一定期間ない時点や自動教示画面100に対するユーザ操作が一定期間ない時点を教示候補点を記録する契機としてもよい。また、操作部3による特定の操作に、教示候補点を記録するコマンドを割り当て、手動で記録できるようにしてもよい。
 本実施形態では、ロボット装置70の手先基準点RPの位置及び向きを教示候補点として記録していた。しかしながら、教示候補点を一意に特定できるのであれば、記録する基準点の位置は手先基準点に限定されない。例えば、ロボット装置70上の所定の点の位置及び向きを教示候補点として記録してもよい。
 本実施形態に係るプログラミング装置1に表示される編集画面300において、教示候補点は座標(X,Y,Z、W、P,R)で表記されていた。しかしながら、教示候補点の表示態様は、本実施形態に限定されない。例えば、自動教示画面100のシミュレーション領域110に表示されたロボット装置70を含む仮想空間に、複数の教示候補点を位置及び向きを一致させて重ねて表示するようにしてもよい。このとき、教示点として選択した教示候補点と、選択していない教示候補点とが識別して表示することが望ましい。
 本実施形態に係るプログラミング装置1は、ユーザの手間を省くために、教示画面100上で動作条件を一括で受け付ける機能、教示画面100上のロボット装置70を操作するだけで自動的に教示候補点を記録する機能、教示作業後に表示される編集画面300上の編集作業で教示候補点から教示点として登録する教示候補点の選択操作を受け付ける機能などを有する。しかしながら、ユーザの手間を省くという観点だけであれば、プログラミング装置は、上記の機能のうち1つだけ有する構成であってもよい。また、プログラミング装置の機能をロボットを制御する制御装置が有する構成でもよい。
 また、本実施形態に係るプログラミング装置1が有する各機能は、実機を用いたダイレクトティーチングなどのオンラインティーチングにおけるユーザの手間を省くことに利用することができる。例えば、ダイレクトティーチングにおいては、ロボット装置が実際に停止した位置を教示候補点又は教示点として登録することで、教示候補点又は教示点として登録するための操作を不要とし、ダイレクトティーチングにおけるユーザの手間を省くことができる。同様に、一括して動作条件を受け付けることで、ダイレクトティーチングにおいて、ユーザは、操作速度、操作経路を気にすることなく、ロボット装置を移動操作することができる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1…プログラミング装置、2…プロセッサ、3…操作部、4…表示部、5…通信部、6…記憶部、21…3次元モデル作成部、22…教示画面作成部、23…編集画面作成部、24…動作状態特定部、25…動作条件設定部、26…教示候補点記録部、27…教示点登録部、28…プログラム作成部、61…教示プログラム、62…3次元モデル。

Claims (5)

  1.  ロボットの動作プログラムの教示をオフラインで行うプログラミング装置であって、
     操作部と、
     前記操作部に対するユーザの操作に従って移動と停止を繰り返すように前記ロボットの3次元モデルを表示する表示部と、
     前記3次元モデルの停止に従って複数の教示候補点を次々と記録する記録部と、
     前記記録された複数の教示候補点のうち前記ユーザの操作に従って選択された複数の教示候補点を教示点として登録する教示点登録部と、
     前記登録された複数の教示点に基づいて前記動作プログラムを作成する作成部と、
     を具備するプログラミング装置。
  2.  前記複数の教示点間の補間形式及び移動速度を前記ユーザの操作に従って一括設定する設定部をさらに備え、
     前記作成部は、前記登録された複数の教示点とともに前記補間形式及び移動速度に基づいて前記動作プログラムを作成する、請求項1記載のプログラミング装置。
  3.  前記設定部は、前記ユーザの指示に従って前記動作プログラムの名称を設定する、請求項2記載のプログラミング装置。
  4.  前記表示部は、前記記録された複数の教示候補点を一覧表示し、前記ユーザは一覧表示された前記複数の教示候補点から前記複数の教示点を選択する、請求項1記載のプログラミング装置。
  5.  前記表示部は、前記記録された複数の教示候補点を前記3次元モデルに重ねて表示し、前記ユーザは前記3次元モデル上に重ねて表示された複数の教示候補点から教示点を選択する、請求項1記載のプログラミング装置。
PCT/JP2022/003829 2022-02-01 2022-02-01 プログラミング装置 WO2023148821A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2022/003829 WO2023148821A1 (ja) 2022-02-01 2022-02-01 プログラミング装置
TW112103031A TW202332557A (zh) 2022-02-01 2023-01-30 程式設計裝置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/003829 WO2023148821A1 (ja) 2022-02-01 2022-02-01 プログラミング装置

Publications (1)

Publication Number Publication Date
WO2023148821A1 true WO2023148821A1 (ja) 2023-08-10

Family

ID=87553334

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/003829 WO2023148821A1 (ja) 2022-02-01 2022-02-01 プログラミング装置

Country Status (2)

Country Link
TW (1) TW202332557A (ja)
WO (1) WO2023148821A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04175801A (ja) * 1990-11-02 1992-06-23 Pfu Ltd ティーチングデータ登録処理方式
JPH05237784A (ja) * 1992-02-28 1993-09-17 Matsushita Electric Ind Co Ltd 多関節ロボットの直接教示装置
JP2011048621A (ja) * 2009-08-27 2011-03-10 Honda Motor Co Ltd ロボットのオフライン教示方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04175801A (ja) * 1990-11-02 1992-06-23 Pfu Ltd ティーチングデータ登録処理方式
JPH05237784A (ja) * 1992-02-28 1993-09-17 Matsushita Electric Ind Co Ltd 多関節ロボットの直接教示装置
JP2011048621A (ja) * 2009-08-27 2011-03-10 Honda Motor Co Ltd ロボットのオフライン教示方法

Also Published As

Publication number Publication date
TW202332557A (zh) 2023-08-16

Similar Documents

Publication Publication Date Title
JP7414919B2 (ja) シミュレータ装置及びシミュレーション方法
JP6350037B2 (ja) ロボットシミュレータおよびロボットシミュレータのファイル生成方法
JP3708083B2 (ja) ロボット教示装置
JP6343353B2 (ja) ロボットの動作プログラム生成方法及びロボットの動作プログラム生成装置
JP5729404B2 (ja) ティーチングシステムおよびティーチング方法
US20030090491A1 (en) Simulation device
US10315305B2 (en) Robot control apparatus which displays operation program including state of additional axis
WO2023148821A1 (ja) プログラミング装置
JP7370755B2 (ja) 情報処理装置、情報処理方法、プログラム、記録媒体、および物品の製造方法
EP3387500B1 (en) An industrial robot and a method for controlling the robot to automatically select which program code to be executed next
JP2023117539A (ja) 情報処理装置、工作機械および情報処理プログラム
US11360454B2 (en) Ladder display device for circuit generation using touch panel
TWI712475B (zh) 機械手臂之作動教導方法及其適用之手勢教導裝置
US20240100688A1 (en) Information processing apparatus, information processing method, robot system, manufacturing method for article using robot system, program, and recording medium
WO2022269927A1 (ja) プログラム作成装置
WO2022208849A1 (ja) ロボット制御装置、ロボット制御システム及びロボット制御方法
WO1989011382A1 (en) Robot control apparatus
JP2013230507A (ja) ロボット制御装置
US20230286153A1 (en) Path generation for manual robot teaching
JP2577003B2 (ja) ロボットの制御方法
WO2023233623A1 (ja) 情報処理装置
WO2024028977A1 (ja) 教示装置
WO2022025001A1 (ja) 教示装置、教示システム、及び教示プログラム
JP2017019069A (ja) 教示装置、ロボット、及びロボットシステム
WO2022163590A1 (ja) 教示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22924734

Country of ref document: EP

Kind code of ref document: A1