JP2013191618A - Processing device - Google Patents

Processing device Download PDF

Info

Publication number
JP2013191618A
JP2013191618A JP2012054718A JP2012054718A JP2013191618A JP 2013191618 A JP2013191618 A JP 2013191618A JP 2012054718 A JP2012054718 A JP 2012054718A JP 2012054718 A JP2012054718 A JP 2012054718A JP 2013191618 A JP2013191618 A JP 2013191618A
Authority
JP
Japan
Prior art keywords
fingertip
processing
screen
workpiece
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012054718A
Other languages
Japanese (ja)
Inventor
Megumi Kojima
めぐみ 小島
Satoshi Miyata
諭 宮田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Disco Corp
Original Assignee
Disco Abrasive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Disco Abrasive Systems Ltd filed Critical Disco Abrasive Systems Ltd
Priority to JP2012054718A priority Critical patent/JP2013191618A/en
Publication of JP2013191618A publication Critical patent/JP2013191618A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Constituent Portions Of Griding Lathes, Driving, Sensing And Control (AREA)
  • Dicing (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable an operator to perform operation comfortably regardless of the screen size of an operation screen.SOLUTION: A display monitor (4) has an operation screen (51) for inputting an operation condition of a cutting mechanism (3), an operation pad image (64) for receiving an operation input is displayed at a lower right end or a lower left end of the operation screen (51), and the operation pad image (64) is switchable to a shaft operation mode and a selection mode. In the shaft operation mode, driving of the cutting mechanism (3) is operated by the operation pad image (64), and in the selection mode, a designation cursor on the operation screen (51) is operated by the operation pad image (64).

Description

本発明は、タッチパネル式の操作画面を備える加工装置に関し、特に大型の操作画面を備える加工装置に関する。   The present invention relates to a processing apparatus including a touch panel type operation screen, and more particularly to a processing apparatus including a large operation screen.

半導体デバイスの製造工程では、被加工物の表面には格子状の分割予定ラインが形成されており、この分割予定ラインに区画された各領域にIC、LSI等のデバイスが形成されている。被加工物は、所定厚みまで裏面研削された後にダイシング装置等の加工装置に搬入され、分割予定ラインに沿って個々のデバイスに分割される。分割された個々のデバイスは、携帯電話やパソコン等の電子機器に広く利用されている。加工装置の各種操作は、加工装置に設置された表示モニタのタッチパネル式の操作画面で行われる。   In the manufacturing process of a semiconductor device, grid-like division planned lines are formed on the surface of a workpiece, and devices such as ICs and LSIs are formed in the respective regions partitioned by the division planned lines. The workpiece is ground back to a predetermined thickness, and then carried into a processing apparatus such as a dicing apparatus, and is divided into individual devices along a predetermined division line. The divided individual devices are widely used in electronic devices such as mobile phones and personal computers. Various operations of the processing apparatus are performed on a touch panel type operation screen of a display monitor installed in the processing apparatus.

例えば、ダイシング装置のフルオートメーション加工のアライメントデータの設定では、操作画面の手動操作によってチャックテーブルの移動量、撮像機構のフォーカス及び光量が調整される(例えば、特許文献1参照)。このターゲットの選択、フォーカス及び光量の調整により、撮像機構に撮像されるアライメントターゲットのコントラストがクリアになり、精度のよい画像処理が行われる。そして、アライメントターゲットの撮像画像と基準パターンとのパターンマッチングにより、切削ブレードが自動的に分割予定ラインに位置付けられる。   For example, in the setting of alignment data for full automation processing of the dicing apparatus, the movement amount of the chuck table, the focus of the imaging mechanism, and the light amount are adjusted by manual operation of the operation screen (see, for example, Patent Document 1). By selecting the target, adjusting the focus, and adjusting the amount of light, the contrast of the alignment target imaged by the imaging mechanism is cleared, and accurate image processing is performed. Then, the cutting blade is automatically positioned on the division line by pattern matching between the captured image of the alignment target and the reference pattern.

特開2005−166991号公報Japanese Patent Laid-Open No. 2005-166991

近年、加工装置全体の巨大化が進んでおり、装置全体の巨大化に伴って操作画面が大型化している。このため、オペレータが操作画面に設定された設定項目等を直にタッチして、加工装置の各種操作を行うことが煩わしくなるという問題があった。   In recent years, the processing apparatus as a whole has been enlarged, and the operation screen has been enlarged with the enlargement of the entire apparatus. For this reason, there is a problem that it becomes troublesome for the operator to directly touch the setting items set on the operation screen and perform various operations of the processing apparatus.

本発明はかかる点に鑑みてなされたものであり、操作画面の画面サイズに関わらず、オペレータが快適に操作することができる加工装置を提供することを目的とする。   The present invention has been made in view of such points, and an object thereof is to provide a processing apparatus that can be operated comfortably by an operator regardless of the screen size of the operation screen.

本発明の加工装置は、被加工物に加工を施す加工手段と前記加工手段を収容するハウジングとを有する加工装置本体と、前記加工装置本体の動作条件を入力する操作画面を有し、前記ハウジングに配設された表示モニタとを備えた加工装置であって、前記操作画面には、前記加工装置を操作するための操作領域が画面の右下端又は左下端に選択的に表示されていること、を特徴とする。   The processing apparatus of the present invention has a processing apparatus main body having a processing means for processing a workpiece and a housing for housing the processing means, and an operation screen for inputting operating conditions of the processing apparatus main body, and the housing A display monitor disposed on the control screen, wherein an operation area for operating the processing device is selectively displayed on the lower right or lower left of the screen. It is characterized by.

この構成によれば、操作画面の右下端又は左下端に操作領域が表示されるため、操作画面上の一部の操作領域だけで加工装置の各種操作が可能となり、操作画面の画面サイズに関わらずオペレータが快適に操作できる。また、オペレータの利き手に応じて操作領域を選択することができ、操作が不要な場合には操作画面上から操作領域を消すこともできる。   According to this configuration, since the operation area is displayed at the lower right corner or the lower left corner of the operation screen, various operations of the processing apparatus can be performed with only a part of the operation area on the operation screen. The operator can operate comfortably. Also, the operation area can be selected according to the dominant hand of the operator, and the operation area can be erased from the operation screen when the operation is unnecessary.

また本発明は、上記加工装置において、被加工物を保持する保持面を有し回転可能な保持手段と、前記保持手段に保持された被加工物を個々のデバイスに分割する加工手段と、前記保持手段と前記加工手段とを前記保持面上で直交するY軸方向およびX軸方向に相対的に移動させる駆動手段と、前記保持手段に保持された被加工物表面を照射する光源を有し前記被加工物を撮像する撮像手段とを更に備え、前記操作画面には、前記加工装置の各機能を操作するための操作条件設定領域が表示され、前記操作画面の前記操作条件設定領域には、前記撮像手段によって撮像された被加工物表面の画像も表示され、前記操作領域における押圧した座標の左右及び上下移動を検出し、前記駆動手段を駆動させ前記保持手段、前記加工手段、前記撮像手段の少なくとも一つを検出した各移動方向に移動させる。   According to the present invention, in the above processing apparatus, a holding unit that has a holding surface that holds the workpiece and is rotatable, a processing unit that divides the workpiece held by the holding unit into individual devices, A driving unit that relatively moves the holding unit and the processing unit in the Y-axis direction and the X-axis direction orthogonal to each other on the holding surface; and a light source that irradiates the workpiece surface held by the holding unit. Imaging means for imaging the workpiece, an operation condition setting area for operating each function of the processing apparatus is displayed on the operation screen, and the operation condition setting area of the operation screen is displayed in the operation condition setting area An image of the surface of the workpiece imaged by the imaging means is also displayed, and the horizontal and vertical movements of the pressed coordinates in the operation area are detected, and the driving means is driven to hold the holding means, the processing means, and the imaging hand Of moving in the moving direction obtained by detecting at least one.

また本発明は、上記加工装置において、前記操作画面には、前記加工装置の各機能を操作するための操作条件設定領域が表示され、前記操作条件設定領域内の所望の箇所を指定する指定カーソルを操作する操作領域が前記操作条件設定領域の外側に表示され、前記操作領域で押圧した座標の移動方向及び量を検出し、検出した移動方向及び量に対応して前記指定カーソルが前記操作条件設定領域内を移動し前記所望の箇所を指定し選択する。   According to the present invention, in the processing apparatus, an operation condition setting area for operating each function of the processing apparatus is displayed on the operation screen, and a designation cursor for specifying a desired location in the operation condition setting area An operation area for operating the button is displayed outside the operation condition setting area, and the movement direction and amount of coordinates pressed in the operation area are detected, and the designated cursor corresponds to the detected movement direction and amount. Move within the setting area and specify and select the desired location.

また本発明は、上記加工装置において、前記表示モニタには、前記操作領域が表示されている位置の前記操作画面の側部にオペレータが把持するための把持部を備える。   According to the present invention, in the processing apparatus, the display monitor includes a grip portion for an operator to grip on a side portion of the operation screen at a position where the operation area is displayed.

本発明によれば、操作画面の右下端又は左下端の一部に操作領域が表示されることで、操作画面の画面サイズに関わらず、オペレータが快適に操作できる。   According to the present invention, the operation area is displayed at a part of the lower right end or the lower left end of the operation screen, so that the operator can comfortably operate regardless of the screen size of the operation screen.

本実施の形態に係る切削装置のハウジングの正面図である。It is a front view of the housing of the cutting device concerning this embodiment. 本実施の形態に係るハウジング内の切削機構の斜視図である。It is a perspective view of the cutting mechanism in the housing which concerns on this Embodiment. 本実施の形態に係る操作画面に表示されたカーフチェック画像を示す図である。It is a figure which shows the kerf check image displayed on the operation screen which concerns on this Embodiment. 本実施の形態に係る操作画面に表示された各種設定画像を示す図である。It is a figure which shows the various setting images displayed on the operation screen which concerns on this Embodiment. 本実施の形態に係る表示モニタの斜視図である。It is a perspective view of the display monitor which concerns on this Embodiment. 本実施の形態に係る操作処理の機能ブロック図の一例である。It is an example of the functional block diagram of the operation process which concerns on this Embodiment. 本実施の形態に係る操作処理状態の一例を示す図である。It is a figure which shows an example of the operation processing state which concerns on this Embodiment. 本実施の形態に係る操作処理のフローチャートの一例である。It is an example of the flowchart of the operation process which concerns on this Embodiment.

以下、添付図面を参照して、本実施の形態について説明する。図1は、本実施の形態に係るハウジングの正面図である。図2は、本実施の形態に係る切削装置の斜視図である。なお、以下においては、加工装置として切削装置を例示した構成について説明するが、この構成に限定されない。本発明は、タッチパネル式の操作画面を備えた加工装置に適用可能である。   Hereinafter, the present embodiment will be described with reference to the accompanying drawings. FIG. 1 is a front view of a housing according to the present embodiment. FIG. 2 is a perspective view of the cutting device according to the present embodiment. In addition, although the structure which illustrated the cutting device as a processing apparatus is demonstrated below, it is not limited to this structure. The present invention is applicable to a processing apparatus having a touch panel type operation screen.

図1に示すように、切削装置1は、直方体状のハウジング2を有し、ハウジング2の内部には切削機構3が収容されている(図2参照)。ハウジング2の正面2aには、タッチパネル式の操作画面51が設けられた表示モニタ4が設置されている。表示モニタ4の操作画面51には、切削装置1の各種処理に関する設定画像等が表示されている。オペレータは、ハウジング2の正面に立って操作画面51に指先で直接触れることで、切削装置1の動作条件の設定や切削機構3の手動操作を実施する。   As shown in FIG. 1, the cutting device 1 has a rectangular parallelepiped housing 2, and a cutting mechanism 3 is accommodated in the housing 2 (see FIG. 2). A display monitor 4 provided with a touch panel type operation screen 51 is installed on the front surface 2 a of the housing 2. On the operation screen 51 of the display monitor 4, setting images relating to various processes of the cutting apparatus 1 are displayed. The operator stands in front of the housing 2 and directly touches the operation screen 51 with a fingertip, thereby setting the operating conditions of the cutting apparatus 1 and manually operating the cutting mechanism 3.

図2に示すように、切削機構3は、切削ブレード42を有するブレードユニット(加工手段)15と被加工物Wを保持したチャックテーブル(保持手段)13とを相対移動させて、被加工物Wを切削するように構成されている。被加工物Wの表面には格子状に分割予定ラインが形成されており、分割予定ラインに区画された各領域にはデバイスが配設されている。被加工物Wは、デバイスが配設された表面を下向きにして、リングフレーム81に張られた粘着テープ82に貼着されている。   As shown in FIG. 2, the cutting mechanism 3 moves the workpiece W by relatively moving a blade unit (processing means) 15 having a cutting blade 42 and a chuck table (holding means) 13 holding the workpiece W. Is configured to cut. Divided lines are formed in a lattice pattern on the surface of the workpiece W, and devices are arranged in the respective areas partitioned by the divided lines. The workpiece W is attached to an adhesive tape 82 stretched on the ring frame 81 with the surface on which the device is disposed facing downward.

なお、本実施の形態においては、被加工物Wとしてシリコンウェーハ、ガリウムヒソ等の半導体ウェーハを例に挙げて説明するが、この構成に限定されるものではない。半導体ウェーハの裏面に設けられるDAF(Die Attach Film)等の粘着部材、半導体製品のパッケージ、セラミック、ガラス、サファイア(Al2O3)系の無機材料基板、各種電気部品やミクロンオーダーの加工位置精度が要求される各種加工材料を被加工物Wとしてもよい。 In the present embodiment, a semiconductor wafer such as a silicon wafer or a gallium strain is described as an example of the workpiece W. However, the present invention is not limited to this configuration. Adhesive members such as DAF (Die Attach Film) provided on the backside of semiconductor wafers, semiconductor product packages, ceramics, glass, sapphire (Al 2 O 3 ) based inorganic material substrates, various electrical components and micron-order processing position accuracy It is good also considering the various processing materials as which the required is W.

切削機構3の基台11上にはチャックテーブル13をX軸方向に移動するチャックテーブル移動機構(駆動手段)12が設けられている。チャックテーブル移動機構12は、基台11上面に配置されたX軸方向に平行な一対のガイドレール21と、一対のガイドレール21にスライド可能に設置されたモータ駆動のX軸テーブル22とを有している。X軸テーブル22の上部には、チャックテーブル13が設けられている。また、X軸テーブル22の背面側には、図示しないナット部が形成され、このナット部にボールネジ23が螺合されている。ボールネジ23の一端部には、駆動モータ24が連結されている。駆動モータ24によりボールネジ23が回転駆動されることで、チャックテーブル13がガイドレール21に沿ってX軸方向に移動される。   A chuck table moving mechanism (driving means) 12 for moving the chuck table 13 in the X-axis direction is provided on the base 11 of the cutting mechanism 3. The chuck table moving mechanism 12 has a pair of guide rails 21 arranged on the upper surface of the base 11 and parallel to the X-axis direction, and a motor-driven X-axis table 22 slidably installed on the pair of guide rails 21. doing. A chuck table 13 is provided above the X-axis table 22. A nut portion (not shown) is formed on the back side of the X-axis table 22, and a ball screw 23 is screwed to the nut portion. A drive motor 24 is connected to one end of the ball screw 23. When the ball screw 23 is rotationally driven by the drive motor 24, the chuck table 13 is moved along the guide rail 21 in the X-axis direction.

チャックテーブル13は、X軸テーブル22の上面に固定されたZ軸回りに回転可能なθテーブル25と、θテーブル25の上部に設けられ、被加工物Wを吸着保持する保持部27とを有している。保持部27は、所定の厚みを有する円盤状であり、上面中央部分にはポーラスセラミック材により吸着面(保持面)28が形成されている。吸着面28は、負圧により被加工物Wを吸着し、θテーブル25の内部の配管を介して吸引源に接続されている。また、保持部27の周囲には、被加工物Wの周囲のリングフレーム81を挟持固定する4つのクランプ部29が設けられている。   The chuck table 13 includes a θ table 25 that is fixed to the upper surface of the X-axis table 22 and that can rotate around the Z-axis, and a holding unit 27 that is provided on the top of the θ table 25 and holds the workpiece W by suction. doing. The holding portion 27 has a disk shape having a predetermined thickness, and an adsorption surface (holding surface) 28 is formed of a porous ceramic material at the center portion of the upper surface. The suction surface 28 sucks the workpiece W by a negative pressure and is connected to a suction source via a pipe inside the θ table 25. Further, around the holding portion 27, four clamp portions 29 that clamp and fix the ring frame 81 around the workpiece W are provided.

切削装置1の基台11上には、ブレードユニット15をチャックテーブル13の上方でY軸方向及びZ軸方向に移動するブレードユニット移動機構(駆動手段)14が設けられている。ブレードユニット移動機構14は、基台11上面に配置されたY軸方向に平行な一対のガイドレール31と、一対のガイドレール31にスライド可能に設置されたモータ駆動のY軸テーブル32とを有している。Y軸テーブル32は上面視矩形状に形成されており、そのX軸方向における一端部には側壁部33が立設している。   On the base 11 of the cutting apparatus 1, a blade unit moving mechanism (driving means) 14 that moves the blade unit 15 in the Y-axis direction and the Z-axis direction above the chuck table 13 is provided. The blade unit moving mechanism 14 has a pair of guide rails 31 arranged on the upper surface of the base 11 and parallel to the Y-axis direction, and a motor-driven Y-axis table 32 slidably installed on the pair of guide rails 31. doing. The Y-axis table 32 is formed in a rectangular shape when viewed from above, and a side wall 33 is erected at one end in the X-axis direction.

また、ブレードユニット移動機構14は、側壁部33の壁面に設置されたZ軸方向に平行な一対のガイドレール34と、一対のガイドレール34にスライド可能に設置されたZ軸テーブル35とを有している。Z軸テーブル35には、チャックテーブル13に向ってY軸方向に延在するスピンドル41が片持で支持されている。また、Y軸テーブル32、Z軸テーブル35の背面側には、それぞれ図示しないナット部が形成され、これらナット部にボールネジ36(Z軸のボールネジは不図示)が螺合されている。各ボールネジ36の一端部には、それぞれ駆動モータ38、39が連結されている。駆動モータ38、39によりボールネジが回転駆動され、ブレードユニット15がガイドレール31、34に沿ってY軸方向及びZ軸方向に移動される。   The blade unit moving mechanism 14 includes a pair of guide rails 34 that are installed on the wall surface of the side wall portion 33 and parallel to the Z-axis direction, and a Z-axis table 35 that is slidably installed on the pair of guide rails 34. doing. A spindle 41 extending in the Y-axis direction toward the chuck table 13 is supported by the Z-axis table 35 in a cantilever manner. Further, nut portions (not shown) are formed on the back sides of the Y-axis table 32 and the Z-axis table 35, and a ball screw 36 (Z-axis ball screw not shown) is screwed to these nut portions. Drive motors 38 and 39 are connected to one end of each ball screw 36, respectively. The ball screw is rotationally driven by the drive motors 38 and 39, and the blade unit 15 is moved along the guide rails 31 and 34 in the Y-axis direction and the Z-axis direction.

ブレードユニット15は、Y軸回りに回転するスピンドル41の先端に設けられた円盤状の切削ブレード42と、切削部分に切削水を噴射する図示しないノズルとを有している。ブレードユニット15は、切削ブレード42を高速回転させ、複数のノズルから切削位置に切削水を噴射しつつ被加工物Wを切削加工する。また、ブレードユニット15には、アライメント用の撮像機構(撮像手段)43が設けられている。撮像機構43は、被加工物Wの表面を照らす光源(不図示)を有している。撮像機構43による撮像画像に含まれるチップパターン(アライメントターゲット)と予め登録された基準パターンとのマッチングにより、アライメント処理が行われる。   The blade unit 15 includes a disk-shaped cutting blade 42 provided at the tip of a spindle 41 that rotates about the Y axis, and a nozzle (not shown) that injects cutting water onto the cutting portion. The blade unit 15 rotates the cutting blade 42 at high speed, and cuts the workpiece W while spraying cutting water from a plurality of nozzles to a cutting position. The blade unit 15 is provided with an imaging mechanism (imaging means) 43 for alignment. The imaging mechanism 43 has a light source (not shown) that illuminates the surface of the workpiece W. An alignment process is performed by matching a chip pattern (alignment target) included in a captured image by the imaging mechanism 43 with a reference pattern registered in advance.

ハウジング2内には、切削装置1の各部を統括制御する制御部16が設けられている。制御部16には、表示モニタ4の操作画面51から各種指令が入力され、各種指令に基づいて切削装置1の各処理を制御している。制御部16は、切削装置1の各種処理を実行するプロセッサやメモリ等により構成されている。メモリは、用途に応じてROM(Read Only Memory)、RAM(Random Access Memory)等の一つ又は複数の記憶媒体で構成される。   In the housing 2, a control unit 16 that performs overall control of each unit of the cutting device 1 is provided. Various commands are input to the control unit 16 from the operation screen 51 of the display monitor 4, and each process of the cutting apparatus 1 is controlled based on the various commands. The control unit 16 is configured by a processor, a memory, and the like that execute various processes of the cutting device 1. The memory is composed of one or a plurality of storage media such as a ROM (Read Only Memory) and a RAM (Random Access Memory) depending on the application.

このように構成された切削装置1においては、Y軸テーブル32の移動によって切削ブレード42が被加工物Wの分割予定ラインに位置合わせされる。次に、Z軸テーブル35の移動によって回転された切削ブレード42の被加工物Wに対する切り込み深さが調整される。そして、高速回転された切削ブレード42に対してX軸テーブル22が相対移動されることで、被加工物Wが分割予定ラインに沿って切削されて個々のデバイスチップに分割される。   In the cutting apparatus 1 configured as described above, the cutting blade 42 is aligned with the planned division line of the workpiece W by the movement of the Y-axis table 32. Next, the cutting depth of the cutting blade 42 rotated by the movement of the Z-axis table 35 with respect to the workpiece W is adjusted. Then, the X-axis table 22 is relatively moved with respect to the cutting blade 42 rotated at a high speed, whereby the workpiece W is cut along the planned division lines and divided into individual device chips.

図3から図5を参照して、表示モニタ及び表示モニタの操作画面について説明する。図3は、本実施の形態に係る操作画面に表示されたカーフチェック画像を示す図である。図4は、本実施の形態に係る操作画面に表示された各種設定画像を示す図である。図5は、本実施の形態に係る表示モニタの斜視図である。なお、図4Aでは、設定項目間で選択枠(指定カーソル)が遷移する構成を示し、図4Bでは、設定項目にポインタ(指定カーソル)が位置付けられる構成を示している。   The display monitor and the operation screen of the display monitor will be described with reference to FIGS. FIG. 3 is a diagram showing a kerf check image displayed on the operation screen according to the present embodiment. FIG. 4 is a diagram showing various setting images displayed on the operation screen according to the present embodiment. FIG. 5 is a perspective view of the display monitor according to the present embodiment. 4A shows a configuration in which a selection frame (designated cursor) transitions between setting items, and FIG. 4B shows a configuration in which a pointer (designated cursor) is positioned at the setting item.

図3及び図4に示すように、操作画面51には設定項目等が表示される操作条件設定領域55と、オペレータからの操作入力を受け付ける操作領域56とが表示される。操作条件設定領域55には、切削装置1の各機能を操作する入力欄61や操作ボタン62等の各種設定項目の他、撮像機構43によって撮像される撮像画像63が表示される。操作領域56には、タブ選択によって切削機構3の軸操作モードと設定項目の選択モードとに切り替わる操作パッド画像64が表示される。操作パッド画像64は、操作画面51における入力デバイスとして機能する。   As shown in FIGS. 3 and 4, the operation screen 51 displays an operation condition setting area 55 for displaying setting items and the like, and an operation area 56 for receiving an operation input from the operator. In the operation condition setting area 55, a picked-up image 63 picked up by the image pickup mechanism 43 is displayed in addition to various setting items such as an input field 61 for operating each function of the cutting device 1 and an operation button 62. In the operation area 56, an operation pad image 64 that is switched between the axis operation mode of the cutting mechanism 3 and the setting item selection mode by tab selection is displayed. The operation pad image 64 functions as an input device on the operation screen 51.

図3に示す軸操作モードでは、操作パッド画像64によってチャックテーブル13及び撮像機構43(ブレードユニット15)の移動が手動操作される。例えば、操作パッド画像64上(操作領域56上)でオペレータが指先を上下にスライドさせることで、チャックテーブル移動機構12が駆動されてチャックテーブル13がX軸方向に移動される。また、操作パッド画像64上でオペレータが指先を左右にスライドさせることで、ブレードユニット移動機構14が駆動されて撮像機構43(ブレードユニット15)がY軸方向に移動される。   In the axis operation mode shown in FIG. 3, the movement of the chuck table 13 and the imaging mechanism 43 (blade unit 15) is manually operated by the operation pad image 64. For example, when the operator slides the fingertip up and down on the operation pad image 64 (on the operation area 56), the chuck table moving mechanism 12 is driven and the chuck table 13 is moved in the X-axis direction. Further, when the operator slides the fingertip left and right on the operation pad image 64, the blade unit moving mechanism 14 is driven and the imaging mechanism 43 (blade unit 15) is moved in the Y-axis direction.

チャックテーブル13及び撮像機構43の操作量は、オペレータの指先のスライド量に所定の倍率が乗算されることで算出される。なお、所定の倍率は、オペレータの指先のスライド速度に応じて可変させてもよい。例えば、オペレータが指先を素早くスライドさせたときは、所定の倍率を高くしてチャックテーブル13及び撮像機構43の操作量を大きくし、オペレータが指先をゆっくりスライドさせたときは、所定の倍率を低くしてチャックテーブル13及び撮像機構43の操作量を小さくする。   The operation amounts of the chuck table 13 and the imaging mechanism 43 are calculated by multiplying the slide amount of the operator's fingertip by a predetermined magnification. The predetermined magnification may be varied according to the slide speed of the operator's fingertip. For example, when the operator slides the fingertip quickly, the predetermined magnification is increased to increase the operation amount of the chuck table 13 and the imaging mechanism 43, and when the operator slides the fingertip slowly, the predetermined magnification is decreased. Thus, the operation amount of the chuck table 13 and the imaging mechanism 43 is reduced.

加工動作中にカーフチェックする場合には、オペレータが撮像画像(カーフチェック画像)63を確認しながら、操作パッド画像64上で指先を上下左右にスライドさせる。これにより、チャックテーブル13と撮像機構43とが相対移動され、撮像機構43の撮像範囲が被加工物W上の所望の位置に位置付けられる。そして、オペレータは、撮像機構43によって撮像された撮像画像63から被加工物Wにおけるカーフ(切削溝)の状態を確認する。   When the kerf check is performed during the processing operation, the operator slides the fingertip up, down, left and right on the operation pad image 64 while confirming the captured image (kerf check image) 63. Thereby, the chuck table 13 and the imaging mechanism 43 are relatively moved, and the imaging range of the imaging mechanism 43 is positioned at a desired position on the workpiece W. Then, the operator confirms the state of the kerf (cutting groove) in the workpiece W from the captured image 63 captured by the imaging mechanism 43.

図4Aに示す選択枠65を用いた選択モードでは、操作パッド画像64によって操作条件設定領域55上の入力欄61や操作ボタン62間で選択枠65が遷移される。例えば、操作パッド画像64上(操作領域56上)でオペレータが指先を上下にスライドさせることで、選択枠65が入力欄61や操作ボタン62間で上下方向に遷移される。また、操作パッド画像64上でオペレータが指先を左右にスライドさせることで、選択枠65が入力欄61や操作ボタン62間で左右方向に遷移される。   In the selection mode using the selection frame 65 shown in FIG. 4A, the selection frame 65 is shifted between the input field 61 and the operation buttons 62 on the operation condition setting area 55 by the operation pad image 64. For example, when the operator slides the fingertip up and down on the operation pad image 64 (on the operation area 56), the selection frame 65 is shifted in the vertical direction between the input field 61 and the operation buttons 62. Further, when the operator slides the fingertip left and right on the operation pad image 64, the selection frame 65 is shifted in the left-right direction between the input field 61 and the operation buttons 62.

選択枠65は、オペレータの指先のスライド量が所定の閾値を超えた場合に、隣の入力欄61や操作ボタン62に遷移される。なお、選択枠65は、操作条件設定領域55で入力欄61や操作ボタン62が選択される順序が予め決定されてもよい。この場合、操作パッド画像64上で指先をスライドさせずに、オペレータが指先をタップすることで選択枠65を遷移させることも可能である。また、選択枠65で入力欄61や操作ボタン62が選択される代わりに、背景色と文字色が反転表示されることで入力欄61や操作ボタン62が選択されてもよい。   The selection frame 65 is transitioned to the adjacent input field 61 or the operation button 62 when the slide amount of the fingertip of the operator exceeds a predetermined threshold. The selection frame 65 may be determined in advance in the order in which the input field 61 and the operation button 62 are selected in the operation condition setting area 55. In this case, the selection frame 65 can be changed by the operator tapping the fingertip without sliding the fingertip on the operation pad image 64. Further, instead of selecting the input field 61 and the operation button 62 in the selection frame 65, the input field 61 and the operation button 62 may be selected by highlighting the background color and the character color.

入力欄61上に選択枠65が位置付けられた状態で、操作パッド画像64が指先でダブルタップされると、操作条件設定領域55にキーボード画像(不図示)が表示される。オペレータは、キーボード画像をタップすることで入力欄61に設定値を入力する。また、操作ボタン62上に選択枠65が位置付けられた状態で、操作パッド画像64が指先でダブルタップされると、操作ボタン62が押される。   When the operation pad image 64 is double-tapped with the fingertip while the selection frame 65 is positioned on the input field 61, a keyboard image (not shown) is displayed in the operation condition setting area 55. The operator inputs a set value in the input field 61 by tapping the keyboard image. When the operation pad image 64 is double-tapped with a fingertip while the selection frame 65 is positioned on the operation button 62, the operation button 62 is pressed.

図4Bに示すポインタ66を用いた選択モードでは、操作パッド画像64によって操作条件設定領域55上でポインタ66が操作される。例えば、操作パッド画像64上(操作領域56上)でオペレータが指先を上下左右にスライドさせることで、オペレータの指先の動きに合わせて操作条件設定領域55でポインタ66が上下左右に操作される。この操作パッド画像64上の指先の動きにより、操作条件設定領域55内でポインタ66が自由に操作され、操作条件設定領域55に配置された入力欄61や操作ボタン62に位置付けられる。   In the selection mode using the pointer 66 shown in FIG. 4B, the pointer 66 is operated on the operation condition setting area 55 by the operation pad image 64. For example, when the operator slides the fingertip up, down, left and right on the operation pad image 64 (on the operation area 56), the pointer 66 is operated up, down, left, and right in the operation condition setting area 55 in accordance with the movement of the fingertip of the operator. By the movement of the fingertip on the operation pad image 64, the pointer 66 is freely operated in the operation condition setting area 55, and is positioned on the input field 61 or the operation button 62 arranged in the operation condition setting area 55.

ポインタ66の操作量は、オペレータの指先のスライド量に所定の倍率が乗算されることで算出される。なお、所定の倍率は、オペレータの指先のスライド速度に応じて可変させてもよい。例えば、オペレータが指先を素早くスライドさせたときは、所定の倍率を高くしてポインタ66の操作量を大きくし、オペレータが指先をゆっくりスライドさせたときは、所定の倍率を低くしてポインタ66の操作量を小さくする。   The operation amount of the pointer 66 is calculated by multiplying the slide amount of the operator's fingertip by a predetermined magnification. The predetermined magnification may be varied according to the slide speed of the operator's fingertip. For example, when the operator slides the fingertip quickly, the predetermined magnification is increased to increase the operation amount of the pointer 66, and when the operator slides the fingertip slowly, the predetermined magnification is decreased to decrease the pointer 66 Reduce the amount of operation.

入力欄61上にポインタ66が位置付けられた状態で、操作パッド画像64が指先でダブルタップされると、操作条件設定領域55にキーボード画像(不図示)が表示される。オペレータは、キーボード画像をタップすることで入力欄61に設定値を入力する。また、操作ボタン62上にポインタ66が位置付けられた状態で、操作パッド画像64が指先でダブルタップされると、操作ボタン62が押される。   When the operation pad image 64 is double-tapped with the fingertip while the pointer 66 is positioned on the input field 61, a keyboard image (not shown) is displayed in the operation condition setting area 55. The operator inputs a set value in the input field 61 by tapping the keyboard image. When the operation pad image 64 is double-tapped with a fingertip while the pointer 66 is positioned on the operation button 62, the operation button 62 is pressed.

なお、図3の軸操作モード及び図4Aの選択モードでは、操作画面51の右下端に操作パッド画像64が表示されているが、図4Bの選択モードのように、操作画面51の左下端に操作パッド画像64が表示されてもよい。逆に、図4Bの選択モードでは、図3の軸操作モード及び図4Aの選択モードのように、操作画面51の右下端に操作パッド画像64が表示されてもよい。この場合、操作パッド画像64のタブをドラッグすることで操作パッド画像64を右下端と左下端とで移動させて、オペレータの利き手に応じて操作パッド画像64の位置を調整できる。また、操作パッド画像64は、操作画面51から消去可能に構成されてもよい。   In the axis operation mode of FIG. 3 and the selection mode of FIG. 4A, the operation pad image 64 is displayed at the lower right corner of the operation screen 51, but at the lower left corner of the operation screen 51 as in the selection mode of FIG. 4B. An operation pad image 64 may be displayed. Conversely, in the selection mode of FIG. 4B, the operation pad image 64 may be displayed at the lower right corner of the operation screen 51 as in the axis operation mode of FIG. 3 and the selection mode of FIG. 4A. In this case, by dragging the tab of the operation pad image 64, the operation pad image 64 can be moved between the lower right end and the lower left end, and the position of the operation pad image 64 can be adjusted according to the dominant hand of the operator. The operation pad image 64 may be configured to be erasable from the operation screen 51.

また、本実施の形態では、操作パッド画像64を用いて操作画面51を操作する構成としたが、操作条件設定領域55においても操作画面51を操作可能に構成されてもよい。この場合、入力欄61や操作ボタン62を直接タップすることで、選択可能に構成されてもよい。   In the present embodiment, the operation screen 51 is operated using the operation pad image 64. However, the operation screen 51 may be configured to be operable in the operation condition setting area 55 as well. In this case, it may be configured to be selectable by directly tapping the input field 61 or the operation button 62.

ところで、タッチパネル式の操作画面51を用いて操作する場合には、腕を上げた状態を維持しながら入力作業を行う必要があり、オペレータの腕に負担がかかっていた。そこで、図5に示すように、本実施の形態に係る表示モニタ4には、オペレータが表示モニタ4を把持しつつ入力作業ができるように把持部53が設けられている。把持部53は、表示モニタ4の外枠部52の左右両側部において操作パッド画像64の表示位置に合わせて設けられ、側方から外枠部52を掴み易いように凹状に形成されている。   By the way, when performing an operation using the touch panel type operation screen 51, it is necessary to perform an input operation while keeping the arm raised, which places a burden on the operator's arm. Therefore, as shown in FIG. 5, the display monitor 4 according to the present embodiment is provided with a grip portion 53 so that an operator can perform an input operation while gripping the display monitor 4. The grip portion 53 is provided in accordance with the display position of the operation pad image 64 on both the left and right sides of the outer frame portion 52 of the display monitor 4, and is formed in a concave shape so that the outer frame portion 52 can be easily gripped from the side.

オペレータが把持部53を掴むと、操作パッド画像64の前面にオペレータの親指が位置付けられる。このため、オペレータは表示モニタ4を掴みながら、操作パッド画像64上で親指をスライドさせることができ、オペレータの腕の負担が軽減される。なお、表示モニタ4は、オペレータの指先の動きを検出できればよく、例えば、静電容量式や感圧式のタッチパネルを用いてもよい。   When the operator grips the grip portion 53, the operator's thumb is positioned on the front surface of the operation pad image 64. For this reason, the operator can slide the thumb on the operation pad image 64 while grasping the display monitor 4, and the burden on the operator's arm is reduced. The display monitor 4 only needs to be able to detect the movement of the fingertip of the operator, and for example, a capacitance type or pressure sensitive touch panel may be used.

図6及び図7を参照して、本実施の形態に係る操作処理について詳細に説明する。図6は、本実施の形態に係る操作処理の機能ブロック図の一例である。図7は、本実施の形態に係る操作処理状態の一例を示す図である。なお、以下の操作処理は一例を示すものであり、この構成に限定されない。本実施の形態に係る操作処理は、操作領域上の指先の動きに応じて、操作対象を操作可能であればよい。   With reference to FIGS. 6 and 7, the operation processing according to the present embodiment will be described in detail. FIG. 6 is an example of a functional block diagram of the operation processing according to the present embodiment. FIG. 7 is a diagram illustrating an example of an operation processing state according to the present embodiment. The following operation processing is an example and is not limited to this configuration. The operation process according to the present embodiment only needs to be able to operate the operation target according to the movement of the fingertip on the operation area.

図6に示すように、制御部16は、モード変更部71、接触座標検出部72、操作量変換部73、軸座標検出部74、選択座標検出部75、操作制御部76を有している。モード変更部71は、操作パッド画像64のタブ選択により、軸操作モードと選択モードとの間で操作パッド画像64の操作モードを変更する。操作パッド画像64は、軸操作モードではチャックテーブル13及び撮像機構43が操作可能となり、選択モードでは操作条件設定領域55内における選択枠65やポインタ66が操作可能となる。以下、軸操作モードと選択モードとに分けて、各機能ブロックについて説明する。   As illustrated in FIG. 6, the control unit 16 includes a mode change unit 71, a contact coordinate detection unit 72, an operation amount conversion unit 73, an axis coordinate detection unit 74, a selected coordinate detection unit 75, and an operation control unit 76. . The mode changing unit 71 changes the operation mode of the operation pad image 64 between the axis operation mode and the selection mode by tab selection of the operation pad image 64. The operation pad image 64 allows the chuck table 13 and the imaging mechanism 43 to be operated in the axis operation mode, and allows the selection frame 65 and the pointer 66 in the operation condition setting area 55 to be operated in the selection mode. Hereinafter, each functional block will be described separately for the axis operation mode and the selection mode.

まず、軸操作モードにおける各機能ブロックについて説明する。接触座標検出部72は、操作パッド画像64上におけるオペレータの指先の接触及び動きを検出する。図7Aに示すように、操作画面51には操作領域56の直交座標系が設定されており、接触座標検出部72は操作領域56の直交座標系における指先の接触座標に基づいて指先の動きを検出する。例えば、接触座標検出部72は、オペレータの指先の接触位置座標を所定の時間間隔で検出し、各時間(T0、T1、T2…)の接触位置座標(x、y)に基づいて指先の移動量及び移動方向を検出する。 First, each functional block in the axis operation mode will be described. The contact coordinate detection unit 72 detects contact and movement of the operator's fingertip on the operation pad image 64. As shown in FIG. 7A, the operation screen 51 is set with an orthogonal coordinate system of the operation area 56, and the contact coordinate detection unit 72 detects the movement of the fingertip based on the contact coordinates of the fingertip in the orthogonal coordinate system of the operation area 56. To detect. For example, the contact coordinate detection unit 72 detects the contact position coordinates of the fingertip of the operator at predetermined time intervals, and based on the contact position coordinates (x, y) at each time (T 0 , T 1 , T 2 ...). The amount and direction of movement of the fingertip are detected.

例えば、接触座標検出部72は、初期位置として時間T0の接触位置座標(x0、0)を検出する。次に、接触座標検出部72は、時間T1経過後の接触位置座標(x1、1)を検出し、この接触位置座標(x1、1)から時間T0の接触位置座標(x0、0)を差し引いた(Δx0-1、Δy0-1)によって時間T0からT1までの指先の移動量及び移動方向を検出する。接触座標検出部72は、移動量及び移動方向を操作量変換部73に出力する。 For example, the contact coordinate detection unit 72 detects the contact position coordinates (x 0, y 0 ) at time T 0 as the initial position. Then, the contact coordinate detection unit 72 detects a contact position coordinates of the time T 1 after (x 1, y 1), the contact point coordinates (x 1, y 1) from the contact position coordinates of the time T 0 ( The amount and direction of movement of the fingertip from time T 0 to T 1 is detected by subtracting (x 0, y 0 ) (Δx 0-1 , Δy 0-1 ). The contact coordinate detection unit 72 outputs the movement amount and the movement direction to the operation amount conversion unit 73.

さらに、接触座標検出部72は、時間T2経過後の接触位置座標(x2、2)を検出し、この接触位置座標(x2、2)から時間T1の接触位置座標(x1、1)を差し引いた(Δx1-2、Δy1-2)によって時間T1からT2までの指先の移動量及び移動方向を検出する。接触座標検出部72は、移動量及び移動方向を操作量変換部73に出力する。この接触座標検出部72による接触位置座標の検出は、操作パッド画像64から指先が離間するまで継続される。 Further, the contact coordinate detection unit 72 detects the contact position coordinates (x 2, y 2 ) after the lapse of time T 2, and the contact position coordinates (x 2 ) at time T 1 from the contact position coordinates (x 2, y 2 ). 1, y 1 ) is subtracted (Δx 1-2 , Δy 1-2 ) to detect the moving amount and moving direction of the fingertip from time T 1 to T 2 . The contact coordinate detection unit 72 outputs the movement amount and the movement direction to the operation amount conversion unit 73. The detection of the contact position coordinates by the contact coordinate detection unit 72 is continued until the fingertip is separated from the operation pad image 64.

また、接触座標検出部72は、軸操作モードでは指先の移動量のXY方向成分(Δx、Δy)のうち、いずれか大きな一方向成分だけを操作量変換部73に出力する。操作パッド画像64上で指先を上下に動かした場合にはX方向成分Δxだけが操作量変換部73に出力され、操作パッド画像64上で指先を左右に動かした場合にはY方向成分Δyだけが操作量変換部73に出力される。図7Aに示す例では、Y方向成分Δyだけが操作量変換部73に出力される。   Further, in the axis operation mode, the contact coordinate detection unit 72 outputs only one of the larger directional components of the movement amount of the fingertip (Δx, Δy) to the operation amount conversion unit 73. When the fingertip is moved up and down on the operation pad image 64, only the X direction component Δx is output to the operation amount conversion unit 73, and when the fingertip is moved left and right on the operation pad image 64, only the Y direction component Δy is output. Is output to the manipulated variable converter 73. In the example illustrated in FIG. 7A, only the Y direction component Δy is output to the operation amount conversion unit 73.

操作量変換部73は、接触座標検出部72から入力された指先の移動量を、チャックテーブル13及び撮像機構43(ブレードユニット15)の操作量に変換する。操作量変換部73は、軸操作モードでは指先の移動量の一方向成分Δx(Δy)を所定の倍率αで操作量αΔx(αΔy)に変換する。操作量αΔx(αΔy)は、チャックテーブル13及び撮像機構43のX軸方向及びY軸方向の操作量(駆動モータ24、38の回転量)として操作制御部76に出力される。   The operation amount conversion unit 73 converts the movement amount of the fingertip input from the contact coordinate detection unit 72 into an operation amount of the chuck table 13 and the imaging mechanism 43 (blade unit 15). In the axis operation mode, the operation amount conversion unit 73 converts the one-way component Δx (Δy) of the fingertip movement amount into an operation amount αΔx (αΔy) with a predetermined magnification α. The operation amount αΔx (αΔy) is output to the operation control unit 76 as the operation amounts (rotation amounts of the drive motors 24 and 38) of the chuck table 13 and the imaging mechanism 43 in the X-axis direction and the Y-axis direction.

なお、操作量変換部73における所定の倍率αは、各操作モードに応じて適宜変更される。また、所定の倍率αは、操作パッド画像64上の指先の移動速度に応じて変更されてもよい。   In addition, the predetermined magnification α in the operation amount conversion unit 73 is appropriately changed according to each operation mode. Further, the predetermined magnification α may be changed according to the moving speed of the fingertip on the operation pad image 64.

軸座標検出部74は、チャックテーブル13及び撮像機構43(ブレードユニット15)の現在位置を検出する。図7Aに示すように、チャックテーブル13及び撮像機構43の駆動範囲には直交座標系が設定されており、軸座標検出部74は、この直交座標系におけるチャックテーブル13及び撮像機構43の現在位置座標を検出する。軸座標検出部74は、接触座標検出部72の検出間隔に合わせて、各時間(T0、T1、T2…)の現在位置座標(X、Y)を検出する。 The axis coordinate detection unit 74 detects the current positions of the chuck table 13 and the imaging mechanism 43 (blade unit 15). As shown in FIG. 7A, an orthogonal coordinate system is set in the driving range of the chuck table 13 and the imaging mechanism 43, and the axis coordinate detection unit 74 has a current position of the chuck table 13 and the imaging mechanism 43 in this orthogonal coordinate system. Detect coordinates. The axis coordinate detection unit 74 detects the current position coordinates (X, Y) of each time (T 0 , T 1 , T 2 ...) In accordance with the detection interval of the contact coordinate detection unit 72.

図7Aに示す例では、軸座標検出部74は、初期位置として時間T0におけるチャックテーブル13及び撮像機構43の現在位置座標(X0、0)、(00)を検出する。次に、軸座標検出部74は、時間T1経過後には現在位置座標(X1、0)、(01)を検出し、さらに時間T2経過後には現在位置座標(X2、0)、(02)を検出する(図7Aでは撮像機構43の現在位置座標のみ図示)。軸座標検出部74は、チャックテーブル13及び撮像機構43の現在位置を検出する度に、各時間における現在位置を操作制御部76に出力する。 In the example shown in FIG. 7A, the axis coordinate detection unit 74 detects the current position coordinates (X 0, 0) and (0 , Y 0 ) of the chuck table 13 and the imaging mechanism 43 at time T 0 as the initial position. Next, the axis coordinate detection unit 74 detects the current position coordinates (X 1, 0), (0 , Y 1 ) after the time T 1 has elapsed, and further, after the time T 2 has elapsed, the current position coordinates (X 2, 0 , Y) . 0), (0 , Y 2 ) are detected (only the current position coordinates of the imaging mechanism 43 are shown in FIG. 7A). The axis coordinate detection unit 74 outputs the current position at each time to the operation control unit 76 every time the current position of the chuck table 13 and the imaging mechanism 43 is detected.

操作制御部76は、軸操作モードでは、操作量変換部73からの操作量に応じて、現在位置座標からチャックテーブル13及び撮像機構43を移動する。この場合、操作制御部76は、操作量変換部73からX方向成分Δxが入力された場合にはチャックテーブル13だけを操作し、操作量変換部73からY方向成分Δyが入力された場合には撮像機構43だけを操作する。   In the axis operation mode, the operation control unit 76 moves the chuck table 13 and the imaging mechanism 43 from the current position coordinates in accordance with the operation amount from the operation amount conversion unit 73. In this case, the operation control unit 76 operates only the chuck table 13 when the X-direction component Δx is input from the operation amount conversion unit 73, and operates when the Y-direction component Δy is input from the operation amount conversion unit 73. Operates only the imaging mechanism 43.

ここで、図7Aに示すように撮像機構43が操作される場合について説明する。時間T0では、軸座標検出部74から撮像機構43の初期位置として現在位置座標(0、Y0)が操作制御部76に入力される。次に、時間T1では、操作量変換部73から操作量のY軸方向成分αΔy0-1が操作制御部76に入力される。操作制御部76は、現在位置座標(0、Y0)に操作量変換部73からのY軸方向成分αΔy0-1を加えた座標(0、Y1)に撮像機構43を操作する。そして、軸座標検出部74から撮像機構43の現在位置座標(0、Y1)が操作制御部76に入力される。 Here, the case where the imaging mechanism 43 is operated as shown in FIG. 7A will be described. At time T 0 , the current position coordinates (0, Y 0 ) are input from the axis coordinate detection unit 74 to the operation control unit 76 as the initial position of the imaging mechanism 43. Next, at time T 1 , the Y-axis direction component αΔy 0-1 of the operation amount is input from the operation amount conversion unit 73 to the operation control unit 76. The operation control unit 76 operates the imaging mechanism 43 at coordinates (0, Y 1 ) obtained by adding the Y-axis direction component αΔy 0-1 from the operation amount conversion unit 73 to the current position coordinates (0, Y 0 ). Then, the current position coordinates (0, Y 1 ) of the imaging mechanism 43 are input from the axis coordinate detection unit 74 to the operation control unit 76.

次に、時間T2では、操作量変換部73から操作量のY軸方向成分αΔy1-2が操作制御部76に入力される。操作制御部76は、現在位置座標(0、Y1)に操作量変換部73からのY軸方向成分αΔy1-2を加えた座標(0、Y2)に撮像機構43を操作する。そして、軸座標検出部74から撮像機構43の現在位置座標(0、Y2)が操作制御部76に入力される。この処理が繰り返されることで、操作領域56における指先の左右方向の移動に合わせて撮像機構43がY軸方向に操作される。 Next, at time T 2 , the Y-axis direction component αΔy 1-2 of the operation amount is input from the operation amount conversion unit 73 to the operation control unit 76. The operation control unit 76 operates the imaging mechanism 43 at coordinates (0, Y 2 ) obtained by adding the Y-axis direction component αΔy 1-2 from the operation amount conversion unit 73 to the current position coordinates (0, Y 1 ). Then, the current position coordinates (0, Y 2 ) of the imaging mechanism 43 are input from the axis coordinate detection unit 74 to the operation control unit 76. By repeating this process, the imaging mechanism 43 is operated in the Y-axis direction in accordance with the movement of the fingertip in the left-right direction in the operation area 56.

次に、選択モードにおける各機能ブロックについて説明する。図7Bに示すように、接触座標検出部72は、軸操作モードと同様に操作パッド画像64上におけるオペレータの指先の動きを検出する。接触座標検出部72は、ポインタ66を用いた選択モードでは指先の移動量のXY方向成分(Δx、Δy)の両移動成分を操作量変換部73に出力する。また、接触座標検出部72は、選択枠65を用いた選択モードでは指先の移動量のXY方向成分(Δx、Δy)のうち、いずれか大きな一方向成分だけを操作量変換部73に出力する。   Next, each functional block in the selection mode will be described. As shown in FIG. 7B, the contact coordinate detection unit 72 detects the movement of the fingertip of the operator on the operation pad image 64 in the same manner as the axis operation mode. In the selection mode using the pointer 66, the contact coordinate detection unit 72 outputs both movement components of the XY direction components (Δx, Δy) of the movement amount of the fingertip to the operation amount conversion unit 73. Further, in the selection mode using the selection frame 65, the contact coordinate detection unit 72 outputs only one of the larger one-direction components of the XY direction components (Δx, Δy) of the movement amount of the fingertip to the operation amount conversion unit 73. .

操作量変換部73は、接触座標検出部72から入力された指先の移動量を、ポインタ66や選択枠65の操作量に変換する。操作量変換部73は、ポインタ66を用いた選択モードでは指先の移動量の両方向成分(Δx、Δy)を所定の倍率αで操作量(αΔx、αΔy)に変換する。操作量(αΔx、αΔy)は、ポインタ66のX軸方向及びY軸方向の操作量として操作制御部76に出力される。また、操作量変換部73は、選択枠65を用いた選択モードでは指先の移動量の一方向成分Δx(Δy)を所定の倍率αで操作量αΔx(αΔy)に変換する。操作量αΔx(αΔy)は、選択枠65のX軸方向及びY軸方向の操作量として操作制御部76に出力される。   The operation amount conversion unit 73 converts the movement amount of the fingertip input from the contact coordinate detection unit 72 into the operation amount of the pointer 66 or the selection frame 65. In the selection mode using the pointer 66, the operation amount conversion unit 73 converts the bidirectional components (Δx, Δy) of the movement amount of the fingertip into operation amounts (αΔx, αΔy) with a predetermined magnification α. The operation amounts (αΔx, αΔy) are output to the operation control unit 76 as operation amounts of the pointer 66 in the X-axis direction and the Y-axis direction. Further, in the selection mode using the selection frame 65, the operation amount conversion unit 73 converts the one-way component Δx (Δy) of the fingertip movement amount into the operation amount αΔx (αΔy) with a predetermined magnification α. The operation amount αΔx (αΔy) is output to the operation control unit 76 as an operation amount of the selection frame 65 in the X-axis direction and the Y-axis direction.

なお、操作量変換部73における所定の倍率αは、各操作モードに応じて適宜変更される。また、所定の倍率αは、操作パッド画像64上の指先の移動速度に応じて変更されてもよい。   In addition, the predetermined magnification α in the operation amount conversion unit 73 is appropriately changed according to each operation mode. Further, the predetermined magnification α may be changed according to the moving speed of the fingertip on the operation pad image 64.

選択座標検出部75は、操作条件設定領域55におけるポインタ66や選択枠65の現在位置を検出する。図7Bに示すように、操作画面51には操作条件設定領域55の直交座標系が設定されており、選択座標検出部75は、操作条件設定領域55の直交座標系におけるポインタ66や選択枠65の現在位置座標を検出する。選択座標検出部75は、接触座標検出部72の検出間隔に合わせて、各時間(T0、T1、T2…)の現在位置座標(X、Y)を検出する。 The selected coordinate detection unit 75 detects the current position of the pointer 66 and the selection frame 65 in the operation condition setting area 55. As shown in FIG. 7B, the operation screen 51 is set with the orthogonal coordinate system of the operation condition setting area 55, and the selected coordinate detection unit 75 has a pointer 66 and a selection frame 65 in the orthogonal coordinate system of the operation condition setting area 55. Detect the current position coordinates of. The selected coordinate detection unit 75 detects the current position coordinates (X, Y) of each time (T 0 , T 1 , T 2 ...) In accordance with the detection interval of the contact coordinate detection unit 72.

ポインタ66が操作される図7Bに示す例では、選択座標検出部75は、初期位置として時間T0におけるポインタ66の現在位置座標(X0、0)を検出する。次に、選択座標検出部75は、時間T1経過後には現在位置座標(X1、1)を検出し、さらに時間T2経過後には現在位置座標(X2、2)を検出する。選択座標検出部75は、ポインタ66や選択枠65の現在位置を検出する度に、各時間における現在位置を操作制御部76に出力する。 In the example shown in FIG. 7B in which the pointer 66 is operated, the selected coordinate detection unit 75 detects the current position coordinates (X 0, Y 0 ) of the pointer 66 at time T 0 as the initial position. Next, the selected coordinate detection unit 75 detects the current position coordinates (X 1, Y 1 ) after the elapse of time T 1 and further detects the current position coordinates (X 2, Y 2 ) after the elapse of time T 2. . The selected coordinate detection unit 75 outputs the current position at each time to the operation control unit 76 every time the current position of the pointer 66 or the selection frame 65 is detected.

操作制御部76は、ポインタ66を用いた選択モードでは、操作量変換部73からの操作量に応じて、操作条件設定領域55の現在位置座標からポインタ66を移動する。また、操作制御部76は、選択枠65を用いた選択モードでは、選択枠65の現在位置座標に操作量変換部73から操作量を加えて、所定の閾値を超えた場合に隣の入力欄61や操作ボタン62に選択枠65を遷移する。   In the selection mode using the pointer 66, the operation control unit 76 moves the pointer 66 from the current position coordinates in the operation condition setting area 55 according to the operation amount from the operation amount conversion unit 73. Further, in the selection mode using the selection frame 65, the operation control unit 76 adds the operation amount from the operation amount conversion unit 73 to the current position coordinates of the selection frame 65, and when the predetermined threshold value is exceeded, an input field next to the operation control unit 76 is selected. The selection frame 65 is changed to 61 or the operation button 62.

ここで、図7Bに示すようにポインタ66が操作される場合について説明する。時間T0では、選択座標検出部75からポインタ66の初期位置として現在座標(X0、Y0)が操作制御部76に入力される。次に、時間T1では、操作量変換部73から操作量(αΔx0-1、αΔy0-1)が操作制御部76に入力される。操作制御部76は、現在位置座標(X0、Y0)に操作量変換部73からの操作量(αΔx0-1、αΔy0-1)を加えた座標(X1、Y1)にポインタ66を操作する。そして、選択座標検出部75からポインタ66の現在位置座標(X1、Y1)が操作制御部76に入力される。 Here, a case where the pointer 66 is operated as shown in FIG. 7B will be described. At time T 0 , the current coordinates (X 0 , Y 0 ) are input from the selected coordinate detector 75 to the operation controller 76 as the initial position of the pointer 66. Next, at time T 1 , the operation amount (αΔx 0-1 , αΔy 0-1 ) is input from the operation amount conversion unit 73 to the operation control unit 76. The operation control unit 76 pointers the coordinates (X 1 , Y 1 ) obtained by adding the operation amounts (αΔx 0-1 , αΔy 0-1 ) from the operation amount conversion unit 73 to the current position coordinates (X 0 , Y 0 ). 66 is operated. Then, the current position coordinates (X 1 , Y 1 ) of the pointer 66 are input from the selected coordinate detection unit 75 to the operation control unit 76.

次に、時間T2では、操作量変換部73から操作量(αΔx1-2、αΔy1-2)が操作制御部76に入力される。操作制御部76は、現在位置座標(X1、Y1)に操作量変換部73からの操作量(αΔx1-2、αΔy1-2)を加えた座標(X2、Y2)にポインタ66を操作する。そして、選択座標検出部75からポインタ66の現在位置座標(X2、Y2)が操作制御部76に入力される。この処理が繰り返されることで、操作領域56における指先の動きに合わせてポインタ66が操作条件設定領域55内で操作される。選択枠65についても、同様な流れで操作条件設定領域55内において操作される。 Next, at time T 2 , the operation amount (αΔx 1-2 , αΔy 1-2 ) is input from the operation amount conversion unit 73 to the operation control unit 76. The operation control unit 76 pointers the coordinates (X 2 , Y 2 ) obtained by adding the operation amounts (αΔx 1-2 , αΔy 1-2 ) from the operation amount conversion unit 73 to the current position coordinates (X 1 , Y 1 ). 66 is operated. Then, the current position coordinates (X 2 , Y 2 ) of the pointer 66 are input from the selected coordinate detection unit 75 to the operation control unit 76. By repeating this process, the pointer 66 is operated in the operation condition setting area 55 in accordance with the movement of the fingertip in the operation area 56. The selection frame 65 is also operated in the operation condition setting area 55 in the same flow.

図8を参照して、本実施の形態に係る操作処理の流れについて説明する。図8は、本実施の形態に係る操作処理のフローチャートの一例である。なお、以下のフローチャートは、操作処理の一例を示すものであるため、本実施の形態に係る操作処理は、このフローチャートに限定されない。   With reference to FIG. 8, the flow of the operation processing according to the present embodiment will be described. FIG. 8 is an example of a flowchart of operation processing according to the present embodiment. In addition, since the following flowchart shows an example of an operation process, the operation process which concerns on this Embodiment is not limited to this flowchart.

先ず、操作パッド画像64のタブ選択によって、軸操作モード及び選択モードのいずれかが検出される(ステップS01)。以下、ステップS01にて軸操作モードが検出された一連の処理について説明する。軸操作モードでは、操作パッド画像64で指先の接触が検出されたか否かが判定される(ステップS02)。操作パッド画像64で指先の接触が検出されない場合(ステップS02でNo)、操作パッド画像64で指先の接触が検出されるまでステップS01からステップS02までの処理が繰り返される。操作パッド画像64で指先の接触が検出される場合(ステップS02でYes)、接触時間Tiに初期時間T0がセットされ、接触位置座標の検出が開始される(ステップS03)。 First, either the axis operation mode or the selection mode is detected by tab selection of the operation pad image 64 (step S01). Hereinafter, a series of processes in which the axis operation mode is detected in step S01 will be described. In the axis operation mode, it is determined whether or not a fingertip contact is detected in the operation pad image 64 (step S02). When the fingertip contact is not detected in the operation pad image 64 (No in step S02), the processing from step S01 to step S02 is repeated until the fingertip contact is detected in the operation pad image 64. Operation when the contact of the fingertip pad image 64 is detected (Yes in step S02), an initial time T 0 is set to the contact time T i, the detection of the contact position coordinate is started (step S03).

次に、Ti時の指先の接触位置座標(xi、yi)が検出される(ステップS04)。ここでは、接触時間Tiに初期時間T0がセットされているため、初期位置として指先の接触位置座標(x0、y0)が検出される。次に、接触時間Tiが初期時間T0を超えたか否かが判定される(ステップS05)。接触時間Tiが初期時間T0を超える場合(ステップS05でYes)、ステップS09以降のチャックテーブル13等の移動処理が実施される。接触時間Tiが初期時間T0を超えない場合(ステップS05でNo)、すなわち接触時間Tiに初期時間T0がセットされている場合、T0時のチャックテーブル13及び撮像機構43の初期位置座標(X0、0)、(0、Y0)が検出される(ステップS06)。 Next, the contact position coordinates (x i , y i ) of the fingertip at T i are detected (step S04). Here, since the initial time T 0 is set as the contact time T i , the contact position coordinates (x 0 , y 0 ) of the fingertip are detected as the initial position. Next, it is determined whether or not the contact time Ti has exceeded the initial time T 0 (step S05). When the contact time Ti exceeds the initial time T 0 (Yes in step S05), the moving process of the chuck table 13 and the like after step S09 is performed. When the contact time Ti does not exceed the initial time T 0 (No in step S05), that is, when the initial time T 0 is set as the contact time T i , the initial positions of the chuck table 13 and the imaging mechanism 43 at the time T 0. The coordinates (X 0 , 0), (0, Y 0 ) are detected (step S06).

次に、操作パッド画像64で指先の離間が検出されたか否かが判定される(ステップS07)。操作パッド画像64で指先の離間が検出される場合(ステップS07でYes)、操作処理が終了する。操作パッド画像64で指先の離間が検出されない場合(ステップS07でNo)、接触時間Tiに時間Ti+1がセットされる(ステップS08)。ここでは、接触時間Tiに初期時間T0がセットされているため、接触時間Tiに時間T1がセットされ、ステップS04に移行する。 Next, it is determined whether or not the fingertip separation is detected in the operation pad image 64 (step S07). If separation of the fingertip is detected from the operation pad image 64 (Yes in step S07), the operation process ends. When the fingertip separation is not detected in the operation pad image 64 (No in step S07), the time T i + 1 is set as the contact time T i (step S08). Here, since the initial time T 0 to the contact time T i is set, the time T 1 is set to the contact time T i, the process proceeds to step S04.

次に、Ti時の指先の接触位置座標(xi、yi)、すなわちT1時の指先の接触位置座標(x1、y1)が検出される(ステップS04)。次に、接触時間T1が初期時間T0を超えると判定され(ステップS05でYes)、Ti時(Ti>T0)の指先の移動量が検出される(ステップS09)。Ti時の指先の接触位置座標(xi、yi)からTi-1時の指先の接触位置座標(xi-1、yi-1)が差し引かれることで、移動量(Δx、Δy)が検出される。ここでは、T1時の指先の接触位置座標(x1、y1)からT0時の指先の接触位置座標(x0、y0)が差し引かれることで移動量(Δx0-1、Δy0-1)が検出される。 Then, T i when fingertips touch position coordinates (x i, y i), i.e. T 1 o'clock fingertip touch position coordinates (x 1, y 1) is detected (step S04). Then, the amount of movement of the finger contact time T 1 is determined to exceed the initial time T 0 (step S05 in Yes), the time T i (T i> T 0 ) is detected (step S09). T i time of the fingertip of the contact position coordinates (x i, y i) by a T i-1 at the fingertip of the contact position coordinates (x i-1, y i -1) is subtracted, the movement amount ([Delta] x, Δy) is detected. Here, the movement amount by T 1 o'clock fingertip touch position coordinates (x 1, y 1) from T 0 o'clock fingertip contact point coordinates (x 0, y 0) is subtracted ([Delta] x 0-1, [Delta] y 0-1 ) is detected.

次に、Ti時(Ti>T0)の指先の移動量が、所定の倍率αで操作量(αΔx、αΔy)に変換される(ステップS10)。ここでは、指先の移動量のXY方向成分(Δx0-1、Δy0-1)のうち、いずれか大きな一方向成分Δx0-1(Δy0-1)だけが操作量αΔx0-1(αΔy0-1)に変換される。次に、チャックテーブル13や撮像機構43が、(Xi-1、Yi-1)からX軸方向にαΔxだけ操作され、現在位置座標(Xi-1、Yi-1)からY軸方向にαΔyだけ操作される(ステップS11)。ここでは、時間T0から時間T1までの指先の移動に応じて、チャックテーブル13が初期位置座標(X0、0)からαΔx0-1だけ操作され、撮像機構43が初期位置座標(0、Y0)からαΔy0-1だけ操作される。 Next, the movement amount of the fingertip at the time of T i (T i > T 0 ) is converted into an operation amount (αΔx, αΔy) with a predetermined magnification α (step S10). Here, only the larger one-direction component Δx 0-1 (Δy 0-1 ) among the XY direction components (Δx 0-1 , Δy 0-1 ) of the movement amount of the fingertip is the manipulated variable αΔx 0-1 ( αΔy 0-1 ). Then, the chuck table 13 and the imaging mechanism 43, (X i-1, Y i-1) αΔx is only operated in the X-axis direction from, Y-axis from the current position coordinates (X i-1, Y i -1) It is operated in the direction by αΔy (step S11). Here, according to the movement of the fingertip from time T 0 to time T 1 , the chuck table 13 is operated by αΔx 0-1 from the initial position coordinates (X 0 , 0), and the imaging mechanism 43 is moved to the initial position coordinates (0 , Y 0 ) is operated by αΔy 0-1 .

次に、チャックテーブル13や撮像機構43の操作後の現在位置座標(Xi、Yi)が検出される(ステップS12)。ここでは、接触時間Tiに初期時間T1がセットされているため、初期時間T1時のチャックテーブル13及び撮像機構43の初期位置座標(X1、0)、(0、Y1)が検出される。そして、操作パッド画像64から指先の離間が検出されるまで、ステップS07からステップS12の処理が繰り返される。このように、操作パッド画像64上の指先の接触位置座標が所定の時間間隔で検出され、各時間の指先の移動量に追従してチャックテーブル13及び撮像機構43が操作される。 Next, the current position coordinates (X i , Y i ) after operation of the chuck table 13 and the imaging mechanism 43 are detected (step S12). Here, since the initial time to the contact time T i T 1 is set, the initial position coordinates of the chuck table 13 and the imaging mechanism 43 o'clock initial time T 1 (X 1, 0) , is (0, Y 1) Detected. Then, the processing from step S07 to step S12 is repeated until the separation of the fingertip is detected from the operation pad image 64. In this way, the contact position coordinates of the fingertip on the operation pad image 64 are detected at predetermined time intervals, and the chuck table 13 and the imaging mechanism 43 are operated following the movement amount of the fingertip at each time.

続いて、ステップS01にて選択モードが検出された一連の処理について説明する。ここでは、ポインタ66を用いた選択モードについて説明する。選択モードでは、操作パッド画像64で指先の接触が検出されたか否かが判定される(ステップS02)。操作パッド画像64で指先の接触が検出されない場合(ステップS02でNo)、操作パッド画像64で指先の接触が検出されるまでステップS01からステップS02までの処理が繰り返される。操作パッド画像64で指先の接触が検出される場合(ステップS02でYes)、接触時間Tiに初期時間T0がセットされ、接触位置座標の検出が開始される(ステップS03)。 Subsequently, a series of processes in which the selection mode is detected in step S01 will be described. Here, the selection mode using the pointer 66 will be described. In the selection mode, it is determined whether or not a fingertip contact is detected in the operation pad image 64 (step S02). When the fingertip contact is not detected in the operation pad image 64 (No in step S02), the processing from step S01 to step S02 is repeated until the fingertip contact is detected in the operation pad image 64. Operation when the contact of the fingertip pad image 64 is detected (Yes in step S02), an initial time T 0 is set to the contact time T i, the detection of the contact position coordinate is started (step S03).

次に、Ti時の指先の接触位置座標(xi、yi)が検出される(ステップS04)。ここでは、接触時間Tiに初期時間T0がセットされているため、初期位置として指先の接触位置座標(x0、y0)が検出される。次に、接触時間Tiが初期時間T0を超えたか否かが判定される(ステップS05)。接触時間Tiが初期時間T0を超える場合(ステップS05でYes)、ステップS09以降のポインタ66の操作処理が実施される。接触時間Tiが初期時間T0を超えない場合(ステップS05でNo)、すなわち接触時間Tiに初期時間T0がセットされている場合、T0時のポインタ66の初期の現在位置座標(X0、Y0)が検出される(ステップS06)。 Next, the contact position coordinates (x i , y i ) of the fingertip at T i are detected (step S04). Here, since the initial time T 0 is set as the contact time T i , the contact position coordinates (x 0 , y 0 ) of the fingertip are detected as the initial position. Next, it is determined whether or not the contact time Ti has exceeded the initial time T 0 (step S05). When the contact time Ti exceeds the initial time T 0 (Yes in step S05), the operation process of the pointer 66 after step S09 is performed. If when the contact time Ti does not exceed an initial time T 0 (No in step S05), i.e. the initial time T 0 to the contact time T i is set, the initial current position coordinates of the T 0 o'clock pointer 66 (X 0 , Y 0 ) is detected (step S06).

次に、操作パッド画像64で指先の離間が検出されたか否かが判定される(ステップS07)。操作パッド画像64で指先の離間が検出される場合(ステップS07でYes)、操作処理が終了する。操作パッド画像64で指先の離間が検出されない場合(ステップS07でNo)、接触時間Tiに時間Ti+1がセットされる(ステップS08)。ここでは、接触時間Tiに初期時間T0がセットされているため、接触時間Tiに時間T1がセットされ、ステップS04に移行する。 Next, it is determined whether or not the fingertip separation is detected in the operation pad image 64 (step S07). If separation of the fingertip is detected from the operation pad image 64 (Yes in step S07), the operation process ends. When the fingertip separation is not detected in the operation pad image 64 (No in step S07), the time T i + 1 is set as the contact time T i (step S08). Here, since the initial time T 0 to the contact time T i is set, the time T 1 is set to the contact time T i, the process proceeds to step S04.

次に、Ti時の指先の接触位置座標(xi、yi)、すなわちT1時の指先の接触位置座標(x1、y1)が検出される(ステップS04)。次に、接触時間T1が初期時間T0を超えると判定され(ステップS05でYes)、Ti時(Ti>T0)の指先の移動量が検出される(ステップS09)。Ti時の指先の接触位置座標(xi、yi)からTi-1時の指先の接触位置座標(xi-1、yi-1)が差し引かれることで、移動量(Δx、Δy)が検出される。ここでは、T1時の指先の接触位置座標(x1、y1)からT0時の指先の接触位置座標(x0、y0)が差し引かれることで移動量(Δx0-1、Δy0-1)が検出される。 Then, T i when fingertips touch position coordinates (x i, y i), i.e. T 1 o'clock fingertip touch position coordinates (x 1, y 1) is detected (step S04). Then, the amount of movement of the finger contact time T 1 is determined to exceed the initial time T 0 (step S05 in Yes), the time T i (T i> T 0 ) is detected (step S09). T i time of the fingertip of the contact position coordinates (x i, y i) by a T i-1 at the fingertip of the contact position coordinates (x i-1, y i -1) is subtracted, the movement amount ([Delta] x, Δy) is detected. Here, the movement amount by T 1 o'clock fingertip touch position coordinates (x 1, y 1) from T 0 o'clock fingertip contact point coordinates (x 0, y 0) is subtracted ([Delta] x 0-1, [Delta] y 0-1 ) is detected.

次に、Ti時(Ti>T0)の指先の移動量が、所定の倍率αで操作量(αΔx、αΔy)に変換される(ステップS10)。ここでは、指先の移動量の両方向成分(Δx0-1、Δy0-1)が操作量(αΔx0-1、αΔy0-1)に変換される。次に、ポインタ66が、(Xi-1、Yi-1)からX軸方向にαΔxだけ操作され、現在位置座標(Xi-1、Yi-1)からY軸方向にαΔyだけ操作される(ステップS11)。ここでは、時間T0から時間T1までの指先の移動に応じて、ポインタ66が初期位置座標(X0、Y0)から(αΔx0-1、αΔx0-1)だけ操作される。 Next, the movement amount of the fingertip at the time of T i (T i > T 0 ) is converted into an operation amount (αΔx, αΔy) with a predetermined magnification α (step S10). Here, the bi-directional components (Δx 0-1 , Δy 0-1 ) of the movement amount of the fingertip are converted into the manipulated variables (αΔx 0-1 , αΔy 0-1 ). Next, the pointer 66 is, (X i-1, Y i-1) X -axis direction is only operated αΔx from only αΔy the Y-axis direction from the current position coordinates (X i-1, Y i -1) Operation (Step S11). Here, the pointer 66 is operated by (αΔx 0-1 , αΔx 0-1 ) from the initial position coordinates (X 0 , Y 0 ) according to the movement of the fingertip from time T 0 to time T 1 .

次に、ポインタ66の操作後の現在位置座標(Xi、Yi)が検出される(ステップS12)。ここでは、接触時間Tiに初期時間T1がセットされているため、初期時間T1時のポインタ66の初期位置座標(X1、Y1)が検出される。そして、操作パッド画像64から指先の離間が検出されるまで、ステップS07からステップS12の処理が繰り返される。このように、操作パッド画像64上の指先の接触位置座標が所定の時間間隔で検出され、各時間の指先の移動量に追従してポインタ66が操作される。 Next, the current position coordinates (X i , Y i ) after operating the pointer 66 are detected (step S12). Here, since the initial time T 1 is set as the contact time T i , the initial position coordinates (X 1 , Y 1 ) of the pointer 66 at the initial time T 1 are detected. Then, the processing from step S07 to step S12 is repeated until the separation of the fingertip is detected from the operation pad image 64. In this way, the contact position coordinates of the fingertip on the operation pad image 64 are detected at predetermined time intervals, and the pointer 66 is operated following the movement amount of the fingertip at each time.

なお、選択枠65を用いた選択モードでは、ステップS01からステップS08までの各処理については、ポインタ66を用いた選択モードと同様である。この選択モードでは、ステップS10にて指先の移動量のXY方向成分(Δx、Δy)のうち、いずれか大きな一方向成分Δx(Δy)だけが操作量αΔx(αΔy)に変換される。そして、ステップS11にて選択枠65が初期位置座標(X0、Y0)からいずれか一方の操作量αΔx(αΔx)だけ操作される。この場合、選択枠65を用いた選択モードでは、初期位置座標(X0、Y0)からの操作量が閾値を超えた場合に、選択枠65が現在の設定項目から隣の設定項目に遷移される。 In the selection mode using the selection frame 65, each processing from step S01 to step S08 is the same as the selection mode using the pointer 66. In this selection mode, only the larger one-direction component Δx (Δy) among the XY direction components (Δx, Δy) of the movement amount of the fingertip is converted into the operation amount αΔx (αΔy) in step S10. In step S11, the selection frame 65 is operated by one of the operation amounts αΔx (αΔx) from the initial position coordinates (X 0 , Y 0 ). In this case, in the selection mode using the selection frame 65, when the operation amount from the initial position coordinates (X 0 , Y 0 ) exceeds the threshold, the selection frame 65 transitions from the current setting item to the adjacent setting item. Is done.

以上のように、本実施の形態に係る切削装置1によれば、操作画面51の右下端又は左下端に操作パッド画像64が表示されるため、操作画面51上の一部の領域だけで切削装置1の各種操作が可能となり、操作画面51の画面サイズに関わらずオペレータが快適に操作できる。また、オペレータの利き手に応じて操作パッド画像64を選択することができ、操作が不要な場合には操作画面51上から操作領域を消すこともできる。   As described above, according to the cutting device 1 according to the present embodiment, the operation pad image 64 is displayed at the lower right end or the lower left end of the operation screen 51, so that only a part of the region on the operation screen 51 is cut. Various operations of the apparatus 1 are possible, and the operator can comfortably operate regardless of the screen size of the operation screen 51. Further, the operation pad image 64 can be selected according to the dominant hand of the operator, and the operation area can be erased from the operation screen 51 when the operation is unnecessary.

なお、本発明は上記実施の形態に限定されず、種々変更して実施することが可能である。上記実施の形態において、添付図面に図示されている大きさや形状などについては、これに限定されず、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。   In addition, this invention is not limited to the said embodiment, It can change and implement variously. In the above-described embodiment, the size, shape, and the like illustrated in the accompanying drawings are not limited to this, and can be appropriately changed within a range in which the effect of the present invention is exhibited. In addition, various modifications can be made without departing from the scope of the object of the present invention.

例えば、本実施の形態に係る表示モニタ4の操作画面51には、操作パッド画像64によりオペレータの指先を検出する構成としたが、この構成に限定されない。操作画面51には、オペレータの指先を検出可能な操作領域56が表示されていればよい。   For example, the operation screen 51 of the display monitor 4 according to the present embodiment is configured to detect the operator's fingertip from the operation pad image 64, but is not limited to this configuration. The operation screen 51 only needs to display an operation area 56 capable of detecting the fingertip of the operator.

また、本実施の形態においては、操作パッド画像64のタブ選択によって軸操作モードと選択モードとが切替可能に構成されたが、モード切替ができない構成としてもよい。この場合、操作画面51には、軸操作モード専用の操作パッド画像64だけが表示されてもよいし、選択モード専用の操作パッド画像64だけが表示されてもよい。   In the present embodiment, the axis operation mode and the selection mode can be switched by tab selection of the operation pad image 64. However, the mode may not be switched. In this case, only the operation pad image 64 dedicated to the axis operation mode may be displayed on the operation screen 51, or only the operation pad image 64 dedicated to the selection mode may be displayed.

また、本実施の形態においては、ブレードユニット15に撮像機構43が設けられ、ブレードユニット15と共に撮像機構43が移動される構成としたが、この構成に限定されない。ブレードユニット15と撮像機構43とが別々の移動機構によって移動されてもよい。   In the present embodiment, the imaging mechanism 43 is provided in the blade unit 15 and the imaging mechanism 43 is moved together with the blade unit 15. However, the present invention is not limited to this configuration. The blade unit 15 and the imaging mechanism 43 may be moved by separate moving mechanisms.

また、本実施の形態においては、指定カーソルとして選択枠65及びポインタ66を例示したが、この構成に限定されない。指定カーソルは、メニュー選択用のインタフェースとして機能すればよく、例えば選択された設定項目を反転表示させる構成でもよい。   Moreover, in this Embodiment, although the selection frame 65 and the pointer 66 were illustrated as a designation | designated cursor, it is not limited to this structure. The designation cursor only needs to function as an interface for menu selection. For example, the configuration may be such that the selected setting item is highlighted.

また、本実施の形態においては、把持部53は表示モニタ4の外枠部52に凹状に形成されたが、この構成に限定されない。把持部53は、オペレータが掴みながら操作画面51を操作できる形状であれば、どのような形状に形成されてもよい。   Further, in the present embodiment, the grip portion 53 is formed in the outer frame portion 52 of the display monitor 4 in a concave shape, but is not limited to this configuration. The grip 53 may be formed in any shape as long as the operator can operate the operation screen 51 while gripping.

以上説明したように、本発明は、操作画面の右下端又は左下端の一部に操作領域が表示されることで、操作画面の画面サイズに関わらず、オペレータが快適に操作できるという効果を有し、特に、大型の操作画面を備える加工装置に有用である。   As described above, the present invention has an effect that the operator can operate comfortably regardless of the screen size of the operation screen by displaying the operation area at a part of the lower right end or the lower left end of the operation screen. In particular, it is useful for a processing apparatus having a large operation screen.

1 切削装置(加工装置)
2 ハウジング
3 切削機構
4 表示モニタ
12 チャックテーブル移動機構(駆動手段)
13 チャックテーブル(保持手段)
14 ブレードユニット移動機構(駆動手段)
15 ブレードユニット(加工手段)
16 制御部
28 吸着面(保持面)
43 撮像機構(撮像手段)
51 操作画面
53 把持部
55 操作条件設定領域
56 操作領域
61 入力欄
62 操作ボタン
63 撮像画像
64 操作パッド画像
65 選択枠(指定カーソル)
66 ポインタ(指定カーソル)
71 モード変更部
72 接触座標検出部
73 操作量変換部
74 軸座標検出部
75 選択座標検出部
76 操作制御部
W 被加工物
1 Cutting equipment (processing equipment)
2 Housing 3 Cutting mechanism 4 Display monitor 12 Chuck table moving mechanism (drive means)
13 Chuck table (holding means)
14 Blade unit moving mechanism (drive means)
15 Blade unit (processing means)
16 Control unit 28 Suction surface (holding surface)
43 Imaging mechanism (imaging means)
51 Operation Screen 53 Gripping Unit 55 Operation Condition Setting Area 56 Operation Area 61 Input Field 62 Operation Button 63 Captured Image 64 Operation Pad Image 65 Selection Frame (Designated Cursor)
66 Pointer (designated cursor)
71 Mode change unit 72 Contact coordinate detection unit 73 Operation amount conversion unit 74 Axis coordinate detection unit 75 Selected coordinate detection unit 76 Operation control unit W Workpiece

Claims (4)

被加工物に加工を施す加工手段と前記加工手段を収容するハウジングとを有する加工装置本体と、前記加工装置本体の動作条件を入力する操作画面を有し、前記ハウジングに配設された表示モニタとを備えた加工装置であって、
前記操作画面には、前記加工装置を操作するための操作領域が画面の右下端又は左下端に選択的に表示されていること、を特徴とする加工装置。
A display monitor provided with a processing device main body having a processing means for processing a workpiece and a housing for housing the processing means, and an operation screen for inputting operating conditions of the processing device main body. A processing apparatus comprising:
An operation area for operating the processing apparatus is selectively displayed on the lower right or lower left of the screen on the operation screen.
被加工物を保持する保持面を有し回転可能な保持手段と、前記保持手段に保持された被加工物を個々のデバイスに分割する加工手段と、前記保持手段と前記加工手段とを前記保持面上で直交するY軸方向およびX軸方向に相対的に移動させる駆動手段と、前記保持手段に保持された被加工物表面を照射する光源を有し前記被加工物を撮像する撮像手段とを更に備え、
前記操作画面には、前記撮像手段によって撮像された被加工物表面の画像も表示され、
前記操作領域における押圧した座標の左右及び上下移動を検出し、前記駆動手段を駆動させ前記保持手段、前記加工手段、前記撮像手段の少なくとも一つを検出した各移動方向に移動させること、を特徴とする請求項1記載の加工装置。
A holding means that has a holding surface for holding the workpiece and is rotatable, a processing means that divides the workpiece held by the holding means into individual devices, and the holding means and the processing means are held by the holding means. Driving means for relatively moving in the Y-axis direction and the X-axis direction orthogonal to each other on the surface; and an imaging means for imaging the workpiece having a light source for irradiating the workpiece surface held by the holding means; Further comprising
The operation screen also displays an image of the workpiece surface imaged by the imaging means,
Detecting left and right and up and down movements of the pressed coordinates in the operation region, and driving the driving unit to move at least one of the holding unit, the processing unit, and the imaging unit in the respective moving directions detected; The processing apparatus according to claim 1.
前記操作画面には、前記加工装置の各機能を操作するための操作条件設定領域が表示され、前記操作条件設定領域内の所望の箇所を指定する指定カーソルを操作する操作領域が前記操作条件設定領域の外側に表示され、
前記操作領域で押圧した座標の移動方向及び量を検出し、検出した移動方向及び量に対応して前記指定カーソルが前記操作条件設定領域内を移動し前記所望の箇所を指定し選択すること、を特徴とする請求項1又は請求項2記載の加工装置。
On the operation screen, an operation condition setting area for operating each function of the processing apparatus is displayed, and an operation area for operating a designated cursor for designating a desired location in the operation condition setting area is the operation condition setting. Appear outside the area,
Detecting the movement direction and amount of coordinates pressed in the operation area, and the designation cursor moves in the operation condition setting area corresponding to the detected movement direction and amount, and designates and selects the desired location; The processing apparatus according to claim 1 or 2, characterized by the above.
前記表示モニタには、前記操作領域が表示されている位置の前記操作画面の側部にオペレータが把持するための把持部を備える請求項1乃至3いずれかに記載の加工装置。   The processing apparatus according to any one of claims 1 to 3, wherein the display monitor includes a grip portion for an operator to grip on a side portion of the operation screen at a position where the operation area is displayed.
JP2012054718A 2012-03-12 2012-03-12 Processing device Pending JP2013191618A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012054718A JP2013191618A (en) 2012-03-12 2012-03-12 Processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012054718A JP2013191618A (en) 2012-03-12 2012-03-12 Processing device

Publications (1)

Publication Number Publication Date
JP2013191618A true JP2013191618A (en) 2013-09-26

Family

ID=49391603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012054718A Pending JP2013191618A (en) 2012-03-12 2012-03-12 Processing device

Country Status (1)

Country Link
JP (1) JP2013191618A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018176320A (en) * 2017-04-07 2018-11-15 株式会社ディスコ Processing device
CN110223936A (en) * 2018-03-02 2019-09-10 株式会社迪思科 The control method of processing unit (plant)
JP2019212760A (en) * 2018-06-05 2019-12-12 株式会社ディスコ Processing apparatus
CN111712768A (en) * 2018-02-16 2020-09-25 东京毅力科创株式会社 Processing device
KR20230073478A (en) * 2021-11-19 2023-05-26 한미반도체 주식회사 Method for measuring thickness of strip grinding apparatus
KR20230001284U (en) * 2021-12-15 2023-06-22 주식회사 한국가스기술공사 LGN pump impeller disassembly device
DE102016100645B4 (en) 2015-01-16 2024-05-23 Mpi Corporation Instrument-specific operating procedure

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11262883A (en) * 1998-03-19 1999-09-28 Denso Corp Manual operation device for robot
JP2007042029A (en) * 2005-08-05 2007-02-15 Denso Corp Display device and program
JP2008004885A (en) * 2006-06-26 2008-01-10 Disco Abrasive Syst Ltd Processing machine
JP2009117776A (en) * 2007-11-09 2009-05-28 Disco Abrasive Syst Ltd Processing apparatus
JP2009163278A (en) * 2007-12-21 2009-07-23 Toshiba Corp Portable device
JP2009206206A (en) * 2008-02-26 2009-09-10 Disco Abrasive Syst Ltd Processing device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11262883A (en) * 1998-03-19 1999-09-28 Denso Corp Manual operation device for robot
JP2007042029A (en) * 2005-08-05 2007-02-15 Denso Corp Display device and program
JP2008004885A (en) * 2006-06-26 2008-01-10 Disco Abrasive Syst Ltd Processing machine
JP2009117776A (en) * 2007-11-09 2009-05-28 Disco Abrasive Syst Ltd Processing apparatus
JP2009163278A (en) * 2007-12-21 2009-07-23 Toshiba Corp Portable device
JP2009206206A (en) * 2008-02-26 2009-09-10 Disco Abrasive Syst Ltd Processing device

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016100645B4 (en) 2015-01-16 2024-05-23 Mpi Corporation Instrument-specific operating procedure
JP2018176320A (en) * 2017-04-07 2018-11-15 株式会社ディスコ Processing device
CN111712768B (en) * 2018-02-16 2024-06-11 东京毅力科创株式会社 Processing device
CN111712768A (en) * 2018-02-16 2020-09-25 东京毅力科创株式会社 Processing device
CN110223936B (en) * 2018-03-02 2024-02-02 株式会社迪思科 Control method of processing device
CN110223936A (en) * 2018-03-02 2019-09-10 株式会社迪思科 The control method of processing unit (plant)
KR20190104907A (en) * 2018-03-02 2019-09-11 가부시기가이샤 디스코 Control method of machining apparatus
JP2019153667A (en) * 2018-03-02 2019-09-12 株式会社ディスコ Processing device
JP7017949B2 (en) 2018-03-02 2022-02-09 株式会社ディスコ Processing equipment
KR102655559B1 (en) * 2018-03-02 2024-04-05 가부시기가이샤 디스코 Control method of machining apparatus
CN110560884A (en) * 2018-06-05 2019-12-13 株式会社迪思科 Machining device and control method for machining device
JP7365108B2 (en) 2018-06-05 2023-10-19 株式会社ディスコ processing equipment
TWI818995B (en) * 2018-06-05 2023-10-21 日商迪思科股份有限公司 Control method of processing equipment
CN110560884B (en) * 2018-06-05 2023-01-10 株式会社迪思科 Machining device and control method for machining device
KR102668006B1 (en) 2018-06-05 2024-05-21 가부시기가이샤 디스코 Processing apparatus and control method of processing apparatus
KR20190138600A (en) * 2018-06-05 2019-12-13 가부시기가이샤 디스코 Processing apparatus and control method of processing apparatus
JP2019212760A (en) * 2018-06-05 2019-12-12 株式会社ディスコ Processing apparatus
KR20230073478A (en) * 2021-11-19 2023-05-26 한미반도체 주식회사 Method for measuring thickness of strip grinding apparatus
KR102646886B1 (en) 2021-11-19 2024-03-12 한미반도체 주식회사 Method for measuring thickness of strip grinding apparatus
KR20230001284U (en) * 2021-12-15 2023-06-22 주식회사 한국가스기술공사 LGN pump impeller disassembly device
KR200497311Y1 (en) * 2021-12-15 2023-10-05 주식회사 한국가스기술공사 LGN pump impeller disassembly device

Similar Documents

Publication Publication Date Title
JP2013191618A (en) Processing device
JP6604715B2 (en) Laser processing equipment
TWI746815B (en) Processing device
JP2008004885A (en) Processing machine
KR20160148448A (en) Touch panel device
JP6108806B2 (en) Processing equipment
US10048844B2 (en) Operating method for inspecting equipment
JP2020097067A (en) Assisting method and assisting device
US11061378B2 (en) Processing apparatus and method of controlling processing apparatus using a touch-screen displaying an image-captured workpiece
JP6566719B2 (en) Processing equipment
JP7399576B2 (en) Alignment mark setting method and processing equipment
US7565002B2 (en) Wafer surface observation apparatus
US11256406B2 (en) Processing apparatus
JP6844900B2 (en) Processing equipment and input method
JP2017091441A (en) Operation touch panel device
JP2024039321A (en) Processing device
JP2022037382A (en) Processing device
JP7450350B2 (en) cutting equipment
US20200381288A1 (en) Processing apparatus
JP7350437B2 (en) processing equipment
JP2024039133A (en) Processing device
US20220299970A1 (en) Processing apparatus
WO2003041159A1 (en) Wafer observation position designating apparatus, and wafer display position designating method
JP2023068917A (en) Processing device
JP2021194738A (en) Processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160816