JP6442939B2 - Wearable terminal, program, information processing system, control method for information processing system, and interconnection system - Google Patents

Wearable terminal, program, information processing system, control method for information processing system, and interconnection system Download PDF

Info

Publication number
JP6442939B2
JP6442939B2 JP2014183573A JP2014183573A JP6442939B2 JP 6442939 B2 JP6442939 B2 JP 6442939B2 JP 2014183573 A JP2014183573 A JP 2014183573A JP 2014183573 A JP2014183573 A JP 2014183573A JP 6442939 B2 JP6442939 B2 JP 6442939B2
Authority
JP
Japan
Prior art keywords
information
unit
specific part
wearable terminal
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014183573A
Other languages
Japanese (ja)
Other versions
JP2016057838A (en
Inventor
吉田 裕一
裕一 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014183573A priority Critical patent/JP6442939B2/en
Publication of JP2016057838A publication Critical patent/JP2016057838A/en
Application granted granted Critical
Publication of JP6442939B2 publication Critical patent/JP6442939B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimiles In General (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ウェアラブル端末、プログラム、情報処理システム、情報処理システムの制御方法および相互接続システムに関する。   The present invention relates to a wearable terminal, a program, an information processing system, an information processing system control method, and an interconnection system.

近年、モバイル端末の普及に伴い、当該モバイル端末と他の電子機器とを相互接続して情報の送受を行ったり、モバイル端末を利用して電子機器を操作する等の技術が種々提案されている。例えば、モバイル端末で取得または作成したドキュメントを電子機器に転送したり、電子機器側で印刷したりする場合がある。このような場合、モバイル端末と電子機器との相互接続は、例えば無線LANを利用して行われる場合がある。モバイル端末と電子機器を無線LANで接続する場合、その設定作業は手動で行うこともあるが、無線LANの設定情報等を予め電子機器側で準備しておき、その設定情報をモバイル端末側で取得することで容易に接続を確立する技術が提案されている。   In recent years, with the widespread use of mobile terminals, various technologies have been proposed, such as transmitting and receiving information by interconnecting the mobile terminals and other electronic devices, and operating electronic devices using mobile terminals. . For example, a document acquired or created by a mobile terminal may be transferred to an electronic device or printed on the electronic device side. In such a case, the interconnection between the mobile terminal and the electronic device may be performed using a wireless LAN, for example. When a mobile terminal and an electronic device are connected by a wireless LAN, the setting operation may be performed manually. However, wireless LAN setting information is prepared in advance on the electronic device side, and the setting information is stored on the mobile terminal side. A technique for easily establishing a connection by acquiring the information has been proposed.

例えば、特許文献1に開示された技術の場合、電子機器の一例である宅内通信機器の筐体には、モバイル端末としての携帯電話に無線LANの設定を自動で行うための接続情報をマトリックス型の二次元コードの形態で装着している。そして、この二次元コードを携帯電話に設けられたコードリーダで読み取ることにより無線LANの接続情報を取得する。例えば、携帯電話に設けられたカメラで二次元コードを撮影して、解析することにより接続情報を取得し、無線LANの設定を自動で実行できるように構成している。   For example, in the case of the technique disclosed in Patent Document 1, in a housing of a home communication device which is an example of an electronic device, connection information for automatically setting a wireless LAN on a mobile phone as a mobile terminal is matrix type. It is installed in the form of a two-dimensional code. Then, the wireless LAN connection information is obtained by reading the two-dimensional code with a code reader provided in the mobile phone. For example, it is configured such that connection information is acquired by photographing and analyzing a two-dimensional code with a camera provided in a mobile phone, and wireless LAN settings can be automatically executed.

近年、モバイル端末の一例として、ウェアラブル端末の開発および実用化が行われている。そして、ウェアラブル端末は、主としてユーザの身体に装着した状態で使用する。例えば頭部装着タイプや手首装着タイプ等があり、さらにカメラ(撮影部)を搭載して周囲の状況を取得するタイプもある。このようなウェアラブル端末の場合、ユーザの見えている範囲とウェアラブル端末のカメラで撮影している範囲が異なる場合がある。また、ユーザには電子機器に表示された供給情報(例えば二次元コード)が目視できていても、カメラの撮影画像上で、二次元コード等の供給情報が有効な認識範囲から外れていたり、認識範囲内であっても小さすぎて内容が解析できない場合等がある。つまり、ユーザは供給情報が読み取れると思っていても、実際には読み取れない場合があり、無線LANの接続情報等の各供給情報の取得等がスムーズにできない場合があるという問題があった。   In recent years, a wearable terminal has been developed and put into practical use as an example of a mobile terminal. And a wearable terminal is used in the state with which the user's body was mainly mounted | worn. For example, there are a head-mounted type, a wrist-mounted type, and the like, and a type in which a camera (photographing unit) is mounted to acquire the surrounding situation. In the case of such a wearable terminal, the range that the user can see may be different from the range captured by the camera of the wearable terminal. In addition, even if the user can visually check the supply information (for example, two-dimensional code) displayed on the electronic device, the supply information such as the two-dimensional code is out of the effective recognition range on the captured image of the camera. Even within the recognition range, it may be too small to analyze the contents. That is, even if the user thinks that the supply information can be read, there are cases where the user cannot actually read the supply information, and the supply information such as connection information of the wireless LAN may not be obtained smoothly.

本発明は、上述の課題に鑑みてなされたものであり、制御対象機器(電子機器)が提供する情報(供給情報)を利用できる状態で撮影できるように撮影部の位置を誘導することができるウェアラブル端末、プログラム、情報処理システム、情報処理システムの制御方法および相互接続システムを提供することを目的の1つとする。   The present invention has been made in view of the above-described problem, and can guide the position of the imaging unit so that the information (supply information) provided by the control target device (electronic device) can be used. An object is to provide a wearable terminal, a program, an information processing system, a control method for the information processing system, and an interconnection system.

上述した課題を解決し、目的を達成するために、本発明は、制御対象機器を撮影する撮影部と、撮影した前記制御対象機器に定められた特定部位の位置情報を取得する取得部と、前記位置情報に基づいて前記制御対象機器における前記特定部位に注目を促す案内情報を生成する情報生成部と、前記案内情報を前記制御対象機器の像に重畳表示する重畳部と、注目を促した前記特定部位の撮影によって得られた情報に基づく情報処理を実行する制御部と、を備えるウェアラブル端末である。   In order to solve the above-described problems and achieve the object, the present invention includes an imaging unit that images a control target device, an acquisition unit that acquires position information of a specific part that is defined in the captured control target device, Based on the position information, an information generation unit that generates guidance information that draws attention to the specific part of the control target device, a superimposition unit that displays the guidance information superimposed on an image of the control target device, And a control unit that executes information processing based on information obtained by imaging the specific part.

上述した課題を解決し、目的を達成するために、本発明は、ユーザに装着されるウェアラブル端末であって、制御対象機器を撮影する撮影部と、撮影した前記制御対象機器に定められた特定部位の位置情報を取得する取得部と、前記位置情報に基づいて前記制御対象機器における前記特定部位を該ウェアラブル端末を装着するユーザに目視させるように促す案内情報を生成する情報生成部と、前記案内情報を前記制御対象機器の像に重畳表示する重畳部と、目視を促した前記特定部位の撮影によって得られた情報に基づいて、前記制御対象機器との接続処理を行う制御部と、を備え、前記制御部は、注目を促した前記特定部位において所定の情報が非表示であると判定した場合、前記制御対象機器において前記所定の情報を表示させるための手順を示す案内情報を出力することを特徴とするウェアラブル端末である。 In order to solve the above-described problems and achieve the object, the present invention is a wearable terminal that is worn by a user, and includes a photographing unit that photographs a control target device and a specification that is defined for the captured control target device. An acquisition unit that acquires position information of a part, an information generation part that generates guidance information that prompts a user wearing the wearable terminal to visually check the specific part in the control target device based on the position information, a superimposing unit for superimposing displays guidance information to the image of the control target device, based on information obtained by photographing the specific part that prompted visually a control unit for performing connection processing with the control target device, the The control unit is configured to display the predetermined information on the control target device when it is determined that the predetermined information is not displayed in the specific part that has attracted attention. It is a wearable terminal and outputs the guidance information indicating an order.

図1は、実施形態に係るウェアラブル端末と接続可能な制御対象機器の一例である画像処理装置のハードウエア構成を説明する説明図である。FIG. 1 is an explanatory diagram illustrating a hardware configuration of an image processing apparatus that is an example of a control target device that can be connected to the wearable terminal according to the embodiment. 図2は、実施形態に係るウェアラブル端末の一例であるメガネタイプのウェアラブル端末の外観構成を説明する概略構成図である。FIG. 2 is a schematic configuration diagram illustrating an external configuration of a glasses-type wearable terminal that is an example of the wearable terminal according to the embodiment. 図3は、実施形態に係るウェアラブル端末のハードウエア構成を説明する説明図である。FIG. 3 is an explanatory diagram illustrating a hardware configuration of the wearable terminal according to the embodiment. 図4は、実施形態に係る画像処理装置の一部の機能を実現するソフトウエアブロック図である。FIG. 4 is a software block diagram for realizing some functions of the image processing apparatus according to the embodiment. 図5は、実施形態に係るウェアラブル端末で取得する二次元コードで示される無線接続の設定情報の一例を説明する説明図である。FIG. 5 is an explanatory diagram illustrating an example of wireless connection setting information indicated by a two-dimensional code acquired by the wearable terminal according to the embodiment. 図6は、実施形態に係るウェアラブル端末のソフトウエアブロック図である。FIG. 6 is a software block diagram of the wearable terminal according to the embodiment. 図7は、実施形態に係るウェアラブル端末側に保持されている画像処理装置の特徴点とカメラで撮影している画像処理装置の特徴部分の比較状態を説明する説明図である。FIG. 7 is an explanatory diagram illustrating a comparison state between the feature points of the image processing apparatus held on the wearable terminal side according to the embodiment and the characteristic portions of the image processing apparatus captured by the camera. 図8は、実施形態に係るウェアラブル端末側に保持されている画像処理装置のパネル装置の位置とカメラで撮影している画像処理装置のパネル装置の相対位置の検出を説明する説明図である。FIG. 8 is an explanatory diagram illustrating detection of the position of the panel device of the image processing apparatus held on the wearable terminal side according to the embodiment and the relative position of the panel device of the image processing apparatus photographed by the camera. 図9は、実施形態に係るウェアラブル端末で生成される案内情報の一例を示す説明図である。FIG. 9 is an explanatory diagram illustrating an example of guidance information generated by the wearable terminal according to the embodiment. 図10は、実施形態に係るメガネタイプのウェアラブル端末を介してユーザに見える映像の一例を示す説明図である。FIG. 10 is an explanatory diagram illustrating an example of an image seen by the user via the glasses-type wearable terminal according to the embodiment. 図11は、実施形態に係るウェアラブル端末の処理を説明するフローチャートである。FIG. 11 is a flowchart for explaining processing of the wearable terminal according to the embodiment. 図12は、図11における取得情報に基づく処理の詳細を説明するフローチャートである。FIG. 12 is a flowchart for explaining the details of the processing based on the acquired information in FIG. 図13は、他の実施形態に係るウェアラブル端末の処理を説明するフローチャートである。FIG. 13 is a flowchart for explaining processing of the wearable terminal according to another embodiment. 図14は、図13に示す実施形態で表示される案内情報の一例を説明する説明図である。FIG. 14 is an explanatory diagram illustrating an example of guidance information displayed in the embodiment illustrated in FIG. 図15は、画像処理装置側で二次元コードの生成および表示を要求された場合の処理を説明するフローチャートである。FIG. 15 is a flowchart for explaining processing in a case where the generation and display of a two-dimensional code is requested on the image processing apparatus side. 図16は、実施形態のウェアラブル端末で認識可能な情報の例として示される電子透かしの一例を説明する説明図である。FIG. 16 is an explanatory diagram illustrating an example of a digital watermark shown as an example of information that can be recognized by the wearable terminal according to the embodiment. 図17は、実施形態に適用可能な他のウェアラブル端末として示される腕時計タイプのウェアラブル端末の外観構成および案内情報の表示態様を示す説明図である。FIG. 17 is an explanatory diagram illustrating an appearance configuration and a display mode of guidance information of a wristwatch type wearable terminal shown as another wearable terminal applicable to the embodiment.

以下に添付図面を参照して、ウェアラブル端末、プログラム、情報処理システム、情報処理システムの制御方法および相互接続システムの実施形態を詳細に説明する。   Exemplary embodiments of a wearable terminal, a program, an information processing system, a control method for the information processing system, and an interconnection system will be described below in detail with reference to the accompanying drawings.

本実施形態において、制御対象機器(電子機器)とウェアラブル端末とは、相互に無線接続されて、ウェアラブル端末側から制御対象機器の操作、制御を可能とする。本実施形態において、ウェアラブル端末は、一例として、制御対象機器と無線接続を実現するための設定情報を取得するために、制御対象機器を撮影する撮影部を含む。撮影部は、制御対象機器側が提供する情報(供給情報)としての設定情報、一例としてマトリックス型の二次元コードを撮影する。このとき、ウェアラブル端末は、制御対象機器が提供する二次元コードを利用できる状態で撮影できるように、案内を実現するために撮影した制御対象機器に定められた特定部位の位置情報を取得部が取得する。そして、取得した位置情報に基づいて制御対象機器における特定部位、例えば二次元コードの表示位置に注目を促す案内情報を情報生成部が生成する。生成した案内情報はユーザが認識し易いように、重畳部が制御対象機器の像に重畳表示する。案内情報によって注目を促すことにより撮影部の位置を変化させて、良好な特定部位の撮影を実現し、その撮影によって得られた情報(例えば二次元コード)に基づく情報処理を制御部が実行することで、無線接続処理をスムーズに実現する。   In the present embodiment, the control target device (electronic device) and the wearable terminal are wirelessly connected to each other so that the control target device can be operated and controlled from the wearable terminal side. In the present embodiment, as an example, the wearable terminal includes a photographing unit that photographs the control target device in order to acquire setting information for realizing wireless connection with the control target device. The imaging unit captures setting information as information (supply information) provided by the control target device, for example, a matrix type two-dimensional code. At this time, the wearable terminal obtains the position information of the specific part determined for the control target device photographed to realize the guidance so that the two-dimensional code provided by the control target device can be used. get. Then, based on the acquired position information, the information generation unit generates guidance information that draws attention to a specific part of the control target device, for example, the display position of the two-dimensional code. The superimposing unit superimposes and displays the generated guidance information on the image of the control target device so that the user can easily recognize it. The position of the imaging unit is changed by prompting attention by the guide information, and imaging of a good specific part is realized, and the control unit executes information processing based on information (for example, a two-dimensional code) obtained by the imaging. As a result, the wireless connection process can be realized smoothly.

図1は、本実施形態に係るウェアラブル端末と接続可能な制御対象機器(電子機器)の一例である画像処理装置10のハードウエア構成を説明する説明図である。なお、図1は、後述するウェアラブル端末との無線接続に関連する構成を主として示し、画像処理装置の他の機能に関する構成は、簡略化または省略している。   FIG. 1 is an explanatory diagram illustrating a hardware configuration of an image processing apparatus 10 that is an example of a control target device (electronic device) that can be connected to the wearable terminal according to the present embodiment. FIG. 1 mainly shows a configuration related to wireless connection with a wearable terminal to be described later, and configurations related to other functions of the image processing apparatus are simplified or omitted.

画像処理装置10は、例えば複写機、プリンター、イメージスキャナ、ファクシミリ等の機能を1つの筐体に収めたものであり、デジタル複合機と称される(MFP;MultiFunction Printer/Product/Peripheral)。画像処理装置10は、ネットワークI/F(インタフェース)や通信I/Fを介して印刷データや画像ファイルを受信可能である。そして、受け付けた印刷データや画像ファイルに対して所望の処理条件を設定して印刷出力処理を実行する。所望の処理条件は、当該画像処理装置10のパネル装置からの入力操作やネットワークI/Fや通信I/Fを介して接続された他の制御機器、例えばホストPC(コンピュータ)やモバイル端末等からの入力操作により設定可能である。   The image processing apparatus 10 has functions such as a copying machine, a printer, an image scanner, and a facsimile housed in one casing, and is referred to as a digital multifunction machine (MFP; MultiFunction Printer / Product / Peripheral). The image processing apparatus 10 can receive print data and image files via a network I / F (interface) or a communication I / F. Then, a desired processing condition is set for the received print data or image file, and a print output process is executed. Desired processing conditions are input operations from the panel device of the image processing apparatus 10 or other control devices connected via a network I / F or communication I / F, such as a host PC (computer) or a mobile terminal. It can be set by the input operation.

画像処理装置10は、コントローラ12、パネル装置14およびプリンタエンジン16を含んで構成される。   The image processing apparatus 10 includes a controller 12, a panel device 14, and a printer engine 16.

コントローラ12は、その動作時点に設定されている動作モードおよびネットワークI/Fを介して接続されたホストコンピュータ18や通信I/Fを介して接続された後述するウェアラブル端末からの印字制御データに従って印刷処理を実行する。画像処理装置10は、ホストコンピュータ(ホストPC)18やウェアラブル端末からの印字制御データを画像データ(ビットマップデータ)に変換(レンダリング)しプリンタエンジン16へ出力する。なお、コントローラ12は、さらに後述する各種モジュールで構成される。   The controller 12 performs printing in accordance with the operation mode set at the time of operation and print control data from the host computer 18 connected via the network I / F or the wearable terminal described later connected via the communication I / F. Execute the process. The image processing apparatus 10 converts (renders) print control data from a host computer (host PC) 18 or a wearable terminal into image data (bitmap data) and outputs the image data to the printer engine 16. The controller 12 is further composed of various modules described later.

パネル装置14は、画像処理装置10の状態を示す液晶パネル等を用いた表示部と、ユーザが画像処理装置10の動作モードやフォント等の切替えやパスワードの入力等を行うためのタッチパネル等を用いた入力部とから構成される。   The panel device 14 uses a display unit using a liquid crystal panel or the like indicating the state of the image processing device 10, a touch panel for the user to switch the operation mode or font of the image processing device 10, enter a password, and the like. And an input unit.

プリンタエンジン16は、プロセスカートリッジを備える。プロセスカートリッジは、感光体を内蔵すると共に、帯電部、露光部、現像部、転写部、クリーニング部、除電部等を含む一体化部品であり、画像処理装置10に対し着脱可能となっている。プリンタエンジン16は、コントローラ12からの制御信号および画像データに従ってプロセスカートリッジの感光体上に静電潜像を生成してそれを現像する。さらに給紙部より転写紙を給紙して、現像した画像をこの転写紙に転写および定着することにより、転写紙上に画像を形成する。なお、プリンタエンジン16は、プロセスカートリッジではなく、トナーカートリッジを用いる構成とすることもできる。その場合、感光体、帯電部、露光部、現像部、転写部、クリーニング部、除電部等は、トナーカートリッジとは別の部品としてプリンタエンジン16が備える。   The printer engine 16 includes a process cartridge. The process cartridge is an integrated part including a photosensitive member, a charging unit, an exposure unit, a developing unit, a transfer unit, a cleaning unit, a charge removal unit, and the like, and is detachable from the image processing apparatus 10. The printer engine 16 generates an electrostatic latent image on the photosensitive member of the process cartridge and develops it in accordance with a control signal from the controller 12 and image data. Further, the transfer paper is fed from the paper feed unit, and the developed image is transferred and fixed on the transfer paper, thereby forming an image on the transfer paper. The printer engine 16 may be configured to use a toner cartridge instead of a process cartridge. In this case, the printer engine 16 includes a photoconductor, a charging unit, an exposure unit, a development unit, a transfer unit, a cleaning unit, a charge removal unit, and the like as parts different from the toner cartridge.

次に、画像処理装置10のコントローラ12に含まれる各種モジュールについて説明する。コントローラ12は、CPU20、ROM22、RAM24、NVRAM26、HDD28、通信I/F30、ネットワークI/F32、エンジンI/F34、パネルI/F36等を含む。   Next, various modules included in the controller 12 of the image processing apparatus 10 will be described. The controller 12 includes a CPU 20, ROM 22, RAM 24, NVRAM 26, HDD 28, communication I / F 30, network I / F 32, engine I / F 34, panel I / F 36, and the like.

CPU20は、ROM22に格納された制御プログラムに従ってホストコンピュータ18やウェアラブル端末からの印刷データを処理する。   The CPU 20 processes print data from the host computer 18 and the wearable terminal according to a control program stored in the ROM 22.

ROM22は、CPU20が、コントローラ12内で実行するデータの管理や周辺モジュールを統括的に制御するための制御プログラム(ソフトウエア)を格納する。   The ROM 22 stores a control program (software) for the CPU 20 to manage data executed in the controller 12 and to control peripheral modules in an integrated manner.

RAM24は、CPU20が制御プログラムにしたがって作成するページメモリやソフトウエアが動作するために必要なワークメモリ等として使用される。またRAM24は、ホストコンピュータ18やウェアラブル端末からの印刷データをページ単位に管理して一時記憶するバッファとして使用される。またRAM24は印字データから変換された画像データ(印字パターン)を記憶するビットマップメモリ(画像メモリ、展開メモリ)としても使用される。   The RAM 24 is used as a page memory created by the CPU 20 according to a control program, a work memory necessary for software to operate, and the like. The RAM 24 is used as a buffer for managing and temporarily storing print data from the host computer 18 or wearable terminal in units of pages. The RAM 24 is also used as a bitmap memory (image memory, development memory) for storing image data (print pattern) converted from print data.

NVRAM26は、電源を切っても保持したいデータ、例えば、印刷制御に用いられる、パネル装置14を介して設定された所定の設定値や所定の印刷条件情報等の情報を格納しておくための不揮発性RAMである。   The NVRAM 26 is a nonvolatile memory for storing data to be retained even when the power is turned off, for example, information such as predetermined setting values and predetermined printing condition information set via the panel device 14 used for printing control. RAM.

HDD28は、不揮発性記憶手段としての磁気ディスク等のハードディスクであり、ホストコンピュータ18やウェアラブル端末等からの印刷データの蓄積や印字データから変換されたビットマップデータの蓄積に使用できる。またHDD28は、それらのデータの保存のため、または一時記憶のためのバッファやワーク用領域等として、様々な用途で使用される。また、HDD28は印字に使用されるさまざまな種類のフォントデータの格納に使用されてもよい。   The HDD 28 is a hard disk such as a magnetic disk as non-volatile storage means, and can be used for accumulating print data from the host computer 18, wearable terminal or the like, and accumulating bitmap data converted from the print data. The HDD 28 is used for various purposes as a buffer or a work area for storing such data or for temporary storage. The HDD 28 may be used for storing various types of font data used for printing.

通信I/F30は、ウェアラブル端末等の外部機器と無線通信(Wi−Fi通信)を行うためのインタフェースである。   The communication I / F 30 is an interface for performing wireless communication (Wi-Fi communication) with an external device such as a wearable terminal.

ネットワークI/F32は、ホストコンピュータ18から画像処理装置10への印刷ジョブとして送られる印刷データ(印字制御データおよび印字データを含む)およびホストコンピュータ18から画像処理装置10へのステータス信号を送受信するためのインタフェースである。   The network I / F 32 transmits and receives print data (including print control data and print data) sent as a print job from the host computer 18 to the image processing apparatus 10 and a status signal from the host computer 18 to the image processing apparatus 10. Interface.

エンジンI/F34は、コントローラ12からプリンタエンジン16への制御信号およびプリンタエンジン16からコントローラ12へのステータス信号のやりとりをするためのインタフェースである。   The engine I / F 34 is an interface for exchanging control signals from the controller 12 to the printer engine 16 and status signals from the printer engine 16 to the controller 12.

パネルI/F36は、パネル装置14を介してユーザが画像処理装置10の状態表示の切替えや動作モードおよびフォント等の切替え等を行えるように、コントローラ12がパネル装置14との間で信号のやりとりをするためのインタフェースである。   The panel I / F 36 allows the controller 12 to exchange signals with the panel device 14 so that the user can switch the status display of the image processing device 10, the operation mode, the font, and the like via the panel device 14. This is an interface for

このように構成される画像処理装置10において、通信I/F30やネットワークI/F32を通してウェアラブル端末やホストコンピュータ18から送られてきた印刷データ(例えばPDLデータ)は、CPU20により印字データおよび印字制御データとその他に分けられる。そして、印字データおよび印字制御データはそれぞれ画像データ(ビットマップデータ)および画像処理装置10内部で使用される制御コードに変換されてHDD28またはRAM24に記憶される。その際、ホストコンピュータ18やウェアラブル端末からの印刷ジョブまたはデータが1ページ分を超えた時、コントローラ12は、まず印字データから生成した中間コードを画像データに変換する。それが終了すると、エンジンI/F34を通してプリンタエンジン16にプリントスタートの命令を出す。そして、この命令に応じてプリンタエンジン16が印刷を開始する。   In the image processing apparatus 10 configured as described above, print data (for example, PDL data) sent from the wearable terminal or the host computer 18 through the communication I / F 30 or the network I / F 32 is printed by the CPU 20 as print data and print control data. And others. The print data and print control data are converted into image data (bitmap data) and a control code used inside the image processing apparatus 10 and stored in the HDD 28 or RAM 24, respectively. At this time, when the print job or data from the host computer 18 or wearable terminal exceeds one page, the controller 12 first converts the intermediate code generated from the print data into image data. When this is finished, a print start command is issued to the printer engine 16 through the engine I / F 34. In response to this command, the printer engine 16 starts printing.

図2は、一例としてメガネタイプのウェアラブル端末38の外観構成を説明する概略構成図である。メガネタイプのウェアラブル端末38は、一例として第1ユニット40と第2ユニット42を備える。第1ユニット40は、一例としてメガネフレーム38aの一部に配置され、当該ウェアラブル端末38の全体を制御するコントローラやバッテリ、マイク、スピーカ等が内蔵されている。また、第2ユニット42もまたメガネフレーム38aの一部に配置され、表示部やカメラ、スイッチ、各種センサ等が内蔵されている。ユーザは、ウェアラブル端末38をメガネをかけるが如く頭部に装着する。その結果、表示部に表示される画像がユーザの眼前に拡張現実を実現し、様々な情報を提供する。   FIG. 2 is a schematic configuration diagram illustrating an external configuration of a glasses-type wearable terminal 38 as an example. The glasses-type wearable terminal 38 includes a first unit 40 and a second unit 42 as an example. As an example, the first unit 40 is disposed in a part of the glasses frame 38a, and includes a controller, a battery, a microphone, a speaker, and the like that control the entire wearable terminal 38. The second unit 42 is also disposed in a part of the glasses frame 38a and incorporates a display unit, a camera, a switch, various sensors, and the like. The user wears the wearable terminal 38 on the head as if wearing glasses. As a result, the image displayed on the display unit realizes augmented reality in front of the user's eyes and provides various information.

図3は、ウェアラブル端末38のハードウエア構成を説明する説明図である。ウェアラブル端末38は、コントローラ44、表示部46、カメラ48、マイク50、スピーカ52、スイッチ54等を含んで構成されている。   FIG. 3 is an explanatory diagram illustrating the hardware configuration of the wearable terminal 38. The wearable terminal 38 includes a controller 44, a display unit 46, a camera 48, a microphone 50, a speaker 52, a switch 54, and the like.

コントローラ44は、ウェアラブル端末38の全体を制御し、例えばインターネットを介して情報の検索、取得およびその表示、写真やビデオの撮影、再生およびその保存、メールの送受信、電話等の機能を実現する。また、それらの機能の実現にあたり表示部46を介して適宜必要な情報をユーザの視界の一部に表示する。なお、コントローラ44は、さらに後述する各種モジュールで構成される。   The controller 44 controls the wearable terminal 38 as a whole, and implements functions such as search, acquisition and display of information, photography and video recording, playback and storage, transmission / reception of mail, telephone, and the like via, for example, the Internet. In addition, necessary information for realizing these functions is displayed on a part of the user's field of view through the display unit 46. The controller 44 is further composed of various modules described later.

表示部46は、図2に示すように、一例としてメガネフレーム38aの上部隅に配置され、インターネット等の通信手段を介して取得した情報やコントローラ44で生成した情報等を示す映像をレンズ38bに照射して表示する。また、別の例では、レンズ38b越しに表示部46の表示内容が視認できるようにしてもよい。また、レンズ38bを省略し表示部46のみの構成で表示内容が視認できるようにしてもよい。この場合、所定の距離から所定の大きさのディスプレイを見るような感覚をユーザに与えるように表示部46上に映像が表示される。   As shown in FIG. 2, the display unit 46 is disposed at the upper corner of the eyeglass frame 38a as an example, and displays an image showing information acquired through communication means such as the Internet or information generated by the controller 44 on the lens 38b. Irradiate and display. In another example, the display content of the display unit 46 may be visible through the lens 38b. Further, the lens 38b may be omitted, and the display contents may be visually recognized with a configuration including only the display unit 46. In this case, an image is displayed on the display unit 46 so as to give the user a feeling of looking at a display of a predetermined size from a predetermined distance.

カメラ48(撮影部)は、図2に示すように、一例としてメガネフレーム38aの上部隅に配置される。そして、カメラ48の画角は、ウェアラブル端末38を頭部に装着したユーザの視野角と実質的に同じまたはカメラ48の画角の方がユーザの視野角より大きく設定されることが望ましい。つまり、カメラ48で撮影した映像とユーザが認識する風景とが実質的に同じになるように設定されている。なお、カメラ48で撮影した映像内の像の位置と実風景内の像の位置が一致するように、カメラ48の撮影角度の調整を行える機構を備えてもよい。なお、カメラ48の解像度は適宜選択可能であるが、撮影した写真データやビデオデータが印刷やビデオ再生に十分に活用できる品質を得るレベルとすることが望ましい。カメラ48の配置場所はメガネフレーム38aの中央部等他の部分でもよいし、複数のカメラを配置してステレオカメラとして機能させてもよい。   As shown in FIG. 2, the camera 48 (photographing unit) is disposed at the upper corner of the spectacle frame 38a as an example. The viewing angle of the camera 48 is preferably set to be substantially the same as the viewing angle of the user who wears the wearable terminal 38 on the head, or the viewing angle of the camera 48 is set larger than the viewing angle of the user. In other words, the image captured by the camera 48 and the landscape recognized by the user are set to be substantially the same. Note that a mechanism that can adjust the shooting angle of the camera 48 may be provided so that the position of the image captured by the camera 48 matches the position of the image in the actual landscape. Note that the resolution of the camera 48 can be selected as appropriate, but it is desirable to have a quality at which the photographed photo data and video data can be sufficiently utilized for printing and video reproduction. The placement location of the camera 48 may be another portion such as the central portion of the glasses frame 38a, or a plurality of cameras may be placed to function as a stereo camera.

マイク50は、図2に示すように、メガネフレーム38aの一部に配置され、ユーザの発話による指示(コマンド)を集音したり、電話機能の実行時には会話の集音を行う。この他、周囲音の集音を行ってもよい。マイク50は、集音の目的によって特性が変化するようにしてもよい。特性の切り替えはユーザの発話コマンドによって切り替わるようにしてもよいし、発話内容に応じて自動的に切り替わるようにしてもよい。   As shown in FIG. 2, the microphone 50 is arranged on a part of the glasses frame 38a, and collects an instruction (command) by a user's utterance or collects a conversation when executing a telephone function. In addition, ambient sounds may be collected. The characteristics of the microphone 50 may be changed depending on the purpose of sound collection. The switching of the characteristics may be performed by a user's utterance command, or may be automatically switched according to the utterance content.

スピーカ52は、図2に示すように、メガネフレーム38aにおいてユーザの耳に近い部分に配置され、ウェアラブル端末38の動作案内音の出力や通信手段を介して取得した音声の出力等を行う。スピーカ52は開放型のスピーカでもよいし、骨伝導型のスピーカでもよい。また、イヤホーンとしてユーザの耳に装着するようにしてもよい。   As shown in FIG. 2, the speaker 52 is disposed near the user's ear in the eyeglass frame 38a, and outputs an operation guidance sound of the wearable terminal 38, an audio obtained through the communication means, and the like. The speaker 52 may be an open type speaker or a bone conduction type speaker. Moreover, you may make it wear | wear with a user's ear as an earphone.

スイッチ54は、図2に示すように、メガネフレーム38aの一部に配置され、音声コマンド以外のコマンド入力を行う場合に利用する。スイッチ54は、操作音がマイク50で集音されにくいように、マイク50から離れた位置に配置されることが望ましい。スイッチ54は、押下タイプの他、スライドタイプやダイヤルタイプでもよい。また、圧力スイッチや近接スイッチでもよい。   As shown in FIG. 2, the switch 54 is arranged in a part of the glasses frame 38a and is used when a command other than a voice command is input. The switch 54 is desirably arranged at a position away from the microphone 50 so that the operation sound is not easily collected by the microphone 50. The switch 54 may be a slide type or a dial type in addition to the pressing type. Moreover, a pressure switch or a proximity switch may be used.

次に、ウェアラブル端末38のコントローラ44に含まれる各種モジュールについて説明する。コントローラ44は、CPU56、ROM58、RAM60、EEPROM62、通信I/F64、入出力I/F66等を含む。   Next, various modules included in the controller 44 of the wearable terminal 38 will be described. The controller 44 includes a CPU 56, a ROM 58, a RAM 60, an EEPROM 62, a communication I / F 64, an input / output I / F 66, and the like.

CPU56は、ROM58に格納された制御プログラムに従ってウェアラブル端末38の動作を制御したり、ウェアラブル端末38に無線接続された電子機器を制御するための処理を実行する。   The CPU 56 controls the operation of the wearable terminal 38 according to a control program stored in the ROM 58 and executes processing for controlling an electronic device wirelessly connected to the wearable terminal 38.

ROM58は、CPU56が、コントローラ44内で実行するデータの管理や周辺モジュールを統括的に制御するための制御プログラム(ソフトウエア)を格納する。   The ROM 58 stores a control program (software) for the CPU 56 to manage data executed in the controller 44 and to control peripheral modules in an integrated manner.

RAM60は、CPU56が制御プログラムを動作させるために必要なワークメモリ等として使用される。またRAM60は、通信手段を介して取得した情報やカメラ48やマイク50を介して取得した情報を一時記憶するバッファとしても使用される。   The RAM 60 is used as a work memory necessary for the CPU 56 to operate the control program. The RAM 60 is also used as a buffer for temporarily storing information acquired through the communication means and information acquired through the camera 48 and the microphone 50.

EEPROM62は、電源を切っても保持したいデータ、例えば、ウェアラブル端末38の設定情報等を格納しておくための不揮発性ROMである。   The EEPROM 62 is a nonvolatile ROM for storing data that is to be retained even when the power is turned off, for example, setting information of the wearable terminal 38.

通信I/F64は、画像処理装置10等の外部機器と無線通信(Wi−Fi通信)を行うためのインタフェースである。   The communication I / F 64 is an interface for performing wireless communication (Wi-Fi communication) with an external device such as the image processing apparatus 10.

入出力I/F66は、ウェアラブル端末38に備えられる各種機器、例えば表示部46、カメラ48、マイク50、スピーカ52、スイッチ54等との間で信号の送受信を行うインタフェースである。   The input / output I / F 66 is an interface that transmits and receives signals to and from various devices provided in the wearable terminal 38, such as the display unit 46, the camera 48, the microphone 50, the speaker 52, and the switch 54.

図4は、画像処理装置10の一部の機能(二次元コードに関連する機能)を実現するためのソフトウエアブロック図である。図4に示される表示制御部68、二次元コード生成部70、通信制御部72、設定実行部74等は、CPU20がROM22に記憶された制御プログラムを読み出すことで実現する処理モジュールである。なお、図4に示された1つのブロックを複数のブロックによって実現してもよいし、図4に示された複数のブロックを1つのブロックとして実現してもよい。また、これらの一部または全部をハードウエアとして実現してもよい。   FIG. 4 is a software block diagram for realizing a part of the functions of the image processing apparatus 10 (functions related to the two-dimensional code). The display control unit 68, the two-dimensional code generation unit 70, the communication control unit 72, the setting execution unit 74, and the like illustrated in FIG. 4 are processing modules that are realized by the CPU 20 reading a control program stored in the ROM 22. Note that one block shown in FIG. 4 may be realized by a plurality of blocks, or the plurality of blocks shown in FIG. 4 may be realized as one block. Further, some or all of these may be realized as hardware.

前述したように、本実施形態のウェアラブル端末38は、画像処理装置10の特定部位の撮影によって得られた情報に基づく情報処理を実行して、画像処理装置10とウェアラブル端末38との間で無線接続を実現する。そのため、画像処理装置10は、一例として二次元コードをパネル装置14上に表示する。表示制御部68は、二次元コード生成部70によって生成された二次元コード、またはROM22内の設定情報保存部76に保存された二次元コードをウェアラブル端末38で読み取れる状態でパネル装置14に出力する。   As described above, the wearable terminal 38 according to the present embodiment executes information processing based on information obtained by photographing a specific part of the image processing apparatus 10 and wirelessly communicates between the image processing apparatus 10 and the wearable terminal 38. Realize the connection. Therefore, the image processing apparatus 10 displays a two-dimensional code on the panel device 14 as an example. The display control unit 68 outputs the two-dimensional code generated by the two-dimensional code generation unit 70 or the two-dimensional code stored in the setting information storage unit 76 in the ROM 22 to the panel device 14 in a state where the wearable terminal 38 can read the two-dimensional code. .

二次元コード生成部70は、例えば、設定情報保存部76に無線接続の設定情報のみが保存され、二次元コードが保存されていない場合や二次元コードの表示タイミングにより表示内容(設定情報の内容)が変化する場合に、二次元コードを生成する。二次元コード生成部70は、ユーザが操作する操作部78からの生成コマンドを受け付けると設定情報保存部76から無線接続の設定情報を読み出して二次元コードを生成する。二次元コードには、一例として図5に示すように、画像処理装置10に固有の「IPアドレス」、「SSID」、「パスワード」等が含まれる。なお、IPアドレスは静的IPアドレスでもよいし、動的IPアドレスでもよい。静的IPアドレスの場合、ウェアラブル端末38との間で一度接続設定をしてしまえば、以降はウェアラブル端末38で設定情報の取得の必要がなくなり、処理の簡略化ができる。一方、動的IPアドレスの場合、ウェアラブル端末38は、ユーザがウェアラブル端末38と画像処理装置10との接続を行うたびに、設定情報を提供する。例えば、オフィス等で同機種の画像処理装置10が複数台存在する場合は、ユーザが見ている画像処理装置10との接続がスムーズに実現できる。なお、操作部78は、パネル装置14上でタッチパネルの形態で構成されてもよい。   For example, the two-dimensional code generation unit 70 stores only the wireless connection setting information in the setting information storage unit 76, and the display contents (the contents of the setting information) when the two-dimensional code is not stored or when the two-dimensional code is displayed. ) Changes, a two-dimensional code is generated. When the two-dimensional code generation unit 70 receives a generation command from the operation unit 78 operated by the user, the two-dimensional code generation unit 70 reads the wireless connection setting information from the setting information storage unit 76 and generates a two-dimensional code. As shown in FIG. 5 as an example, the two-dimensional code includes an “IP address”, “SSID”, “password”, and the like unique to the image processing apparatus 10. The IP address may be a static IP address or a dynamic IP address. In the case of a static IP address, once connection setting with the wearable terminal 38 is performed, it is not necessary to acquire setting information in the wearable terminal 38 and the process can be simplified. On the other hand, in the case of a dynamic IP address, the wearable terminal 38 provides setting information every time a user connects the wearable terminal 38 and the image processing apparatus 10. For example, when there are a plurality of image processing apparatuses 10 of the same model in an office or the like, connection with the image processing apparatus 10 viewed by the user can be realized smoothly. The operation unit 78 may be configured on the panel device 14 in the form of a touch panel.

通信制御部72は、通信I/F30を介してウェアラブル端末38等の電子機器と無線通信を実現する。   The communication control unit 72 implements wireless communication with an electronic device such as the wearable terminal 38 via the communication I / F 30.

設定実行部74は、ウェアラブル端末38等の電子機器との間での無線接続を実現する。   The setting execution unit 74 realizes wireless connection with an electronic device such as the wearable terminal 38.

図6は、ウェアラブル端末38のソフトウエアブロック図である。図6に示される端末制御部80、映像受信部82、映像解析部84、表示制御部86、音声認識部88、音声出力部90、操作認識部92、通信制御部94、設定実行部96等は、CPU56がROM58に記憶された制御プログラムを読み出すことで実現する処理モジュールである。なお、図6に示された1つのブロックを複数のブロックによって実現してもよいし、図6に示された複数のブロックを1つのブロックとして実現してもよい。また、これらの一部または全部をハードウエアとして実現してもよい。   FIG. 6 is a software block diagram of the wearable terminal 38. A terminal control unit 80, a video reception unit 82, a video analysis unit 84, a display control unit 86, a voice recognition unit 88, a voice output unit 90, an operation recognition unit 92, a communication control unit 94, a setting execution unit 96, and the like shown in FIG. Is a processing module realized by the CPU 56 reading a control program stored in the ROM 58. Note that one block shown in FIG. 6 may be realized by a plurality of blocks, or the plurality of blocks shown in FIG. 6 may be realized as one block. Further, some or all of these may be realized as hardware.

端末制御部80は、ウェアラブル端末38の全体を制御する。例えば、マイク50やスイッチ54を介して入力された指示コマンドに基づき、インターネット等の通信手段を利用して検索を行い必要な情報を取得したり、ROM58やEEPROM62等の記憶手段から情報を取得したり、カメラ48により映像情報を取得したりする。また、取得した各情報を表示部46に表示したり、それに伴う音声をスピーカ52から出力する制御等を行う。また、取得した情報をRAM60(図3参照)やEEPROM62等に保存する制御を行う。   The terminal control unit 80 controls the entire wearable terminal 38. For example, based on an instruction command input via the microphone 50 or the switch 54, a search is performed using communication means such as the Internet to acquire necessary information, or information is acquired from storage means such as the ROM 58 or the EEPROM 62. Or the video information is acquired by the camera 48. In addition, each acquired information is displayed on the display unit 46, and control for outputting a sound accompanying the information from the speaker 52 is performed. Further, control is performed to save the acquired information in the RAM 60 (see FIG. 3), the EEPROM 62, or the like.

映像受信部82は、カメラ48を制御して当該カメラ48で映像情報を取得する。カメラ48は、ウェアラブル端末38の周辺映像を撮影すると共に、その中に含まれる情報、例えば二次元コード等を撮影することで取得する。なお、取得した映像情報は、一時的にRAM60やEEPROM62に記憶する。また、映像解析部84は、取得した映像情報の映像解析を必要に応じて行う。例えば、取得した映像情報が二次元コードの場合、その二次元コードが含む情報の解析を行う。また、映像解析部84は、解析結果をRAM60やEEPROM62等に記憶する。   The video receiver 82 controls the camera 48 and acquires video information with the camera 48. The camera 48 captures the peripheral video of the wearable terminal 38 and captures information included therein, for example, a two-dimensional code. Note that the acquired video information is temporarily stored in the RAM 60 or the EEPROM 62. The video analysis unit 84 performs video analysis of the acquired video information as necessary. For example, when the acquired video information is a two-dimensional code, information included in the two-dimensional code is analyzed. The video analysis unit 84 stores the analysis result in the RAM 60, the EEPROM 62, or the like.

表示制御部86は、端末制御部80がインターネット等の通信手段やROM58、EEPROM62、カメラ48等を介して取得した画像情報や文字情報を表示部46に表示する。本実施形態の表示部46は、図2に示すように、レンズ38bを通した視界の一部に配置され、視界内の適切な位置に画像情報や文字情報が表示される。表示される画像情報や文字情報は、例えば、半透明の態様で表示されてユーザがレンズ38bを介して見ている像(現実風景)上に重畳される。その結果、ユーザが見ている像(現実風景)の視認性を損なうこと無く、取得した画像情報や文字情報をユーザに提供することができる。この場合、表示部46に表示される情報は、オリジナル情報を表示してもよいし、情報内容に応じて、予め定めた規則にしたがい優先度の高い情報を選択的に表示するようにしてもよい。また、適宜情報を加工して表示するようにしてもよい。   The display control unit 86 displays image information and character information acquired by the terminal control unit 80 via communication means such as the Internet, the ROM 58, the EEPROM 62, the camera 48, and the like on the display unit 46. As shown in FIG. 2, the display unit 46 of the present embodiment is disposed in a part of the field of view through the lens 38b, and displays image information and character information at an appropriate position in the field of view. The displayed image information and character information are displayed in a translucent manner, for example, and are superimposed on an image (real scene) that the user is looking through the lens 38b. As a result, the acquired image information and text information can be provided to the user without impairing the visibility of the image (real landscape) that the user is viewing. In this case, the information displayed on the display unit 46 may display original information, or selectively display high priority information according to a predetermined rule according to the information content. Good. Further, information may be appropriately processed and displayed.

表示制御部86は、情報取得部98(取得部)、案内画像生成部100(情報生成部)、重畳部102を含む。本実施形態のウェアラブル端末38は、効率的な利用を実現するために各種案内情報を生成する。例えば、カメラ48によって周辺映像を撮影する際に、その画像の中に取得すべき情報が含まれている場合がある。しかし、その情報が必ずしも解析可能な状態で映り込んでいるとは限らない。例えば、二次元コードを解析しようとする場合、現状の撮影状態では、二次元コードの表示された位置が遠すぎて映像情報に二次元コードが存在するものの解析できない場合がある。そのような場合に、画像処理装置10における特定部位、例えば二次元コードが表示されている位置にユーザの注目を促すような案内情報を生成する。例えば「ここを見てください。」や「もう少しパネルに近づいてください。」等の案内情報を提供する。   The display control unit 86 includes an information acquisition unit 98 (acquisition unit), a guide image generation unit 100 (information generation unit), and a superimposition unit 102. The wearable terminal 38 of the present embodiment generates various types of guidance information in order to realize efficient use. For example, when a peripheral video is photographed by the camera 48, information to be acquired may be included in the image. However, the information is not necessarily reflected in a state where it can be analyzed. For example, when a two-dimensional code is to be analyzed, there are cases where, in the current shooting state, the position where the two-dimensional code is displayed is too far and the two-dimensional code is present in the video information but cannot be analyzed. In such a case, guidance information that prompts the user's attention to a specific part in the image processing apparatus 10, for example, a position where a two-dimensional code is displayed, is generated. For example, it provides guidance information such as “Look here.” Or “Get closer to the panel.”

そこで、表示制御部86は、まずカメラ48が現在撮影している(ユーザの視野に入っている)電子機器を特定する。つまり、情報取得部98は、カメラ48が現在撮影している電子機器の特徴的な部分と一致する特徴点を有する電子機器をROM58の特徴点情報保存部58aに保持された情報から読み出す。特徴点情報保存部58aには、例えば画像処理装置10を特定するための特徴点情報が機種ごとに保存されている。特徴点情報は画像処理装置10の画像情報に付加した態様で保存されていてもよい。   Therefore, the display control unit 86 first identifies the electronic device that the camera 48 is currently shooting (in the user's field of view). In other words, the information acquisition unit 98 reads an electronic device having a feature point that matches a characteristic part of the electronic device currently captured by the camera 48 from the information held in the feature point information storage unit 58a of the ROM 58. In the feature point information storage unit 58a, for example, feature point information for specifying the image processing apparatus 10 is stored for each model. The feature point information may be stored in a form added to the image information of the image processing apparatus 10.

図7は、説明のために特徴点情報保存部58aに保持されている画像処理装置10の特徴点(左側)とカメラ48で撮影している画像処理装置10の特徴部分(右側)の比較状態を示している。特徴点は、輝度差が大きいエッジ部分などで定義される。そして、カメラ48で撮影した電子機器の輝度差が大きいエッジ部分を抽出し、輝度の変化を方向として表し、輝度差と方向が一致するものを同じ特徴点とする。そして、表示制御部86は、カメラ48で取得した画像情報の特徴点と比較して、一致する特徴点数が所定閾値以上になった場合に、画像処理装置10が存在すると判定する。特徴点情報保存部58aに、複数の角度や距離から撮影した画像処理装置の画像の情報を保持することで、画像処理装置10の検出精度を向上することができる。   FIG. 7 shows a comparison state between the feature points (left side) of the image processing apparatus 10 held in the feature point information storage unit 58a and the characteristic portions (right side) of the image processing apparatus 10 captured by the camera 48 for explanation. Is shown. A feature point is defined by an edge portion having a large luminance difference. Then, an edge portion having a large luminance difference of the electronic device photographed by the camera 48 is extracted, the change in luminance is expressed as a direction, and the one having the same luminance difference and direction as the same feature point. Then, the display control unit 86 determines that the image processing apparatus 10 exists when the number of matching feature points is equal to or greater than a predetermined threshold as compared with the feature points of the image information acquired by the camera 48. By storing the information of the image of the image processing apparatus captured from a plurality of angles and distances in the feature point information storage unit 58a, the detection accuracy of the image processing apparatus 10 can be improved.

また、特徴点情報保存部58aには、画像処理装置10における特定部位、例えば二次元コードが表示されているパネル装置14の相対的な位置情報が機種ごとに保持されている。情報取得部98は、特定した画像処理装置10におけるパネル装置14の相対位置を示す位置情報を特徴点情報保存部58aから取得する。そして、この位置情報に基づいて、カメラ48で撮影している画像処理装置10におけるパネル装置14の位置を特定する。図8は、説明のために特徴点情報保存部58aに保持されている画像処理装置10の特徴点としてのパネル装置14の位置(左側)に基づいて、カメラ48で撮影している画像処理装置10におけるパネル装置14の位置を特定している状態例を示している。このように、画像処理装置10の機種が特定できれば、カメラ48で撮影している画像処理装置10における特定部位、例えばパネル装置14の撮影画像上の位置が特定できる。なお、二次元コードは、パネル装置14上だけでなく、画像処理装置10の側面(ハウジング側壁)等にシール等で貼られている場合がある。その場合はそのシール(二次元コード)の位置を特徴点情報保存部58aで保存してもよい。   The feature point information storage unit 58a holds relative position information of a specific part of the image processing apparatus 10, for example, the panel device 14 on which a two-dimensional code is displayed, for each model. The information acquisition unit 98 acquires position information indicating the relative position of the panel device 14 in the specified image processing apparatus 10 from the feature point information storage unit 58a. Then, based on this position information, the position of the panel device 14 in the image processing apparatus 10 photographed by the camera 48 is specified. FIG. 8 illustrates an image processing device that is photographed by the camera 48 based on the position (left side) of the panel device 14 as a feature point of the image processing device 10 held in the feature point information storage unit 58a for explanation. 10 shows an example of a state in which the position of the panel device 14 is specified. As described above, if the model of the image processing apparatus 10 can be specified, a specific part of the image processing apparatus 10 captured by the camera 48, for example, a position on the captured image of the panel device 14 can be specified. Note that the two-dimensional code may be affixed not only on the panel device 14 but also on the side surface (housing side wall) of the image processing apparatus 10 with a seal or the like. In that case, the position of the seal (two-dimensional code) may be stored in the feature point information storage unit 58a.

案内画像生成部100は、カメラ48で撮影している画像処理装置10における特定部位、例えばパネル装置14の撮影画像上の位置が特定できたら、その位置にユーザの注目を促すように案内情報を生成する。前述したように、ウェアラブル端末38を頭部に装着したユーザの視野角とカメラ48の画角が実質的に同じに設定されている。したがって、例えば図9に示すように、パネル装置14の位置をカメラ48の撮影画像の例えば左上隅を基準に、座標(M,N)として決めることができる。案内画像生成部100は、座標(M,N)を基準に案内情報である「ここを見てください」というメッセージ104と、パネル装置14の位置を強調する例えば強調枠106を生成する。そして、生成した案内情報(メッセージ104、強調枠106)を重畳部102がユーザが実際に見ている画像処理装置10の像のパネル装置14の位置に重畳表示する。ユーザが実際に見ている画像処理装置10の像に案内画像を重畳した状態を図10に示す。案内画像の表示態様は、例えば半透明として実風景(実像)の視認の妨げにならないようにすることが望ましい。このような、案内情報の表示を行うことによりウェアラブル端末38を装着したユーザは、メッセージ104や強調枠106により注意喚起され、強調枠106で囲まれた部分を注目する。つまり、案内情報は、強調枠106で囲まれた部分を視野の真ん中に持ってくるような移動をユーザに促したり、さらに近づくような移動を促したりする効果を実現する。なお、メッセージ104や強調枠106はユーザの注目を喚起するような態様で、かつユーザの視認負担にならない態様で表示することが望ましい。例えば赤色表示等の際だち表示や点滅表示等にしてもよい。また、案内画像生成部100は、強調枠106を撮影画像中の特定部位に示される情報の表示サイズ、例えば、パネル装置14の表示サイズや二次元コードの表示サイズに対応する表示サイズとしてもよい。例えば、撮影画像中のパネル装置14の表示サイズが小さい場合、すなわちパネル装置14から遠い場合には、強調枠106の表示サイズも小さくする。逆に撮影画像中のパネル装置14の表示サイズが十分に大きい場合、すなわちパネル装置14から近い場合には、強調枠106の表示サイズもそれに対応させて大きくする。このように強調枠106等の案内情報の表示サイズを変化させることにより、ユーザが実際に見ている画像処理装置10との距離感を認識させやすくすることができる。また、画像処理装置10の何処を見たらよいのかを理解させやすくすることができる。   When the specific part of the image processing apparatus 10 photographed by the camera 48, for example, the position on the photographed image of the panel device 14, can be identified, the guide image generating unit 100 displays the guide information so as to attract the user's attention to the position. Generate. As described above, the viewing angle of the user wearing the wearable terminal 38 on the head and the angle of view of the camera 48 are set to be substantially the same. Therefore, for example, as shown in FIG. 9, the position of the panel device 14 can be determined as coordinates (M, N) with reference to, for example, the upper left corner of the image taken by the camera 48. The guide image generation unit 100 generates a message 104 “Look here” that is guide information based on the coordinates (M, N), and a highlight frame 106 that highlights the position of the panel device 14, for example. The superimposing unit 102 superimposes and displays the generated guidance information (message 104, emphasis frame 106) at the position of the panel device 14 of the image of the image processing apparatus 10 that the user actually sees. FIG. 10 shows a state in which the guide image is superimposed on the image of the image processing apparatus 10 that is actually viewed by the user. It is desirable that the display mode of the guide image is, for example, translucent so as not to hinder the visual recognition of the real landscape (real image). The user wearing the wearable terminal 38 by displaying such guidance information is alerted by the message 104 or the emphasis frame 106 and pays attention to the portion surrounded by the emphasis frame 106. In other words, the guidance information realizes an effect of prompting the user to move such that the portion surrounded by the emphasis frame 106 is brought to the center of the field of view, or prompting the user to move closer. Note that it is desirable to display the message 104 and the emphasis frame 106 in a manner that attracts the user's attention and that does not cause the user's visual burden. For example, a red display or the like may be displayed or blinked. In addition, the guidance image generation unit 100 may set the highlight frame 106 to a display size corresponding to the display size of information indicated by a specific part in the captured image, for example, the display size of the panel device 14 or the display size of the two-dimensional code. . For example, when the display size of the panel device 14 in the captured image is small, that is, when it is far from the panel device 14, the display size of the highlight frame 106 is also reduced. Conversely, when the display size of the panel device 14 in the captured image is sufficiently large, that is, close to the panel device 14, the display size of the emphasis frame 106 is also increased correspondingly. In this way, by changing the display size of the guidance information such as the emphasis frame 106, it is possible to easily recognize the sense of distance from the image processing apparatus 10 that the user is actually looking at. In addition, it is possible to easily understand where to look at the image processing apparatus 10.

音声認識部88は、マイク50から入力される音声情報を取得、認識して端末制御部80における制御を実行する。例えば音声コマンドや検索キーワードの入力、電話機能使用時の入力やテキスト作成時に文章入力を受け付ける。   The voice recognition unit 88 acquires and recognizes voice information input from the microphone 50 and executes control in the terminal control unit 80. For example, input of a voice command or a search keyword, input when using a telephone function, and input of a sentence when creating a text are accepted.

音声出力部90は、インターネット等の通信手段を利用して取得した情報や、ROM58やEEPROM62等の記憶手段から取得した情報、カメラ48で取得した映像情報等に付随する音声をスピーカ52を介して出力して、ユーザに提供する。   The audio output unit 90 transmits information associated with information acquired by using communication means such as the Internet, information acquired from storage means such as the ROM 58 and the EEPROM 62, video information acquired by the camera 48, and the like via the speaker 52. Output and provide to the user.

操作認識部92は、表示部46に表示される選択コマンドの選択、決定等をスイッチ54の操作を介して受け付け、端末制御部80に操作に対応する処理を実行させる。   The operation recognition unit 92 accepts selection, determination, and the like of the selection command displayed on the display unit 46 through the operation of the switch 54, and causes the terminal control unit 80 to execute processing corresponding to the operation.

通信制御部94は、通信I/F64を介して画像処理装置10をはじめとする他の電子機器やインターネット、LAN等との無線接続を実現する。   The communication control unit 94 realizes wireless connection with other electronic devices such as the image processing apparatus 10, the Internet, and a LAN via the communication I / F 64.

設定実行部96は、画像処理装置10をはじめとする他の電子機器やインターネット、LAN等との無線接続の設定を実行する。なお、設定実行部96は、無線接続時の設定情報等をEEPROM62の設定情報保存部68aに保存し、再接続を行う場合に利用してもよい。   The setting execution unit 96 executes wireless connection settings with other electronic devices such as the image processing apparatus 10, the Internet, and a LAN. The setting execution unit 96 may store setting information and the like at the time of wireless connection in the setting information storage unit 68a of the EEPROM 62, and may be used when performing reconnection.

このように構成されるウェアラブル端末38と画像処理装置10との無線接続の手順を図11および図12のフローチャートを用いて説明する。一例として、ウェアラブル端末38を装着したユーザが、ウェアラブル端末38の記憶部やクラウド上等に保持されたデータを画像処理装置10で印刷処理を実行するにあたり、ウェアラブル端末38と画像処理装置10とを無線接続する例を説明する。   A procedure for wireless connection between the wearable terminal 38 configured as described above and the image processing apparatus 10 will be described with reference to the flowcharts of FIGS. 11 and 12. As an example, when a user who wears the wearable terminal 38 executes print processing on the data stored in the storage unit or the cloud of the wearable terminal 38 using the image processing apparatus 10, the wearable terminal 38 and the image processing apparatus 10 are connected to each other. An example of wireless connection will be described.

まず、ユーザは、マイク50やスイッチ54を用いてカメラ48によりユーザ周辺の風景の撮影を実行させて、映像受信部82による撮影画像の取り込みを行う(S100;撮影処理)。端末制御部80は、映像解析部84の撮影画像の解析結果に基づいて、撮影画像の中に画像処理装置10(MFP)が存在するか否か判定する(S102)。撮影画像に画像処理装置10が存在しない場合(S102のNo)、S100に戻り、映像受信部82は他の撮影画像の取得を行う。なお、この場合、音声出力部90は、画像処理装置10が確認できないことや他の方向の撮影を行う旨のメッセージをスピーカ52から出力してもよい。また、表示制御部86は、同様な内容のメッセージを表示部46に表示してもよい。   First, the user causes the camera 48 to shoot a landscape around the user using the microphone 50 and the switch 54, and captures a captured image by the video receiving unit 82 (S100: shooting process). The terminal control unit 80 determines whether the image processing apparatus 10 (MFP) is present in the captured image based on the analysis result of the captured image of the video analysis unit 84 (S102). When the image processing apparatus 10 does not exist in the captured image (No in S102), the process returns to S100, and the video receiving unit 82 acquires another captured image. In this case, the audio output unit 90 may output a message from the speaker 52 that the image processing apparatus 10 cannot confirm or that photographing in another direction is performed. The display control unit 86 may display a message having the same content on the display unit 46.

撮影画像に画像処理装置10が存在する場合(S102のYes)、通信制御部94は、その画像処理装置10との無線接続が接続済みか否か判定する(S104)。既に無線接続済みの場合(S104のYes)、端末制御部80は、一旦このフローを終了し、接続されている画像処理装置10を用いた印刷処理等を実行する。   When the image processing apparatus 10 exists in the captured image (Yes in S102), the communication control unit 94 determines whether or not the wireless connection with the image processing apparatus 10 has been connected (S104). If the wireless connection has already been established (Yes in S104), the terminal control unit 80 once ends this flow, and executes a printing process using the connected image processing apparatus 10 or the like.

S104において、撮影画像中の画像処理装置10とウェアラブル端末38との無線接続が未接続の場合(S104のNo)、端末制御部80は、表示制御部86により撮影画像中の画像処理装置10の機種特定を実行する(S106)。この場合、図7に示すように表示制御部86は、撮影画像中の画像処理装置10の特徴点と情報取得部98が特徴点情報保存部58aから取得する特徴点情報との比較により、機種特定を実行する。表示制御部86は撮影画像中の画像処理装置10の機種特定が完了したら、特定した画像処理装置10において接続情報を示す二次元コードが表示されたパネル装置14の位置を示す特定部位の位置情報を情報取得部98に取得させる(S108;取得処理)。表示制御部86は、特徴点情報保存部58aから取得したパネル装置14の位置情報に基づき、現在の解析対象の撮影画像にパネル装置14が存在するか否か判定する(S110)。例えば、ユーザが画像処理装置10の側面や背面を見ていた場合には、画像処理装置10の存在が確認できる場合でもパネル装置14が確認できない場合がある(S110のNo)。そのような場合は、S100に戻り、他の撮影画像の取り込みを行い、S100以降の処理を再度実行する。   In S104, when the wireless connection between the image processing apparatus 10 in the captured image and the wearable terminal 38 is not connected (No in S104), the terminal control unit 80 causes the display control unit 86 to change the image processing apparatus 10 in the captured image. Model identification is executed (S106). In this case, as shown in FIG. 7, the display control unit 86 compares the feature points of the image processing apparatus 10 in the captured image with the feature point information acquired by the information acquisition unit 98 from the feature point information storage unit 58a. Perform identification. When the display control unit 86 completes specifying the model of the image processing apparatus 10 in the captured image, the position information of the specific part indicating the position of the panel device 14 on which the two-dimensional code indicating the connection information is displayed in the specified image processing apparatus 10. Is acquired by the information acquisition unit 98 (S108; acquisition process). The display control unit 86 determines whether or not the panel device 14 exists in the current analysis target captured image based on the position information of the panel device 14 acquired from the feature point information storage unit 58a (S110). For example, when the user is looking at the side or back of the image processing apparatus 10, the panel apparatus 14 may not be confirmed even when the presence of the image processing apparatus 10 can be confirmed (No in S110). In such a case, the process returns to S100, another captured image is captured, and the processes after S100 are executed again.

S110において、表示制御部86が撮影画像中にパネル装置14が存在すると判定した場合(S110のYes)、表示制御部86は、案内画像生成部100に図9に示すような案内情報を生成させる(S112;情報生成処理)。さらに、表示制御部86は重畳部102を用いて、生成された案内情報をユーザの見ている画像処理装置10の像に重畳させる(S114;重畳処理)。この時点で映像解析部84が、撮影画像中で解析可能な二次元コードを取得できない場合(S116のNo)、S100に戻り、他の撮影画像を取り込み、S100以降の処理を再度実行する。また、映像解析部84が、撮影画像中に解析可能な二次元コードを取得できた場合(S116のYes)、端末制御部80は、取得した二次元コードに基づく無線接続処理を実行して(S118;情報処理)、このフローを一旦終了する。   In S110, when the display control unit 86 determines that the panel device 14 is present in the captured image (Yes in S110), the display control unit 86 causes the guide image generation unit 100 to generate guidance information as illustrated in FIG. (S112; information generation process). Further, the display control unit 86 uses the superimposing unit 102 to superimpose the generated guidance information on the image of the image processing apparatus 10 viewed by the user (S114: superimposition processing). If the video analysis unit 84 cannot acquire a two-dimensional code that can be analyzed in the captured image at this time (No in S116), the process returns to S100, captures another captured image, and executes the processing from S100 onward. When the video analysis unit 84 can acquire a two-dimensional code that can be analyzed in the captured image (Yes in S116), the terminal control unit 80 executes wireless connection processing based on the acquired two-dimensional code ( S118; Information processing), this flow is temporarily terminated.

図12には、端末制御部80が設定実行部96等に実行させる二次元コードに基づく無線接続処理の詳細が示されている。まず、端末制御部80は、映像解析部84に取得した二次元コードの解析を実行させる(S200)。この解析では、二次元コードに含まれる例えばIPアドレス、SSID、パスワード等が抽出される。端末制御部80は解析結果を表示制御部86を介して表示部46に表示させてユーザに提供する(S202)。このような設定情報を表示することにより、制御対象の画像処理装置10に関する多くの情報がユーザに提供可能となり、利用しようとする画像処理装置10の管理が容易になる。なお、この表示処理は省略してもよい。   FIG. 12 shows details of the wireless connection process based on the two-dimensional code that the terminal control unit 80 causes the setting execution unit 96 to execute. First, the terminal control unit 80 causes the video analysis unit 84 to analyze the acquired two-dimensional code (S200). In this analysis, for example, an IP address, an SSID, a password, etc. included in the two-dimensional code are extracted. The terminal control unit 80 displays the analysis result on the display unit 46 via the display control unit 86 and provides it to the user (S202). By displaying such setting information, a lot of information related to the image processing apparatus 10 to be controlled can be provided to the user, and management of the image processing apparatus 10 to be used becomes easy. This display process may be omitted.

続いて、端末制御部80は、表示制御部86を介して、解析結果に基づく処理を実行するか否かを問い合わせる確認情報を表示部46に表示させる(S204;確認処理)。例えば、「画像処理装置に接続しますか?」等の実行確認を行う(S206)。このような接続確認を行うことで、ユーザが接続しようとしている画像処理装置10以外の電子機器に対して誤って接続処理等を実施してしまうことが防止できる。また、解析した二次元コードの含む情報が無線接続の設定情報ではなく、他の制御を実行するための情報であった場合、その制御を実行するか否かを問い合わせてもよい。問い合わせ後、マイク50から入力されるボイスコマンドやスイッチ54から入力される操作コマンドにより、接続処理の実行指示を受け付けた場合(S206のYes)、設定実行部96はウェアラブル端末38と画像処理装置10との無線接続を実行する(S208)。また、S206において、ボイスコマンドや操作コマンドにより非実行指示が受け付けられた場合(S206のNo)、S208の処理をスキップしてこのフローを一旦終了する。   Subsequently, the terminal control unit 80 causes the display unit 46 to display confirmation information for inquiring whether or not to execute processing based on the analysis result via the display control unit 86 (S204; confirmation processing). For example, execution confirmation such as “Do you want to connect to the image processing apparatus?” Is performed (S206). By performing such connection confirmation, it is possible to prevent the user from erroneously performing connection processing or the like on an electronic device other than the image processing apparatus 10 that the user is trying to connect to. In addition, when the information included in the analyzed two-dimensional code is not the wireless connection setting information but information for executing another control, it may be inquired whether to execute the control. After the inquiry, when a connection processing execution instruction is received by a voice command input from the microphone 50 or an operation command input from the switch 54 (Yes in S206), the setting execution unit 96 sets the wearable terminal 38 and the image processing apparatus 10 to each other. (S208). In S206, if a non-execution instruction is accepted by a voice command or an operation command (No in S206), the process of S208 is skipped and this flow is temporarily ended.

このように、制御対象機器(画像処理装置10)の特定部位に注目を促す案内情報を生成して、制御対象機器の像に重畳表示することにより、制御対象機器が提供する情報を利用できる状態で撮影できるようにカメラ48の位置を誘導することができる。その結果、制御対象機器から供給された情報に基づく情報処理をスムーズに実行することができる。   In this way, the information provided by the control target device can be used by generating guidance information that draws attention to a specific part of the control target device (image processing apparatus 10) and displaying the guidance information superimposed on the image of the control target device. The position of the camera 48 can be guided so that shooting can be performed. As a result, information processing based on information supplied from the control target device can be executed smoothly.

図13は、他の実施形態に係るウェアラブル端末38の処理を説明するフローチャートである。他の実施形態では、ユーザから画像処理装置10までの距離が遠すぎて、二次元コードの存在確認はできるものの内容が十分に解析できなかった場合や、画像処理装置10側で二次元コードが非表示状態になっていた場合の対応について説明している。   FIG. 13 is a flowchart for explaining processing of the wearable terminal 38 according to another embodiment. In another embodiment, when the distance from the user to the image processing apparatus 10 is too far and the existence of the two-dimensional code can be confirmed but the contents cannot be analyzed sufficiently, or the two-dimensional code is generated on the image processing apparatus 10 side. The correspondence when it is in the non-display state is described.

ユーザは、マイク50やスイッチ54を用いたコマンド入力によりカメラ48による撮影および映像受信部82による撮影画像の取り込みを行う(S100)。端末制御部80は、映像解析部84の解析結果に基づいて、撮影画像の中に画像処理装置10(MFP)が存在するか否か判定する(S102)。撮影画像に画像処理装置10が存在しない場合(S102のNo)、S100に戻り、映像受信部82は他の撮影画像の取得を行う。   The user performs shooting by the camera 48 and capture of a shot image by the video receiving unit 82 by command input using the microphone 50 or the switch 54 (S100). The terminal control unit 80 determines whether the image processing apparatus 10 (MFP) is present in the captured image based on the analysis result of the video analysis unit 84 (S102). When the image processing apparatus 10 does not exist in the captured image (No in S102), the process returns to S100, and the video receiving unit 82 acquires another captured image.

撮影画像に画像処理装置10が存在する場合(S102のYes)、通信制御部94は、その画像処理装置10との無線接続が接続済みか否か判定する(S104)。そして、既に無線接続済みの場合(S104のYes)、端末制御部80は、一旦このフローを終了し、接続されている画像処理装置10を用いた印刷処理等を実行する。   When the image processing apparatus 10 exists in the captured image (Yes in S102), the communication control unit 94 determines whether or not the wireless connection with the image processing apparatus 10 has been connected (S104). If the wireless connection has already been established (Yes in S104), the terminal control unit 80 ends this flow once, and executes a printing process using the connected image processing apparatus 10 or the like.

S104において、撮影画像中の画像処理装置10とウェアラブル端末38との無線接続が未接続の場合(S104のNo)、端末制御部80は、表示制御部86により撮影画像中の画像処理装置10の機種特定を実行する(S106)。表示制御部86は撮影画像中の画像処理装置10の機種特定が完了したら、特定した画像処理装置10において接続情報を示す二次元コードが表示されたパネル装置14の位置を示す特定部位の位置情報を情報取得部98に取得させる(S108)。表示制御部86は、特徴点情報保存部58aから取得したパネル装置14の位置情報に基づき、現在の解析対象の撮影画像にパネル装置14が存在するか否か判定する(S110)。パネル装置14の存在が確認できない場合(S110のNo)、S100に戻り、他の撮影画像の取り込みを行い、S100以降の処理を再度実行する。   In S104, when the wireless connection between the image processing apparatus 10 in the captured image and the wearable terminal 38 is not connected (No in S104), the terminal control unit 80 causes the display control unit 86 to change the image processing apparatus 10 in the captured image. Model identification is executed (S106). When the display control unit 86 completes specifying the model of the image processing apparatus 10 in the captured image, the position information of the specific part indicating the position of the panel device 14 on which the two-dimensional code indicating the connection information is displayed in the specified image processing apparatus 10. Is acquired by the information acquisition unit 98 (S108). The display control unit 86 determines whether or not the panel device 14 exists in the current analysis target captured image based on the position information of the panel device 14 acquired from the feature point information storage unit 58a (S110). If the presence of the panel device 14 cannot be confirmed (No in S110), the process returns to S100, another captured image is taken in, and the processes after S100 are executed again.

S110において、表示制御部86が撮影画像中にパネル装置14が存在すると判定した場合(S110のYes)、表示制御部86は、案内画像生成部100に案内情報を生成させる(S112)。さらに、表示制御部86は、重畳部102を介して生成された案内情報をユーザの見ている画像処理装置10の像に重畳させる(S114)。この時点で、映像解析部84が、撮影画像中に解析可能な二次元コードを取得できた場合(S116のYes)、端末制御部80は、取得した二次元コードに基づく無線接続処理を実行して(S118;情報処理)、このフローを一旦終了する。一方、S116において、映像解析部84が、撮影画像中で解析可能な二次元コードを取得できない場合(S116のNo)、映像解析部84は、撮影画像の解析を二次元コードの解析モードから二次元コードの探索モードに切り替える。そして、映像解析部84は、撮影画像中に二次元コード表示済みのパネル装置14が存在するか否か判定する(S300)。もし、撮影画像中に二次元コード表示済みのパネル装置14が発見できた場合(S300のYes)、案内画像生成部100は、ユーザに画像処理装置10(パネル装置14)に接近することを促す接近案内情報を生成する。例えば、パネル装置14に二次元コードが表示されているものの、ユーザからパネル装置14までの距離が遠すぎて二次元コードが小さく解析不能な場合に、パネル装置14に接近することを促す案内情報を生成する。そして、重畳部102を介して、生成した接近案内情報をユーザが見ている画像処理装置10の像に対応して重畳させて、表示部46に表示する(S302)。図14のイメージ図は、ユーザが見ている画像処理装置10の像に接近案内情報108として「もう少しパネルに近づいてください」というメッセージを重畳した状態を示している。接近案内情報108の表示によりユーザは、パネル装置14(画像処理装置10)への接近を促される。その結果、カメラ48により撮影される撮影画像中のパネル装置14が実質的に拡大され、二次元コードの認識および解析を容易に実行できるようになる。表示制御部86が接近案内情報108の表示を完了したら、S110に移行し(A)、S110以降の処理を再度実行し、二次元コードの再確認および必要に応じて二次元コードの再撮影が実行される。   In S110, when the display control unit 86 determines that the panel device 14 is present in the captured image (Yes in S110), the display control unit 86 causes the guide image generation unit 100 to generate guidance information (S112). Further, the display control unit 86 superimposes the guidance information generated via the superimposing unit 102 on the image of the image processing apparatus 10 that the user is viewing (S114). At this time, when the video analysis unit 84 can acquire a two-dimensional code that can be analyzed in the captured image (Yes in S116), the terminal control unit 80 executes wireless connection processing based on the acquired two-dimensional code. (S118; information processing), this flow is temporarily terminated. On the other hand, in S116, when the video analysis unit 84 cannot acquire a two-dimensional code that can be analyzed in the captured image (No in S116), the video analysis unit 84 analyzes the captured image from the analysis mode of the two-dimensional code. Switch to dimension code search mode. Then, the video analysis unit 84 determines whether or not the panel device 14 on which the two-dimensional code is displayed exists in the captured image (S300). If the panel device 14 on which the two-dimensional code is displayed can be found in the captured image (Yes in S300), the guidance image generation unit 100 prompts the user to approach the image processing device 10 (panel device 14). Generate approach guidance information. For example, when a two-dimensional code is displayed on the panel device 14 but the distance from the user to the panel device 14 is too long and the two-dimensional code is small and cannot be analyzed, guidance information that prompts the user to approach the panel device 14. Is generated. Then, the generated approach guidance information is superimposed on the image of the image processing apparatus 10 viewed by the user via the superimposing unit 102 and displayed on the display unit 46 (S302). The image diagram of FIG. 14 shows a state in which a message “Please approach the panel a little more” is superimposed as the approach guidance information 108 on the image of the image processing apparatus 10 that the user is viewing. The display of the approach guidance information 108 prompts the user to approach the panel device 14 (image processing device 10). As a result, the panel device 14 in the captured image captured by the camera 48 is substantially enlarged, and the two-dimensional code can be easily recognized and analyzed. When the display control unit 86 completes the display of the approach guidance information 108, the process proceeds to S110 (A), the processes after S110 are executed again, and the two-dimensional code is reconfirmed and the two-dimensional code is re-photographed as necessary. Executed.

S300において、撮影画像中に二次元コード表示済みのパネル装置14が存在しない場合がある(S300のNo)。例えば、画像処理装置10のパネル装置14において、二次元コードが通常時は非表示とされている場合が考えられる。また、パネル装置14以外にシール貼附等により表示されている場合がある。この場合、案内画像生成部100は、情報取得部98を介して特徴点情報保存部58aから二次元コードの表示態様に関する情報を取得する。例えば、パネル装置14に二次元コードが常時表示されているか否か、特定の操作を行ったときのみ表示されるか否か等の情報や、パネル装置14以外の部分に二次元コードが表示(貼附)されている等の情報を取得する。二次元コードが特定の操作を行ったときのみパネル装置14に表示される場合、案内画像生成部100は、その操作手順を示す二次元コード表示案内を案内情報として生成する。そして、重畳部102が二次元コード表示案内情報をユーザが見ている画像処理装置10の像に対応して重畳するように表示部46に表示する(S304)。二次元コード表示案内情報として、例えば、「(1)パネル装置のキー操作が必要です」と表示する。続いて、「(2)ファンクションキープッシュ操作」、「(3)二次元コード生成キープッシュ操作」、「(4)二次元コード表示キープッシュ操作」、「(5)ウェアラブル端末で二次元コードを目視」等と表示する。   In S300, there is a case where the two-dimensional code displayed panel device 14 does not exist in the photographed image (No in S300). For example, in the panel device 14 of the image processing apparatus 10, a case where the two-dimensional code is not normally displayed is conceivable. Moreover, it may be displayed by sticking stickers etc. other than the panel apparatus 14. In this case, the guide image generation unit 100 acquires information regarding the display mode of the two-dimensional code from the feature point information storage unit 58a via the information acquisition unit 98. For example, information such as whether or not the two-dimensional code is always displayed on the panel device 14 or whether or not the two-dimensional code is displayed only when a specific operation is performed, and the two-dimensional code is displayed on a portion other than the panel device 14 ( Acquire information such as pasted. When the two-dimensional code is displayed on the panel device 14 only when a specific operation is performed, the guide image generation unit 100 generates a two-dimensional code display guide indicating the operation procedure as guide information. Then, the superimposing unit 102 displays the two-dimensional code display guide information on the display unit 46 so as to superimpose the two-dimensional code display guide information corresponding to the image of the image processing apparatus 10 that the user is viewing (S304). As the two-dimensional code display guide information, for example, “(1) Key operation of panel device is necessary” is displayed. Next, “(2) Function key push operation”, “(3) Two-dimensional code generation key push operation”, “(4) Two-dimensional code display key push operation”, “(5) Two-dimensional code on wearable terminal” “Visually” or the like is displayed.

図15は、画像処理装置10側のCPU20における二次元コードの生成処理を説明するフローチャートである。図4のソフトウエアブロック図と共に、生成処理の詳細を説明する。ユーザによる操作部78やパネル装置14等の操作で、二次元コードの表示コマンドを二次元コード生成部70が受け付けた場合(S400のYes)、二次元コード生成部70はROM22の設定情報保存部76に保存された設定情報を取得する(S402)。そして、二次元コード生成部70は、二次元コード(二次元コード画像)を生成する(S404)。表示制御部68は、生成した二次元コードをパネル装置14の所定の位置に表示して(S406)、このフローを一旦終了する。S400において、二次元コードの表示コマンドの入力がない場合(S400のNo)、表示コマンドの入力待ち状態となる。   FIG. 15 is a flowchart for describing a two-dimensional code generation process in the CPU 20 on the image processing apparatus 10 side. Details of the generation process will be described with reference to the software block diagram of FIG. When the two-dimensional code display command is received by the user through the operation unit 78 or the panel device 14 (Yes in S400), the two-dimensional code generation unit 70 stores the setting information storage unit in the ROM 22 The setting information stored in 76 is acquired (S402). Then, the two-dimensional code generation unit 70 generates a two-dimensional code (two-dimensional code image) (S404). The display control unit 68 displays the generated two-dimensional code at a predetermined position on the panel device 14 (S406), and once ends this flow. If there is no input of a two-dimensional code display command in S400 (No in S400), the display command input wait state is entered.

なお、パネル装置14に表示する二次元コードは、例えば、所定時間表示した後に非表示とするようにしてもよい。このように通常時は接続情報を含む二次元コードを非表示とすることで、セキュリティ性の向上に寄与できる。また、画像処理装置10としての基本操作には関与しない二次元コードが通常時には表示されないので、パネル装置14の表示レイアウトの自由度向上に寄与できる。また、意匠性の向上にも寄与できる。なお、二次元コードが常時表示される態様の場合で、設定情報に含まれるIPアドレスが動的IPアドレスの場合、二次元コード生成部70は、所定の周期で対応する動的IPアドレスを含む二次元コードを作成するようにしてもよい。   The two-dimensional code displayed on the panel device 14 may be hidden after being displayed for a predetermined time, for example. In this way, it is possible to contribute to the improvement of security by hiding the two-dimensional code including the connection information during normal times. In addition, since the two-dimensional code that is not involved in the basic operation as the image processing apparatus 10 is not normally displayed, it is possible to contribute to an improvement in the degree of freedom of the display layout of the panel device 14. Moreover, it can also contribute to the improvement of design property. When the two-dimensional code is always displayed and the IP address included in the setting information is a dynamic IP address, the two-dimensional code generation unit 70 includes the corresponding dynamic IP address at a predetermined period. A two-dimensional code may be created.

図13に戻り、S304で二次元コード表示案内情報を表示部46に重畳して、ユーザに操作指示を行った後は、S110(A)に移行してパネル装置14に表示された二次元コードをウェアラブル端末38で取得するための処理を再度実行する。   Returning to FIG. 13, after the two-dimensional code display guidance information is superimposed on the display unit 46 in S <b> 304 and an operation instruction is given to the user, the process proceeds to S <b> 110 (A) and the two-dimensional code displayed on the panel device 14. Is executed again by the wearable terminal 38.

なお、二次元コードがパネル装置14以外の位置に貼附等により表示されている場合、二次元コード生成部70で、その旨を示す二次元コードを生成して、ウェアラブル端末38に通知してもよい。また、S106で画像処理装置10の機種を特定した時点で、二次元コードの貼附位置を特徴点情報保存部58aから取得するようにしてもよい。このような場合、案内画像生成部100は、二次元コード表示案内として「側面に貼附された二次元コードを見てください」等の案内情報を生成する。そして、重畳部102により、その案内情報を他の案内情報と同様に表示部46に重畳表示して、二次元コードをウェアラブル端末38で取得するための処理を実行する。   When the two-dimensional code is displayed at a position other than the panel device 14 by pasting or the like, the two-dimensional code generation unit 70 generates a two-dimensional code indicating that fact and notifies the wearable terminal 38 of the two-dimensional code. Also good. Further, when the model of the image processing apparatus 10 is specified in S106, the attachment position of the two-dimensional code may be acquired from the feature point information storage unit 58a. In such a case, the guide image generation unit 100 generates guide information such as “please see the two-dimensional code attached to the side surface” as the two-dimensional code display guide. Then, the superimposing unit 102 superimposes the guidance information on the display unit 46 in the same manner as other guidance information, and executes processing for acquiring the two-dimensional code by the wearable terminal 38.

このように、二次元コードの表示態様に応じた案内情報を生成し、表示部46に重畳表示することにより、二次元コードを解析可能な状態でスムーズに取得して、二次元コードが提供する情報に基づく処理が迅速に実行できる。   In this way, by generating guidance information according to the display mode of the two-dimensional code and displaying it superimposed on the display unit 46, the two-dimensional code can be obtained smoothly in a state where it can be analyzed and provided by the two-dimensional code. Information-based processing can be performed quickly.

ところで、上述した実施形態において、ウェアラブル端末38のカメラ48で取得する情報の一例として二次元コードを示したが、他の形態の情報表示技術を用いてもよい。図16は、一例として、パネル装置14の表示画像14aに電子透かし110を埋め込んだ例である。電子透かし110は、一例として文字の特徴がある部分110a,110b等にビット情報を埋め込み、この情報を解析することで埋め込まれている情報を取得することができる。このように、パネル装置14の表示画像14aに電子透かし110を埋め込むことで、ウェアラブル端末38のカメラ48で二次元コードと同様に電子透かし110を読み取ることができる。その結果、二次元コードと同様の情報を容易にウェアラブル端末38側で取得できる。このような電子透かし110を用いることで、接続情報等を通常の表示画面に表示してもその表示レイアウトを崩すことがなく、設定情報等を認識されにくい態様で常時表示しておくことができる。また、電子透かし110は表示上認識されにくいので、二次元コードを利用する場合のように、表示/非表示の切り替えを行う処理を省略することができる。   By the way, in the above-described embodiment, a two-dimensional code is shown as an example of information acquired by the camera 48 of the wearable terminal 38, but other forms of information display technology may be used. FIG. 16 shows an example in which the digital watermark 110 is embedded in the display image 14a of the panel device 14 as an example. As an example, the digital watermark 110 can acquire the embedded information by embedding bit information in the portions 110a and 110b having character characteristics and analyzing the information. Thus, by embedding the digital watermark 110 in the display image 14a of the panel device 14, the digital watermark 110 can be read by the camera 48 of the wearable terminal 38 in the same manner as the two-dimensional code. As a result, the same information as the two-dimensional code can be easily acquired on the wearable terminal 38 side. By using such a digital watermark 110, even if connection information or the like is displayed on a normal display screen, the display layout is not destroyed, and the setting information or the like can be always displayed in a manner that is difficult to recognize. . In addition, since the digital watermark 110 is difficult to recognize on display, the process of switching between display and non-display can be omitted as in the case of using a two-dimensional code.

また、上述した実施形態では、ウェアラブル端末の一例としてメガネタイプのウェアラブル端末38を示したが、他のタイプのウェアラブル端末にも本実施形態を適用できる。図17は、ウェアラブル端末の他の例として、腕時計タイプのウェアラブル端末112を示している。ウェアラブル端末112は、本体部114の表面に配置された表示部116と、本体部114の側面に配置されたカメラ118と、本体部114を支持すると共にユーザの腕に固定するバンド120等を含む。なお、本体部114には、図示を省略しているが、メガネタイプのウェアラブル端末38と同様に、マイク、スピーカ、スイッチ等が配置されている。また、スピーカの代わりにイヤホーン等を装着する接続ジャックが形成されていてもよい。また、本体部114の内部には、図3に示すコントローラ44と同様の構成が納められ、CPU56上では図6と同様な各種モジュールが構成されて同様に機能する。   In the embodiment described above, the glasses-type wearable terminal 38 is shown as an example of the wearable terminal. However, the present embodiment can also be applied to other types of wearable terminals. FIG. 17 shows a wristwatch type wearable terminal 112 as another example of the wearable terminal. The wearable terminal 112 includes a display unit 116 disposed on the surface of the main body unit 114, a camera 118 disposed on a side surface of the main body unit 114, a band 120 that supports the main body unit 114 and is fixed to the user's arm. . Although not shown, the main body 114 is provided with a microphone, a speaker, a switch, and the like, as in the glasses-type wearable terminal 38. Further, a connection jack for mounting an earphone or the like instead of the speaker may be formed. Further, the same configuration as the controller 44 shown in FIG. 3 is housed in the main body 114, and various modules similar to those in FIG. 6 are configured and function in the same manner on the CPU 56.

ウェアラブル端末112の場合、画像処理装置10と無線接続しようとする場合には、接続しようとする画像処理装置10に向かってウェアラブル端末112のカメラ118を翳す。この場合、表示部116には、画像処理装置10の撮影画像が表示されると共に、ウェアラブル端末38と同様に、その撮影画像に基づいて画像処理装置10の特定、パネル装置14の相対位置の検出等を行う。そして、案内画像生成部100は、画像処理装置10のパネル装置14に表示された二次元コードや電子透かし110を読み取り可能な位置にカメラ118を移動させるように促す案内情報を生成する。案内情報の一例としては、図17に示すように矢印メッセージ122とすることができる。ウェアラブル端末112の場合、表示部116が小さく、ユーザは腕を動かしながらカメラ118の位置を調整するため、案内内容の理解が容易でシンプルな矢印等のマーク表示が望ましい。なお、音声出力による案内や文字表示による案内を併用してもよく、ユーザの注目を促すことができる。   In the case of the wearable terminal 112, when trying to connect wirelessly to the image processing apparatus 10, the camera 118 of the wearable terminal 112 is pointed at the image processing apparatus 10 to be connected. In this case, a photographed image of the image processing device 10 is displayed on the display unit 116, and, similar to the wearable terminal 38, the image processing device 10 is specified based on the photographed image and the relative position of the panel device 14 is detected. Etc. The guide image generation unit 100 generates guide information that prompts the camera 118 to move to a position where the two-dimensional code or the digital watermark 110 displayed on the panel device 14 of the image processing apparatus 10 can be read. As an example of the guidance information, an arrow message 122 can be used as shown in FIG. In the case of the wearable terminal 112, the display unit 116 is small, and the user adjusts the position of the camera 118 while moving his / her arm. In addition, guidance by voice output or guidance by character display may be used together, and the user's attention can be urged.

上述の各説明において、モバイル機器の一例として示したウェアラブル端末は、メガネタイプや腕時計タイプで、当該ウェアラブル端末に表示部、カメラ、マイク、スピーカ、スイッチ等が一体的に搭載された例を示した。別の例として、構成の一部や全てが別体構成とされていてもよい。例えば、カメラのみを別体構成としてもよく、同様の効果を得ることができる。また、ウェアラブル端末としてコンタクトレンズタイプにも本実施形態の技術は適用可能である。この場合、上述の構成の一部は別構成となる場合があるが、同様な効果が得られる。   In each of the above descriptions, the wearable terminal shown as an example of the mobile device is an eyeglass type or a wristwatch type, and an example in which a display unit, a camera, a microphone, a speaker, a switch, and the like are integrally mounted on the wearable terminal is shown. . As another example, a part or all of the configuration may be a separate configuration. For example, only the camera may be a separate configuration, and the same effect can be obtained. Further, the technique of the present embodiment can be applied to a contact lens type as a wearable terminal. In this case, a part of the above-described configuration may be a different configuration, but the same effect can be obtained.

また、別の実施形態として、撮影部、取得部、情報生成部、重畳部、制御部とを含む情報処理システムを構成してもよい。この場合、撮影部は、制御対象機器を撮影する。取得部は、撮影した制御対象機器に定められた特定部位の位置情報を取得する。情報生成部は、位置情報に基づいて制御対象機器における特定部位に注目を促す案内情報を生成する。重畳部は、案内情報を制御対象機器の像に重畳表示する。制御部は、注目を促した特定部位の撮影によって得られた情報に基づく処理を実行する。このような構成の情報処理システムにおいても、上述したようにウェアラブル端末に実施形態の技術を適用した場合と同様の効果を得ることができる。   As another embodiment, an information processing system including an imaging unit, an acquisition unit, an information generation unit, a superimposition unit, and a control unit may be configured. In this case, the photographing unit photographs the control target device. An acquisition part acquires the positional information on the specific site | part defined in the image | photographed control object apparatus. The information generation unit generates guidance information that prompts attention to a specific part in the control target device based on the position information. The superimposing unit superimposes and displays the guidance information on the image of the control target device. A control part performs the process based on the information obtained by imaging | photography of the specific site | part which attracted attention. Even in the information processing system having such a configuration, it is possible to obtain the same effect as when the technique of the embodiment is applied to the wearable terminal as described above.

また、別の実施形態として、ウェアラブル端末と、当該ウェアラブル端末と無線接続可能な画像処理装置と、からなる相互接続システムを構成してもよい。この場合、ウェアラブル端末は、撮影部と、取得部と、情報生成部と、重畳部と、端末制御部とを含む。撮影部は、制御対象機器を撮影する。取得部は、撮影した制御対象機器に定められた特定部位の位置情報を取得する。情報生成部は、位置情報に基づいて制御対象機器における特定部位に注目を促す案内情報を生成する。重畳部は、案内情報を制御対象機器の像に重畳表示する。端末制御部は、注目を促した特定部位の撮影によって得られた情報に基づき画像処理装置に対し無線接続処理を実行する。一方、画像処理装置は、表示部と、本体制御部とを含む。表示部は、ウェアラブル端末と無線接続するための情報を特定部位に表示する。本体制御部は、情報に基づきウェアラブル端末に対する無線接続処理を実行する。このような構成の相互接続システムにおいても、上述したように実施形態と同様な効果を得ることができる。   As another embodiment, an interconnection system including a wearable terminal and an image processing apparatus that can be wirelessly connected to the wearable terminal may be configured. In this case, the wearable terminal includes an imaging unit, an acquisition unit, an information generation unit, a superimposition unit, and a terminal control unit. The photographing unit photographs the control target device. An acquisition part acquires the positional information on the specific site | part defined in the image | photographed control object apparatus. The information generation unit generates guidance information that prompts attention to a specific part in the control target device based on the position information. The superimposing unit superimposes and displays the guidance information on the image of the control target device. The terminal control unit executes a wireless connection process on the image processing apparatus based on information obtained by photographing a specific part that has attracted attention. On the other hand, the image processing apparatus includes a display unit and a main body control unit. The display unit displays information for wireless connection with the wearable terminal on a specific part. The main body control unit executes a wireless connection process for the wearable terminal based on the information. Also in the interconnection system having such a configuration, the same effects as those of the embodiment can be obtained as described above.

また、上述した実施形態においては、ウェアラブル端末38,112の制御対象機器を画像処理装置10とする場合を示したが、制御対象機器は、適宜選択可能である。例えば、複写機、プリンター、イメージスキャナ、ファクシミリ等のいずれか一つの機能、またはそのうちの幾つかを組み合わせた機能を有する電子機器としてもよい。また、テレビや録画、録音装置等のオーディオ機器、家電機器、自動車、ロボット等を制御対象機器としてもよく、同様の効果を得ることができる。   Moreover, although the case where the control target device of the wearable terminals 38 and 112 is the image processing apparatus 10 has been described in the above-described embodiment, the control target device can be appropriately selected. For example, the electronic device may have any one function of a copier, a printer, an image scanner, a facsimile, or the like, or a function combining some of them. In addition, audio devices such as televisions, recording devices, and recording devices, home appliances, automobiles, robots, and the like may be used as control target devices, and similar effects can be obtained.

また、上述した実施形態では、無線接続の一例として、Wi−Fi通信を示し、二次元コードに含まれる接続情報を提供、取得する場合を示したが、例えばブルートゥース(登録商標)のペアリング情報を接続情報として提供、取得してもよい。この場合も同様の効果を得ることができる。   In the above-described embodiment, Wi-Fi communication is shown as an example of wireless connection, and connection information included in a two-dimensional code is provided and acquired. For example, Bluetooth (registered trademark) pairing information May be provided and acquired as connection information. In this case, the same effect can be obtained.

また、上述した実施形態においては、一例としてウェアラブル端末38,112の画像処理装置10との無線接続を確立する際の設定情報を取得する場合を示したが、取得する情報は適宜選択可能である。制御対象機器の情報、例えば紙なし情報やトナー切れ情報等を二次元コード等に含ませて、接続前のウェアラブル端末に提供してもよい。この場合、接続機器の事前選択を行わせることが可能になり、制御対象機器の利用効率の向上に寄与できる。   In the above-described embodiment, as an example, the case where setting information for establishing a wireless connection with the image processing apparatus 10 of the wearable terminals 38 and 112 is shown. However, the information to be acquired can be selected as appropriate. . Information on the device to be controlled, for example, no-paper information, out-of-toner information, and the like may be included in the two-dimensional code and provided to the wearable terminal before connection. In this case, it becomes possible to make a prior selection of the connected device, which can contribute to an improvement in the utilization efficiency of the device to be controlled.

上述の実施形態の画像処理装置10やウェアラブル端末38,112等で実行されるプログラムは、ROM等に予め組み込まれて提供される。別の実施形態としては、プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。この場合、画像処理装置10やウェアラブル端末38,112等にはそれぞれインタフェースを備えるようにすればよい。   The programs executed by the image processing apparatus 10 and the wearable terminals 38 and 112 according to the above-described embodiment are provided by being incorporated in advance in a ROM or the like. In another embodiment, the program is a file in an installable or executable format, and is a computer-readable recording such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versatile Disk). You may comprise so that it may record and provide on a medium. In this case, the image processing apparatus 10 and the wearable terminals 38 and 112 may be provided with interfaces.

さらに、上述の実施形態の画像処理装置10やウェアラブル端末38,112等で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、上述の実施形態の画像処理装置10やウェアラブル端末38,112等で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   Furthermore, the program executed by the image processing apparatus 10 and the wearable terminals 38 and 112 according to the above-described embodiment is stored on a computer connected to a network such as the Internet, and is provided by being downloaded via the network. It may be configured. Further, the program executed by the image processing apparatus 10 and the wearable terminals 38 and 112 according to the above-described embodiments may be provided or distributed via a network such as the Internet.

上述の実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態およびその変形は、発明の範囲および要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   The above-described embodiments are presented as examples, and are not intended to limit the scope of the invention. The novel embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. This embodiment and its modifications are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

10 画像処理装置
12,44 コントローラ
14 パネル装置
20,56 CPU
22,58 ROM
24,60 RAM
26 NVRAM
28 HDD
30,64 通信I/F
32 ネットワークI/F
36 パネルI/F
38,112 ウェアラブル端末
46,116 表示部
48,118 カメラ
58a 特徴点情報保存部
62 EEPROM
68 表示制御部
70 二次元コード生成部
80 端末制御部
100 案内画像生成部
102 重畳部
104 メッセージ
106 強調枠
108 接近案内情報
122 矢印メッセージ
10 Image processing device 12, 44 Controller 14 Panel device 20, 56 CPU
22, 58 ROM
24, 60 RAM
26 NVRAM
28 HDD
30,64 Communication I / F
32 Network I / F
36 Panel I / F
38, 112 Wearable terminal 46, 116 Display unit 48, 118 Camera 58a Feature point information storage unit 62 EEPROM
68 Display control unit 70 Two-dimensional code generation unit 80 Terminal control unit 100 Guide image generation unit 102 Superimposition unit 104 Message 106 Emphasis frame 108 Approach guidance information 122 Arrow message

特開2006−157814号公報JP 2006-157814 A

Claims (15)

ユーザに装着されるウェアラブル端末であって、
制御対象機器を撮影する撮影部と、
撮影した前記制御対象機器に定められた特定部位の位置情報を取得する取得部と、
前記位置情報に基づいて前記制御対象機器における前記特定部位を、該ウェアラブル端末を装着するユーザに目視させるように促す案内情報を生成する情報生成部と、
前記案内情報を前記制御対象機器の像に重畳表示する重畳部と、
目視を促した前記特定部位の撮影によって得られた情報に基づいて、前記制御対象機器との接続処理を行う制御部と、を備え、
前記制御部は、注目を促した前記特定部位において所定の情報が非表示であると判定した場合、前記制御対象機器において前記所定の情報を表示させるための手順を示す案内情報を出力すること
を特徴とするウェアラブル端末。
A wearable terminal worn by a user,
An imaging unit for imaging the control target device;
An acquisition unit that acquires position information of a specific part determined in the device to be imaged;
An information generation unit that generates guidance information that prompts the user wearing the wearable terminal to visually check the specific part of the control target device based on the position information;
A superimposing unit that superimposes and displays the guidance information on the image of the control target device;
A control unit that performs connection processing with the device to be controlled based on information obtained by imaging the specific part that prompted visual inspection ,
The control unit outputs guidance information indicating a procedure for displaying the predetermined information on the control target device when it is determined that the predetermined information is not displayed in the specific part that has attracted attention.
Wearable terminal characterized by .
前記情報生成部は、前記特定部位に示される供給情報を読み取り可能な位置に前記撮影部を移動させるように促す案内情報を生成する請求項1に記載のウェアラブル端末。   The wearable terminal according to claim 1, wherein the information generation unit generates guide information that prompts the user to move the imaging unit to a position where the supply information indicated by the specific part can be read. 前記制御部は、前記特定部位に示されたマトリックス型の二次元コードが含む情報に基づき前記接続処理を実行する請求項1または請求項2に記載のウェアラブル端末。   The wearable terminal according to claim 1, wherein the control unit executes the connection process based on information included in a matrix type two-dimensional code indicated in the specific part. 前記制御部は、前記特定部位に示された電子透かしが含む情報に基づき前記接続処理を実行する請求項1または請求項2に記載のウェアラブル端末。   The wearable terminal according to claim 1, wherein the control unit executes the connection process based on information included in a digital watermark indicated in the specific part. 前記情報生成部は、前記特定部位に示される情報の表示サイズに対応する表示サイズの前記案内情報を生成する請求項1から請求項4のいずれか一項に記載のウェアラブル端末。 The wearable terminal according to any one of claims 1 to 4, wherein the information generation unit generates the guide information having a display size corresponding to a display size of information indicated in the specific part. 前記制御部は、前記特定部位の撮影によって得られた情報に基づく処理の実行の可否をユーザに確認する確認情報を出力する請求項1から請求項5のいずれか一項に記載のウェアラブル端末。 The wearable terminal according to any one of claims 1 to 5, wherein the control unit outputs confirmation information for confirming to a user whether or not to execute processing based on information obtained by imaging the specific part. ユーザに装着されるウェアラブル端末に、
制御対象機器を撮影部で撮影する撮影処理と、
撮影した前記制御対象機器に定められた特定部位の位置情報を取得する取得処理と、
前記位置情報に基づいて前記制御対象機器における前記特定部位を、該ウェアラブル端末を装着するユーザに目視させるように促す案内情報を生成する情報生成処理と、
前記案内情報を前記制御対象機器の像に重畳表示する重畳処理と、
目視を促した前記特定部位の撮影によって得られた情報に基づく、前記制御対象機器との接続処理と、を実行させ、
注目を促した前記特定部位において所定の情報が非表示である場合、前記制御対象機器において前記所定の情報を表示させるための手順を示す案内情報を出力するように、前記接続処理を実行させること
を特徴とするプログラム。
In the wearable terminal worn by the user,
Shooting processing for shooting the control target device with the shooting unit;
An acquisition process for acquiring position information of a specific part determined in the device to be imaged;
An information generation process for generating guidance information that prompts the user wearing the wearable terminal to visually check the specific part of the control target device based on the position information;
A superimposition process for superimposing and displaying the guidance information on the image of the control target device;
Based on information obtained by imaging the specific part that prompted visual inspection, the connection process with the device to be controlled is executed,
When the predetermined information is not displayed in the specific part that has attracted attention, the connection process is executed so that guidance information indicating a procedure for displaying the predetermined information on the control target device is output.
A program characterized by
前記情報生成処理は、前記特定部位に示される供給情報を読み取り可能な位置に前記撮影部を移動させるように促す案内情報を生成する請求項7に記載のプログラム。 The program according to claim 7 , wherein the information generation process generates guide information that prompts the imaging unit to move to a position where the supply information indicated by the specific part can be read. 前記接続処理は、前記特定部位に示されたマトリックス型の二次元コードが含む情報に基づく処理を実行する請求項7または請求項8に記載のプログラム。 9. The program according to claim 7 , wherein the connection process executes a process based on information included in a matrix type two-dimensional code indicated in the specific part. 前記接続処理は、前記特定部位に示された電子透かしが含む情報に基づく処理を実行する請求項7または請求項8に記載のプログラム。 The program according to claim 7 or 8 , wherein the connection process executes a process based on information included in a digital watermark indicated in the specific part. 前記情報生成処理は、前記特定部位に示される情報の表示サイズに対応する表示サイズの前記案内情報を生成する請求項7から請求項10のいずれか一項に記載のプログラム。 The program according to any one of claims 7 to 10, wherein the information generation processing generates the guide information having a display size corresponding to a display size of information indicated in the specific part. 前記接続処理は、前記特定部位の撮影によって得られた情報に基づく処理の実行の可否をユーザに確認する確認処理を実行する請求項7から請求項11のいずれか一項に記載のプログラム。 The program according to any one of claims 7 to 11, wherein the connection process executes a confirmation process for confirming with a user whether or not to execute a process based on information obtained by imaging the specific part. 情報処理システムであって、
制御対象機器を撮影する撮影部と、
撮影した前記制御対象機器に定められた特定部位の位置情報を取得する取得部と、
前記位置情報に基づいて前記制御対象機器における前記特定部位を、該情報処理システムのユーザに目視させるように促す案内情報を生成する情報生成部と、
前記案内情報を前記制御対象機器の像に重畳表示する重畳部と、
目視を促した前記特定部位の撮影によって得られた情報に基づいて、前記制御対象機器との接続処理を行う制御部と、を備え、
前記制御部は、注目を促した前記特定部位において所定の情報が非表示であると判定した場合、前記制御対象機器において前記所定の情報を表示させるための手順を示す案内情報を出力すること
を特徴とする情報処理システム。
An information processing system,
An imaging unit for imaging the control target device;
An acquisition unit that acquires position information of a specific part determined in the device to be imaged;
An information generation unit that generates guidance information that prompts the user of the information processing system to visually recognize the specific part of the control target device based on the position information;
A superimposing unit that superimposes and displays the guidance information on the image of the control target device;
A control unit that performs connection processing with the device to be controlled based on information obtained by imaging the specific part that prompted visual inspection ,
The control unit outputs guidance information indicating a procedure for displaying the predetermined information on the control target device when it is determined that the predetermined information is not displayed in the specific part that has attracted attention.
An information processing system characterized by
情報処理システムの制御方法であって、
制御対象機器を撮影部で撮影し、
撮影した前記制御対象機器に定められた特定部位の位置情報を取得し、
前記位置情報に基づいて前記制御対象機器における前記特定部位を、該情報処理システムのユーザに目視させるように促す案内情報を生成し、
前記案内情報を前記制御対象機器の像に重畳表示し、
目視を促した前記特定部位の撮影によって得られた情報に基づいて、前記制御対象機器との接続処理を行い、注目を促した前記特定部位において所定の情報が非表示であると判定した場合、前記制御対象機器において前記所定の情報を表示させるための手順を示す案内情報を出力すること
を特徴とする情報処理システムの制御方法。
A control method for an information processing system,
Take a picture of the device to be controlled with the shooting unit,
Acquire position information of a specific part defined in the imaged device to be controlled,
Based on the position information, generating guidance information that prompts the user of the information processing system to visually check the specific part of the control target device,
The guidance information is superimposed on the image of the device to be controlled,
Based on the information obtained by imaging the specific part that prompted visual inspection, the connection process with the device to be controlled is performed, and when it is determined that the predetermined information is not displayed in the specific part that prompted attention, Outputting guidance information indicating a procedure for displaying the predetermined information in the control target device;
An information processing system control method characterized by the above .
ウェアラブル端末と、当該ウェアラブル端末と無線接続可能な画像処理装置と、からなる相互接続システムであって、
前記ウェアラブル端末は、
前記画像処理装置を撮影する撮影部と、
撮影した前記画像処理装置に定められた特定部位の位置情報を取得する取得部と、
前記位置情報に基づいて前記画像処理装置における前記特定部位に注目を促す案内情報を生成する情報生成部と、
前記案内情報を前記画像処理装置の像に重畳表示する重畳部と、
注目を促した前記特定部位の撮影によって得られた情報に基づき前記画像処理装置に対し無線接続処理を実行し、注目を促した前記特定部位において所定の情報が非表示であると判定した場合、前記画像処理装置において前記所定の情報を表示させるための手順を示す案内情報を出力する端末制御部と、
を含み、
前記画像処理装置は、
前記ウェアラブル端末と無線接続するための情報を前記特定部位に表示する表示部と、
前記情報に基づき前記ウェアラブル端末に対する無線接続処理を実行する本体制御部と、
を含む相互接続システム。
An interconnection system comprising a wearable terminal and an image processing apparatus that can be wirelessly connected to the wearable terminal,
The wearable terminal is
A photographing unit for photographing the image processing device;
An acquisition unit that acquires position information of a specific part determined in the image processing device that has been imaged;
An information generating unit that generates guidance information that draws attention to the specific part in the image processing device based on the position information;
A superimposing unit that superimposes and displays the guidance information on the image of the image processing apparatus;
When performing wireless connection processing on the image processing device based on information obtained by imaging the specific part that has attracted attention, and when determining that the predetermined information is not displayed in the specific part that has attracted attention, A terminal control unit that outputs guidance information indicating a procedure for displaying the predetermined information in the image processing apparatus ;
Including
The image processing apparatus includes:
A display unit for displaying information for wireless connection with the wearable terminal on the specific part;
A main body control unit that executes wireless connection processing for the wearable terminal based on the information;
Including interconnection system.
JP2014183573A 2014-09-09 2014-09-09 Wearable terminal, program, information processing system, control method for information processing system, and interconnection system Active JP6442939B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014183573A JP6442939B2 (en) 2014-09-09 2014-09-09 Wearable terminal, program, information processing system, control method for information processing system, and interconnection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014183573A JP6442939B2 (en) 2014-09-09 2014-09-09 Wearable terminal, program, information processing system, control method for information processing system, and interconnection system

Publications (2)

Publication Number Publication Date
JP2016057838A JP2016057838A (en) 2016-04-21
JP6442939B2 true JP6442939B2 (en) 2018-12-26

Family

ID=55758614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014183573A Active JP6442939B2 (en) 2014-09-09 2014-09-09 Wearable terminal, program, information processing system, control method for information processing system, and interconnection system

Country Status (1)

Country Link
JP (1) JP6442939B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018077642A1 (en) * 2016-10-27 2018-05-03 Philips Lighting Holding B.V. A method of providing information about an object
JP7035886B2 (en) * 2018-07-30 2022-03-15 トヨタ自動車株式会社 Image processing device, image processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013080326A (en) * 2011-10-03 2013-05-02 Sony Corp Image processing device, image processing method, and program
WO2014006758A1 (en) * 2012-07-06 2014-01-09 パイオニア株式会社 Information processing method
JP2014030902A (en) * 2012-08-01 2014-02-20 Fujitsu Ltd Data printing method, printing device, and portable terminal

Also Published As

Publication number Publication date
JP2016057838A (en) 2016-04-21

Similar Documents

Publication Publication Date Title
JP5049900B2 (en) SETTING DEVICE, IMAGE OUTPUT DEVICE, CONTROL METHOD AND PROGRAM THEREOF
KR102338576B1 (en) Electronic device which stores depth information associating with image in accordance with Property of depth information acquired using image and the controlling method thereof
KR20190032061A (en) Electronic device performing image correction and operation method of thereof
US20160269578A1 (en) Head mounted display apparatus and method for connecting head mounted display apparatus to external device
US20150269782A1 (en) Augmented reality display system, augmented reality information generating apparatus, augmented reality display apparatus, and server
JP6271917B2 (en) Image recording apparatus and imaging apparatus
KR102512839B1 (en) Electronic device and method obtaining image using cameras through adjustment of position of external device
CN110881097B (en) Display control apparatus, control method, and computer-readable medium
JP6442939B2 (en) Wearable terminal, program, information processing system, control method for information processing system, and interconnection system
KR102418852B1 (en) Electronic device and method for controlling an image display
JP6642316B2 (en) Information processing system, electronic device, information processing device, information processing method, electronic device processing method, and program
JP6136667B2 (en) Image processing system, image forming apparatus, display apparatus, and control program
EP3926942B1 (en) Method for processing photographed image and electronic device therefor
JP6439451B2 (en) Operation system and image forming apparatus
JP2013219421A (en) Image processing device and image processing method
JP6486077B2 (en) Display device, server device, display system, control method therefor, control program, and storage medium
JP2017147656A (en) Image printing method, image printing device, image printing system, and program
JP6953948B2 (en) Information processing equipment, programs and information transmission systems
JP2021069045A (en) Display control device, display control method, program, and storage media
KR102608127B1 (en) Electronic device for performing image processing and method thereof
JP6218615B2 (en) Display device, display method, photographing apparatus, and photographing system
EP3621025B1 (en) Image processing apparatus, image processing method, program, and computer readable medium
JP2019036849A (en) Image forming system
US11624924B2 (en) Image capturing system including head-mount type display device, and display device and method of controlling the same
JP2018067875A (en) Spectacle type terminal and image formation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181112

R151 Written notification of patent or utility model registration

Ref document number: 6442939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151