JP6801612B2 - Map presentation device and map presentation method - Google Patents

Map presentation device and map presentation method Download PDF

Info

Publication number
JP6801612B2
JP6801612B2 JP2017166613A JP2017166613A JP6801612B2 JP 6801612 B2 JP6801612 B2 JP 6801612B2 JP 2017166613 A JP2017166613 A JP 2017166613A JP 2017166613 A JP2017166613 A JP 2017166613A JP 6801612 B2 JP6801612 B2 JP 6801612B2
Authority
JP
Japan
Prior art keywords
map
image data
processing unit
orientation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017166613A
Other languages
Japanese (ja)
Other versions
JP2019045603A (en
Inventor
洋志 横田
洋志 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2017166613A priority Critical patent/JP6801612B2/en
Publication of JP2019045603A publication Critical patent/JP2019045603A/en
Application granted granted Critical
Publication of JP6801612B2 publication Critical patent/JP6801612B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、地図提示装置及び地図提示方法に関する。 The present invention relates to a map presenting device and a map presenting method.

特定の施設の名称が端末に入力されると、入力された名称に基づいて、当該施設の位置を中心とした所定範囲の地図がサーバーから端末に送信される地図提供システムが知られている(例えば、特許文献1参照)。 When the name of a specific facility is input to the terminal, a map providing system is known in which a map of a predetermined range centered on the location of the facility is transmitted from the server to the terminal based on the input name ( For example, see Patent Document 1).

特開平10−282879号公報Japanese Unexamined Patent Publication No. 10-228879

ところで、手書地図又は簡略地図のような地図には必要最小限の情報(例えば、地名、施設、道路などの情報)しか記されていないことが多い。そのため、前記地図を見ているユーザーは、前記地図上では省略されている情報を知りたいことがある。このような場合に、前記地図提供システムを利用して、前記地図(元の地図)に対応する新たな地図を前記サーバーから取得することが考えられる。 By the way, maps such as handwritten maps or simplified maps often contain only the minimum necessary information (for example, information on place names, facilities, roads, etc.). Therefore, the user who is looking at the map may want to know the information omitted on the map. In such a case, it is conceivable to use the map providing system to acquire a new map corresponding to the map (original map) from the server.

しかしながら、前記サーバーから取得される新たな地図の縮尺及び向きは、元の地図の縮尺及び向きとは無関係であるため、元の地図と新たな地図との対応関係が分かりにくくなることがある。 However, since the scale and orientation of the new map acquired from the server are irrelevant to the scale and orientation of the original map, it may be difficult to understand the correspondence between the original map and the new map.

本発明の目的は、元の地図に対応する新たな地図を取得して、元の地図の縮尺及び向きと同じ縮尺及び向きで前記新たな地図を提示することが可能な地図提示装置及び地図提示方法を提供することにある。 An object of the present invention is a map presentation device and map presentation capable of acquiring a new map corresponding to the original map and presenting the new map at the same scale and direction as the scale and direction of the original map. To provide a method.

本発明の一の局面に係る地図提示装置は、第1取得処理部と、第2取得処理部と、画像処理部と、提示処理部とを備える。前記第1取得処理部は、第1地図を含む第1画像データを取得する。前記第2取得処理部は、前記第1地図の範囲を少なくとも含む範囲の第2地図を示す第2画像データを予め登録された地図データから取得する。前記画像処理部は、前記第2画像データにおける前記第2地図の縮尺及び向きを前記第1地図と同じ縮尺及び向きに変更可能である。前記提示処理部は、前記画像処理部により縮尺及び向きが変更された後の前記第2地図を提示する。 The map presenting apparatus according to one aspect of the present invention includes a first acquisition processing unit, a second acquisition processing unit, an image processing unit, and a presentation processing unit. The first acquisition processing unit acquires the first image data including the first map. The second acquisition processing unit acquires second image data indicating a second map in a range including at least the range of the first map from the map data registered in advance. The image processing unit can change the scale and orientation of the second map in the second image data to the same scale and orientation as the first map. The presentation processing unit presents the second map after the scale and orientation have been changed by the image processing unit.

本発明の一の局面に係る地図提示方法は、第1取得ステップと、第2取得ステップと、画像処理ステップと、提示ステップとを含む。前記第1取得ステップでは、第1地図を含む第1画像データが取得される。前記第2取得ステップでは、前記第1地図の範囲を少なくとも含む範囲の第2地図を示す第2画像データが予め登録された地図データから取得される。前記画像処理ステップでは、前記第2画像データにおける前記第2地図の縮尺及び向きが前記第1地図と同じ縮尺及び向きに変更される。前記提示ステップでは、前記画像処理ステップで縮尺及び向きが変更された後の前記第2地図が提示される。 The map presentation method according to one aspect of the present invention includes a first acquisition step, a second acquisition step, an image processing step, and a presentation step. In the first acquisition step, the first image data including the first map is acquired. In the second acquisition step, the second image data showing the second map in the range including at least the range of the first map is acquired from the map data registered in advance. In the image processing step, the scale and orientation of the second map in the second image data are changed to the same scale and orientation as the first map. In the presentation step, the second map after the scale and orientation are changed in the image processing step is presented.

本発明によれば、元の地図に対応する新たな地図を取得して、元の地図の縮尺及び向きと同じ縮尺及び向きで前記新たな地図を提示することが可能な地図提示装置及び地図提示方法が提供される。 According to the present invention, a map presenting device and a map presenting device capable of acquiring a new map corresponding to the original map and presenting the new map at the same scale and orientation as the scale and orientation of the original map. A method is provided.

図1は、本発明の実施形態に係る画像形成装置のシステム構成を示すブロック図である。FIG. 1 is a block diagram showing a system configuration of an image forming apparatus according to an embodiment of the present invention. 図2は、本発明の実施形態に係る画像形成装置で用いられる地図データの一例を示す図である。FIG. 2 is a diagram showing an example of map data used in the image forming apparatus according to the embodiment of the present invention. 図3は、本発明の実施形態に係る画像形成装置で用いられる地点情報の一例を示す図である。FIG. 3 is a diagram showing an example of point information used in the image forming apparatus according to the embodiment of the present invention. 図4は、本発明の実施形態に係る画像形成装置で用いられる住所情報の一例を示す図である。FIG. 4 is a diagram showing an example of address information used in the image forming apparatus according to the embodiment of the present invention. 図5は、本発明の実施形態に係る画像形成装置で実行される地図提示処理の手順の一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of a procedure of map presentation processing executed by the image forming apparatus according to the embodiment of the present invention. 図6は、本発明の実施形態に係る画像形成装置で用いられる入力画像データの一例を示す図である。FIG. 6 is a diagram showing an example of input image data used in the image forming apparatus according to the embodiment of the present invention. 図7は、本発明の実施形態に係る画像形成装置における地図画像の縮尺及び向きの変更方法について説明するための図である。FIG. 7 is a diagram for explaining a method of changing the scale and orientation of a map image in the image forming apparatus according to the embodiment of the present invention. 図8は、本発明の実施形態に係る画像形成装置で用いられる出力画像データの一例を示す図である。FIG. 8 is a diagram showing an example of output image data used in the image forming apparatus according to the embodiment of the present invention. 図9は、本発明の実施形態に係る画像形成装置で用いられる出力画像データの一例を示す図である。FIG. 9 is a diagram showing an example of output image data used in the image forming apparatus according to the embodiment of the present invention.

以下添付図面を参照しながら、本発明の実施形態について説明し、本発明の理解に供する。なお、以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定するものではない。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings for the purpose of understanding the present invention. The following embodiments are examples that embody the present invention, and do not limit the technical scope of the present invention.

[画像形成装置の構成]
図1に示されるように、本発明の実施形態に係る画像形成装置1は、操作表示部10、ADF(Auto Document Feeder)11、画像読取部12、画像形成部13、通信I/F14、記憶部15、及び制御部16などを備える。具体的に、画像形成装置1は、プリンター機能、スキャナー機能、コピー機能、及びファクシミリ機能などを有する複合機である。画像形成装置1は、本発明の地図提示装置の一例である。なお、本発明は、複合機に限らず、コピー機にも適用可能である。
[Configuration of image forming apparatus]
As shown in FIG. 1, the image forming apparatus 1 according to the embodiment of the present invention includes an operation display unit 10, an ADF (Auto Document Feeder) 11, an image reading unit 12, an image forming unit 13, a communication I / F 14, and a storage. A unit 15, a control unit 16, and the like are provided. Specifically, the image forming apparatus 1 is a multifunction device having a printer function, a scanner function, a copy function, a facsimile function, and the like. The image forming apparatus 1 is an example of the map presenting apparatus of the present invention. The present invention is applicable not only to a multifunction device but also to a copier.

操作表示部10は、情報を表示する液晶ディスプレーなどの表示部と、ユーザー操作を受け付けるタッチパネル及び操作ボタンなどの操作部とを備える。 The operation display unit 10 includes a display unit such as a liquid crystal display that displays information, and an operation unit such as a touch panel and operation buttons that accept user operations.

ADF11は、原稿セット部、搬送ローラー、原稿押さえ、及び排紙部を備え、画像読取部12の読み取り対象となる原稿を搬送する自動原稿搬送装置である。 The ADF 11 is an automatic document transfer device that includes a document setting unit, a transfer roller, a document retainer, and a paper ejection unit, and conveys a document to be read by the image reading unit 12.

画像読取部12は、原稿台、光源、ミラー、光学レンズ、及びCCD(Charge Coupled Device)を備え、原稿の画像を読み取って画像データとして出力することが可能である。 The image reading unit 12 includes a platen, a light source, a mirror, an optical lens, and a CCD (Charge Coupled Device), and can read an image of a document and output it as image data.

画像形成部13は、電子写真方式又はインクジェット方式で画像データに基づく印刷処理を実行することが可能であり、前記画像データに基づいてシート上に画像を形成する。例えば、画像形成部13が電子写真方式の画像形成部である場合、画像形成部13は感光体ドラム、帯電器、露光装置、現像装置、転写装置、及び定着装置などを備える。 The image forming unit 13 can execute a printing process based on the image data by an electrophotographic method or an inkjet method, and forms an image on the sheet based on the image data. For example, when the image forming unit 13 is an electrophotographic image forming unit, the image forming unit 13 includes a photoconductor drum, a charging device, an exposure device, a developing device, a transfer device, a fixing device, and the like.

通信I/F14は、電話回線、インターネット、又はLANなどの通信網を介して、外部のファクシミリ装置又はパーソナルコンピューターなどの情報処理装置との間で所定の通信プロトコルに従った通信処理を実行することが可能な通信インターフェイスである。 The communication I / F14 executes communication processing according to a predetermined communication protocol with an external facsimile machine or an information processing device such as a personal computer via a communication network such as a telephone line, the Internet, or a LAN. Is a possible communication interface.

記憶部15は、ハードディスク又はEEPROM(登録商標)などの不揮発性の記憶部である。記憶部15には、制御部16によって実行される各種の制御プログラム、及び各種のデータなどが記憶される。記憶部15には、例えば、地図データD1(図2)、地点情報D2(図3)、住所情報D3(図4)などが記憶される。 The storage unit 15 is a non-volatile storage unit such as a hard disk or EEPROM (registered trademark). Various control programs executed by the control unit 16 and various data are stored in the storage unit 15. For example, map data D1 (FIG. 2), point information D2 (FIG. 3), address information D3 (FIG. 4), and the like are stored in the storage unit 15.

地図データD1には、図2に示されるように、詳細な地図を示す画像データが含まれている。地点情報D2には、図3に示されるように、予め定められた地点ごとに、地点名及び座標が登録されている。前記座標は、後述の第2地図M2における前記地点の座標である。住所情報D3には、図4に示されるように、予め定められた住所ごとに、第2地図M2における前記住所に対応する地点の座標が登録されている。 As shown in FIG. 2, the map data D1 includes image data showing a detailed map. As shown in FIG. 3, in the point information D2, a point name and coordinates are registered for each predetermined point. The coordinates are the coordinates of the point on the second map M2 described later. In the address information D3, as shown in FIG. 4, the coordinates of the points corresponding to the addresses on the second map M2 are registered for each predetermined address.

制御部16は、CPU、ROM、及びRAMなどの制御機器を備える。前記CPUは、各種の演算処理を実行するプロセッサーである。前記ROMは、前記CPUに各種の処理を実行させるための制御プログラムなどの情報が予め記憶される不揮発性の記憶部である。前記RAMは、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される揮発性又は不揮発性の記憶部である。 The control unit 16 includes control devices such as a CPU, ROM, and RAM. The CPU is a processor that executes various arithmetic processes. The ROM is a non-volatile storage unit in which information such as a control program for causing the CPU to execute various processes is stored in advance. The RAM is a volatile or non-volatile storage unit used as a temporary storage memory (working area) for various processes executed by the CPU.

ところで、手書地図又は簡略地図のような地図には必要最小限の情報(例えば、地名、施設、道路などの情報)しか記されていないことが多い。そのため、前記地図を見ているユーザーは、前記地図上では省略されている情報を知りたいことがある。このような場合に、既存の地図提供システムを利用して、前記地図(元の地図)に対応する新たな地図を前記サーバーから取得することが考えられる。しかしながら、前記地図提供システムを利用して前記サーバーから取得される新たな地図の縮尺及び向きは、元の地図の縮尺及び向きとは無関係であるため、元の地図と新たな地図との対応関係が分かりにくくなることがある。これに対して、本実施形態に係る画像形成装置1では、以下に説明するように、元の地図に対応する新たな地図を取得して、元の地図の縮尺及び向きと同じ縮尺及び向きで前記新たな地図を提示することが可能である。 By the way, maps such as handwritten maps or simplified maps often contain only the minimum necessary information (for example, information on place names, facilities, roads, etc.). Therefore, the user who is looking at the map may want to know the information omitted on the map. In such a case, it is conceivable to use the existing map providing system to acquire a new map corresponding to the map (original map) from the server. However, since the scale and orientation of the new map acquired from the server using the map providing system are irrelevant to the scale and orientation of the original map, the correspondence between the original map and the new map May be confusing. On the other hand, in the image forming apparatus 1 according to the present embodiment, as described below, a new map corresponding to the original map is acquired, and the scale and orientation are the same as the scale and orientation of the original map. It is possible to present the new map.

具体的に、制御部16は、第1取得処理部161、抽出処理部162、第2取得処理部163、画像処理部164、及び提示処理部165を含む。なお、制御部16は、前記制御プログラムに従って各種の処理を実行することによりこれらの各処理部として機能する。また、制御部16は、これらの各処理部の一部又は複数の処理機能を実現する電子回路を備えるものであってもよい。 Specifically, the control unit 16 includes a first acquisition processing unit 161, an extraction processing unit 162, a second acquisition processing unit 163, an image processing unit 164, and a presentation processing unit 165. The control unit 16 functions as each of these processing units by executing various processes according to the control program. Further, the control unit 16 may include an electronic circuit that realizes a part or a plurality of processing functions of each of these processing units.

第1取得処理部161は、第1地図M1を含む第1画像データを取得する。第1地図M1は、例えば、手書地図又は簡略地図である。第1取得処理部161は、画像読取部12を通じて前記第1画像データを取得する。具体的に、第1地図M1を含む原稿が前記原稿台又は前記原稿セット部にセットされた状態でユーザーによって所定操作が行われると、画像読取部12により前記原稿の画像が読み取られる。そして、画像読取部12から前記第1画像データが出力される。以下では、第1取得処理部161によって画像読取部12を通じて取得される前記第1画像データを、入力画像データD4と称する。図6は、入力画像データD4の一例を示している。図6に示される入力画像データD4には、地図領域A1が含まれており、前記地図領域A1には第1地図M1が表示されている。入力画像データD4は、前記RAMに一時的に記憶される。 The first acquisition processing unit 161 acquires the first image data including the first map M1. The first map M1 is, for example, a handwritten map or a simplified map. The first acquisition processing unit 161 acquires the first image data through the image reading unit 12. Specifically, when a predetermined operation is performed by the user while the document including the first map M1 is set on the platen or the document setting unit, the image reading unit 12 reads the image of the document. Then, the first image data is output from the image reading unit 12. Hereinafter, the first image data acquired by the first acquisition processing unit 161 through the image reading unit 12 will be referred to as input image data D4. FIG. 6 shows an example of the input image data D4. The input image data D4 shown in FIG. 6 includes a map area A1, and the first map M1 is displayed in the map area A1. The input image data D4 is temporarily stored in the RAM.

抽出処理部162は、入力画像データD4に含まれる第1地図M1から地点を示す地点文字列を抽出する。抽出処理部162は、例えば、公知の文字認識処理によって第1地図M1から前記地点文字列を抽出する。前記地点文字列は、例えば、学校、病院、公園、ビルなどの施設の名称を示す文字列、交差点の名称を示す文字列などである。例えば、抽出処理部162は、図6に示される入力画像データD4に含まれる第1地図M1から、「○○病院」、「○○学校」、及び「△△駅」の3つの文字列を、前記地点文字列として抽出する。 The extraction processing unit 162 extracts a point character string indicating a point from the first map M1 included in the input image data D4. The extraction processing unit 162 extracts the point character string from the first map M1 by, for example, a known character recognition process. The point character string is, for example, a character string indicating the name of a facility such as a school, a hospital, a park, or a building, a character string indicating the name of an intersection, or the like. For example, the extraction processing unit 162 selects three character strings of "○○ hospital", "○○ school", and "△△ station" from the first map M1 included in the input image data D4 shown in FIG. , Extracted as the point character string.

第2取得処理部163は、第1地図M1の範囲を少なくとも含む範囲の第2地図M2を示す第2画像データを地図データD1から取得する。第2地図M2は、例えば、第1地図M1よりも詳細な詳細地図である。 The second acquisition processing unit 163 acquires the second image data indicating the second map M2 in the range including at least the range of the first map M1 from the map data D1. The second map M2 is, for example, a detailed map more detailed than the first map M1.

具体的に、第2取得処理部163は、地点情報D2に基づいて、抽出処理部162により抽出される前記地点文字列に対応する地点を含む範囲の第2地図M2を示す前記第2画像データを取得する。例えば、抽出処理部162によって「○○病院」、「○○学校」、及び「△△駅」の3つの地点文字列が抽出された場合、第2取得処理部163は、「○○病院」の座標(X6b,Y6b)が示す地点と、「○○学校」の座標(X2b,Y2b)が示す地点と、「△△駅」の座標(X4b,Y4b)が示す地点とを全て含む範囲の第2地図M2を示す前記第2画像データを取得する。 Specifically, the second acquisition processing unit 163 indicates the second image data of the range including the point corresponding to the point character string extracted by the extraction processing unit 162 based on the point information D2. To get. For example, when the extraction processing unit 162 extracts three point character strings of "○○ hospital", "○○ school", and "△△ station", the second acquisition processing unit 163 is "○○ hospital". The range including all the points indicated by the coordinates (X6b, Y6b) of, the points indicated by the coordinates (X2b, Y2b) of "○○ school", and the points indicated by the coordinates (X4b, Y4b) of "△△ station". The second image data showing the second map M2 is acquired.

なお、第2取得処理部163は、前記地点文字列が自宅を示す文字列(例えば、「自宅」など)である場合に、予め設定された自宅住所に基づいて、自宅を含む範囲の第2地図M2を示す前記第2画像データを取得してもよい。この場合、第2取得処理部163は、例えば、記憶部15から前記自宅住所を読み出して、前記自宅住所に対応する座標を住所情報D3から取得して、前記座標が示す地点を含む範囲の第2地図M2を示す前記第2画像データを取得する。なお、他の実施形態では、前記自宅住所が、入力画像データD4における地図領域A1以外の領域(例えば、自宅の住所が記入された住所欄など)から文字認識処理によって抽出されてもよい。 In addition, when the point character string is a character string indicating a home (for example, "home"), the second acquisition processing unit 163 is a second in a range including the home based on a preset home address. The second image data showing the map M2 may be acquired. In this case, the second acquisition processing unit 163 reads, for example, the home address from the storage unit 15, acquires the coordinates corresponding to the home address from the address information D3, and is the second in the range including the point indicated by the coordinates. 2 The second image data showing the map M2 is acquired. In another embodiment, the home address may be extracted from an area other than the map area A1 in the input image data D4 (for example, an address field in which the home address is entered) by character recognition processing.

画像処理部164は、第2取得処理部163によって取得される前記第2画像データにおける第2地図M2の縮尺及び向きを第1地図M1と同じ縮尺及び向きに変更可能である。 The image processing unit 164 can change the scale and orientation of the second map M2 in the second image data acquired by the second acquisition processing unit 163 to the same scale and orientation as the first map M1.

例えば、画像処理部164は、第1地図M1に示されている少なくとも2つの地点に関する第1地図M1における座標及び第2地図M2における座標に基づいて、前記第2画像データにおける第2地図M2の縮尺及び向きを第1地図M1と同じ縮尺及び向きに変更する。なお、前記2つの地点に関する第1地図M1における座標については、例えば、抽出処理部162によって前記2つの地点に対応する前記地点文字列が抽出された時点で、前記地点文字列と対応付けて記憶部15又は前記RAMに記憶されてもよい。 For example, the image processing unit 164 of the second map M2 in the second image data is based on the coordinates in the first map M1 and the coordinates in the second map M2 regarding at least two points shown in the first map M1. The scale and orientation are changed to the same scale and orientation as the first map M1. The coordinates in the first map M1 relating to the two points are stored in association with the point character strings when the point character strings corresponding to the two points are extracted by, for example, the extraction processing unit 162. It may be stored in the unit 15 or the RAM.

具体的に、画像処理部164は、第2地図M2における前記2つの地点のうちの一方の第1地点に対する他方の第2地点の相対位置が、第1地図M1における前記第1地点に対する前記第2地点の相対位置と一致するように、前記第2画像データにおける第2地図M2の縮尺及び向きを変更する。例えば、画像処理部164は、図7に示されるように、第2地図M2における「△△駅」に対する「○○病院」の相対位置が、第1地図M1における「△△駅」に対する「○○病院」の相対位置と一致するように、前記第2画像データにおける第2地図M2の縮尺及び向きを変更する。具体的に、画像処理部164は、第2地図M2における「△△駅」と「○○病院」との間の距離が、第1地図M1における「△△駅」と「○○病院」との間の距離と一致するように、前記第2画像データにおける第2地図M2を拡大又は縮小させる。さらに、画像処理部164は、第2地図M2における「△△駅」から見た「○○病院」の方向が、第1地図M1における「△△駅」から見た「○○病院」の方向と一致するように、前記第2画像データにおける第2地図M2を回転させる。なお、このような画像の拡大/縮小処理及び回転処理については公知であるため、ここでは詳細な説明は省略する。 Specifically, in the image processing unit 164, the relative position of the other second point with respect to the first point of one of the two points on the second map M2 is the first point with respect to the first point on the first map M1. The scale and orientation of the second map M2 in the second image data are changed so as to match the relative positions of the two points. For example, in the image processing unit 164, as shown in FIG. 7, the relative position of the “○○ hospital” with respect to the “△△ station” on the second map M2 is the “○○” with respect to the “△△ station” on the first map M1. The scale and orientation of the second map M2 in the second image data are changed so as to match the relative position of the “hospital”. Specifically, in the image processing unit 164, the distance between "△△ station" and "○○ hospital" in the second map M2 is set to "△△ station" and "○○ hospital" in the first map M1. The second map M2 in the second image data is enlarged or reduced so as to match the distance between the two. Further, in the image processing unit 164, the direction of "○○ hospital" seen from "△△ station" on the second map M2 is the direction of "○○ hospital" seen from "△△ station" on the first map M1. The second map M2 in the second image data is rotated so as to match with. Since such image enlargement / reduction processing and rotation processing are known, detailed description thereof will be omitted here.

なお、画像処理部164は、第1地図M1に示されている3つ以上の地点(例えば、図7に示される「○○病院」、「○○学校」、及び「△△駅」)のうちの距離が最も離れた2つの地点(すなわち、「○○病院」と「△△駅」の組み合わせ)に関する第1地図M1における座標及び第2地図M2における座標に基づいて、前記第2画像データにおける第2地図M2の縮尺及び向きを第1地図M1と同じ縮尺及び向きに変更してもよい。これにより、距離が近い2つの地点(すなわち、「○○病院」と「○○学校」の組み合わせ、もしくは「○○学校」と「△△駅」の組み合わせ)に基づいて変更する場合に比べて、より高精度に変更することができる。 The image processing unit 164 is used for three or more points (for example, “○○ hospital”, “○○ school”, and “△△ station” shown in FIG. 7) shown in the first map M1. The second image data based on the coordinates on the first map M1 and the coordinates on the second map M2 regarding the two points at the farthest distance (that is, the combination of "○○ hospital" and "△△ station"). The scale and orientation of the second map M2 in the above may be changed to the same scale and orientation as the first map M1. As a result, compared to the case of changing based on two points that are close to each other (that is, the combination of "○○ hospital" and "○○ school" or the combination of "○○ school" and "△△ station"). , Can be changed with higher accuracy.

なお、画像処理部164は、前記2つの地点のうちの一方の地点が自宅である場合に、予め設定された自宅住所に基づいて第2地図M2における自宅の座標を取得してもよい。例えば、画像処理部164は、記憶部15から前記自宅住所を読み出して、前記自宅住所に対応する座標(すなわち、第2地図M2における自宅の座標)を住所情報D3から取得してもよい。なお、他の実施形態では、前記自宅住所が、入力画像データD4における地図領域A1以外の領域(例えば、自宅の住所を記入する住所記入欄)から文字認識処理によって抽出されてもよい。 Note that the image processing unit 164 may acquire the coordinates of the home on the second map M2 based on the preset home address when one of the two points is the home. For example, the image processing unit 164 may read the home address from the storage unit 15 and acquire the coordinates corresponding to the home address (that is, the coordinates of the home in the second map M2) from the address information D3. In another embodiment, the home address may be extracted from an area other than the map area A1 in the input image data D4 (for example, an address entry field for entering the home address) by character recognition processing.

また、画像処理部164は、第1地図M1に示されている地点に対応する前記第2画像データにおける第2地図M2上の地点に対して強調処理を行ってもよい。例えば、図8に示される第2地図M2では、第1地図M1に示されている「○○病院」、「○○学校」、及び「△△駅」の3つの地点(施設)に対応する地点(施設)の名称が楕円で囲まれて、他の地点よりも強調されている。これにより、第1地図M1と第2地図M2との対応関係がユーザーにとってより分かり易くなる。 Further, the image processing unit 164 may perform emphasis processing on the points on the second map M2 in the second image data corresponding to the points shown on the first map M1. For example, the second map M2 shown in FIG. 8 corresponds to three points (facilities) of “○○ hospital”, “○○ school”, and “△△ station” shown in the first map M1. The name of the point (facility) is surrounded by an ellipse and is emphasized more than other points. As a result, the correspondence between the first map M1 and the second map M2 becomes easier for the user to understand.

提示処理部165は、画像処理部164により縮尺及び向きが変更された後の第2地図M2を提示する。例えば、提示処理部165は、第1地図M1の範囲と同じ範囲の第2地図M2を提示する。この場合、提示処理部165は、例えば、第1地図M1に示されるいずれか1つの地点(例えば、「○○学校」)に対する地図領域A1の各頂点の相対座標を算出する。そして、提示処理部165は、算出された各頂点の相対座標に基づいて、第2地図M2における前記地点の位置を基準として、第2地図M2の提示範囲を決定する。 The presentation processing unit 165 presents the second map M2 after the scale and orientation have been changed by the image processing unit 164. For example, the presentation processing unit 165 presents the second map M2 having the same range as the range of the first map M1. In this case, the presentation processing unit 165 calculates, for example, the relative coordinates of each vertex of the map area A1 with respect to any one point (for example, “○○ school”) shown in the first map M1. Then, the presentation processing unit 165 determines the presentation range of the second map M2 with reference to the position of the point on the second map M2 based on the calculated relative coordinates of each vertex.

なお、本実施形態では、画像処理部164は、入力画像データD4に含まれる第1地図M1を、縮尺及び向きが変更された後の第2地図M2に置き換える。そして、提示処理部165は、第1地図M1が第2地図M2に置き換えられた後の入力画像データD4に基づいて、画像形成部13に画像形成処理を実行させる。なお、以下では、第1地図M1が第2地図M2に置き換えられた後の入力画像データD4を、出力画像データD5と称する。この結果、画像形成装置1からは、出力画像データD5に基づく画像が形成されたシートが排出される。これにより、ユーザーは、第1地図M1を含む原稿から、第1地図M1が第2地図M2に置き換えられた状態の前記原稿のコピーを簡単に得ることができる。よって、ユーザーは、前記コピーを見ることで、原稿に含まれている地図以外の情報(例えば、「△△駅から当院までは徒歩で10分ほどです。」という文章など)に加えて、前記地図上では省略されている情報も知ることができる。さらに、前記コピーにおける第2地図M2の縮尺及び向きが、原稿における第1地図M1と同じ縮尺及び向きになっているので、第1地図M1と第2地図M2との対応関係がユーザーにとって分かり易い。 In the present embodiment, the image processing unit 164 replaces the first map M1 included in the input image data D4 with the second map M2 after the scale and orientation have been changed. Then, the presentation processing unit 165 causes the image forming unit 13 to execute the image forming process based on the input image data D4 after the first map M1 is replaced with the second map M2. In the following, the input image data D4 after the first map M1 is replaced with the second map M2 will be referred to as an output image data D5. As a result, the image forming apparatus 1 discharges the sheet on which the image based on the output image data D5 is formed. As a result, the user can easily obtain a copy of the manuscript in a state where the first map M1 is replaced with the second map M2 from the manuscript including the first map M1. Therefore, by looking at the copy, the user can add information other than the map contained in the manuscript (for example, the sentence "It takes about 10 minutes on foot from △△ station to our hospital"). Information that is omitted on the map can also be known. Further, since the scale and orientation of the second map M2 in the copy are the same scale and orientation as the first map M1 in the manuscript, the correspondence between the first map M1 and the second map M2 is easy for the user to understand. ..

なお、他の実施形態では、提示処理部165は、前記第2画像データに基づいて、画像形成部13に画像形成処理を実行させてもよい。この場合、画像形成装置1からは、第2地図M2の画像のみが形成されたシートがシートが排出される。 In another embodiment, the presentation processing unit 165 may cause the image forming unit 13 to execute the image forming process based on the second image data. In this case, the image forming apparatus 1 ejects the sheet on which only the image of the second map M2 is formed.

[地図提示処理]
次に、図5を参照しつつ、制御部16によって実行される地図提示処理の手順の一例について説明する。ここで、ステップS1,S2,・・・は、制御部16により実行される処理手順(ステップ)の番号を表している。なお、前記地図提示処理は、例えば、操作表示部10に対する特定操作(例えば、前記地図提示処理を開始させるための特定の操作キーの操作)に応じて開始される。
[Map presentation processing]
Next, an example of the procedure of the map presentation process executed by the control unit 16 will be described with reference to FIG. Here, steps S1, S2, ... Represent the number of the processing procedure (step) executed by the control unit 16. The map presentation process is started in response to, for example, a specific operation on the operation display unit 10 (for example, an operation of a specific operation key for starting the map presentation process).

<ステップS1>
まず、ステップS1において、制御部16は、画像読取部12を制御して、前記原稿台又は前記原稿セット部にセットされた原稿の画像を画像読取部12に読み取らせる。当該ステップS1の処理は、制御部16の第1取得処理部161によって実行される。当該ステップS1は、本発明の第1取得ステップの一例である。
<Step S1>
First, in step S1, the control unit 16 controls the image reading unit 12 to cause the image reading unit 12 to read the image of the document set on the platen or the document setting unit. The process of step S1 is executed by the first acquisition process unit 161 of the control unit 16. The step S1 is an example of the first acquisition step of the present invention.

<ステップS2>
ステップS2において、制御部16は、前記ステップS1で読み取られた原稿の画像データ(入力画像データD4)における地図領域A1を判定する。例えば、制御部16は、枠線で囲まれた所定サイズ以上の矩形領域のうち、その内側に所定長以上の直線又は曲線が含まれている矩形領域を、地図領域A1として判定してもよい。もしくは、制御部16は、入力画像データD4を操作表示部10に表示し、操作表示部10に対するユーザー操作(領域指定操作)に基づいて地図領域A1を判定してもよい。
<Step S2>
In step S2, the control unit 16 determines the map area A1 in the image data (input image data D4) of the document read in step S1. For example, the control unit 16 may determine a rectangular area having a predetermined size or more surrounded by a frame and having a straight line or a curve having a predetermined length or more inside the rectangular area as the map area A1. .. Alternatively, the control unit 16 may display the input image data D4 on the operation display unit 10 and determine the map area A1 based on the user operation (area designation operation) for the operation display unit 10.

<ステップS3>
ステップS3において、制御部16は、前記ステップS2で判定された地図領域A1(すなわち、第1地図M1)から地点を示す前記地点文字列を抽出する。当該ステップS3の処理は、制御部16の抽出処理部162によって実行される。
<Step S3>
In step S3, the control unit 16 extracts the point character string indicating the point from the map area A1 (that is, the first map M1) determined in step S2. The process of step S3 is executed by the extraction processing unit 162 of the control unit 16.

<ステップS4>
ステップS4において、制御部16は、前記ステップS3で抽出された前記地点文字列に基づいて、地図データD1から取得すべき第2地図M2の範囲を判定する。当該ステップS3の処理は、制御部16の第2取得処理部163によって実行される。
<Step S4>
In step S4, the control unit 16 determines the range of the second map M2 to be acquired from the map data D1 based on the point character string extracted in step S3. The process of step S3 is executed by the second acquisition process unit 163 of the control unit 16.

<ステップS5>
ステップS5において、制御部16は、前記ステップS4で判定された範囲の第2地図M2を示す第2画像データを地図データD1から取得する。当該ステップS5の処理は、制御部16の第2取得処理部163によって実行される。当該ステップS5は、本発明の第2取得ステップの一例である。
<Step S5>
In step S5, the control unit 16 acquires the second image data indicating the second map M2 of the range determined in step S4 from the map data D1. The process of step S5 is executed by the second acquisition process unit 163 of the control unit 16. The step S5 is an example of the second acquisition step of the present invention.

<ステップS6>
ステップS6において、制御部16は、前記ステップS5で取得された前記第2画像データにおける第2地図M2の縮尺及び向きを、入力画像データD4に含まれる第1地図M1と同じ縮尺及び向きに変更する。当該ステップS6の処理は、制御部16の画像処理部164によって実行される。当該ステップS6は、本発明の画像処理ステップの一例である。
<Step S6>
In step S6, the control unit 16 changes the scale and orientation of the second map M2 in the second image data acquired in step S5 to the same scale and orientation as the first map M1 included in the input image data D4. To do. The process of step S6 is executed by the image processing unit 164 of the control unit 16. The step S6 is an example of the image processing step of the present invention.

<ステップS7>
ステップS7において、制御部16は、入力画像データD4に含まれる第1地図M1に示されている地点に対応する前記第2画像データにおける第2地図M2上の地点に対して強調処理を行う。当該ステップS7の処理は、制御部16の画像処理部164によって実行される。
<Step S7>
In step S7, the control unit 16 emphasizes the points on the second map M2 in the second image data corresponding to the points shown in the first map M1 included in the input image data D4. The process of step S7 is executed by the image processing unit 164 of the control unit 16.

<ステップS8>
ステップS8において、制御部16は、入力画像データD4に含まれる第1地図M1を、縮尺及び向きが変更された後の第2地図M2に置き換える(図8参照)。当該ステップS8の処理は、制御部16の画像処理部164によって実行される。
<Step S8>
In step S8, the control unit 16 replaces the first map M1 included in the input image data D4 with the second map M2 after the scale and orientation have been changed (see FIG. 8). The process of step S8 is executed by the image processing unit 164 of the control unit 16.

<ステップS9>
ステップS9において、制御部16は、第1地図M1が第2地図M2に置き換えられた後の入力画像データD4(すなわち、出力画像データD5)に基づいて、画像形成部13に画像形成処理を実行させる。そして、前記地図提示処理が終了する。当該ステップS9の処理は、制御部16の提示処理部165によって実行される。当該ステップS9は、本発明の提示ステップの一例である。
<Step S9>
In step S9, the control unit 16 executes an image forming process on the image forming unit 13 based on the input image data D4 (that is, the output image data D5) after the first map M1 is replaced with the second map M2. Let me. Then, the map presentation process is completed. The process of step S9 is executed by the presentation processing unit 165 of the control unit 16. The step S9 is an example of the presentation step of the present invention.

以上のように、本実施形態に係る画像形成装置1によれば、第1地図M1を含む原稿に基づいて、第1地図M1が第2地図M2に置き換えられた状態の前記原稿のコピーが生成されて出力される。よって、ユーザーは、前記コピーを見ることで、原稿に含まれている地図以外の情報に加えて、前記地図上では省略されている情報も知ることができる。さらに、前記コピーにおける第2地図M2の縮尺及び向きが、原稿における第1地図M1と同じ縮尺及び向きになっているので、第1地図M1と第2地図M2との対応関係がユーザーにとって分かり易い。 As described above, according to the image forming apparatus 1 according to the present embodiment, a copy of the manuscript in a state where the first map M1 is replaced with the second map M2 is generated based on the manuscript including the first map M1. Is output. Therefore, by looking at the copy, the user can know not only the information other than the map included in the manuscript but also the information omitted on the map. Further, since the scale and orientation of the second map M2 in the copy are the same scale and orientation as the first map M1 in the manuscript, the correspondence between the first map M1 and the second map M2 is easy for the user to understand. ..

[変形例]
なお、本実施形態では、図8に示される第2地図M2のように、第2地図M2の向きの変更に伴って第2地図M2に含まれる文字列の向きも変更される。しかしながら、他の実施形態では、図9に示される第2地図M2のように、第2地図M2の向きが変更されたとしても第2地図M2に含まれる文字列の向きが変更されないようにしてもよい。例えば、地図データD1が、道路、地形などを示す画像データと、施設、交差点などの名称を示すテキストデータとを含んでいて、前記画像データに前記テキストデータを重畳表示することによって地図が表示されてもよい。この場合、画像処理部164は、前記画像データに対して前記拡大/縮小処理及び前記回転処理を施した後に、当該処理後の画像データに前記テキストデータを合成してもよい。
[Modification example]
In the present embodiment, as in the second map M2 shown in FIG. 8, the direction of the character string included in the second map M2 is also changed as the direction of the second map M2 is changed. However, in another embodiment, as in the second map M2 shown in FIG. 9, even if the orientation of the second map M2 is changed, the orientation of the character string included in the second map M2 is not changed. May be good. For example, the map data D1 includes image data indicating roads, terrain, etc., and text data indicating names of facilities, intersections, etc., and the map is displayed by superimposing the text data on the image data. You may. In this case, the image processing unit 164 may perform the enlargement / reduction processing and the rotation processing on the image data, and then synthesize the text data with the image data after the processing.

また、本実施形態では、第1地図M1に示されている2つの地点に関する第1地図M1における座標及び第2地図M2における座標に基づいて、前記第2画像データにおける第2地図M2の縮尺及び向きが第1地図M1と同じ縮尺及び向きに変更される。しかしながら、本発明はこれに限定されない。他の実施形態では、画像処理部164は、入力画像データD4に含まれる方位記号の向きに基づいて、前記第2画像データにおける第2地図M2の向きを変更してもよい。さらに他の実施形態では、画像処理部164は、入力画像データD4に含まれる縮尺表示に基づいて、前記第2画像データにおける第2地図M2の縮尺を変更してもよい。 Further, in the present embodiment, the scale of the second map M2 in the second image data and the scale of the second map M2 in the second image data are based on the coordinates in the first map M1 and the coordinates in the second map M2 regarding the two points shown in the first map M1. The orientation is changed to the same scale and orientation as the first map M1. However, the present invention is not limited to this. In another embodiment, the image processing unit 164 may change the orientation of the second map M2 in the second image data based on the orientation of the orientation symbol included in the input image data D4. In still another embodiment, the image processing unit 164 may change the scale of the second map M2 in the second image data based on the scale display included in the input image data D4.

また、本実施形態では、図5に示される全てのステップが画像形成装置1において実行されるが、他の実施形態では、図5に示される一部のステップが、外部の情報処理装置(例えば、インターネット又はLANのようなネットワーク上のサーバー)において実行されてもよい。また、地図データD1、地点情報D2、住所情報D3の一部又は全部が、前記情報処理装置に記憶されていてもよい。例えば、前記ステップS3で抽出された前記地点文字列が画像形成装置1から前記情報処理装置に送信されてもよい。そして、前記情報処理装置において、地図データD1から取得すべき第2地図M2の範囲が前記地点文字列に基づいて判定されてもよい。そして、前記情報処理装置から画像形成装置1に第2地図M2を示す前記第2画像データが送信されてもよい。すなわち、第2取得処理部163は、前記情報処理装置から第2地図M2を示す前記第2画像データを取得してもよい。 Further, in the present embodiment, all the steps shown in FIG. 5 are executed in the image forming apparatus 1, but in other embodiments, some steps shown in FIG. 5 are performed by an external information processing apparatus (for example, an external information processing apparatus). , A server on a network such as the Internet or LAN). Further, a part or all of the map data D1, the point information D2, and the address information D3 may be stored in the information processing apparatus. For example, the point character string extracted in step S3 may be transmitted from the image forming apparatus 1 to the information processing apparatus. Then, in the information processing apparatus, the range of the second map M2 to be acquired from the map data D1 may be determined based on the point character string. Then, the second image data indicating the second map M2 may be transmitted from the information processing device to the image forming device 1. That is, the second acquisition processing unit 163 may acquire the second image data indicating the second map M2 from the information processing device.

また、本発明は、画像形成装置1に限らず、少なくとも撮像部と表示部とを有するスマートフォンのような携帯端末にも適用可能である。すなわち、前記携帯端末も、本発明の地図提示装置の一例である。この場合、第1取得処理部161は、画像読取部12を通じて入力画像データD4を取得する代わりに、前記撮像部を通じて入力画像データD4を取得する。そして、提示処理部165は、出力画像データD5に基づいて画像形成部13に画像形成処理を実行させる代わりに、第2地図M2の縮尺及び向きが変更された後の前記第2画像データに基づいて、第2地図M2を前記表示部に表示させる。例えば、提示処理部165は、出力画像データD5に応じた画像を前記表示部に表示させる。もしくは、提示処理部165は、縮尺及び向きが変更された後の第2地図M2の画像のみを前記表示部に表示させてもよい。 Further, the present invention is applicable not only to the image forming apparatus 1 but also to a mobile terminal such as a smartphone having at least an imaging unit and a display unit. That is, the mobile terminal is also an example of the map presentation device of the present invention. In this case, the first acquisition processing unit 161 acquires the input image data D4 through the image pickup unit instead of acquiring the input image data D4 through the image reading unit 12. Then, the presentation processing unit 165 is based on the second image data after the scale and orientation of the second map M2 are changed, instead of causing the image forming unit 13 to execute the image forming process based on the output image data D5. Then, the second map M2 is displayed on the display unit. For example, the presentation processing unit 165 causes the display unit to display an image corresponding to the output image data D5. Alternatively, the presentation processing unit 165 may display only the image of the second map M2 after the scale and orientation have been changed on the display unit.

1 画像形成装置
12 画像読取部
13 画像形成部
16 制御部
161 第1取得処理部
162 抽出処理部
163 第2取得処理部
164 画像処理部
165 提示処理部
M1 第1地図
M2 第2地図
1 Image forming device 12 Image reading unit 13 Image forming unit 16 Control unit 161 First acquisition processing unit 162 Extraction processing unit 163 Second acquisition processing unit 164 Image processing unit 165 Presentation processing unit M1 First map M2 Second map

Claims (12)

第1地図を含む第1画像データを取得する第1取得処理部と、
前記第1地図の範囲を少なくとも含む範囲の第2地図を示す第2画像データを予め登録された地図データから取得する第2取得処理部と、
前記第2画像データにおける前記第2地図の縮尺及び向きを前記第1地図と同じ縮尺及び向きに変更可能な画像処理部と、
前記画像処理部により縮尺及び向きが変更された後の前記第2地図を提示する提示処理部と、
を備え
前記画像処理部は、前記第1地図に示されている少なくとも2つの地点に関する前記第1地図における座標及び前記第2地図における座標に基づいて、前記第2画像データにおける前記第2地図の縮尺及び向きを前記第1地図と同じ縮尺及び向きに変更する、
地図提示装置。
The first acquisition processing unit that acquires the first image data including the first map, and
A second acquisition processing unit that acquires second image data indicating a second map in a range including at least the range of the first map from the map data registered in advance, and
An image processing unit capable of changing the scale and orientation of the second map in the second image data to the same scale and orientation as the first map.
A presentation processing unit that presents the second map after the scale and orientation have been changed by the image processing unit.
Equipped with a,
The image processing unit has a scale and a scale of the second map in the second image data based on the coordinates in the first map and the coordinates in the second map with respect to at least two points shown in the first map. Change the orientation to the same scale and orientation as the first map.
Map presentation device.
前記画像処理部は、前記第2地図における前記2つの地点のうちの一方の第1地点に対する他方の第2地点の相対位置が、前記第1地図における前記第1地点に対する前記第2地点の相対位置と一致するように、前記第2画像データにおける前記第2地図の縮尺及び向きを変更する、
請求項に記載の地図提示装置。
In the image processing unit, the relative position of the other second point with respect to the first point of one of the two points on the second map is relative to the first point on the first map. The scale and orientation of the second map in the second image data are changed so as to match the position.
The map presentation device according to claim 1 .
前記画像処理部は、前記第1地図に示されている3つ以上の地点のうちの距離が最も離れた2つの地点に関する前記第1地図における座標及び前記第2地図における座標に基づいて、前記第2画像データにおける前記第2地図の縮尺及び向きを変更する、
請求項1又は2に記載の地図提示装置。
The image processing unit is based on the coordinates in the first map and the coordinates in the second map regarding the two points that are the farthest from each other among the three or more points shown in the first map. Change the scale and orientation of the second map in the second image data.
The map presentation device according to claim 1 or 2 .
前記画像処理部は、前記2つの地点のうちの一方の地点が自宅である場合に、予め設定された自宅住所に基づいて前記第2地図における自宅の座標を取得する、
請求項のいずれかに記載の地図提示装置。
The image processing unit acquires the coordinates of the home in the second map based on the preset home address when one of the two points is the home.
The map presenting device according to any one of claims 1 to 3 .
前記画像処理部は、前記第1地図に示されている地点に対応する前記第2画像データにおける前記第2地図上の地点に対して強調処理を行う、
請求項1〜のいずれかに記載の地図提示装置。
The image processing unit performs emphasis processing on the points on the second map in the second image data corresponding to the points shown on the first map.
The map presenting device according to any one of claims 1 to 4 .
前記提示処理部は、前記第1地図の範囲と同じ範囲の前記第2地図を提示する、
請求項1〜のいずれかに記載の地図提示装置。
The presentation processing unit presents the second map in the same range as the range of the first map.
The map presenting device according to any one of claims 1 to 5 .
前記第1地図が、手書地図又は簡略地図である、
請求項1〜のいずれかに記載の地図提示装置。
The first map is a handwritten map or a simplified map.
The map presentation device according to any one of claims 1 to 6 .
原稿の画像を読み取る画像読取部と、
シートに画像を形成する画像形成処理を実行する画像形成部とを更に備え、
前記第1取得処理部は、前記画像読取部を通じて前記第1画像データを取得し、
前記画像処理部は、前記第1画像データに含まれる前記第1地図を、縮尺及び向きが変更された後の前記第2地図に置き換え、
前記提示処理部は、前記第1地図が前記第2地図に置き換えられた後の前記第1画像データに基づいて前記画像形成部に画像形成処理を実行させる、
請求項1〜のいずれかに記載の地図提示装置。
An image reader that reads the image of the original,
Further provided with an image forming unit for executing an image forming process for forming an image on the sheet,
The first acquisition processing unit acquires the first image data through the image reading unit, and obtains the first image data.
The image processing unit replaces the first map included in the first image data with the second map after the scale and orientation are changed.
The presentation processing unit causes the image forming unit to execute an image forming process based on the first image data after the first map is replaced with the second map.
The map presentation device according to any one of claims 1 to 7 .
撮像部と、
表示部とを更に備え、
前記第1取得処理部は、前記撮像部を通じて前記第1画像データを取得し、
前記提示処理部は、前記第2地図の縮尺及び向きが変更された後の前記第2画像データに基づいて、前記第2地図を前記表示部に表示させる、
請求項1〜のいずれかに記載の地図提示装置。
Imaging unit and
Further equipped with a display unit
The first acquisition processing unit acquires the first image data through the imaging unit, and obtains the first image data.
The presentation processing unit causes the display unit to display the second map based on the second image data after the scale and orientation of the second map are changed.
The map presentation device according to any one of claims 1 to 7 .
第1地図を含む第1画像データを取得する第1取得ステップと、
前記第1地図の範囲を少なくとも含む範囲の第2地図を示す第2画像データを予め登録された地図データから取得する第2取得ステップと、
前記第2画像データにおける前記第2地図の縮尺及び向きを前記第1地図と同じ縮尺及び向きに変更する画像処理ステップと、
前記画像処理ステップで縮尺及び向きが変更された後の前記第2地図を提示する提示ステップと、
を含み、
前記画像処理ステップは、前記第1地図に示されている少なくとも2つの地点に関する前記第1地図における座標及び前記第2地図における座標に基づいて、前記第2画像データにおける前記第2地図の縮尺及び向きを前記第1地図と同じ縮尺及び向きに変更する、
地図提示方法。
The first acquisition step of acquiring the first image data including the first map, and
A second acquisition step of acquiring second image data indicating a second map of a range including at least the range of the first map from the map data registered in advance, and
An image processing step of changing the scale and orientation of the second map in the second image data to the same scale and orientation as the first map, and
A presentation step for presenting the second map after the scale and orientation have been changed in the image processing step, and
Only including,
The image processing step is based on the coordinates in the first map and the coordinates in the second map with respect to at least two points shown in the first map, and the scale of the second map in the second image data and the scale of the second map. Change the orientation to the same scale and orientation as the first map.
Map presentation method.
第1地図を含む第1画像データを取得する第1取得処理部と、 The first acquisition processing unit that acquires the first image data including the first map, and
前記第1画像データに含まれる前記第1地図から地点を示す地点文字列を抽出する抽出処理部と、 An extraction processing unit that extracts a point character string indicating a point from the first map included in the first image data, and an extraction processing unit.
前記第1地図の範囲を少なくとも含む範囲の第2地図を示す第2画像データを予め登録された地図データから取得する第2取得処理部と、 A second acquisition processing unit that acquires second image data indicating a second map in a range including at least the range of the first map from the map data registered in advance, and
前記第2画像データにおける前記第2地図の縮尺及び向きを前記第1地図と同じ縮尺及び向きに変更可能な画像処理部と、 An image processing unit capable of changing the scale and orientation of the second map in the second image data to the same scale and orientation as the first map.
前記画像処理部により縮尺及び向きが変更された後の前記第2地図を提示する提示処理部と、 A presentation processing unit that presents the second map after the scale and orientation have been changed by the image processing unit.
を備え、 With
前記第2取得処理部は、前記抽出処理部により抽出される前記地点文字列に対応する地点を含む範囲の前記第2地図を示す前記第2画像データを取得し、 The second acquisition processing unit acquires the second image data showing the second map in the range including the points corresponding to the point character strings extracted by the extraction processing unit.
前記第2取得処理部は、前記地点文字列が自宅を示す文字列である場合に、予め設定された自宅住所に基づいて、自宅を含む範囲の前記第2地図を示す前記第2画像データを取得する、 When the point character string is a character string indicating a home, the second acquisition processing unit obtains the second image data indicating the second map in a range including the home based on a preset home address. get,
地図提示装置。 Map presentation device.
第1地図を含む第1画像データを取得する第1取得ステップと、 The first acquisition step of acquiring the first image data including the first map, and
前記第1画像データに含まれる前記第1地図から地点を示す地点文字列を抽出する抽出ステップと、 An extraction step of extracting a point character string indicating a point from the first map included in the first image data, and
前記第1地図の範囲を少なくとも含む範囲の第2地図を示す第2画像データを予め登録された地図データから取得する第2取得ステップと、 A second acquisition step of acquiring second image data indicating a second map of a range including at least the range of the first map from the map data registered in advance, and
前記第2画像データにおける前記第2地図の縮尺及び向きを前記第1地図と同じ縮尺及び向きに変更する画像処理ステップと、 An image processing step of changing the scale and orientation of the second map in the second image data to the same scale and orientation as the first map, and
前記画像処理ステップで縮尺及び向きが変更された後の前記第2地図を提示する提示ステップと、 A presentation step for presenting the second map after the scale and orientation have been changed in the image processing step, and
を含み、 Including
前記第2取得ステップは、前記抽出ステップにより抽出される前記地点文字列に対応する地点を含む範囲の前記第2地図を示す前記第2画像データを取得し、 The second acquisition step acquires the second image data showing the second map in the range including the points corresponding to the point character strings extracted by the extraction step.
前記第2取得ステップは、前記地点文字列が自宅を示す文字列である場合に、予め設定された自宅住所に基づいて、自宅を含む範囲の前記第2地図を示す前記第2画像データを取得する、 In the second acquisition step, when the point character string is a character string indicating a home, the second image data indicating the second map of the range including the home is acquired based on a preset home address. To do,
地図提示方法。 Map presentation method.
JP2017166613A 2017-08-31 2017-08-31 Map presentation device and map presentation method Active JP6801612B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017166613A JP6801612B2 (en) 2017-08-31 2017-08-31 Map presentation device and map presentation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017166613A JP6801612B2 (en) 2017-08-31 2017-08-31 Map presentation device and map presentation method

Publications (2)

Publication Number Publication Date
JP2019045603A JP2019045603A (en) 2019-03-22
JP6801612B2 true JP6801612B2 (en) 2020-12-16

Family

ID=65816386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017166613A Active JP6801612B2 (en) 2017-08-31 2017-08-31 Map presentation device and map presentation method

Country Status (1)

Country Link
JP (1) JP6801612B2 (en)

Also Published As

Publication number Publication date
JP2019045603A (en) 2019-03-22

Similar Documents

Publication Publication Date Title
US8471914B2 (en) Image processing system with ease of operation
JP2013070120A (en) Image data processing system
JP6066108B2 (en) Electronic document generation system and program
JP2006211374A (en) Image forming apparatus
US20140320933A1 (en) Image processing apparatus and image forming apparatus
JP6696459B2 (en) Image forming apparatus and image forming method
US10853002B2 (en) Filling blank areas on a page with print data for printing
JP6801612B2 (en) Map presentation device and map presentation method
US11283939B2 (en) Information processing device, non-transitory computer-readable recording medium storing control program, and control method
US9456094B2 (en) Electronic device and information providing method that provide assistance to user&#39;s operation on how to use electronic equipment
JP2016096393A (en) Information processing apparatus, system, information processing method, and program
JP6493298B2 (en) Image forming apparatus
JP7087683B2 (en) Image processing system and server equipment
JP6988679B2 (en) Image formation system
US20160072966A1 (en) Non-transitory computer readable medium and image processing device
JP7094092B2 (en) Information processing equipment, information processing system, control program and control method
US20180314469A1 (en) Content management system, content management method, and content management program
JP6617647B2 (en) Image forming apparatus and image forming method
JP6274120B2 (en) Image forming apparatus
JP2019080102A (en) Image processing apparatus
JP2010218041A (en) Portable character recognition device, character recognition program, and character recognition method
JP6911797B2 (en) Image processing device, image processing method
JP6565872B2 (en) Image processing device
JP2018034360A (en) Image formation apparatus and image formation method
JP6572852B2 (en) Image forming apparatus and image forming method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201109

R150 Certificate of patent or registration of utility model

Ref document number: 6801612

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150