JP7180323B2 - 表示装置、表示方法および表示システム - Google Patents

表示装置、表示方法および表示システム Download PDF

Info

Publication number
JP7180323B2
JP7180323B2 JP2018223303A JP2018223303A JP7180323B2 JP 7180323 B2 JP7180323 B2 JP 7180323B2 JP 2018223303 A JP2018223303 A JP 2018223303A JP 2018223303 A JP2018223303 A JP 2018223303A JP 7180323 B2 JP7180323 B2 JP 7180323B2
Authority
JP
Japan
Prior art keywords
image
unit
sheet
characters
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018223303A
Other languages
English (en)
Other versions
JP2020086264A (ja
Inventor
拓矢 小辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2018223303A priority Critical patent/JP7180323B2/ja
Priority to US16/695,546 priority patent/US20200174555A1/en
Publication of JP2020086264A publication Critical patent/JP2020086264A/ja
Application granted granted Critical
Publication of JP7180323B2 publication Critical patent/JP7180323B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/30Control of display attribute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/32Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory with means for controlling the display position
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3871Composing, repositioning or otherwise geometrically modifying originals the composed originals being of different kinds, e.g. low- and high-resolution originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/174Form filling; Merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30176Document
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • G09G2340/145Solving problems related to the presentation of information to be displayed related to small screens
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、表示装置、表示方法および表示システムに関する。
従来、申請書又は契約書等の文書への記入時における記入ミスを減らすために、ユーザーの参考となる情報を、文書の記入欄の近傍に表示する技術が開示されている(例えば、特許文献1参照)。
特開2015-11586号公報
しかしながら、特許文献1に記載の技術は、見本の文書があることが前提となっていた。このため、見本の文書がない寄せ書き等にメッセージを手書きする場合など、自由度の高い文字列を所定の範囲内に記載する場合においては、記載ミスを抑制することはできなかった。すなわち、所定の範囲内に全ての文字が入り切らなかったり、後半の文字が小さくなったりすることが生じていた。
本発明は、上記課題に鑑みてなされたものであり、ユーザーが、所望の文字列を所定の範囲内に手書きする場合でも、記載ミスを抑制することができる表示装置、表示方法および表示システムを提供することを目的としている。
本発明の表示装置は、表示部と、生成部と、制御部とを備える。前記表示部は、画像を表示する。前記生成部は、シートに記載される文字の位置を規定する補助画像を生成する。前記制御部は、前記シートに対応させて前記補助画像を表示するように、前記表示部を制御する。
本発明の表示方法は、表示部を備える表示装置の表示方法であって、シートに記載される文字の位置を規定する補助画像を生成するステップと、前記シートに対応させて前記補助画像を表示するように、前記表示部を制御するステップとを含む。
本発明の表示システムは、表示装置と、画像形成装置とを含む表示システムであって、前記表示装置は、表示部と、生成部と、制御部と、撮像部と、送信部とを備える。前記表示部は、画像を表示する。前記生成部は、シートに記載される文字の位置を規定する補助画像を生成する。前記制御部は、前記シートに対応させて前記補助画像を表示するように、前記表示部を制御する。前記撮像部は、前記文字が記載されたシートを撮像して、前記シートの画像を示す画像データを生成する。前記送信部は、前記画像データを前記画像形成装置に送信する。前記画像形成装置は、受信部と、画像形成部とを備える。前記受信部は、前記画像データを受信する。前記画像形成部は、受信した前記画像データに基づいて、画像を形成する。
本発明の表示装置、表示方法および表示システムによれば、ユーザーが所望の文字列を所定の範囲内に手書きする場合でも、記載ミスを抑制することができる。
本発明の実施形態に係る表示装置の機能の概略を示す図である。 表示装置の表示部に表示される補助画像の拡大図である。 表示装置の構成を示すブロック図である。 第1実施例の第1補助画像を示す図である。 (a)は、第1実施例の表示装置の一機能を示す図である。(b)は、ユーザーが補助画像を利用して手書き文字を入力する様子を示す図である。 (a)は、第1実施例の表示装置の他の機能を示す図である。(b)は、第1実施例の第2補助画像を示す図である。 表示装置の手書きアシスト処理を示すフローチャートである。 第1実施例の第1アシスト処理を示すフローチャートである。 第2実施例の第2アシスト処理を示すフローチャートである。 第2実施例の補助画像のサイズを変更する様子と、注意喚起メッセージの表示例とを示す図である。 第2実施例の次に記載する文字の表示例を示す図である。 変形例の表示システムの構成を示す概略図である。
以下、本発明の実施形態について、図面(図1~図12)を参照しながら説明する。なお、図中、同一又は相当部分については同一の参照符号を付して説明を繰り返さない。
まず、図1および図2を参照して、本実施形態に係る表示装置1の機能の概略について説明する。図1は、表示装置1の機能の概略を示す図である。表示装置1は、記録媒体であるシートに手書きするユーザーを支援する。本実施形態では、シートは、手書きが可能な平坦状の領域を有している。なお、シートは、球面を含んでいてもよい。シートの材質は、紙、布、ゴム又はプラスチック等である。表示装置1は、例えば、AR(Augmented Reality)グラス、又はHMD(Head Mounted Display)である。
図1に示すように、表示装置1は、表示部12と、生成部1511と、制御部1519とを備える。
表示部12は、画像を表示する。具体的には、表示部12は、左右1対で構成され、補助画像121を表示する。本実施形態では、表示部12には、生成部1511で生成された画像が投影される。表示部12は、カラー画像を表示する透明液晶ディスプレイを含む。なお、表示部12は、透明液晶ディスプレイに限定されない。表示部12は、有機エレクトロルミネッセンス(有機EL)ディスプレイを含んでもよい。
生成部1511は、補助画像121を生成する。補助画像121は、用紙4に記載される文字の位置を規定する。具体的には、補助画像121は、用紙4に対応付けて表示される画像であり、手書き文字の位置を1文字単位で明示する。補助画像121は、例えば、原稿用紙のようなマス目を含む線図で構成される。生成された補助画像121は、制御部1519によって、1対の表示部12に各々表示される。なお、用紙4は、「シート」の一例である。
制御部1519は、用紙4に対応させて補助画像121を表示するように、表示部12を制御する。具体的には、制御部1519は、用紙4の位置に対応させて補助画像121を1対の表示部12にそれぞれ表示するように、表示部12を制御する。
補助画像121は、表示部12のうち、用紙4の輪郭41が投影された輪郭51の右下の位置に表示される。したがって、表示装置1を装着するユーザーは、表示部12を通して外界の用紙4と、補助画像121とを視認することが可能である。なお、「外界」とは、ユーザーの周辺環境である。以下、用紙4を含むように用紙4の周辺を撮影した場合の画像を「周辺画像」という。
更に、図1は、ユーザーの視点と、表示装置1と、用紙4との位置関係を示している。すなわち、図1は、表示装置1を装着したユーザーの視点ELおよび視点ERと、表示装置1の1対の表示部12と、用紙4との位置関係を示している。視点ELは、ユーザーの左目の視点である。視点ERは、ユーザーの右目の視点である。
用紙4の外周を示す輪郭41は、表示装置1の表示部12に輪郭51として投影される。更に、表示部12には、輪郭51と重畳するように、補助画像121が表示される。本実施形態では、補助画像121は、輪郭51の右下に表示される。ユーザーは、視点ELと視点ERとによって、表示部12に重畳して表示されている1対の輪郭51と、1対の補助画像121とを視認する。
図2は、表示装置1の表示部12に表示される補助画像121の拡大図である。図2に示すように、補助画像121は、輪郭51の右下に、用紙4と重畳させて表示される。これにより、ユーザーは、補助画像121が重畳されている用紙4を見ながら、用紙4に1行当たり10文字ずつ、4行の手書き文字を記載することができる。
次に、図3を参照して、表示装置1の構成について詳細に説明する。図3は、表示装置1の構成を示すブロック図である。図3に示すように、表示装置1は、通信部11と、表示部12と、撮像部13と、仮想入力部14と、装置制御部15とを備える。
通信部11は、装置制御部15の指示に応じて、他の電子機器との間で、各種のデータを送受信する。具体的には、通信部11は、スマートフォン等の通信端末から音声データを受信する。更に、通信部11は、図12を参照して後述する画像形成装置3に画像データを送信する。画像形成装置3は、カラー複合機(以下、カラー複合機を「MFP(Multifunction Peripheral)」とも称する。)である。通信部11は、例えば、通信インターフェイスである。なお、通信部11は、「第2入力部」の一例である。
表示部12は、装置制御部15の指示に応じて、画像を表示する。具体的には、表示部12は、補助画像121、および図5(a)を参照して後述する仮想入力画面122を表示する。
表示部12には、例えば、装置制御部15が備える投影部(図示せず)から投影された補助画像121と、仮想入力画面122とが表示される。表示部12は、1対のレンズと、1対の偏光シャッターとを含む透過型の表示ユニットである。ここで、「透過型の表示ユニット」とは、外界の光を透過させつつ、撮像部13が撮影した映像と、装置制御部15が生成した画像とを表示する表示ユニットをいう。偏光シャッターは、レンズの全面に貼り付けられている。偏光シャッターは、液晶表示素子で構成され、外界の光を透過させる開状態と、外界の光を透過させない閉状態とを切り換えることができる。偏光シャッターの開状態と閉状態とは、液晶表示素子の液晶層に印加する電圧を制御することによって切り換える。
なお、表示部は、非透過型の表示ユニットであってもよい。ここで、「非透過型の表示ユニット」とは、外界の光を透過させずに、撮像部13が撮影した映像と、装置制御部15が生成した画像とを表示する表示ユニットをいう。
撮像部13は、用紙4を撮影して用紙4の画像を示す用紙画像データを生成する。具体的には、撮像部13は、装置制御部15の指示に応じて、用紙4を撮影して、用紙画像データを生成する。更に、撮像部13は、装置制御部15の指示に応じて、用紙4上を移動する指を撮影して指画像を示す指画像データを生成する。指を撮影する際、撮像部13は、用紙4の全体を含むように撮影してもよい。また、撮像部13は、装置制御部15の指示に応じて、用紙4を含むように用紙4の周辺を撮影して周辺画像を示す周辺画像データを生成してもよい。なお、用紙画像データは、「シート画像データ」の一例である。
用紙画像データは、用紙4の領域を特定するために、装置制御部15によって使用される。更に、用紙画像データは、用紙4に補助線があるか否かを判定するために、装置制御部15によって使用される。また、用紙画像データは、用紙4の色を特定するために、装置制御部15によって使用される。
指画像データは、ユーザーの指の軌跡を特定するために、装置制御部15によって使用される。更に、指画像データは、次に記載される文字の位置を特定するために、装置制御部15によって使用される。
周辺画像データは、用紙4に対応させて補助画像121を非透過型の表示部に表示するために、装置制御部15によって使用される。
撮像部13は、表示装置1の必須の構成ではない。例えば、用紙4と、表示装置1とが固定されており、補助画像121を用紙4の特定の位置に表示させる場合は、撮像部13による撮影は不要である。
撮像部13は、例えば、電荷結合素子(Charge Coupled Device:CCD)イメージセンサー、又は相補型MOS(Complementary Metal Oxide Semiconductor:CMOS)イメージセンサーを含む。
仮想入力部14は、ユーザーのジェスチャー動作に基づいて、指示を受け付ける。本実施形態では、仮想入力部14は、指のジェスチャー動作に基づいて、ユーザーから指示を受け付ける。仮想入力部14は、少なくとも文字数を受け付ける。ここで、「文字数」とは、手書きする文字の総数をいう。
更に、仮想入力部14は、文字を記載させる行数又は列数を受け付ける。ここで、「行数」とは、手書きする文章のy方向に並ぶ文字列の数をいう。また、「列数」とは、手書きする文章のx方向に並ぶ文字列の数をいう。また、仮想入力部14は、図5(a)を参照して後述する指定領域の指示を受け付ける。「指定領域」とは、用紙4に重畳するように補助画像121を表示させる位置を規定するための領域をいう。なお、仮想入力部14は、「第1入力部」の一例である。
装置制御部15は、制御プログラムに基づいて、表示装置1の各構成部分の動作を制御する。装置制御部15は、処理部151と、記憶部152とを備える。処理部151は、例えば、プロセッサーである。プロセッサーは、例えばCPU(Central Processing Unit)である。更に、装置制御部15は、補助画像121および仮想入力画面122を表示部12に投影する投影部(図示せず)を備えてもよい。
処理部151は、記憶部152に記憶された制御プログラムを実行することによって、表示装置1の各構成部分の動作を制御する。本実施形態では、処理部151は、通信部11が受信した音声データを記憶部152に記憶させる。更に、処理部151は、音声データが示す音声から文字を認識し、文字を示す文字データを生成する。
記憶部152は、各種のデータおよび制御プログラムを記憶する。記憶部152は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、およびソリッドステートドライブ(Solid State Drive:SSD)のうち、少なくとも1つを含む。本実施形態では、記憶部152は、音声データを記憶する。更に、記憶部152は、処理部151で認識された文字の文字データを記憶する。
処理部151は、生成部1511と、認識部1512と、導出部1513と、第1特定部1514と、第2特定部1515と、第3特定部1516と、第4特定部1517と、判定部1518と、制御部1519とを含む。本実施形態において、処理部151が記憶部152に格納された制御プログラムを実行することによって、制御プログラムが、生成部1511と、認識部1512と、導出部1513と、第1特定部1514と、第2特定部1515と、第3特定部1516と、第4特定部1517と、判定部1518と、制御部1519との機能を実現する。
本実施形態では、生成部1511は、ユーザーから受け付けた文字数に対応する、1又は複数の文字の位置を規定する補助画像121を生成する。更に、生成部1511は、ユーザーから受け付けた文字数と、行数又は列数とに対応する、1又は複数の文字の位置を規定する補助画像121を生成する。また、生成部1511は、認識部1512で計数された文字数と、導出部1513で導出された行数又は列数とに対応する、1又は複数の文字の位置を規定する補助画像121を生成してもよい。
生成部1511は、用紙4の領域のうち所定の領域に補助画像121を生成する。具体的には、生成部1511は、ユーザーの指の軌跡によって規定される、用紙4のうちの一部の領域に対応させて補助画像121を生成する。本実施形態では、生成部1511が生成する補助画像121の色は、「赤」である。更に、生成部1511は、用紙4の画像の色と、補助画像121の色とが近似すると判定された場合、補助画像121の色を用紙4の色の補色に変更する。例えば、用紙4の色が「赤色」で補助画像121の色も「赤色」の場合、生成部1511は、補助画像121の色を、赤色の補色である「緑色」に変更する。補助画像121の色を用紙4の色の補色に変更することにより、ユーザーは、手書きで記載すべき文字の位置を、より明確に視認することが可能になる。また、生成部1511は、図5(a)を参照して後述する仮想入力画面122を生成する。
認識部1512は、音声データが示す音声から文字を認識する。具体的には、認識部1512は、通信部11等を介して取得した音声データが示す音声から文字を認識する。更に、認識部1512は、認識した文字の文字数を計数する。
導出部1513は、認識部1512で計数された文字数に基づいて、行数又は列数を導出する。具体的には、導出部1513は、予め1行又は1列当たりの文字数を「10文字」と設定しておき、10文字を越えた場合に、行数又は列数を1つ増加させて、行数又は列数を導出する。
第1特定部1514は、用紙画像データに基づいて、少なくとも用紙4の領域を特定する。更に、第1特定部1514は、用紙4のうちの一部の領域に対応する用紙画像データに基づいて、第1の方向に描画された補助線があるか否かを判定する。具体的には、第1特定部1514は、用紙4のうちの指定領域120で指定された一部の領域に対応する用紙画像データに基づいて、第1方向に描画された1本又は複数本の補助線を特定する。そして、第1特定部1514は、特定した補助線に基づいて、手書きするメッセージの行数を特定する。ここで、「補助線」とは、用紙4の特定の方向に描画された1本又は複数本の線をいう。補助線については、図6(a)を参照して後述する。
第2特定部1515は、撮像部13で生成された指画像データに基づいて、指の軌跡を特定する。例えば、第2特定部1515は、用紙4の全体を含む指画像データに基づいて、用紙4の輪郭41のx方向の長さおよびy方向の長さから、単位時間の経過毎に、用紙4の上に位置する指の相対位置を算出することによって、指の軌跡を特定する。
第3特定部1516は、指画像データと、補助画像121を示す補助画像データとに基づいて、次に記載される文字の位置を特定する。具体的には、第3特定部1516は、指画像データと、補助画像121を示す補助画像データとに基づいて、ペンを持つ指の位置と、その指の位置に対応する、次に記載される文字の位置とを特定する。
第4特定部1517は、用紙画像データと、補助画像121を示す補助画像データとに基づいて、用紙4の画像の色と、補助画像121の色とをそれぞれ特定する。
判定部1518は、用紙4の画像の色と補助画像121の色とが近似するか否かを判定する。
制御部1519は、図1を参照して説明したように、用紙4に対応させて補助画像121を表示するように表示部12を制御する。更に、制御部1519は、第3特定部1516で特定された文字を、次に記載される文字として表示するように、表示部12を制御する。また、制御部1519は、仮想入力画面122を表示するように、表示部12を制御する。また、制御部1519は、表示部が非透過型の場合に、周辺画像の中の用紙4に対応させて、補助画像121を表示するように、表示部12を制御する。
(第1実施例)
次に、図1~図8を参照して、本実施形態に係る第1実施例について説明する。
図4は、第1実施例の第1補助画像121Aを示す図である。図4に示すように、表示装置1は、表示部12と撮像部13とを備える。表示部12には、第1補助画像121Aが表示されている。更に、ユーザーは、表示部12を通して、用紙4の輪郭41が投影された輪郭51を視認することができる。すなわち、表示装置1を装着したユーザーは、用紙4の右上の一角の領域に、手書きを支援する第1補助画像121Aを視認する。
撮像部13は、図3を参照して上述したように、用紙画像データと指画像データとを生成する。更に、撮像部13は、周辺画像データを生成してもよい。
図5(a)は、第1実施例の表示装置1の機能を示す図である。図5(a)は、表示装置1を装着したユーザーの視界の様子の一例を示す。具体的には、図5(a)は、用紙4の輪郭41が投影された輪郭51と、表示部12の偏光シャッターに投影される画像とを示す。表示部12の偏光シャッターに投影される画像は、指定領域120Aと、第1補助画像121Aと、仮想入力画面122とである。なお、以下において、指定領域120は、指定領域120Aおよび指定領域120Bの総称である。また、補助画像121は、第1補助画像121A、第2補助画像121Bおよび第3補助画像121Cの総称である。
指定領域120は、用紙4に手書き文字を記載するユーザーが、第1補助画像121Aを表示させる位置を示す。仮想入力部14は、例えば、用紙4の上面におけるユーザーの指でなぞる動きを検出して、指定領域120を決定する。ユーザーによって指示された指定領域120は、表示部12の偏光シャッターに投影されて表示される。以下、表示部12の偏光シャッターに投影された表示を「投影表示」という。指定領域120は、例えば黒い色の線で投影表示される。
制御部1519は、ユーザーによって指示された指定領域120の位置に第1補助画像121Aを表示する。
仮想入力画面122は、生成部1511が生成する画面である。仮想入力画面122は、ユーザーから必要な情報を受け付けるために投影表示される画面である。具体的には、仮想入力画面122は、仮想キーボード1221と、文字数欄1222と、行数欄1223と、閉じるキー1224と、OKキー1225とを含む。
仮想キーボード1221は、ユーザーから数を受け付ける。
文字数欄1222は、ユーザーから補助画像121の文字数を受け付ける。行数欄1223は、ユーザーから補助画像121の行数を受け付ける。
閉じるキー1224は、ユーザーの操作により、仮想入力画面122の表示を終了する。OKキー1225は、ユーザーの操作により、受け付けた文字数と行数とを確定させる。
図5(b)は、ユーザーが補助画像121を利用して手書き文字を入力する様子を示す図である。具体的には、図5(b)は、表示装置1を装着したユーザーが、補助画像121を利用しながら、ペン5で用紙4に手書き文字を記載している様子を示す。図5(b)に示すように、ユーザーは、第1補助画像121Aが重畳して表示されている用紙4を見ながら、1文字ずつ手書き文字を用紙4に記載することができる。
図6(a)は、第1実施例の表示装置の他の機能を示す図である。図6(a)に示すように、用紙4は、4本の補助線7a~補助線7dを有している。4本の補助線7a~補助線7dは、それぞれx方向に延びる破線であり、y方向に4本並んでいる。
更に、図6(a)は、指定領域120Bを示す。指定領域120Bは、仮想入力部14が、ユーザーの指の動きに基づいて決定する。更に、第1特定部1514は、指定領域120に含まれる補助線の本数に基づいて、手書きするメッセージの行数を特定する。例えば、図6(a)の場合は、手書きするメッセージの行数は「4」である。
図6(b)は、第1実施例の第2補助画像121Bを示す図である。ユーザーによって指定領域120Bが指示されると、生成部1511は、文字数と行数とに基づいて補助画像121を生成する。更に、生成部1511は、生成した第2補助画像121Bと、指定領域120Bの位置とに基づいて、補助画像121の表示位置を決定する。
図7は、表示装置1の手書きアシスト処理を示すフローチャートである。「手書きアシスト処理」は、所定の補助画像121を表示部12に表示することによって、用紙4に手書きするユーザーをアシストする処理である。手書きアシスト処理は、ステップS2~ステップS20によって実行される。
ステップS2:装置制御部15は、音声録音に基づく手書きか否かを判定する。音声録音に基づく手書きであると装置制御部15が判定した場合は(ステップS2でYes)、処理はステップS16に進む。音声録音に基づく手書きでないと装置制御部15が判定した場合は(ステップS2でNo)、処理はステップS4に進む。
ステップS4:装置制御部15は、第1アシスト処理を実行する。処理はステップS6に進む。
ステップS6:判定部1518は、用紙4の色と補助画像121の色とが類似するか否かを判定する。用紙4の色と補助画像121の色とが類似すると判定部1518が判定した場合は(ステップS6でYes)、処理はステップS8に進む。用紙4の色と補助画像121の色とが類似しないと判定部1518が判定した場合は(ステップS6でNo)、処理はステップS10に進む。
ステップS8:生成部1511は、補助画像121の色を用紙4の色の補色に変更する。処理はステップS10に進む。
ステップS10:表示部12は、制御部1519の指示に応じて、補助画像121を表示する。処理はステップS12に進む。
ステップS12:撮像部13は、ユーザーによる手書き文字の入力を撮影する。処理はステップS14に進む。
ステップS14:装置制御部15は、ユーザーによる手書き文字の入力が終了したか否かを判定する。ユーザーによる手書き文字の入力が終了したと装置制御部15が判定した場合は(ステップS14でYes)、処理はステップS18に進む。ユーザーによる手書き文字の入力が終了しないと装置制御部15が判定した場合は(ステップS14でNo)、処理はステップS10に戻る。
ステップS16:装置制御部15は、第2アシスト処理を実行する。処理はステップS18に進む。
ステップS18:装置制御部15は、ユーザーからの指示に基づき、手書きした文字をMFPで印刷するか否かを判定する。手書きした文書をMFPで印刷すると装置制御部15が判定した場合は(ステップS18でYes)、処理はステップS20に進む。手書きした文書をMFPで印刷しないと装置制御部15が判定した場合は(ステップS18でNo)、処理は終了する。
ステップS20:通信部11は、装置制御部15の指示に応じて、手書きした文書を示す画像データをMFPに送信する。処理は終了する。
図8は、図7を参照して上述した、手書きアシスト処理における「第1アシスト処理」のフローチャートである。第1アシスト処理は、ユーザーからの指示又は補助線を利用して、補助画像121を生成するための処理である。第1アシスト処理は、ステップS102~ステップS110によって実行される。
ステップS102:第1特定部1514は、用紙4に補助線があるか否かを判定する。用紙4に補助線があると第1特定部1514が判定した場合は(ステップS102でYes)、処理はステップS106に進む。用紙4に補助線がないと第1特定部1514が判定した場合は(ステップS102でNo)、処理はステップS104に進む。
ステップS104:仮想入力部14は、ユーザーから、指定領域120、文字数および行数を受け付ける。処理はステップS110に進む。
ステップS106:第1特定部1514は、用紙4の補助線の行数又は列数を特定する。処理はステップS108に進む。
ステップS108:仮想入力部14は、ユーザーから、指定領域120および文字数を受け付ける。処理はステップS110に進む。
ステップS110:生成部1511は、補助画像121を生成する。処理は終了する。
以上のように、第1実施例の表示装置1によれば、ユーザーは、用紙4に対応させて表示される補助画像121が規定する文字の位置に従って、手書き文字を記載することができる。したがって、ユーザーが所望の文字列を所定の範囲内に手書きする場合でも、記載ミスを抑制することができる。更に、予め補助線が記載された用紙4に手書きする場合、ユーザーは、行数又は列数の入力を省略することが可能となる。
(第2実施例)
次に、図3および図9~図11を参照して、本実施形態に係る第2実施例について説明する。図9は、図7を参照して上述した手書きアシスト処理における「第2アシスト処理」を示すフローチャートである。「第2アシスト処理」は、録音された音声を利用して補助画像121を生成するための処理である。第2アシスト処理は、ステップS202~ステップS222によって実行される。
ステップS202:通信部11は、通信端末から音声データを受信する。処理はステップS204に進む。
ステップS204:認識部1512は、音声データが示す音声に基づいて文字を認識する。処理はステップS206に進む。
ステップS206:認識部1512は、認識した文字の数を計数する。処理はステップS208に進む。
ステップS208:仮想入力部14は、指定領域120を受け付ける。処理はステップS210に進む。
ステップS210:生成部1511は、補助画像121を生成する。処理はステップS212に進む。
ステップS212:表示部12は、制御部1519の指示に応じて、補助画像121を表示する。処理はステップS214に進む。
ステップS214:装置制御部15は、ユーザーからの指示に基づき、補助画像121のサイズ又は文字数を変更するか否かを判定する。補助画像121のサイズ又は文字数を変更すると装置制御部15が判定した場合は(ステップS214でYes)、処理はステップS216に進む。補助画像121のサイズ又は文字数を変更しないと装置制御部15が判定した場合は(ステップS214でNo)、処理はステップS218に進む。
ステップS216:生成部1511は、補助画像121のサイズ又は文字数を変更した補助画像121を生成する。処理はステップS212に進む。
ステップS218:制御部1519は、第1特定部1514で特定された次に記載する文字127(図11)を表示部12に表示する。図11については後述する。処理はステップS220に進む。
ステップS220:撮像部13は、ユーザーによる手書きの様子を撮影する。具体的には、撮像部13は、ユーザーの指の位置を撮影し、指画像データを生成する。処理はステップS222に進む。
ステップS222:装置制御部15は、ユーザーによる手書き文字の入力が終了したか否かを判定する。ユーザーによる手書き文字の入力が終了したと装置制御部15が判定した場合は(ステップS222でYes)、処理は終了する。ユーザーによる手書き文字の入力が終了しないと装置制御部15が判定した場合は(ステップS222でNo)、処理はステップS212に戻る。
図10は、図9を参照して説明した第2実施例における「ステップS214の処理およびステップS216の処理」に関する補助画像のサイズを変更する様子と、注意喚起メッセージの表示例とを示す図である。図10に示すように、表示部12には、第3補助画像121Cと、注意喚起メッセージ画面123とが表示されている。
本実施例では、仮想入力部14は、ユーザーから受け付けた指示に基づいて、第3補助画像121Cのサイズを拡大し、又は縮小する。
注意喚起メッセージ画面123は、注意喚起メッセージ124と、文字数欄125と、OKボタン126とを含む。注意喚起メッセージ124は、表示された第3補助画像121Cのサイズで問題ないか、ユーザーに注意を促す。文字数欄125は、文字数の変更を受け付ける。OKボタン126は、文字数欄125の文字数に基づいて、第3補助画像121Cを生成する。
図11は、図9を参照して説明した第2実施例における「ステップS218の処理」に関する、次に記載する文字の表示例を示す図である。図11に示すように、表示部12には、第3補助画像121Cの枠外に文字「め」が表示されている。この文字「め」が、次に記載する文字127である。
以上のように、第2実施例の表示装置1によれば、ユーザーは、録音した音声を利用しながら手書き文字を記載することができる。すなわち、録音した音声から文字を認識し、認識された文字が、次に記載すべき文字の近傍に表示される。したがって、ユーザーは、録音された音声の文字を所定の範囲内に手書きする場合でも、記載ミスを抑制することが可能となる。
(変形例)
次に、図1~図3および図12を参照して、変形例に係る表示システム100について説明する。図12は、変形例の表示システム100の構成を示す概略図である。図12に示すように、表示システム100は、表示装置1と、端末装置2と、画像形成装置3とを有する。
端末装置2は、例えば、録音機能を有するスマートフォンである。端末装置2は、録音された音声を示す音声データを表示装置1に送信する。
表示装置1の通信部11は、端末装置2から音声データを受信する。生成部1511は、音声データに基づいて、補助画像121を生成する。表示部12は、装置制御部15の指示に応じて補助画像121を表示し、ユーザーによる手書きを支援する。表示装置1の撮像部13は、ユーザーによる手書き文字が記載された用紙4を撮影して、画像データを生成する。更に、表示装置1の通信部11は、画像形成装置3に画像データを送信する。なお、通信部11は、送信部の一例である。また、表示装置1は、端末装置2から音声データを取得する場合に限定されない。例えば、表示装置1は、音声データが記録された記録媒体を介して音声データを取得してもよい。
画像形成装置3は、通信部31と、画像形成部32と、制御部33とを備える。通信部31は、制御部33の指示に応じて、表示装置1から送信された画像データを受信する。画像形成部32は、制御部33の指示に応じて、画像を形成する。制御部33は、画像形成装置3の各構成部分の動作を制御する。なお、通信部31は、「受信部」の一例である。
以上のように、変形例の表示装置1によれば、ユーザーは、端末装置2から受信した音声データに基づいて、記載ミスを抑制して手書きをすることができる。更に、手書きした内容を離れた画像形成装置3で印刷することが可能となる。
以上、図面を参照しながら本発明の実施形態について説明した。ただし、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である(例えば、下記に示す(1)~(4))。図面は、理解し易くするために、それぞれの構成要素を主体に模式的に示しており、図示された各構成要素の厚み、長さ、個数等は、図面作成の都合上から実際とは異なる場合がある。また、上記の実施形態で示す各構成要素の形状、寸法等は一例であって、特に限定されるものではなく、本発明の構成から実質的に逸脱しない範囲で種々の変更が可能である。
(1)本発明の実施形態では、補助画像121は、原稿用紙のようなマス目を含む線図で構成される実施例について説明したが、補助画像の形態はこれに限定されない。例えば、手書き文字の位置を規定し得る横線のみ、又は縦線のみで構成した補助画像であってもよい。
(2)また、図6を参照して説明したように、用紙4に既に記載されている補助線を利用して行数を導出する実施例を説明したが、本発明はこれに限定されない。例えば、用紙4の周辺に、手書きの書込みがある場合は、その書き込みから文字の大きさ、行間又は行数を算出して補助画像121を生成してもよい。そして、生成した補助画像121を表示部12に表示するように構成することも可能である。
(3)また、図1を参照して説明したように、用紙4に矩形状の補助画像121を生成する実施例を説明したが、本発明はこれに限定されない。例えば、寄せ書き用の色紙に、斜め方向に台形状の補助画像を生成してもよい。
(4)更に、本発明は、本発明に係る表示装置の特徴的な構成手段をステップとする表示方法として実現したり、それらのステップを含む制御プログラムとして実現したりすることもできる。また、そのプログラムは、CD-ROM等の記録媒体や通信ネットワーク等の伝送媒体を介して流通させることもできる。
本発明は、表示装置、表示システムの分野に利用可能である。
1 表示装置
11 通信部(第2入力部)
12 表示部
13 撮像部
14 仮想入力部(第1入力部)
15 制御部
151 処理部
1511 生成部
1512 認識部
1513 導出部
1514 第1特定部
1515 第2特定部
1516 第3特定部
1517 第4特定部
1518 判定部
1519 制御部
152 記憶部
2 端末装置
3 画像形成装置
4 用紙(シート)
31 通信部(受信部)
32 画像形成部
33 制御部
100 表示システム

Claims (8)

  1. 画像を表示する表示部と、
    シートに記載される文字の位置を規定する補助画像を生成する生成部と、
    前記シートに対応させて前記補助画像を表示するように、前記表示部を制御する制御部と
    少なくとも文字数を受け付ける第1入力部と
    を備え
    前記生成部は、受け付けた前記文字数に対応する1又は複数の文字の位置を規定する前記補助画像を生成し、
    前記第1入力部は、前記文字を記載させる行数又は列数を受け付け、
    前記生成部は、受け付けた前記文字数と、前記行数又は前記列数とに対応する前記補助画像を生成し、
    前記シートを撮影してシート画像を示すシート画像データを生成する撮像部と、
    前記シート画像データに基づいて、少なくとも前記シートの領域を特定する第1特定部とを更に備え、
    前記生成部は、前記シートの領域のうち所定の領域に対応させて前記補助画像を生成し、
    前記表示部は、少なくとも前記補助画像を表示し、
    前記撮像部は、前記シート上を移動する指を撮影して指画像を示す指画像データを生成し、
    前記指画像データに基づいて、前記指の軌跡を特定する第2特定部を更に備え、
    前記生成部は、前記シートの領域のうちの前記指の軌跡によって規定される一部の領域に対応させて前記補助画像を生成し、
    音声を示す音声データを受け付ける第2入力部と、
    前記音声データが示す音声から文字を認識し、認識された前記文字の文字数を計数する認識部と、
    計数された前記文字数に基づいて、前記行数又は前記列数を導出する導出部とを更に備え、
    前記生成部は、計数された前記文字数と、導出された前記行数又は前記列数とに対応する前記補助画像を生成する、表示装置。
  2. 前記第1特定部は、前記シートの領域のうちの前記一部の領域に対応する前記シート画像データに基づいて、第1の方向に描画された1本又は複数本の補助線を特定し、
    前記生成部は、前記文字数と、前記補助線の本数とに基づいて、前記補助画像を生成する、請求項に記載の表示装置。
  3. 認識された前記文字を示す文字データを記憶する記憶部と、
    前記指画像データと、前記補助画像を示す補助画像データとに基づいて、次に記載される文字の位置を特定する第3特定部とを更に備え、
    前記制御部は、前記記憶部に記憶されている前記文字データに基づいて、前記補助画像のうちの前記次に記載される文字の位置を示す画像の近傍に、前記次に記載される文字を表示するように、前記表示部を制御する、請求項に記載の表示装置。
  4. 前記シート画像データと、前記補助画像を示す補助画像データとに基づいて、前記シート画像の色と、前記補助画像の色とをそれぞれ特定する第4特定部と、
    前記シート画像の色と前記補助画像の色とが近似するか否かを判定する判定部とを更に備え、
    前記生成部は、前記シート画像の色と前記補助画像の色とが近似すると判定された場合、前記補助画像の色を前記シート画像の色の補色に変更する、請求項1又は請求項に記載の表示装置。
  5. 前記シート画像データと、前記補助画像を示す前記補助画像データとに基づいて、前記シート画像の色と、前記補助画像の色とをそれぞれ特定する第4特定部と、
    前記シート画像の色と前記補助画像の色とが近似するか否かを判定する判定部とを更に備え、
    前記生成部は、前記シート画像の色と前記補助画像の色とが近似すると判定された場合、前記補助画像の色を前記シート画像の色の補色に変更する、請求項3に記載の表示装置。
  6. 前記表示部は、非透過型であり、
    前記撮像部は、前記シートを含むように前記シートの周辺を撮影して周辺画像を示す周辺画像データを生成し、
    前記制御部は、前記周辺画像の中の前記シートに対応させて前記補助画像を表示するように、前記表示部を制御する、請求項1に記載の表示装置。
  7. 表示部を備える表示装置の表示方法であって、
    画像を表示する表示ステップと、
    シートに記載される文字の位置を規定する補助画像を生成する生成ステップと、
    前記シートに対応させて前記補助画像を表示するように、前記表示部を制御する制御ステップと
    少なくとも文字数を受け付ける第1入力ステップと、
    を含み、
    前記生成ステップは、受け付けた前記文字数に対応する1又は複数の文字の位置を規定する前記補助画像を生成し、
    前記第1入力ステップは、前記文字を記載させる行数又は列数を受け付け、
    前記生成ステップは、受け付けた前記文字数と、前記行数又は前記列数とに対応する前記補助画像を生成し、
    前記シートを撮影してシート画像を示すシート画像データを生成する撮像ステップと、
    前記シート画像データに基づいて、少なくとも前記シートの領域を特定する第1特定ステップとを更に含み、
    前記生成ステップは、前記シートの領域のうち所定の領域に対応させて前記補助画像を生成し、
    前記表示ステップは、少なくとも前記補助画像を表示し、
    前記撮像ステップは、前記シート上を移動する指を撮影して指画像を示す指画像データを生成し、
    前記指画像データに基づいて、前記指の軌跡を特定する第2特定ステップを更に含み、
    前記生成ステップは、前記シートの領域のうちの前記指の軌跡によって規定される一部の領域に対応させて前記補助画像を生成し、
    音声を示す音声データを受け付ける第2入力ステップと、
    前記音声データが示す音声から文字を認識し、認識された前記文字の文字数を計数する認識ステップと、
    計数された前記文字数に基づいて、前記行数又は前記列数を導出する導出ステップとを更に含み、
    前記生成ステップは、計数された前記文字数と、導出された前記行数又は前記列数とに対応する前記補助画像を生成する、表示方法。
  8. 表示装置と、画像形成装置とを含む表示システムであって、
    前記表示装置は、
    画像を表示する表示部と、
    シートに記載される文字の位置を規定する補助画像を生成する生成部と、
    前記シートに対応させて前記補助画像を表示するように、前記表示部を制御する制御部と、
    前記文字が記載された前記シートを撮像して、前記シートの画像を示すシート画像データを生成する撮像部と、
    前記シート画像データを前記画像形成装置に送信する送信部と
    少なくとも文字数を受け付ける第1入力部と、
    を備え、
    前記生成部は、受け付けた前記文字数に対応する1又は複数の文字の位置を規定する前記補助画像を生成し、
    前記第1入力部は、前記文字を記載させる行数又は列数を受け付け、
    前記生成部は、受け付けた前記文字数と、前記行数又は前記列数とに対応する前記補助画像を生成し、
    前記シート画像データに基づいて、少なくとも前記シートの領域を特定する第1特定部とを更に備え、
    前記生成部は、前記シートの領域のうち所定の領域に対応させて前記補助画像を生成し、
    前記表示部は、少なくとも前記補助画像を表示し、
    前記撮像部は、前記シート上を移動する指を撮影して指画像を示す指画像データを生成し、
    前記指画像データに基づいて、前記指の軌跡を特定する第2特定部を更に備え、
    前記生成部は、前記シートの領域のうちの前記指の軌跡によって規定される一部の領域に対応させて前記補助画像を生成し、
    音声を示す音声データを受け付ける第2入力部と、
    前記音声データが示す音声から文字を認識し、認識された前記文字の文字数を計数する認識部と、
    計数された前記文字数に基づいて、前記行数又は前記列数を導出する導出部とを更に備え、
    前記生成部は、計数された前記文字数と、導出された前記行数又は前記列数とに対応する前記補助画像を生成し、
    前記画像形成装置は、
    前記シート画像データを受信する受信部と、
    受信した前記シート画像データに基づいて、画像を形成する画像形成部と
    を備える、表示システム。

JP2018223303A 2018-11-29 2018-11-29 表示装置、表示方法および表示システム Active JP7180323B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018223303A JP7180323B2 (ja) 2018-11-29 2018-11-29 表示装置、表示方法および表示システム
US16/695,546 US20200174555A1 (en) 2018-11-29 2019-11-26 Display device, display method, and display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018223303A JP7180323B2 (ja) 2018-11-29 2018-11-29 表示装置、表示方法および表示システム

Publications (2)

Publication Number Publication Date
JP2020086264A JP2020086264A (ja) 2020-06-04
JP7180323B2 true JP7180323B2 (ja) 2022-11-30

Family

ID=70849154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018223303A Active JP7180323B2 (ja) 2018-11-29 2018-11-29 表示装置、表示方法および表示システム

Country Status (2)

Country Link
US (1) US20200174555A1 (ja)
JP (1) JP7180323B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009140223A (ja) 2007-12-06 2009-06-25 Canon Inc 画像表示装置、その制御方法、及びプログラム
JP2012053867A (ja) 2010-08-04 2012-03-15 Yoshitoshi Cho 手書きデータ出力処理装置
JP2017215661A (ja) 2016-05-30 2017-12-07 キヤノン株式会社 画像処理装置、及びその制御方法ならびにコンピュータプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6390501B2 (ja) * 2015-04-15 2018-09-19 京セラドキュメントソリューションズ株式会社 学習支援装置および学習支援方法
KR102326700B1 (ko) * 2015-06-01 2021-11-16 엘지전자 주식회사 이동 단말기

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009140223A (ja) 2007-12-06 2009-06-25 Canon Inc 画像表示装置、その制御方法、及びプログラム
JP2012053867A (ja) 2010-08-04 2012-03-15 Yoshitoshi Cho 手書きデータ出力処理装置
JP2017215661A (ja) 2016-05-30 2017-12-07 キヤノン株式会社 画像処理装置、及びその制御方法ならびにコンピュータプログラム

Also Published As

Publication number Publication date
JP2020086264A (ja) 2020-06-04
US20200174555A1 (en) 2020-06-04

Similar Documents

Publication Publication Date Title
US9922400B2 (en) Image display apparatus and image display method
US10650489B2 (en) Image display apparatus, control method therefor, and storage medium
US10296559B2 (en) Display apparatus, control method therefor, and storage medium
US10460421B2 (en) Image processing apparatus and storage medium
WO2014156982A1 (ja) 画像付の二次元コードを生成する装置及びその方法
US20150067484A1 (en) Image display apparatus
CN105474303A (zh) 信息处理装置、信息处理方法及程序
JP2008283649A (ja) 画像処理方法、画像領域検出方法、画像処理プログラム、画像領域検出プログラム、画像処理装置、および、画像領域検出装置
US20130076854A1 (en) Image processing apparatus, image processing method, and computer readable medium
US20090285457A1 (en) Detection of Organ Area Corresponding to Facial Organ Image in Image
JP6098784B2 (ja) 画像処理装置及びプログラム
JP7218614B2 (ja) 画像診断システム、画像診断装置、および画像診断方法
WO2017208367A1 (ja) 画像処理装置、画像処理方法、および、プログラム
JP2015049753A (ja) 2次元コードを表示する装置、方法、およびプログラムならびに2次元コードを読み取る装置、方法、およびプログラム
JP2008191723A (ja) 顔検出装置、顔検出方法および顔検出プログラム
JP7180323B2 (ja) 表示装置、表示方法および表示システム
JP2009037464A (ja) 画像表示装置及びコンピュータプログラム
CN107454308A (zh) 显示控制设备及其控制方法和存储介质
JP2013238943A (ja) 二次元コード読取装置
JP6155893B2 (ja) 画像処理装置、及びプログラム
JP5985327B2 (ja) 表示装置
JP2013065164A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6369604B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2018191094A (ja) 原稿読取装置、原稿読取装置の制御方法、及びプログラム
KR101385771B1 (ko) 디스플레이 장치의 화면에 표시된 코드 판독 방법, 코드 판독 방법이 실행되는 리더기, 및 디스플레이 장치를 구비하는 전자 기기

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221031

R150 Certificate of patent or registration of utility model

Ref document number: 7180323

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150