JP2018535469A - ジェスチャー認識に基づくテキスト入力方法及び装置、及び記録媒体 - Google Patents

ジェスチャー認識に基づくテキスト入力方法及び装置、及び記録媒体 Download PDF

Info

Publication number
JP2018535469A
JP2018535469A JP2018514781A JP2018514781A JP2018535469A JP 2018535469 A JP2018535469 A JP 2018535469A JP 2018514781 A JP2018514781 A JP 2018514781A JP 2018514781 A JP2018514781 A JP 2018514781A JP 2018535469 A JP2018535469 A JP 2018535469A
Authority
JP
Japan
Prior art keywords
writing
writing surface
locus
trajectory
hand gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018514781A
Other languages
English (en)
Other versions
JP6695963B2 (ja
Inventor
リウ,グォファ
Original Assignee
シェンジェン ピーアールテック カンパニー リミテッド
シェンジェン ピーアールテック カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シェンジェン ピーアールテック カンパニー リミテッド, シェンジェン ピーアールテック カンパニー リミテッド filed Critical シェンジェン ピーアールテック カンパニー リミテッド
Publication of JP2018535469A publication Critical patent/JP2018535469A/ja
Application granted granted Critical
Publication of JP6695963B2 publication Critical patent/JP6695963B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/228Character recognition characterised by the type of writing of three-dimensional handwriting, e.g. writing in the air
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/333Preprocessing; Feature extraction
    • G06V30/347Sampling; Contour coding; Stroke extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/28Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet
    • G06V30/287Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet of Kanji, Hiragana or Katakana characters

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Character Discrimination (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

ジェスチャー認識に基づくテキスト入力方法であって、対象物を含む画像情報を収集し、前記画像情報に従って前記対象物を決定し、前記対象物の書き込み面及び移動軌跡を取得し、前記書き込み面における前記対象物の前記移動軌跡を書き込み軌跡として抽出し、前記書き込み軌跡を出力し、前記書き込み軌跡に従って文字認識を実施し、文字認識結果を出力することを備える。【選択図】図2

Description

本出願は、2015年9月17日に出願された「空中のストロークを識別する装置及び方法」と題する中国特許出願第201510593632.8号に基づく優先権を主張し、その開示を全て本明細書に援用する。
本開示は、コンピュータ認識技術に関し、特にハンドジェスチャー認識に基づくテキスト入力方法、装置、及び記録媒体に関する。
コンピュータサイエンスの発達に伴い、コンピュータによるテキストメッセージで表現を行うことにより多くの人が慣れている。テキスト入力手段として近年広く使用されているものには、キーボード、タッチスクリーン、書き込みパッド等があり、それらのテキスト入力手段にはそれぞれ不利な点がある。従って、より自然に、便利に、そして効果的に空中にテキストを書く方法を設計するという研究分野は重要である。
しかし、コンピュータビジョンでは、空中のテキスト書きの軌跡は連続しており、従来のテキスト認識技術では連続で書かれたテキストを容易に認識することができるが、認識精度には向上の余地がある。
本開示のいくつかの実施形態によると、ハンドジェスチャー認識に基づくテキスト入力方法、装置、及び記録媒体が設けられている。
ハンドジェスチャー認識に基づくテキスト入力方法であって、
対象物を含む画像情報を収集し、
前記画像情報に従って前記対象物を決定し、前記対象物の書き込み面及び移動軌跡を取得し、
前記書き込み面における前記対象物の前記移動軌跡を書き込み軌跡として抽出し、前記書き込み軌跡を出力し、
前記書き込み軌跡に従って文字認識を実施し、文字認識結果を出力することを備えることを特徴とするハンドジェスチャー認識に基づくテキスト入力方法。
ハンドジェスチャー認識に基づくテキスト入力装置であって、前記装置はプロセッサと命令を記録したメモリとを備え、前記命令は前記プロセッサにより実行されると前記プロセッサに、
対象物を含む画像情報を収集させ、
前記画像情報に基づき前記対象物を決定させ、前記対象物の書き込み面及び移動軌跡を取得させ、
前記書き込み面における前記対象物の前記移動軌跡を書き込み軌跡として抽出させ、前記書き込み軌跡を出力させ、
前記書き込み軌跡に基づいて文字認識を実施させ、文字認識結果を出力させるステップを実施させることを備えることを特徴とする装置。
コンピュータ読取可能命令を記録する少なくとも一つの非一過性の記録媒体であって、少なくとも一つのプロセッサにより実行されると、前記少なくとも一つのプロセッサは、
対象物を含む画像情報を収集し、
前記画像情報に従って前記対象物を決定し、前記対象物の書き込み面及び移動軌跡を取得し、
書き込み軌跡として前記書き込み面における前記対象物の前記移動軌跡を抽出し、前記書き込み軌跡を出力し、
前記書き込み軌跡に従って文字認識を実施し、文字認識結果を出力することを備えることを特徴とする少なくとも一つの非一過性の記録媒体。
上記のハンドジェスチャー認識に基づくテキスト入力方法によると、前記画像情報に従って前記対象物を決定し、前記対象物の書き込み面及び移動軌跡を取得し、
出力される書き込み軌跡として前記書き込み面における前記対象物の前記移動軌跡を抽出し、前記書き込み軌跡に従って文字認識を実施し、文字認識結果を出力して、対象物の移動軌跡が空中で連続していても、軌跡抽出モジュールが書き込み面の書き込み軌跡を抽出することができ、これはストローク識別処理と同様であり文字認識モジュールの認識を促進し、認識の精度を向上する。
本開示または従来技術の実施形態における技術的手段をより明確に表示するため、実施形態または従来技術を説明するために添付の図面を下記に簡単に説明する。また、下記の説明における添付の図面は本開示のいくつかの実施形態でしかなく、当業者であれば、創造的な努力なしで添付の図面から他の図面も導けるだろう。
図1は、実施形態におけるハンドジェスチャー認識に基づくテキスト入力装置の概略図である。 図2は、実施形態におけるハンドジェスチャー認識に基づくテキスト入力装置のブロック図である。 図3は、図2に示す実施形態における対象取得モジュールのブロック図である。 図4は、図2に示す実施形態における軌跡抽出モジュールのブロック図である。 図5は、実施形態において空中に書いている概略図である。 図6は、実施形態におけるハンドジェスチャー認識に基づくテキスト入力方法のフローチャートである。 図7は、別の実施形態におけるハンドジェスチャー認識に基づくテキスト入力方法のフローチャートである。 図8は、実施形態におけるハンドジェスチャー認識に基づくテキスト入力方法の適用を示す概略図である。
本開示の実施形態は、添付の図面を参照して、下記に詳細に記載される。好ましい実施形態は図面に示されている。本開示の様々な実施形態は、いくつもの異なる形で実施されてもよく、ここに明示されている実施形態に限定して解釈されるべきではない。むしろ、これらの実施形態は本開示が完全で完成されて、当業者に開示の範囲を十分に伝えるように設けられている。
ここにおいて使用される全ての定義は、他に定義されていない限り、本開示が属する当業者により通常理解される意味と同じ意味を有する。ここで使用される定義は、本開示の実施形態を説明し、限定はしない。本開示で使用されている「及び/又は」という表現は、列記されている一つ又は複数の項目のいずれか又は全ての組み合わせを示す。
図1は、実施形態におけるハンドジェスチャー認識に基づくテキスト入力装置の概略図である。
本実施形態では、ハンドジェスチャー認識に基づくテキスト入力装置は、プロセッサ、記録媒体、ランダム・アクセス・メモリ(RAM)、および装置のバスを介して接続されている入出力(I/O)インターフェースを含む。操作デバイス、データベース、及びコンピュータ読取可能命令は装置の記録媒体に記録されており、データベースは画像情報、移動軌跡、書き込み軌跡等のデータを記録する。装置のプロセッサは、装置全体の操作を支持する計算及び制御機能を備えている。端末のRAMは、記録媒体内のコンピュータ読取可能命令の操作環境を提供する。装置の入出力インターフェースによって、他の装置と接続する。
図2は、実施形態におけるハンドジェスチャー認識に基づくテキスト入力装置のブロック図である。
装置の内部構造は図1に示す構造に対応しており、下記の各モジュールの全部または一部はソフトウェア、ハードウェア、又はその組み合わせにより実施できる。図2に示すように、実施形態では、ハンドジェスチャー認識に基づくテキスト入力装置は、画像収集モジュール110、対象取得モジュール120、軌跡抽出モジュール130、文字認識モジュール140、表示モジュール150を含む。画像収集モジュール110は、対象物を含む画像情報を収集する。対象取得モジュール120は、画像情報に従って対象物を決定して、書き込み面および対象物の移動軌跡を取得する。軌跡抽出モジュール130は、書き込み軌跡として書き込み面の対象物の移動軌跡を抽出して、書き込み軌跡を出力する。文字認識モジュール140は、書き込み軌跡に従って文字認識を行い、文字認識結果を出力する。
画像収集モジュール110は、対象物を含む画像情報を収集するカメラである。実施形態では、対象物はユーザの指、またはユーザが持っている鉛筆などの棒状の物体である。
例えば、ユーザが鉛筆を対象物として用いて空中に書く必要がある場合には、鉛筆を持ち、鉛筆をカメラで見える領域に置くだけで、画像収集モジュール110は鉛筆を含む画像情報を収集する。
実施形態では、ハンドジェスチャー認識に基づくテキスト入力装置は、ハンドジェスチャー認識モジュール及び/又は音声認識モジュールも含む。ハンドジェスチャー認識モジュールは、ユーザのハンドジェスチャーを認識してハンドジェスチャー認識の結果を出力して、ハンドジェスチャーの結果により書き込み状態を開始又は終了する。
具体的には、ユーザが書き込み状態を開始したい場合には、画像収集モジュール110で見える領域内で対応するハンドジェスチャーを行う。ユーザの手が画像収集モジュール110で見える領域に現れると、ハンドジェスチャー認識モジュールは画像収集モジュール110で見える領域を自動的にハンドジェスチャー画像(ユーザの手に焦点をあてて、レンズをズームさせる等)の収集にあてて、ハンドジェスチャー認識の結果がハンドジェスチャー認識モジュールにより出力される、つまり書き込み状態が開始する。ユーザは音声により直接書き込み状態を開始することもでき、音声をひろうマイクに向かって「書き込み開始」と言うと、音声認識モジュールは音声認識結果を出力し、つまり書き込み状態を開始する。
同様に、ユーザが書き込み状態を終了したい場合には、画像収集モジュール110で見える領域内で同様のハンドジェスチャーを行い、ハンドジェスチャー認識モジュールはハンドジェスチャー認識の結果を出力し、つまり書き込み状態を終了する。ユーザは音声により直接書き込み状態を終了することもでき、音声をひろうマイクに向かって「書き込み終了」と言い、音声認識モジュールは音声認識結果を出力し、つまり書き込み状態を終了する。
対象取得モジュール120は画像情報に基づき対象物を決定し、対象物の書き込み面及び移動軌跡を取得する。
図3に示すように、実施形態では対象取得モジュール120は、画像処理部122、時間計算部124、及び書き込み面決定部126を含む。
具体的には、画像処理部122は、対象物を決定するために、画像情報から画像特徴抽出を行う。ここにおける画像特徴とは、エッジ抽出によりデジタル画像の画像輪郭を取得することを主に言う。一般的には、グレースケール値が大きく変化するところがエッジと定義される。対象物が指、鉛筆、又は他の棒状の物体の場合、画像のエッジはとても重要な特徴である。画像特徴を抽出することにより、対象物を速やかに決定できる。
時間計算部124は、ある位置での対象物の一時停止の時間を数える。特に、対象物が決定されると、対象物のトラッキングが達成される。対象物が静止している場合には、時間計算部124は時間測定を始めて、対象物が再度動き始めたときに測定を止めて、その間経過した時間がある位置での対象物の一時停止の時間である。
書き込み面決定部126は、書き込み状態の開始後に対象物の一時停止の時間が初めて事前設定された時間に達する第一位置を取得し、対象物の一時停止の時間が二回目に事前設定された時間に達する第二位置を取得し、第一位置から第二位置への対象物の移動軌跡を第一ストロークと規定し、第一ストロークが位置する面を基準書き込み面と規定し、基準書き込み面から事前設定されている距離範囲内で離れる面を書き込み面と規定する。
例えば、書き込み状態が開始した場合、対象物の一時停止の時間が初めて事前設定の時間に達する第一位置をAと規定して、対象物の一時停止の時間が2回目に事前設定の時間に達する第二位置をBと規定すると、AとBとを接続する線は基準書き込み面となる。対象物AからBへの移動軌跡はユーザが入力した文字の一番初めのストロークである。基準書き込み面の決定は、第一ストロークが位置する空間的位置と、人間の腕の書き込み範囲と組み合わせて行われる。
更に、別の実施形態では、書き込み面決定部126は他の方法により基準書き込み面を規定することができ、特定のハンドジェスチャー等により書き込み状態を開始して、対象物の書き込みの一端が位置する面を基準書き込み面とする。別の例では、書き込み状態は音声で開始され、対象物が書き込みを行う位置である一定の時間とどまり、対象物がとどまった面は基準書き込み面として規定される。第3の例では、音声、ジェスチャー、リモコン、又は他の手段により書き込み状態が開始され、対象物は直線的に前方又は下方にある一定の速度である位置へ移動してそこに少しの間とどまり、その位置の面を基準書き込み面と規定する。第4の例では、空中の対象物の軌跡が回転してある位置にとどまり「L」字型の軌跡が書かれると、その位置が書かれた面が基準書き込み面として規定される。「L」字型の軌跡が対象物により書かれたかの決定により対象物を主に追跡して、対象物の移動軌跡を取得して、移動軌跡が「L」字型であるかを決定する。基準書き込み面は、上記の組み合わせにより規定できる。
基準書き込み面が決定された後、書き込み面に対して交角が事前設定された角度範囲内(例えば、30度以内)の面が書き込み面として規定され、これは空中に書き込みをする際に全てのストロークが同じ面にあることは不可能であるということを考慮しており、すなわち対象物の各移動軌跡は基準書き込み面に対してそれぞれ交角を有する。書き込み面はいくつかの面のセットであることと等しく、セットの全ての面の移動軌跡は抽出され、文字認識の精度の向上を促進する。
実施形態では、事前設定された時間は2秒間であり、すなわち、ユーザは対象物を制御してストロークの開始及び終了の際に2秒以上一時停止させる。事前設定の時間は、1秒間、2秒間、又は3秒間等として設定でき、これは特に限定されていない。
軌跡抽出モジュール130は、書き込み面における対象物の移動軌跡を書き込み軌跡として抽出して、書き込み軌跡を出力する。
図4を参照すると、実施形態では、軌跡抽出モジュール130は、軌跡抽出部132及び文字出力部134を含む。
軌跡抽出部132は、書き込み面における対象物の移動軌跡を書き込み軌跡として抽出する。
文字出力部134は、文字をユニットとして、書き込み軌跡を出力する。特に、ユーザが書き込むプロセスの間、文字入力を完了すると対象物はある一定の時間一時停止する。実施形態では、間隔の閾値が4秒であると仮定すると、対象物の一時停止の時間が4秒を超えると、ユーザが文字入力を完了したと考えられる。文字は、漢字、英字、数字、記号、又はユーザが入力した他の独特な文字である。
文字認識モジュール140は書き込み軌跡に従って文字認識を実施して、文字認識の結果を出力する。特に、文字認識モジュール140は軌跡抽出モジュール130が出力した書き込み軌跡(即ち、出力された文字)を事前設定された文字ベースにある文字と比較して、文字ベースから文字認識結果の書き込み軌跡に最も似ている文字を探して出力する。
表示モジュール150は、文字認識結果及び/又は書き込み軌跡を表示する。詳しくは図5を参照すると、表示モジュール150は、書き込み表示ゾーン152及び認識ゾーン154を備える。書き込み表示ゾーン152は軌跡抽出モジュール130が出力した書き込み軌跡を表示して、認識表示ゾーン154は文字認識モジュール140が出力した文字認識結果を表示する。
実施形態では、表示モジュール150は書き込み軌跡をリアルタイムで表示して、書き込み軌跡が文字を単位として文字認識モジュール140に出力されると、表示モジュール150は文字認識モジュール140に出力された文字認識結果を表示する。
特に、表示モジュール150は、対象物検出装置及び表示装置を備えている。対象物検出装置は、対象物が書き込み面から基準書き込み面に対して45度から90度の間の角度で離れているかを検出するか、又は対象物が書き込み面から事前設定された速度で離れているかを検出して、「はい」の場合には表示装置は書き込み軌跡の表示を停止する。対象物検出装置は、更に、対象物が書き込み面に基準書き込み面に対して45度から90度の間の角度で達しているかを検出するか、又は対象物が書き込み面に事前設定された速度で達しているかを検出するか、又は対象物が書き込み面に「L」字型の移動軌跡で達しているかを検出して、「はい」の場合には対象物検出装置は書き込み軌跡を表示し始める。「L」字型軌跡が対象物により書かれているかを決定するため、主に対象物の移動軌跡を取得して対象物を追跡して、そして移動軌跡が「L」字型であるかを決定する。
更に、サイズ調整モジュールが備えられており、それは基準書き込み面に近い対象物の一端と基準書き込み面との間の距離により文字のサイズを調整する。
特に、基準書き込み面に近い対象物の一端とはペンの先端であり、基準書き込み面からペンの先端が遠いほど、文字のストロークが細くなる。反対に、基準書き込み面にペンの先端が近いほど、文字のストロークが太くなる。
更に、対象物が基準書き込み面に90度に近い角度及び速度の閾値に近い速度で達しある一定の期間とどまるストロークが「下方ストローク」と規定され、基準書き込み面から90度に近い角度及び速度の閾値に近い速度で離れるストロークが「上方ストローク」と規定されると、サイズ調整モジュールは表示された文字を最初の下方ストロークの一時停止の延長に従って細くから太くなるように調整もできる。また、対象物が基準書き込み面から遠いほど、上方ストロークのストロークは細くなる。対象物が基準書き込み面から離れている距離がある一定の値になると、「上方ストローク」は終了したと考えられて、ストロークを識別するプロセスが実施される。
また、実施形態では、対象物が書き込み面に「L」字型の移動軌跡で達すると「下方ストローク」と規定でき、対象物が書き込み面から「L」字型の移動軌跡で離れると「上方ストローク」と規定できる。特に、対象物が書き込み面に近づいた後、約90度で急に曲がり、書き込み面で移動し始めると、書き込み面に達した「L」字型の移動軌跡であると決定される。逆に、対象物が書き込み面で動いている間突然約90度で急に曲がり書き込み面から離れると、書き込み面から離れた「L」字型の移動軌跡であると決定される。
図6は、実施形態におけるハンドジェスチャー認識に基づくテキスト入力方法のフローチャートである。
ハンドジェスチャー認識に基づくテキスト入力方法は下記を含む。
ステップS110にて、対象物を含む画像情報を収集する。
実施形態では、対象物はユーザの指、又は鉛筆などユーザが持つ棒状の物体である。
ステップS120では、対象物は画像情報に従って決定され、対象物の書き込み面及び移動軌跡が取得される。
実施形態では、ステップS120では、基準書き込み面に近い対象物の一端と基準書き込み面との間の距離に従って文字のサイズが調整される。
ステップS130では、書き込み面における対象物の移動軌跡は書き込み軌跡として抽出され、書き込み軌跡が出力される。
実施形態では、文字を単位としてステップS130で出力される。
ステップS140では、文字認識は書き込み軌跡に従って行われ、文字認識結果が出力される。
図7は、別の実施形態に従うハンドジェスチャー認識に基づくテキスト入力方法のフローチャートである。
ハンドジェスチャー認識に基づくテキスト入力方法であって、方法は下記を含む。
ステップS210では、ユーザのハンドジェスチャーが認識され、ハンドジェスチャー認識の結果に従って書き込み状態が開始される。
実施形態では、ステップS210ではユーザの音声が認識されて、音声認識の結果に従って書き込み状態が開始される。
ステップS220では、対象物を含む画像情報が収集される。
ステップS230では、画像情報に従って対象物が決定され、対象物の書き込み面及び移動軌跡が取得される。
ステップS240では、書き込み面における対象物の移動軌跡が書き込み軌跡として抽出され、書き込み軌跡が出力される。
ステップS250では、書き込み軌跡に従って文字認識が行われ、文字認識結果が出力される。
ステップS260では、文字認識結果及び書き込み軌跡が表示される。
特に、書き込み軌跡が最初に表示されて、その後文字認識結果が表示される。なぜならば書き込み軌跡はリアルタイムで表示されているからである。実施形態では、文字認識結果又は書き込み軌跡しか表示できない。
実施形態では、ステップS260で書き込み軌跡を表示するステップは下記を含む。
対象物が基準書き込み面に対して45度から90度の間の角度で書き込み面から離れているか、又は対象物が書き込み面から事前設定された速度で離れているかが検出されて、「はい」の場合には書き込み軌跡の表示を停止する。
対象物が基準書き込み面に対して45度から90度の間の角度で書き込み面に達しているかを検出して、又は対象物が書き込み面に事前設定された速度で達しているかを検出して、又は対象物が書き込み面に「L」字型の移動軌跡で達しているかを検出する。対象物が基準書き込み面に対して45度から90度の角度で書き込み面に達している場合、又は対象物が事前設定された速度で書き込み面から離れている場合、又は対象物が「L」字型の移動軌跡で書き込み面に達している場合、書き込み軌跡を表示し始める。
ステップS270では、ユーザのハンドジェスチャーが認識されて、ハンドジェスチャー認識の結果に従って書き込み状態が終了する。
実施形態では、ステップS270は、ユーザの音声が認識され、音声認識結果に従って書き込み状態が終了する。
Figure 2018535469
ユーザは、カメラの見える範囲に指を見せて、音声で書き込み状態を開始する。図8に示すように、ユーザの指が位置「0」から第1ストローク開始位置「1」へ移動するのが下方ストロークであり、位置「1」から位置「2」へ移動するのが第1ストロークであり、第1ストロークが位置する面が書き込み面と規定される。位置「2」から位置「3」へは上方へのストロークであり、位置「3」から位置「4」への移動は書き込み面外での動きである。位置「4」から位置「5」へは第2の下方へのストロークであり、位置「5」から位置「6」までが第2ストロークである。位置「6」から位置「7」までは上方へのストロークであり、位置「7」から位置「8」への移動は書き込み面外の動きである。位置「8」から位置「9」までは第3ストロークであり、位置「9」から位置「10」までは第3ストロークであり、位置「10」から位置「11」へは上方へのストロークであり、文字の入力が完成する。ユーザの指は、位置「1」、「2」、「5」、「6」、「9」、「10」で一時停止する。ユーザの指の移動軌跡は位置「0」から位置「11」まで連続しているが、書き込み面での移動軌跡のみが書き込み軌跡として抽出されるため、これはストローク識別処理になり、入力文字の認識精度を向上でき、ユーザのテキスト入力を容易にし、良い書き方を子供に教えることができる。
上記のハンドジェスチャーに基づくテキスト入力方法によると、対象物は画像情報により決定され、対象物の書き込み面及び移動軌跡が取得され、書き込み面における対象物の移動軌跡が出力される書き込み軌跡として抽出され、書き込み軌跡に従って文字認識がされ、文字認識結果が出力され、空中の対象物の移動軌跡が連続していても、軌跡抽出モジュールは書き込み面における書き込み軌跡のみを抽出して、これはストローク識別処理と同等であり、文字認識モジュールの認識を容易にして、認識の精度を向上する。
実施形態には、少なくとも一つの非一過性の記録媒体も設けられており、非一過性の記録媒体はコンピュータ読み取り可能命令を記録し、少なくとも一つのプロセッサがコンピュータ読み取り可能命令を実行すると、少なくとも一つのプロセッサは下記のステップを実施する。
対象物を含む画像情報が収集される。
画像情報に従って対象物が決定され、対象物の書き込み面及び移動軌跡が取得される。
書き込み面における対象物の移動軌跡が書き込み軌跡として抽出され、書き込み軌跡が出力される。
書き込み軌跡に従って文字認識が実施され、文字認識結果が出力される。
上記の実施形態の方法のプロセスは、基盤となるハードウェアを命令するコンピュータプログラムに、一部又は全部、実施されることができ、プログラムはコンピュータ読取り可能記録媒体に記録することができ、プログラムは実施されるときに様々な方法の実施形態のプロセスを含むこともできる。記録媒体は、ディスク、CD、読み取り専用メモリ(ROM)、及び他の非一過性記録媒体又はランダムアクセスメモリ(RAM)等である。
上記の実施形態における異なる技術特徴は様々な組み合わせが可能であり、それらはここでは省略する。しかしながら、異なる技術特徴の組み合わせが互いにコンフリクトしない程度に、全てのその様な組み合わせは本開示の範囲内であるとみなすべきである。
上記の実施形態は単に本開示の特定の実施形態にすぎず、本開示の保護範囲を限定するものではない。当業者により容易に考えられる本開示に記載される技術範囲内にあるあらゆる変形又は代替は、全て本開示の保護範囲内にある。従って、本開示の保護範囲はクレームの保護範囲内であるとされる。

Claims (13)

  1. ハンドジェスチャー認識に基づくテキスト入力方法であって、
    対象物を含む画像情報を収集し、
    前記画像情報に従って前記対象物を決定し、前記対象物の書き込み面及び移動軌跡を取得し、
    前記書き込み面における前記対象物の前記移動軌跡を書き込み軌跡として抽出し、前記書き込み軌跡を出力し、
    前記書き込み軌跡に従って文字認識を実施し、文字認識結果を出力することを備えることを特徴とするハンドジェスチャー認識に基づくテキスト入力方法。
  2. 請求項1に記載の方法であって、
    ユーザのハンドジェスチャー又は音声を認識し、ハンドジェスチャー認識の結果又は音声認識の結果に従って書き込み状態を開始し、
    前記ユーザのハンドジェスチャー又は音声を認識し、ハンドジェスチャー認識の結果又は音声認識の結果に従って前記書き込み状態を終了することを更に備えることを特徴とする方法。
  3. 請求項2に記載の方法であって、
    前記画像情報に従って前記対象物を決定して、前記対象物の前記書き込み面及び前記移動軌跡を取得するステップは、
    前記対象物を決定するため前記画像情報から画像特徴抽出を実施し、
    ある位置での前記対象物の一時停止時間を数え、
    前記書き込み状態開始後初めて事前設定された時間に前記対象物の前記一時停止時間が達する第一位置を取得し、二回目に前記事前設定された時間に前記対象物の前記一時停止時間が達する第二位置を取得し、前記対象物の前記第一位置から前記第二位置までの前記移動軌跡を第一ストロークと規定し、前記第一ストロークが位置する面を基準書き込み面として規定し、前記基準書き込み面から事前設定された距離範囲内離れている面を書き込み面として規定することを備え、
    前記書き込み面における前記対象物の前記移動軌跡を前記書き込み軌跡として抽出し、前記書き込み軌跡を出力する前記ステップは、
    前記書き込み面における前記対象物の前記移動軌跡を前記書き込み軌跡として抽出して、
    文字を単位として前記書き込み軌跡を出力することを備えることを特徴とする方法。
  4. 請求項3に記載の方法であって、
    前記基準書き込み面に近い前記対象物の一端及び前記基準書き込み面の間の距離に従って前記文字のサイズを調整することを更に備えることを特徴とする方法。
  5. 請求項1に記載の方法であって、
    前記書き込み軌跡に従って前記文字を認識し、文字認識結果を出力するステップの後、前記方法は、
    前記文字認識結果及び/又は前記書き込み軌跡を表示することを更に備えることを特徴とする方法。
  6. 請求項5に記載の方法であって、
    前記書き込み軌跡を表示する前記ステップは、
    前記対象物が前記書き込み面から前記基準書き込み面に対して45度から90度の角度で離れているかを検出するか、又は前記対象物が事前設定された速度で前記書き込み面から離れているかを検出して、前記対象物が前記書き込み面から前記基準書き込み面に対して45度から90度の角度で離れている場合又は前記対象物が前記事前設定された速度で前記書き込み面から離れている場合、前記書き込み軌跡の表示を停止して、
    前記対象物が前記書き込み面に前記基準書き込み面に対して45度から90度の角度で達しているかを検出するか、又は前記対象物が前記事前設定された速度で前記書き込み面に達しているかを検出するか、又は前記対象物が前記書き込み面に「L」字型の移動軌跡で達しているかを検出して、前記対象物が前記書き込み面に前記基準書き込み面に対して45度から90度の角度で達している場合、又は前記対象物が前記事前設定された速度で前記書き込み面から離れている場合、又は前記対象物が前記書き込み面に「L」字型の移動軌跡で達している場合、前記書き込み軌跡の表示を開始することを備えることを特徴とする方法。
  7. ハンドジェスチャー認識に基づくテキスト入力装置であって、前記装置はプロセッサと命令を記録したメモリとを備え、前記命令は前記プロセッサにより実行されると前記プロセッサに、
    対象物を含む画像情報を収集させ、
    前記画像情報に基づき前記対象物を決定させ、前記対象物の書き込み面及び移動軌跡を取得させ、
    前記書き込み面における前記対象物の前記移動軌跡を書き込み軌跡として抽出させ、前記書き込み軌跡を出力させ、
    前記書き込み軌跡に基づいて文字認識を実施させ、文字認識結果を出力させることを備えるステップを実施させることを特徴とする装置。
  8. 請求項7に記載の装置であって、前記プロセッサは前記命令を更に実行して、
    ユーザのハンドジェスチャー又は音声を認識し、ハンドジェスチャー認識の結果又は音声認識の結果を出力し、書き込み状態を開始し、
    前記ユーザのハンドジェスチャー又は音声を認識し、ハンドジェスチャー認識の結果又は音声認識の結果を出力し、書き込み状態を終了する
    ステップを実施させることを特徴とする装置。
  9. 請求項8に記載の装置であって、
    前記命令が前記プロセッサにより実行されると、前記画像情報に従って前記対象物を決定して、前記対象物の前記書き込み面及び前記移動軌跡を取得することは、
    前記対象物を決定するため前記画像情報から画像特徴抽出を実施し、
    ある位置での前記対象物の一時停止時間を数え、
    前記書き込み状態開始後初めて事前設定された時間に前記対象物の前記一時停止時間が達する第一位置を取得し、二回目に前記事前設定された時間に前記対象物の前記一時停止時間が達する第二位置を取得し、前記対象物の前記第一位置から前記第二位置までの前記移動軌跡を第一ストロークと規定し、前記第一ストロークが位置する面を基準書き込み面として規定し、前記基準書き込み面から事前設定された距離範囲内離れている面を書き込み面として規定することを備え、
    前記書き込み面における前記対象物の前記移動軌跡を前記書き込み軌跡として抽出し、前記書き込み軌跡を出力する前記ステップは、
    前記書き込み面における前記対象物の前記移動軌跡を前記書き込み軌跡として抽出し、
    文字を単位として前記書き込み軌跡を出力することを備えることを特徴とする装置。
  10. 請求項9に記載の装置であって、
    前記プロセッサは更に前記命令を実行して、
    前記基準書き込み面に近い前記対象物の一端及び前記基準書き込み面の間の距離に従って前記文字のサイズを調整することを更に備えることを特徴とする装置。
  11. 請求項7に記載の装置であって、
    前記書き込み軌跡に従って前記文字を認識し、前記文字認識結果を出力するステップの後、前記プロセッサは更に前記命令を実行して、
    前記文字認識結果及び/又は前記書き込み軌跡を表示するステップを実施することを特徴とする装置。
  12. 請求項11に記載の装置であって、
    前記命令が実行されると、前記文字認識結果及び/又は前記書き込み軌跡を表示する前記ステップは、
    前記対象物が前記書き込み面から前記基準書き込み面に対して45度から90度の角度で離れているかを検出するか、又は前記対象物が事前設定された速度で前記書き込み面から離れているかを検出して、前記対象物が前記書き込み面から前記基準書き込み面に対して45度から90度の角度で離れている場合又は前記対象物が前記事前設定された速度で前記書き込み面から離れている場合、前記書き込み軌跡の表示を停止して、
    前記対象物が前記書き込み面に前記基準書き込み面に対して45度から90度の角度で達しているかを検出するか、又は前記対象物が前記事前設定された速度で前記書き込み面に達しているかを検出するか、又は前記対象物が前記書き込み面に「L」字型の移動軌跡で達しているかを検出して、前記対象物が前記書き込み面に前記基準書き込み面に対して45度から90度の角度で達している場合、又は前記対象物が前記事前設定された速度で前記書き込み面から離れている場合、又は前記対象物が前記書き込み面に前記「L」字型の移動軌跡で達している場合、前記書き込み軌跡の表示を開始することを備えることを特徴とする装置。
  13. コンピュータ読取可能命令を記録する少なくとも一つの非一過性のコンピュータ読取可能記録媒体であって、少なくとも一つのプロセッサにより実行されると、前記少なくとも一つのプロセッサに、
    対象物を含む画像情報を収集し、
    前記画像情報に従って前記対象物を決定し、前記対象物の書き込み面及び移動軌跡を取得し、
    書き込み軌跡として前記書き込み面における前記対象物の前記移動軌跡を抽出し、前記書き込み軌跡を出力し、
    前記書き込み軌跡に従って文字認識を実施し、文字認識結果を出力することを備えるステップを実施させることを特徴とする少なくとも一つの非一過性のコンピュータ読取可能記録媒体。
JP2018514781A 2015-09-17 2016-08-24 ジェスチャー認識に基づくテキスト入力方法及び装置、及び記録媒体 Active JP6695963B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510593632.8 2015-09-17
CN201510593632.8A CN105302298B (zh) 2015-09-17 2015-09-17 空中书写断笔***和方法
PCT/CN2016/096501 WO2017045517A1 (zh) 2015-09-17 2016-08-24 基于手势识别的文字输入方法、装置及存储介质

Publications (2)

Publication Number Publication Date
JP2018535469A true JP2018535469A (ja) 2018-11-29
JP6695963B2 JP6695963B2 (ja) 2020-05-20

Family

ID=55199650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018514781A Active JP6695963B2 (ja) 2015-09-17 2016-08-24 ジェスチャー認識に基づくテキスト入力方法及び装置、及び記録媒体

Country Status (5)

Country Link
US (1) US10725552B2 (ja)
EP (1) EP3340014A4 (ja)
JP (1) JP6695963B2 (ja)
CN (1) CN105302298B (ja)
WO (1) WO2017045517A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10725552B2 (en) 2015-09-17 2020-07-28 Shenzhen Prtek Co., Ltd. Text input method and device based on gesture recognition, and storage medium

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106125954B (zh) * 2016-06-13 2018-07-20 北京小米移动软件有限公司 基于终端运动轨迹的输入方法和装置
JP6733731B2 (ja) * 2016-06-28 2020-08-05 株式会社ニコン 制御装置、プログラムおよび制御方法
WO2018018624A1 (zh) * 2016-07-29 2018-02-01 华为技术有限公司 一种可穿戴设备的手势输入方法及可穿戴设备
CN107562203A (zh) * 2017-09-14 2018-01-09 北京奇艺世纪科技有限公司 一种输入方法及装置
CN109409361A (zh) * 2018-09-26 2019-03-01 广东小天才科技有限公司 基于笔的搜索方法、笔、存储介质及搜索***
CN111553326B (zh) * 2020-05-29 2023-04-18 上海依图网络科技有限公司 手部动作识别方法、装置、电子设备及存储介质
CN112364782A (zh) * 2020-11-13 2021-02-12 深圳振科智能科技有限公司 凌空书写的识别方法、装置、设备和介质
CN113093913A (zh) * 2021-04-20 2021-07-09 北京乐学帮网络技术有限公司 试题处理方法、装置、电子设备以及存储介质
CN113391703A (zh) * 2021-06-16 2021-09-14 咙咙信息技术(沈阳)有限公司 一种基于传媒应用上进行操作空中写字的***

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014054716A1 (ja) * 2012-10-03 2014-04-10 楽天株式会社 ユーザインタフェース装置、ユーザインタフェース方法、プログラム及びコンピュータ可読情報記憶媒体

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090183929A1 (en) * 2005-06-08 2009-07-23 Guanglie Zhang Writing system with camera
TW200816062A (en) * 2006-09-29 2008-04-01 Ibm Video-based handwriting input method and apparatus
US7929002B2 (en) * 2007-08-10 2011-04-19 Hewlett-Packard Development Company, L.P. System and method of projecting an image on a physical substrate using a virtual image and a virtual plane
CN101354608A (zh) * 2008-09-04 2009-01-28 中兴通讯股份有限公司 一种视频输入实现方法及***
CN101739118A (zh) * 2008-11-06 2010-06-16 大同大学 视讯手写文字输入装置及其方法
JP2010146266A (ja) * 2008-12-18 2010-07-01 Seiko Epson Corp 表示装置及びプログラム
US11012732B2 (en) * 2009-06-25 2021-05-18 DISH Technologies L.L.C. Voice enabled media presentation systems and methods
CN102279668B (zh) * 2010-06-08 2014-12-10 株式会社理光 信息交互方法及***
KR101262700B1 (ko) * 2011-08-05 2013-05-08 삼성전자주식회사 음성 인식 및 모션 인식을 이용하는 전자 장치의 제어 방법 및 이를 적용한 전자 장치
CN102360263A (zh) * 2011-09-26 2012-02-22 中兴通讯股份有限公司 一种以三维移动轨迹为输入的方法及移动终端
JP5866949B2 (ja) * 2011-10-11 2016-02-24 大日本印刷株式会社 電子ペンシステム及びプログラム
US9741085B2 (en) * 2013-03-14 2017-08-22 Artificial Intelligence Research Group Limited System and method of encoding content and an image
CN103226388B (zh) * 2013-04-07 2016-05-04 华南理工大学 一种基于Kinect的手写方法
KR20160022832A (ko) 2013-06-25 2016-03-02 톰슨 라이센싱 문자 입력을 위한 방법 및 디바이스
US10691878B2 (en) * 2014-02-28 2020-06-23 Ricoh Co., Ltd. Presenting associations of strokes with content
CN105302298B (zh) 2015-09-17 2017-05-31 深圳市国华识别科技开发有限公司 空中书写断笔***和方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014054716A1 (ja) * 2012-10-03 2014-04-10 楽天株式会社 ユーザインタフェース装置、ユーザインタフェース方法、プログラム及びコンピュータ可読情報記憶媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10725552B2 (en) 2015-09-17 2020-07-28 Shenzhen Prtek Co., Ltd. Text input method and device based on gesture recognition, and storage medium

Also Published As

Publication number Publication date
WO2017045517A1 (zh) 2017-03-23
EP3340014A1 (en) 2018-06-27
CN105302298B (zh) 2017-05-31
JP6695963B2 (ja) 2020-05-20
US20180260034A1 (en) 2018-09-13
US10725552B2 (en) 2020-07-28
EP3340014A4 (en) 2019-04-24
CN105302298A (zh) 2016-02-03

Similar Documents

Publication Publication Date Title
JP6695963B2 (ja) ジェスチャー認識に基づくテキスト入力方法及び装置、及び記録媒体
US9390726B1 (en) Supplementing speech commands with gestures
EP2650766B1 (en) Multi-character continuous handwriting input method
WO2016150001A1 (zh) 语音识别的方法、装置及计算机存储介质
WO2018076523A1 (zh) 手势识别的方法、装置及车载***
JP2021524951A (ja) 空中手書きを識別するための方法、装置、デバイス及びコンピュータ読み取り可能な記憶媒体
KR102295131B1 (ko) 입력 표시 장치, 입력 표시 방법, 및 프로그램
US10133945B2 (en) Sketch misrecognition correction system based on eye gaze monitoring
US9927974B2 (en) Automatic customization of keypad key appearance
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
WO2017114002A1 (zh) 一维手写文字输入设备和一维手写文字输入方法
KR20160106691A (ko) 제스처를 사용하여 미디어의 재생을 제어하기 위한 시스템 및 방법
CN113867521B (zh) 一种基于手势视觉识别的手写输入方法、装置及电子设备
WO2017219450A1 (zh) 一种信息处理方法、装置及移动终端
CN107450717B (zh) 一种信息处理方法及穿戴式设备
CN112749646A (zh) 一种基于手势识别的交互式点读***
KR20210011146A (ko) 비음성 웨이크업 신호에 기반한 서비스 제공 장치 및 그 방법
WO2015131590A1 (zh) 一种控制黑屏手势处理的方法及终端
JP2023533281A (ja) デバイス制御方法及び装置、記憶媒体並びに電子デバイス
US20160034027A1 (en) Optical tracking of a user-guided object for mobile platform user input
WO2018036023A1 (zh) 智能手表的文本输入方法及装置
CN112580574A (zh) 一种基于识别手写文字的智能学习方法及装置
CN111382598B (zh) 一种识别方法、装置和电子设备
JP2018060374A (ja) 情報処理装置、評価システムおよびプログラム
US9405375B2 (en) Translation and scale invariant features for gesture recognition

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180330

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180330

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200422

R150 Certificate of patent or registration of utility model

Ref document number: 6695963

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250