JP2016224608A - 文字列入力装置 - Google Patents

文字列入力装置 Download PDF

Info

Publication number
JP2016224608A
JP2016224608A JP2015108708A JP2015108708A JP2016224608A JP 2016224608 A JP2016224608 A JP 2016224608A JP 2015108708 A JP2015108708 A JP 2015108708A JP 2015108708 A JP2015108708 A JP 2015108708A JP 2016224608 A JP2016224608 A JP 2016224608A
Authority
JP
Japan
Prior art keywords
character string
vowel
vowel component
character
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015108708A
Other languages
English (en)
Other versions
JP6562542B2 (ja
Inventor
剛史 齊藤
Takashi Saito
剛史 齊藤
眞紀 飯沼
Maki Iinuma
眞紀 飯沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu Institute of Technology NUC
Original Assignee
Kyushu Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu Institute of Technology NUC filed Critical Kyushu Institute of Technology NUC
Priority to JP2015108708A priority Critical patent/JP6562542B2/ja
Publication of JP2016224608A publication Critical patent/JP2016224608A/ja
Application granted granted Critical
Publication of JP6562542B2 publication Critical patent/JP6562542B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】口形を基に文字の母音成分を検出し、利用者の負担を抑制して文字列を入力する文字列入力装置を提供する。
【解決手段】利用者Pの口形を撮像する撮像手段11と、撮像された画像23を基に求めた口形に対応する母音成分を、被検出母音成分として導出する母音検知手段12と、複数の文字列が予め登録された文字列データベース13から、母音成分が被検出母音成分である文字からはじまる文字列を選出する文字列選出手段14と、選出された文字列について、順次、文字列の一を入力可能な項目に指定するオートスキャン手段15と、入力可能な項目を表示する表示手段20と、外部から操作される入力手段18と、入力可能な項目に指定されている文字列を、外部から入力手段18への操作によって、入力情報として確定する確定手段16とを備える。
【選択図】図1

Description

本発明は、利用者の口の形状を基に、文字を検出し、文字列を入力する文字列入力装置に関する。
コンピュータや携帯端末において、文字を入力する一般的なインタフェースとして、キーボード、マウス及び釦が主流である。
一方、科学技術の発達により、日常生活で用いられている文字を書く感覚で文章を入力可能な手書き文字認識技術に基づくインタフェースや、人間にとって最も自然なコミュニケーション手段である音声を利用して文字を入力する音声認識用のインタフェースが、近年、利用可能となっている。
しかしながら、振戦(筋肉の収縮、弛緩の繰り返しにより生じる不随意のリズミカル運動)等の手指に障害をもつ人は、キーボードやマウス、あるいは、手書き文字認識のインタフェースを利用することが難しい。また、音声認識用のインタフェースを利用するには、声を発する必要があるため、入力しようとする内容が周囲に伝わり、秘匿性を欠き、しかも、周囲の雑音等により認識精度が低下するという課題が存在する。
そこで、口形を基にその口形に対応する文字を検出する技術が着目され、その技術を利用した装置の具体例が、特許文献1〜4に記載されている。
口形は、発話時に自然に変化するため、音声認識と同様に意図する言葉を自然に入力でき、更に、音声を発する必要がないことから、音声認識の課題を解決できるという利点がある。
ここで、文字を発するときの口形は、その文字の母音成分(「カ」の母音成分は「ア」)を発するときと同じになるという性質がある。従って、「カ」と「ア」は同じ口形となり、例えば、「ありがとう」を発音する口形は、「アイアオウ」と発音した口形とみなすことができる。
特許文献1〜4に記載の装置は、文字を発する口形とその文字の母音成分を発する口形が同じになるという性質を利用したもので、口形を基にその口形に対応する文字の母音成分を検出する。口形を基に、文字の母音成分を検出する精度は、文字そのものを検出(例えば、「カ」を「カ」として検出)する精度より高いことが報告されていることから、特許文献1〜4に記載の装置は、口形から文字を安定的に検出することができる。
特開2011−186994号公報 特開2005−309952号公報 特開2005−108079号公報 特開2009−169464号公報
しかしながら、特許文献1の装置は、携帯電話機への適用を想定したもので、子音の文字を入力するために、テンキー(10個のキー)を操作する必要があり、表示された候補単語のリストから単語を選択する際には、選択キーと確定キーの操作を要する。従って、特許文献1の装置は、複数のキーを操作する必要があり、手指に障害が有る者にとって負担が大きい。
そして、特許文献2、3の装置は、子音の文字を入力する際、1文字ごとにキー操作が必要であり、例えば、「カメラ」と入力するには、少なくとも3回のキー操作を要する。よって、操作回数が多い点で、利用者の負担が大きい。
また、特許文献4の装置は、口形から口形に対応する文字の母音成分を検出した後、利用者の頭部の動きを検知して、入力したい子音の文字を確定する。そのため、原則として、1文字ごとに、頭部を動かす必要があり、利用者の負担が大きい。
本発明は、かかる事情に鑑みてなされるもので、口形を基に文字の母音成分を検出し、利用者の負担を抑制して文字列を入力する文字列入力装置を提供することを目的とする。
前記目的に沿う本発明に係る文字列入力装置は、利用者の口形を撮像する撮像手段と、撮像された画像を基に求めた前記口形に対応する母音成分を、被検出母音成分として導出する母音検知手段と、複数の文字列が予め登録された文字列データベースから、母音成分が前記被検出母音成分である文字からはじまる前記文字列を選出する文字列選出手段と、選出された前記文字列について、順次、該文字列の一(一つ)を入力可能な項目に指定するオートスキャン手段と、前記入力可能な項目を表示する表示手段と、外部から操作される入力手段と、前記入力可能な項目に指定されている前記文字列を、外部から前記入力手段への操作によって、入力情報として確定する確定手段とを備える。
本発明に係る文字列入力装置において、前記撮像手段は、前記被検出母音成分が導出されるまで、間欠的に撮像を行い、前記母音検知手段は、撮像された複数の前記画像それぞれに対し、該画像にとらえられている前記口形の特徴量を導出し、所定時間内に撮像された前記複数の画像に対応する前記特徴量が、所定範囲内に収まっていることを判定して、前記被検出母音成分の導出を行うのが好ましい。
本発明に係る文字列入力装置において、前記母音検知手段は、間欠的に撮像が行われる度に、新たに撮像された前記画像を基に前記口形に対応する母音成分を求め、前記表示手段は、該口形に対応する母音成分が求められる度に、新たに求められた該口形に対応する母音成分を表示するのが好ましい。
本発明に係る文字列入力装置において、前記オートスキャン手段は、前記母音検知手段に新たな前記被検出母音成分の導出を開始させる状態にするモード切替項目も、順次、前記入力可能な項目に指定し、1つ目の前記被検出母音成分を導出した前記母音検知手段は、前記モード切替項目が前記入力可能な項目に指定されている状態で、外部から前記入力手段に操作がなされることによって、2つ目の前記被検出母音成分を導出し、前記文字列選出手段は、1番目及び2番目の文字の母音成分がそれぞれ1つ目及び2つ目に導出された前記被検出母音成分である前記文字列を選出するのが好ましい。
本発明に係る文字列入力装置において、前記表示手段は、前記文字列選出手段が選出した前記文字列の合計数も表示するのが好ましい。
本発明に係る文字列入力装置において、前記文字列データベースから選出される前記文字列は、利用者ごとに定められるのが好ましい。
本発明に係る文字列入力装置において、各母音成分に対応する領域がマッピングされ、前記母音検知手段による前記被検出母音成分の導出基準となる複数の口形マップを更に備え、前記各口形マップは、各母音成分に対応する前記領域が、利用者ごとに調整されるのが好ましい。
本発明に係る文字列入力装置は、(1)撮像された画像を基に求めた口形に対応する母音成分を、被検出母音成分として導出し、(2)複数の文字列が予め登録された文字列データベースから、母音成分が被検出母音成分である文字からはじまる文字列を選出し、(3)選出された文字列について、順次、文字列の一を入力可能な項目に指定し、(4)入力可能な項目に指定されている文字列を、外部から入力手段への操作によって、入力情報として確定するので、入力手段に、文字列を入力情報として確定するための1つの釦(キー)を設け、利用者にその1つの釦のみを操作させることで、文字列の入力を行うことができる。従って、利用者は、文字列を入力するために複数の釦を操作する必要がなく、文字列を入力するための利用者の負担を抑制可能である。
本発明の一実施の形態に係る文字列入力装置のブロック図である。 同文字列入力装置の表示手段が表示する内容の説明図である。 (A)〜(D)は、それぞれ口形マップの説明図である。 撮像された画像から抽出される***領域の説明図である。 口形マップを作成する流れを示すフロー図である。 入力文字列情報を確定する流れの一部を示すフロー図である。 入力文字列情報を確定する流れの一部を示すフロー図である。 入力速度の計測結果を示すグラフである。
続いて、添付した図面を参照しつつ、本発明を具体化した実施の形態につき説明し、本発明の理解に供する。
図1に示すように、本発明の一実施の形態に係る文字列入力装置10は、利用者Pの口形を撮像する撮像手段11と、撮像された図2に示す画像23を基に口形に対応する母音成分を求め、被検出母音成分として導出する母音検知手段12と、文字列データベース13から、母音成分が被検出母音成分である文字からはじまる文字列を選出する文字列選出手段14と、選出された文字列について、順次、文字列の一(一つ)を入力可能な項目に指定するオートスキャン手段15と、入力可能な項目に指定されている文字列を、入力情報として確定する確定手段16とを備えて、文字列を入力する。以下、これらについて詳細に説明する。
文字列入力装置10は、図1に示すように、コンピュータ(電子計算機)17と、コンピュータ17に接続された各種ハードウェアを備えている。
コンピュータ17に接続された各種ハードウェアは、カメラからなる撮像手段11、入力デバイスである入力手段18、キーボード19、ディスプレイからなる表示手段20、及び、プリンタ(印刷機器)からなる出力手段21である。
本実施の形態では、入力手段18に、操作釦が1つの入力デバイスを採用しているが、外部から操作が可能な入力デバイスであれば、複数の操作釦を備える入力デバイスであってもよい。また、キーボードの1つの操作釦を入力手段として扱ってもよい。
コンピュータ17は、CPU、ハードディスク、メモリ及び接続ポートを備え、接続ポートに、上述した各種ハードウェアが接続されている。なお、コンピュータ17と各種ハードウェアの接続は、有線接続でも、無線接続でもよい。
母音検知手段12、文字列選出手段14、オートスキャン手段15及び確定手段16は、コンピュータ17のハードディスク内に記憶されたソフトウェアである。
本実施の形態において、撮像手段11、入力手段18、キーボード19及び表示手段20は、コンピュータ17とはそれぞれ別体のハードウェアであるが、コンピュータと一体となったものであってもよい。
文字列入力装置10は、口元を撮像手段11で撮像されている利用者Pが、表示手段20の画面を見ながら、入力手段18及びキーボード19を操作することを想定して、設計されている。そのため、撮像手段11は、表示手段20の画面を見ている利用者Pの口元(本実施の形態では、口元を含む顔全体)を撮像できるように配置されている。
母音検知手段12は、主として、図1、図2に示すように、撮像手段11が利用者Pの顔を撮像した画像23から、利用者Pの***領域(***の輪郭によって囲まれた領域)24を抽出する領域抽出部22、抽出された***領域24の特徴量を求める特徴量計測部25、及び、***領域24の特徴量から利用者Pの口形(***の輪郭の形)に対応する母音成分を求める母音判別部26から構成されている。
また、コンピュータ17のハードディスクには、図1に示すように、特徴量計測部25及び母音判別部26がアクセス可能な口形マップデータベース27も記憶されている。口形マップデータベース27は、***領域24と***領域24に対応する母音成分の関係を定義した図3(A)〜(D)に示す複数の口形マップ28を格納している。口形マップデータベース27に格納される新たな口形マップ28は、母音検知手段12によって作成され、作成された口形マップ28は、母音検知手段12による被検出母音成分の導出基準として利用される。
撮像手段11によって撮像された画像23及び口形マップ28に対する母音検知手段12の各処理には、口形マップ28を作成する際、及び、被検出母音成分を導出する際に共通する処理と異なる処理が存在する。以下、その共通する処理について説明する。
撮像手段11によって撮像された画像23には、図2に示すように、利用者Pの***領域24の他、利用者Pの眼、眉、首等の***領域24以外の部位が含まれている。
領域抽出部22は、撮像手段11によって撮像された画像23を取得し、画像23における利用者Pの***領域24を抽出する。本実施の形態では、領域抽出部22が、2段階の処理を経て、***領域24の抽出を行う。
領域抽出部22は、まず、ViolaとJonesが考案したアルゴリズムを用いて、画像23から利用者Pの顔全体の領域を抽出し(1段階目の処理)、抽出した顔全体の領域に対し、Constrained local model(CLM)を適用して、図4に示すように、利用者Pの鼻と共に、利用者Pの***領域24を抽出する(2段階目の処理)。なお、CLMは、統計的アプローチによって、特徴点を検出する手法の一つである。本実施の形態では、1段階目の処理において、左右の鼻孔にそれぞれ1点の特徴点24aを割り当て、***領域24の輪郭に対し8点の特徴点24aを割り当てる処理を行っているが、これに限定されない。
特徴量計測部25は、領域抽出部22によって抽出された***領域24から、***領域24の特徴量を導出する。本実施の形態では、特徴量計測部25が、***領域24の面積を第1の特徴量として導出し、***領域24のアスペクト比を第2の特徴量として導出する。アスペクト比とは、***領域24の縦の長さを***領域24の横幅で割った値である。
なお、本実施の形態では、2つの特徴量を導出するが、これに限定されない。
口形マップ28は、図3(A)〜(D)に示すように、6つの領域がマッピングされた2次元マップであり、5つの領域は、「あ」、「い」、「う」、「え」、「お」の母音成分にそれぞれ対応し、残りの1つの領域は、「ん」の文字に対応している(便宜上、「ん」の文字も母音成分として、以下、説明する)。即ち、口形マップ28には、各母音成分に対応する領域がマッピングされている。
母音判別部26は、第1、第2の特徴量をそれぞれ、口形マップ28上の横軸の座標及び縦軸の座標として、口形マップ28における***領域24の座標(位置)を決定し、口形マップ28上に***領域24の座標をプロットする。
次に、口形マップ28を作成する際の処理について説明する。
図5に示すように、利用者Pによってログインされた文字列入力装置10が待機状態にあるときに(ステップS1)、撮像手段11が利用者Pの顔を撮像することによって(ステップS2)、領域抽出部22は、撮像された画像23を撮像手段11から取得し(ステップS3)、画像23から***領域24を抽出する(ステップS4)。抽出された口形領域24は、図2に示すように、表示手段20の画面において、画像23の表示領域外に表示される。そして、特徴量計測部25は、図5に示すように、抽出された***領域24を基に***領域24の第1、第2の特徴量を計測する(ステップS5)。
第1、第2の特徴量が計測された際、表示手段20は、第1、第2の特徴量に応じて***領域24の座標がプロットされた口形マップ28を表示する。このとき、表示手段20には、標準的な(デフォルトの)口形マップ28が表示されている。
この状態で、利用者Pが、キーボード19又は入力手段18からの操作(キー入力)により、自らの口形に対応する母音成分を入力すると(ステップS6)、***領域24の座標が、口形マップ28において、入力された母音成分に対応する領域内に配されるように、口形マップ28上の各母音成分に対応する6つの領域それぞれの形状が調整される(ステップS7)。
このステップS1〜ステップS7のサイクルを、複数回、繰り返すことによって、利用者Pに応じた口形マップ28を作成することができ、各口形マップ28は、各母音成分に対応する領域が、利用者Pごとに調整可能である。図3(A)〜(D)にそれぞれ示された口形マップ28は、4人の利用者Pに対して作成されたもので、口形マップ28上の6つの領域の形状が、口形マップ28ごとに異なっているのが確認できる。
キーボード19又は入力手段18からの操作により、口形マップ28の各領域の調整が完了したことが検出されると(ステップS8)、その口形マップ28は、利用者Pの識別情報と共に、口形マップデータベース27に格納される(ステップS9)。
続いて、利用者Pの口形に対応する母音成分を求めて、被検出母音成分を導出する際の処理について説明する。
図6に示すように、利用者Pによってログインされた文字列入力装置10が待機状態の際に(ステップS1’)、撮像手段11が利用者Pの顔を撮像することによって(ステップS2’)、領域抽出部22は、撮像された画像23を撮像手段11から取得し(ステップS3’)、画像23から***領域24を抽出する(ステップS4’)。そして、特徴量計測部25は、抽出された***領域24の第1、第2の特徴量(即ち、画像23にとらえられている口形の特徴量)を導出する(ステップS5’)。
母音判別部26は、口形マップデータベース27内の利用者Pに対応する口形マップ28を、利用者Pの識別情報を基に選択し、その口形マップ28における***領域24の座標を、計測された第1、第2の特徴量を基に決定することによって、画像23中の利用者Pの口形に対応する母音成分を求める(ステップS6’)。
そして、表示手段20は、母音判別部26が求めた母音成分を、図2に示す母音表示部29に表示する(ステップS7’)。また、母音判別部26は、ステップS6’で決定した***領域24の座標を、口形マップ28上にプロットし、表示手段20は、図2に示すように、***領域24の座標がプロットされた口形マップ28も表示する。
本実施の形態においては、撮像手段11が、間欠的に(例えば、1秒間に1〜30回)、利用者Pの顔の撮像を行い、特徴量計測部25は、撮像によって画像23が生成される度に、画像23に対して、***領域24の第1、第2の特徴量を導出して、コンピュータ17のメモリ内に格納する。母音判別部26は、第1、第2の特徴量が新たに導出される度に、利用者Pの口形に対応する母音成分を求める。即ち、母音検知手段12は、間欠的に撮像が行われる度に、新たに撮像された画像23を基に母音成分を求める。
そして、母音判別部26は、所定時間(例えば、1〜3秒)内に撮像された複数の画像23それぞれに対応する第1、第2の特徴量が、所定範囲内に収まっているか否かを判定する(ステップS8’)。具体的には、所定時間内に撮像された画像23について、(1)口形マップ28上の***領域24の座標が、全て、同一の母音成分の領域内に位置し、かつ、(2)口形マップ28上で最も離れている2つの***領域24の座標の距離が所定範囲内である場合、第1、第2の特徴量が、所定範囲内に収まっているとの判定をし、それ以外の場合、第1、第2の特徴量が、所定範囲内に収まっていないとの判定をする。
なお、口形マップ28上の***領域24の座標が、全て、同一の母音成分の領域内に位置するか否かのみを、第1、第2の特徴量が、所定範囲内に収まっているか否かの判定基準にしてもよい。
ステップS8’において、所定時間内に撮像された複数の画像23それぞれに対応する第1、第2の特徴量が、所定範囲内に収まっていると判定された際には、母音判別部26は、自らが求めた母音成分を、被検出母音成分として確定(導出)する(ステップS9’)。
一方、母音判別部26が、所定時間内に撮像された複数の画像23それぞれに対応する第1、第2の特徴量が、所定範囲内に収まっていないと判定した際には、ステップS2’からステップS8’までの処理が再度行われる。ここで、撮像手段11による間欠的な撮像を行っている時間が所定時間に達するまで、被検出母音成分は確定されず、ステップS2’からステップS8’までの処理が繰り返される。
被検出母音成分が確定されるまで、撮像手段11が間欠的に画像23を撮像する度に、領域抽出部22は、画像23から***領域24を抽出し、***領域24が抽出される度に、表示手段20は、図2に示すように、その***領域24を表示し、母音判別部26が新たに母音成分を求める度に、新たに求められた母音成分を母音表示部29に表示する。
利用者Pは、表示手段20によって表示される***領域24を視認することによって、***領域24の抽出が適切か否かを確認でき、***領域24の抽出が不適切であると判断した場合、例えば、撮像手段11に対する顔の向きを調整可能である。そして、利用者Pは、表示手段20に表示される新たに求められた母音成分を視認することによって、自らが意図した母音成分が求められているか否かを判断でき、意図していない母音成分が求められている場合、例えば、自らの口形を変えることで、意図している母音成分が求められるようにすることが可能である。
次に、文字列データベース13、文字列選出手段14、オートスキャン手段15及び確定手段16によって、主として、行われる被検出母音成分を基にした文字列の入力処理について説明する。
文字列データベース13には、利用者Pが、利用者Pごとに自らが入力したい複数の文字列を、予め登録することができる。本実施の形態において、文字列は、1つの単語や、複数の単語からなる文章を意味する。
文字列選出手段14は、図1に示すように、文字列データベース13にアクセス可能に設計され、図6に示すステップS9’で確定された被検出母音成分を基に、文字列データベース13から、文字列を選出する。
ステップS9’で被検出母音成分を確定した後、図6に示すように、文字列選出手段14は、文字列データベース13から、母音成分が被検出母音成分の文字からはじまる文字列を、入力候補の文字列として選出する(ステップS10’)。
例えば、被検出母音成分が「あ」であれば、「間」、「明日」、「会社」、「立場」等の単語や、「明日の会議に参加します」のような複数の単語からなる文章が選出される。
ここで、文字列データベース13においては、各文字列が、利用者Pの識別情報を付与された状態で記憶され、文字列データベース13から入力候補の文字列として選出する文字列を、利用者Pごとに定義している。そのため、利用者Pは、自らが入力する意図のない文字列が選出されるのを回避可能である。
そして、表示手段20は、図7に示すように、文字列選出手段14によって選出された入力候補の文字列を、図2に示す文字列表示部30に表示する(ステップS11’)。
オートスキャン手段15は、文字列選出手段14によって選出された複数の入力候補の文字列について、所定時間(本実施の形態では、1〜3秒)ごとに、順次、その一つ(入力候補の文字列の一)を入力可能な項目に指定する。入力候補の文字列が、入力可能な項目に指定される順番は、過去に入力文字列情報として確定された実績を基に、オートスキャン手段15が決定する。即ち、オートスキャン手段15は、過去の実績を基に、入力候補の文字列を入力可能な項目に指定する順番を決定する学習機能を有している。
表示手段20は、入力可能な項目に指定されている入力候補の文字列を、文字列表示部30において、強調表示する(即ち、入力可能な項目を表示する)。従って、利用者Pは、入力可能な項目となっている入力候補の文字列を視認可能である。
文字列表示部30は、図2に示すように、一度に表示可能な入力候補の文字列の数(本実施の形態では、10個)に制限がある。その制限の数を超える入力候補の文字列が選ばれた場合、表示手段20は、文字列表示部30の更新を繰り返すことによって、全ての入力候補の文字列を表示することができる。文字列表示部30に一度に表示可能な数を超える入力候補の文字列が選ばれた場合、表示手段20は、文字列表示部30を更新するための文字列表示更新項目31(図2において、「次の候補」と示された項目)を表示する。
オートスキャン手段15が、文字列表示部30中の入力候補の文字列を、上から下に向かって、順に、入力可能な項目に指定するのに従って、表示手段20は、入力可能な項目に指定されている入力候補の文字列を、強調表示する。そして、最下段に表示されている入力候補の文字列が強調表示された後、文字列表示更新項目31が、オートスキャン手段15によって入力可能な項目に指定され、表示手段20によって強調表示される。
図7に示すように、文字列表示部30中の入力候補の文字列が強調表示されている際に、利用者Pによって入力手段18の釦が押される(入力手段18が操作される)と(ステップS12’)、確定手段16は、強調表示されている入力候補の文字列を、入力情報(以下、「入力文字列情報」ともいう)として確定してコンピュータ17のメモリに記録し(ステップ13’)、新たな入力文字列情報を、確定する処理を行う場合は(ステップS14’)、ステップS2’に戻る。一方、ステップS14’において、入力文字列情報の確定を終了する場合は、これまで確定した入力文字列情報を、確定順に並べて、出力手段21から出力し(ステップS15’)、ステップS1’へ戻る。
そして、文字列表示更新項目31が強調表示されている際に、利用者Pによって入力手段18の釦が押されると(ステップS16’)、確定手段16は、表示手段20に、文字列表示部30を更新させて、新たな入力候補の文字列を表示させる(ステップS17’)。文字列表示部30の更新後、新たに表示された入力候補の文字列に対して、強調表示が開始され、ステップS12’に進む。
また、表示手段20は、図2に示すように、既に確定した入力文字列情報を削除するための削除用項目32(図2において、「単語の削除」と示された項目)、及び、既に確定した入力文字列情報をコンピュータ17のスピーカから音で出力するための音出力項目33(図2において、「音声の出力」と示された項目)に加え、母音検知手段12に新たな被検出母音成分の導出を開始させる状態にするモード切替項目34(図2において、「次の音の入力」と示された項目)も表示している。
オートスキャン手段15は、ステップS16’で、文字列表示更新項目31が強調表示されている際に、入力手段18の釦が押されない場合、モード切替項目34を入力可能な項目に指定し(即ち、オートスキャン手段15は、モード切替項目34も、順次、入力可能な項目に指定し)、表示手段20は、モード切替項目34を強調表示する。
図7に示すように、モード切替項目34が強調表示されている際に(即ち、モード切替項目34が入力可能な項目に指定されている状態で)、利用者Pによって入力手段18の釦が押されることによって(ステップS18’)、ステップS2’に戻り、母音検知手段12は、新たに撮像された画像23を基に、図6に示すように、ステップS3’からステップS9’を経て、新たな被検出母音成分を導出する(1つ目の被検出母音成分が既に導出されている際には、2つ目の被検出母音成分が導出され、N個目の被検出母音成分が既に導出されている際には、N+1個目の被検出母音成分が導出される)。
ステップS9’で、1つ目の被検出母音成分を既に導出した母音検知手段12によって、2つ目の被検出母音成分が導出された際には、文字列選出手段14は、ステップS10’にて、1番目及び2番目の文字の母音成分がそれぞれ1つ目及び2つ目に導出された被検出母音成分である文字列を、文字列データベース13から、入力候補の文字列として選出する。例えば、1つ目に導出された被検出母音成分が「あ」で、2つ目に導出された被検出母音成分が「い」であれば、1番目及び2番目の文字の母音成分がそれぞれ「あ」、「い」である「間」、「会社」、「立場」等の文字列が選出される。
そして、ステップS9’で、N個目の被検出母音成分が導出された際には、文字列選出手段14は、ステップS10’にて、1番目、2番目、・・・N番目の文字の母音成分がそれぞれ1つ目、2つ目、・・・N個目に導出された被検出母音成分である文字列を、文字列データベース13から、入力候補の文字列として選出する。従って、導出する被検出母音成分の増加によって、選出される入力候補の文字列は減少する(絞り込まれる)。
一方、ステップS18’で、モード切替項目34が強調表示されている際に、入力手段18の釦が押されない場合、オートスキャン手段15は、削除用項目32及び音出力項目33を、順次、入力可能な項目にし、表示手段20は、削除用項目32及び音出力項目33を、入力可能な項目となったタイミングで、順次、強調表示する。
図7に示すように、削除用項目32が強調表示されている際に、入力手段18の釦が押されると(ステップS19’)、既に入力文字列情報として確定していた入力候補の文字列が削除され(ステップS20’)、ステップS2’に戻る。
ステップS19’で、削除用項目32が強調表示されている際に、入力手段18の釦が押されないと、次に、音出力項目33が強調表示される。そして、音出力項目33が強調表示されている際に、入力手段18の釦が押されると(ステップS21’)、既に確定した入力文字列情報が音で出力され(ステップS22’)、ステップS14’に進む。一方、ステップS21’で、音出力項目33が強調表示されている際に、入力手段18の釦が押されなかった場合、文字列表示部30中の最上段に表示されている入力候補の文字列からの強調表示が再開され、ステップS12’に戻る。
また、表示手段20は、ステップS10’にて、入力候補の文字列が選出されることによって、文字列選出手段14が選出した入力候補の文字列の合計数も表示する。よって、利用者Pは、選出された入力候補の文字列の合計数を視認し、その数に応じて、ステップS18’において、ステップS2’に戻って、新たな被検出母音成分の導出により、選出される入力候補の文字列の数を減少させるかを判断することが可能である。
次に、本発明の作用効果を確認するために行った実験について説明する。
実験では、文字列データベースに、全国手話検定試験5級の出題対象である400個の単語を文字列として登録した。母音判別部は、2秒以内に撮像された複数の画像それぞれに対応する第1、第2の特徴量が、所定範囲内に収まっていることを条件に、被検出母音成分を確定するように設定され、オートスキャン手段は、1秒ごとに入力可能な項目を、順次、切り替えるように設定された。
文字列データベースに登録された文字列を基にそれぞれ作成される表1に示す2つの単語からなる文章、3つの単語からなる文章、及び、4つの単語からなる文章を1セットとし、10名の被験者(利用者)に、3セットの文章を入力させ、1セットあたりの入力速度を計測した。なお、入力速度の単位は、KPM(Kana Per Minute)であり、例えば、「カメラ 買う」の文章は、「か」、「め」、「ら」、「か」、「う」の5つのKana(文字)を含んでいるものとして計測した。
10名の被験者に対して入力速度を計測した平均値を、図8のグラフに示す。図8のグラフにおいて、横軸の「試行回数」の「1」、「2」、「3」はそれぞれ、1セット目、2セット目及び3セット目の計測結果を示している。
図8のグラフより、入力速度の平均値は、1セット目で5.6(KPM)であったものが、3セット目で6.8(KPM)となり、文章の入力を重ねることにより、入力速度が向上することが確認された。なお、オートスキャン手段による入力可能な項目を切り替える時間は、被験者に応じて調整可能であり、その時間を短くすることで、入力時間を短縮できることが考えられる。
以上、本発明の実施の形態を説明したが、本発明は、上記した形態に限定されるものでなく、要旨を逸脱しない条件の変更等は全て本発明の適用範囲である。
例えば、撮像手段は、被検出母音成分が確定されるまで、間欠的に撮像を行う必要はなく、1つの画像を基に母音成分を求めて、被検出母音成分を確定するようにしてもよい。
また、モード切替項目を、表示手段に表示させる代わりに、母音検知手段に新たな被検出母音成分の導出を開始させる状態にするための釦を、入力手段に設けてもよい。
そして、表示手段が、文字列選出手段によって選出された文字列の数を、必ずしも表示する必要はない。
更に、利用者ごとに各母音成分に対応する領域が調整された口形マップを作成する機能や、文字列データベースから選出される文字列を利用者ごとに定める機能も、必ずしも必要ではない。
また、表示手段は、入力可能な項目に指定されている入力候補の文字列を、他の入力候補の文字列とは、異なる色で表示してもよいし、入力可能な項目に指定されている入力候補の文字列のみを表示するようにしてもよい。
10:文字列入力装置、11:撮像手段、12:母音検知手段、13:文字列データベース、14:文字列選出手段、15:オートスキャン手段、16:確定手段、17:コンピュータ、18:入力手段、19:キーボード、20:表示手段、21:出力手段、22:領域抽出部、23:画像、24:***領域、24a:特徴点、25:特徴量計測部、26:母音判別部、27:口形マップデータベース、28:口形マップ、29:母音表示部、30:文字列表示部、31:文字列表示更新項目、32:削除用項目、33:音出力項目、34:モード切替項目、P:利用者

Claims (7)

  1. 利用者の口形を撮像する撮像手段と、
    撮像された画像を基に求めた前記口形に対応する母音成分を、被検出母音成分として導出する母音検知手段と、
    複数の文字列が予め登録された文字列データベースから、母音成分が前記被検出母音成分である文字からはじまる前記文字列を選出する文字列選出手段と、
    選出された前記文字列について、順次、該文字列の一を入力可能な項目に指定するオートスキャン手段と、
    前記入力可能な項目を表示する表示手段と、
    外部から操作される入力手段と、
    前記入力可能な項目に指定されている前記文字列を、外部から前記入力手段への操作によって、入力情報として確定する確定手段とを備えることを特徴とする文字列入力装置。
  2. 請求項1記載の文字列入力装置において、前記撮像手段は、前記被検出母音成分が導出されるまで、間欠的に撮像を行い、前記母音検知手段は、撮像された複数の前記画像それぞれに対し、該画像にとらえられている前記口形の特徴量を導出し、所定時間内に撮像された前記複数の画像に対応する前記特徴量が、所定範囲内に収まっていることを判定して、前記被検出母音成分の導出を行うことを特徴とする文字列入力装置。
  3. 請求項2記載の文字列入力装置において、前記母音検知手段は、間欠的に撮像が行われる度に、新たに撮像された前記画像を基に前記口形に対応する母音成分を求め、前記表示手段は、該口形に対応する母音成分が求められる度に、新たに求められた該口形に対応する母音成分を表示することを特徴とする文字列入力装置。
  4. 請求項1〜3のいずれか1項に記載の文字列入力装置において、前記オートスキャン手段は、前記母音検知手段に新たな前記被検出母音成分の導出を開始させる状態にするモード切替項目も、順次、前記入力可能な項目に指定し、1つ目の前記被検出母音成分を導出した前記母音検知手段は、前記モード切替項目が前記入力可能な項目に指定されている状態で、外部から前記入力手段に操作がなされることによって、2つ目の前記被検出母音成分を導出し、前記文字列選出手段は、1番目及び2番目の文字の母音成分がそれぞれ1つ目及び2つ目に導出された前記被検出母音成分である前記文字列を選出することを特徴とする文字列入力装置。
  5. 請求項1〜4のいずれか1項に記載の文字列入力装置において、前記表示手段は、前記文字列選出手段が選出した前記文字列の合計数も表示することを特徴とする文字列入力装置。
  6. 請求項1〜5のいずれか1項に記載の文字列入力装置において、前記文字列データベースから選出される前記文字列は、利用者ごとに定められることを特徴とする文字列入力装置。
  7. 請求項1〜6のいずれか1項に記載の文字列入力装置において、各母音成分に対応する領域がマッピングされ、前記母音検知手段による前記被検出母音成分の導出基準となる複数の口形マップを更に備え、前記各口形マップは、各母音成分に対応する前記領域が、利用者ごとに調整されることを特徴とする文字列入力装置。
JP2015108708A 2015-05-28 2015-05-28 文字列入力装置 Active JP6562542B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015108708A JP6562542B2 (ja) 2015-05-28 2015-05-28 文字列入力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015108708A JP6562542B2 (ja) 2015-05-28 2015-05-28 文字列入力装置

Publications (2)

Publication Number Publication Date
JP2016224608A true JP2016224608A (ja) 2016-12-28
JP6562542B2 JP6562542B2 (ja) 2019-08-21

Family

ID=57746672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015108708A Active JP6562542B2 (ja) 2015-05-28 2015-05-28 文字列入力装置

Country Status (1)

Country Link
JP (1) JP6562542B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000115331A (ja) * 1998-09-30 2000-04-21 Toshiba Corp 電話機
JP2001325252A (ja) * 2000-05-12 2001-11-22 Sony Corp 携帯端末及びその情報入力方法、辞書検索装置及び方法、媒体
JP2002117024A (ja) * 2000-10-11 2002-04-19 Allied Brains Inc 文章入力方法
JP2005309952A (ja) * 2004-04-23 2005-11-04 Advanced Telecommunication Research Institute International テキスト入力装置
JP2009157748A (ja) * 2007-12-27 2009-07-16 Nec Corp 入力装置、携帯端末装置およびプログラム
JP2009169464A (ja) * 2008-01-10 2009-07-30 Tottori Univ 文字入力方法
JP2011186994A (ja) * 2010-03-11 2011-09-22 Fujitsu Ltd 文字入力装置および文字入力方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000115331A (ja) * 1998-09-30 2000-04-21 Toshiba Corp 電話機
JP2001325252A (ja) * 2000-05-12 2001-11-22 Sony Corp 携帯端末及びその情報入力方法、辞書検索装置及び方法、媒体
JP2002117024A (ja) * 2000-10-11 2002-04-19 Allied Brains Inc 文章入力方法
JP2005309952A (ja) * 2004-04-23 2005-11-04 Advanced Telecommunication Research Institute International テキスト入力装置
JP2009157748A (ja) * 2007-12-27 2009-07-16 Nec Corp 入力装置、携帯端末装置およびプログラム
JP2009169464A (ja) * 2008-01-10 2009-07-30 Tottori Univ 文字入力方法
JP2011186994A (ja) * 2010-03-11 2011-09-22 Fujitsu Ltd 文字入力装置および文字入力方法

Also Published As

Publication number Publication date
JP6562542B2 (ja) 2019-08-21

Similar Documents

Publication Publication Date Title
KR101588520B1 (ko) 기억 매체, 정보 처리 장치 및 문자 인식 방법
EP2793167B1 (en) Expression estimation device, control method, control program, and recording medium
JP5897725B2 (ja) ユーザインタフェース装置、ユーザインタフェース方法、プログラム及びコンピュータ可読情報記憶媒体
JP2003162687A (ja) 手書き文字入力装置、手書き文字認識プログラム
JP2010134876A (ja) 情報処理装置及び情報処理方法
JP2005508031A (ja) 部首に基づいた、適合化可能な画の書き順システム
JP2018159788A (ja) 情報処理装置、方法及びプログラム
JP2014229091A (ja) 文字入力用のプログラム
JP2014063318A (ja) 文字認識装置、文字認識装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
KR20210061523A (ko) 필기 입력을 텍스트로 변환하는 전자 장치 및 그 동작 방법
KR20150045335A (ko) 수화 동작을 인식하여 문자로 변환하는 방법 및 그 장치
KR20190121593A (ko) 수화 인식 시스템
JP6562542B2 (ja) 文字列入力装置
JP2016105248A (ja) 言語触覚変換装置
US20150261301A1 (en) User interface device, user interface method, program, and computer-readable information storage medium
JP2016045723A (ja) 電子機器
JP2016045724A (ja) 電子機器
US20210165540A1 (en) Information processing device, information processing method, and program
US9880630B2 (en) User interface device, user interface method, program, and computer-readable information storage medium
US10228905B2 (en) Pointing support apparatus and pointing support method
JP4646512B2 (ja) 電子機器および電子辞書装置
JP2009169464A (ja) 文字入力方法
WO2018054127A1 (zh) 一种手写输入方法及装置
JPH11110379A (ja) 情報検索方法及びその装置
KR20190133361A (ko) 사용자 영상을 기반으로 하는 정보 입력 장치, 방법, 시스템 및 컴퓨터 판독 가능한 저장 매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190722

R150 Certificate of patent or registration of utility model

Ref document number: 6562542

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150