JP2006309314A - Translation device - Google Patents
Translation device Download PDFInfo
- Publication number
- JP2006309314A JP2006309314A JP2005127784A JP2005127784A JP2006309314A JP 2006309314 A JP2006309314 A JP 2006309314A JP 2005127784 A JP2005127784 A JP 2005127784A JP 2005127784 A JP2005127784 A JP 2005127784A JP 2006309314 A JP2006309314 A JP 2006309314A
- Authority
- JP
- Japan
- Prior art keywords
- translation
- unit
- user
- image
- character string
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Character Discrimination (AREA)
- Digital Computer Display Output (AREA)
- Machine Translation (AREA)
- Character Input (AREA)
Abstract
Description
本発明は、文字列を翻訳して、その文字列の訳語を取得して表示する翻訳装置に関する。 The present invention relates to a translation apparatus that translates a character string and acquires and displays a translated word of the character string.
近年、入力した文字列の訳語を表示する電子辞書や、カメラで撮影した静止画像から文字列を抽出して翻訳表示するカメラ付き携帯端末等の様々な形態の翻訳装置が広く普及し、例えば、外国語の文書の閲読や海外旅行等において利用されている。 In recent years, various forms of translation devices such as electronic dictionaries that display translated words of input character strings and mobile terminals with cameras that extract and display character strings from still images taken with a camera are widely used. Used for reading foreign language documents and traveling abroad.
翻訳装置の一例としては次のようなものが知られている。即ち、動画像を撮影して、その動画像から静止画像を抽出してエッジの検出を行い、エッジの検出が行えた場合は文字認識を行い、エッジの検出が行えなかった場合は、再度動画像から静止画像を抽出して同処理を繰り返すカメラ付き携帯情報端末である(特許文献1参照)。 The following is known as an example of a translation apparatus. That is, a moving image is shot, a still image is extracted from the moving image, and an edge is detected. If an edge is detected, character recognition is performed. If an edge cannot be detected, a moving image is again displayed. This is a portable information terminal with a camera that extracts a still image from an image and repeats the same processing (see Patent Document 1).
また、翻訳装置の一例として、ハーフミラーを採用したヘッドマウントディスプレイ(Head Mount Display;以下、「HMD」という。)装置が知られている。このHMD装置は、CCD(Charge Coupled Device)カメラにより撮影された撮影画像の中から、使用者の視線の移動に従って指定された領域の画像を抽出し、その画像内の文字列を抽出する。そして、その抽出した文字列を翻訳して使用者の眼に投射する(特許文献2参照)。 As an example of a translation apparatus, a head mounted display (hereinafter referred to as “HMD”) apparatus that employs a half mirror is known. This HMD device extracts an image of a designated area in accordance with movement of a user's line of sight from a photographed image photographed by a CCD (Charge Coupled Device) camera, and extracts a character string in the image. Then, the extracted character string is translated and projected to the user's eyes (see Patent Document 2).
ところで、HMD装置には、装着時に違和感がないこと、使用者の視野を狭くしないこと、視野を暗くしないことといった装着性が要求され、使用者に負荷がかからないことが望ましい。 By the way, the HMD device is required to have a wearability such as no discomfort at the time of wearing, not narrowing the user's visual field, and not darkening the visual field, and it is desirable that the user is not burdened.
しかし、特許文献2のHMD装置は、ハーフミラーを採用しているため、使用者の眼前をハウジングで覆い暗部を作らなければならないため、使用者の視野が暗くなってしまう。また、対物レンズを介して現実画像を見るため使用者の視野は制限されてしまう。また、大きなハウジングが眼前にくるため、使用者に圧迫感を与えてしまう。このため、特許文献1のHMD装置は、使用者に大きな違和感を生じさせてしまい、当該HMD装置を装着して街中を歩行することは現実的ではない。
However, since the HMD device of Patent Document 2 employs a half mirror, the user's visual field becomes dark because the front of the user must be covered with a housing to form a dark part. In addition, since the real image is viewed through the objective lens, the visual field of the user is limited. In addition, since the large housing comes in front of the eyes, it gives the user a feeling of pressure. For this reason, the HMD device of
また、電子辞書は、調べたい外国語の文字をわざわざ手入力で入力しなければならなくその操作は煩わしいものである。これに対して特許文献1のカメラ付き携帯端末は、文字の入力の手間を省ける。しかし、使用者は、翻訳したい文字列が含まれた被写体を、カメラ付き携帯端末がエッジ検出できるように、当該端末を用いて適切に撮影しなければならない。しかし、現実には、被写体が遠距離であり文字列が小さく撮影されたり、撮影画像にピンぼけやブレが生じてしまうことがあるように、被写体の画像が不明瞭となってしまった場合には、カメラ付き携帯端末の文字認識が困難となり、文字認識に成功する確率、即ち、文字認識率が低下してしまった。
In addition, the electronic dictionary requires bothersome input of foreign language characters to be checked, and the operation is troublesome. On the other hand, the camera-equipped mobile terminal disclosed in
また、使用者がカメラ付き携帯端末を把持して所望の被写体にカメラを向けて撮影を行わなければならなく、使用者の手を塞いでしまうため、傘や荷物を更に把持する場合には使用者に負担を与えてしまう。また、被写体にカメラを向ける動作は、撮影動作であることが第3者から見ても明らかであるため、使用者に抵抗感を与えてしまう場合があった。このように、特許文献1や2の翻訳装置は実用性に欠けるため、例えば、歩行中に翻訳が多用される海外旅行先での使用には不向きであった。
Also, since the user must hold the camera-equipped mobile terminal and point the camera at the desired subject to take a picture, which closes the user's hand. Burden the person. Further, since it is obvious from a third party that the operation of directing the camera toward the subject is a photographing operation, there is a case where the user is given a sense of resistance. Thus, since the translation apparatus of
本発明は、上述した課題に鑑みて為されたものであり、その目的とするところは、文字認識率の向上を図ると共に、使用者の負荷を軽減することで実用性の高い翻訳装置を実現することである。 The present invention has been made in view of the above-described problems, and the object of the present invention is to improve the character recognition rate and realize a highly practical translation apparatus by reducing the load on the user. It is to be.
以上の課題を解決するために、請求項1に記載の翻訳装置は、
被写体を撮影して、撮影画像を生成する撮影手段と、
前記撮影手段により生成された撮影画像の文字認識を行う文字認識手段と、
前記文字認識手段により文字認識された文字列を翻訳して、当該文字列の訳語を取得する翻訳手段と、
前記翻訳手段により取得された訳語の光学像を投射する映像投射手段と、
ホログラフィック光学素子を含む透過型の素材で形成され、前記映像投射手段により投射された光学像を当該ホログラフィック光学素子の光学効果によって使用者の眼に導く接眼光学系と、
を備えることを特徴としている。
In order to solve the above problems, the translation device according to
Photographing means for photographing a subject and generating a photographed image;
Character recognition means for performing character recognition of a photographed image generated by the photographing means;
A translation means for translating the character string recognized by the character recognition means and obtaining a translation of the character string;
Video projection means for projecting an optical image of the translation acquired by the translation means;
An eyepiece optical system that is formed of a transmission-type material including a holographic optical element and guides an optical image projected by the image projection means to the user's eye by the optical effect of the holographic optical element;
It is characterized by having.
請求項2に記載の発明は、請求項1に記載の翻訳装置であって、
前記撮影手段は、前記使用者の視野内の被写体を撮影可能に当該翻訳装置に配設されることを特徴としている。
Invention of Claim 2 is the translation apparatus of
The photographing means is arranged in the translation device so as to be able to photograph a subject in the field of view of the user.
請求項3に記載の発明は、請求項1又は2に記載の翻訳装置において、
前記使用者の視野の中心位置と、前記撮影画像の中心位置とのズレを推測する推測手段と、
前記推測手段により推測されたズレに基づいて、前記撮影画像の中心位置を前記使用者の視野の中心位置に合わせる補正手段と、を更に備えることを特徴としている。
The invention according to claim 3 is the translation device according to
An estimation means for estimating a deviation between the center position of the user's visual field and the center position of the captured image;
The image processing apparatus further includes correction means for aligning the center position of the captured image with the center position of the visual field of the user based on the deviation estimated by the estimation means.
請求項4に記載の発明は、請求項1〜3の何れか一項に記載の翻訳装置において、
前記推測手段は、前記被写体と前記撮影手段との間の距離を測定する測定手段を有し、
前記補正手段は、前記使用者の視野の中心位置と前記撮影手段の中心位置との間の距離と、前記測定手段により測定された距離とに基づいて、前記撮影画像の中心位置を当該使用者の視野の中心位置に合わせることを特徴としている。
Invention of Claim 4 is the translation apparatus as described in any one of Claims 1-3,
The estimation means includes a measurement means for measuring a distance between the subject and the photographing means,
The correcting means determines the center position of the photographed image based on the distance between the center position of the user's visual field and the center position of the photographing means and the distance measured by the measuring means. It is characterized by being adjusted to the center position of the visual field.
請求項5に記載の発明は、請求項1〜4の何れか一項に記載の翻訳装置において、
撮影条件を設定する設定手段を更に備え、
前記撮影手段は、前記設定手段により設定された撮影条件に基づいて前記被写体の撮影を行うことを特徴としている。
Invention of Claim 5 is the translation apparatus as described in any one of Claims 1-4,
It further comprises setting means for setting shooting conditions,
The photographing unit is characterized in that the subject is photographed based on the photographing condition set by the setting unit.
請求項6に記載の発明は、請求項1〜5の何れか一項に記載の翻訳装置において、
前記撮影手段のブレを補正するブレ補正手段を更に備えることを特徴としている。
Invention of Claim 6 is the translation apparatus as described in any one of Claims 1-5,
The image processing apparatus further includes a shake correction unit that corrects a shake of the photographing unit.
請求項7に記載の発明は、請求項1〜6の何れか一項に記載の翻訳装置において、
前記撮影手段により生成された撮影画像に画像処理を施す画像処理手段を更に備え、
前記文字認識手段は、前記画像処理手段により画像処理が施された撮影画像の文字認識を行うことを特徴としている。
The invention according to claim 7 is the translation device according to any one of
Image processing means for performing image processing on the photographed image generated by the photographing means;
The character recognizing means performs character recognition of a photographed image subjected to image processing by the image processing means.
請求項8に記載の発明は、請求項1〜7の何れか一項に記載の翻訳装置であって、 前記映像投射手段は、前記文字認識手段により文字認識された文字列の光学像を投射する認識文字投射手段を有することを特徴としている。 Invention of Claim 8 is the translation apparatus as described in any one of Claims 1-7, Comprising: The said image | video projection means projects the optical image of the character string recognized by the said character recognition means It has the recognition character projection means to perform.
請求項9に記載の発明は、請求項1〜8の何れか一項に記載の翻訳装置であって、
前記翻訳手段は、前記文字認識された文字列の訳語を複数取得する複数訳語取得手段を有し、
前記複数訳語取得手段により取得された複数の訳語の中から訳語選択条件を満たす訳語を選択する訳語選択手段を更に備え、
前記映像投射手段は、前記訳語選択手段により選択された訳語の光学像を投射することを特徴としている。
Invention of Claim 9 is a translation apparatus as described in any one of Claims 1-8, Comprising:
The translating means includes a plurality of translation acquisition means for acquiring a plurality of translations of the character-recognized character string;
A translation selection means for selecting a translation satisfying a translation selection condition from a plurality of translations acquired by the plurality of translation acquisition means;
The video projecting unit projects an optical image of the translated word selected by the translated word selecting unit.
請求項10に記載の発明は、請求項1〜9の何れか一項に記載の翻訳装置において、
使用者の頭部に装着可能なメガネ型に形成され、装着時に前記接眼光学系が使用者の眼前に配置することを特徴としている。
Invention of
The eyepiece optical system is formed in a glasses shape that can be worn on the user's head, and the eyepiece optical system is disposed in front of the user's eyes when worn.
請求項1に記載の発明によれば、撮影画像を文字認識することで得られた文字列を翻訳して、その文字列の訳語の光学像をホログラフィック光学素子を介して使用者の眼に導く。ホログラフィック光学素子を介することで、使用者の眼に入射する光量を維持でき、また、使用者の視界を遮ることがないため、使用者に与える負荷を軽減できる。また、接眼光学系を介して使用者の眼に訳語を投射することで、使用者の眼に当該訳語を映し出すことができる。このため、使用者は、わざわざ辞書を引いたり、その辞書を参照するために視線を移動したりすることなく、容易に当該訳語を視認することができる。これにより、撮影動作を行う必要がなく使用者の手が自由になる。従って、実用的な翻訳装置が実現でき、使用者は、海外旅行先での観光や買い物を違和感なく快適に楽しむことができるようになる。 According to the first aspect of the invention, the character string obtained by recognizing the photographed image is translated, and the translated image of the character string is transmitted to the user's eyes via the holographic optical element. Lead. By using the holographic optical element, the amount of light incident on the user's eyes can be maintained, and the user's field of view is not obstructed, so the load on the user can be reduced. In addition, by projecting a translated word to the user's eye via the eyepiece optical system, the translated word can be projected to the user's eye. Therefore, the user can easily visually recognize the translated word without drawing the dictionary or moving the line of sight to refer to the dictionary. Thereby, it is not necessary to perform a photographing operation, and the user's hand is freed. Therefore, a practical translation device can be realized, and the user can enjoy sightseeing and shopping at a foreign destination comfortably and comfortably.
請求項2に記載の発明によれば、使用者の視野内の被写体を撮影できるため、使用者が見た被写体に含まれる文字列の訳語を、使用者の眼に投射することができる。従って、使用者は同一の視野内で文字列と、その訳語を視認することができる。 According to the second aspect of the present invention, since the subject within the field of view of the user can be photographed, the translation of the character string included in the subject viewed by the user can be projected onto the user's eyes. Therefore, the user can visually recognize the character string and its translation within the same field of view.
請求項3に記載の発明によれば、請求項1又は2に記載の発明と同様の効果が得られるのは無論のこと、使用者の視野の中心位置と、撮影画像の中心位置とのズレを推測して、撮影画像の中心位置を使用者の視野の中心位置に合わせることで、使用者の視野の中心位置と、撮影画像の中心位置との誤差が補正される。従って、文字認識手段は、使用者の視野の中心位置に対する被写体の文字列を適切に文字認識することができる。 According to the third aspect of the invention, it is possible to obtain the same effect as the first or second aspect of the invention, and the difference between the center position of the user's visual field and the center position of the photographed image. Thus, the error between the center position of the user's visual field and the center position of the captured image is corrected by matching the center position of the captured image with the center position of the user's visual field. Therefore, the character recognition means can appropriately recognize the character string of the subject with respect to the center position of the user's visual field.
請求項4に記載の発明によれば、請求項1〜3の何れか一項に記載の発明と同様の効果が得られるのは無論のこと、視野の中心位置及び撮影手段の中心位置の間の距離と、被写体及び撮影手段の間の距離とに基づいて、撮影画像の中心位置を、使用者の視野の中心位置に合わせる。これにより、使用者の視野の中心位置と、撮影画像の中心位置との誤差を適切に補正することができる。
According to the invention described in claim 4, it is needless to say that the same effect as in the invention described in any one of
請求項5に記載の発明によれば、請求項1〜4の何れか一項に記載の発明と同様の効果が得られるのは無論のこと、撮影条件を適切に設定することで、明瞭な撮影画像が得られるようになるため、文字認識率を向上させることができる。
According to the invention described in claim 5, it is obvious that the same effect as that of the invention described in any one of
請求項6に記載の発明によれば、請求項1〜4の何れか一項に記載の発明と同様の効果が得られるのは無論のこと、撮影手段のブレを補正するため、撮影画像にブレが生じしてしまうことを低減でき、明瞭な撮影画像が得られる。従って、文字認識率の向上が図れる。
According to the invention described in claim 6, it is needless to say that the same effect as in the invention described in any one of
請求項7に記載の発明によれば、請求項1〜6の何れか一項に記載の発明と同様の効果が得られるのは無論のこと、撮影画像に画像処理を施すことで、明瞭な撮影画像が得られるようになる。このため、例えば、文字認識に失敗した場合であっても、撮影画像に画像処理に施すことで、文字認識に成功する確率、即ち文字認識率の向上が図れる。 According to the seventh aspect of the invention, it is obvious that the same effect as that of the first aspect of the invention can be obtained. A captured image can be obtained. For this reason, for example, even when character recognition fails, the probability of successful character recognition, that is, the character recognition rate can be improved by performing image processing on the captured image.
請求項8に記載の発明によれば、請求項1〜7の何れか一項に記載の発明と同様の効果が得られるのは無論のこと、映像投射手段は、文字認識された文字列の光学像を投射するため、使用者の眼にはその文字列の光学像と、訳語の光学像とが投射される。これにより、使用者は、翻訳の対象となった文字列を容易に視認することができるため、例えば、当該文字列と共に投射された訳語が、所望の文字列の訳語であるかを判断することができる。 According to the eighth aspect of the invention, it is of course possible to obtain the same effect as that of any one of the first to seventh aspects of the invention. In order to project an optical image, the optical image of the character string and the translated optical image are projected onto the user's eyes. Accordingly, the user can easily visually recognize the character string to be translated. For example, it is determined whether the translated word projected together with the character string is a translated word of the desired character string. Can do.
請求項9に記載の発明によれば、請求項1〜8の何れか一項に記載の発明と同様の効果が得られるのは無論のこと、複数の訳語の中から訳語選択条件を満たす訳語を選択して、その選択した訳語の光学像を使用者の眼に投射することができる。このため、例えば、翻訳頻度の高い訳語や、一般的に用いられる頻度の高い訳語といった妥当性の高い訳語を投射することができる。
According to the invention described in claim 9, it is needless to say that the same effect as in the invention described in any one of
請求項10に記載の発明によれば、請求項1〜9の何れか一項に記載の発明と同様の効果が得られるのは無論のこと、メガネ型の翻訳装置の装着時に、接眼光学系が使用者の眼前に配置される。このため、使用者は、例えば、日常生活や海外旅行先等で翻訳装置を装着して違和感なく使用することができる。また、使用者の視界を覆ったり、暗くしたりすることもないため、使用者の負荷を軽減することができる。
According to the invention described in
〔実施形態〕
以下、本発明を実施形態について図1〜図9を参照して詳細に説明する。また、以下の実施形態においては、図1に示すメガネ型の翻訳装置(以下、単に「翻訳装置」と称す。)を例にとって説明するが、その適用可能な範囲は、図示例に限定されないものとする。
Embodiment
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. Further, in the following embodiments, the glasses-type translation device (hereinafter simply referred to as “translation device”) shown in FIG. 1 will be described as an example, but the applicable range is not limited to the illustrated examples. And
〔翻訳装置の概観及び機構〕
図1は、翻訳装置1の斜視図の一例である。図1によれば、翻訳装置1は、使用者の頭部に装着可能に形成されたヘッドマウントディスプレイ(Head Mount Display;以下、「HMD」という。)200と、コントロールユニット300とがケーブル290によって接続されて構成されている。
[Overview and mechanism of translation equipment]
FIG. 1 is an example of a perspective view of the
HMD200は、左右対称に設けられたメガネレンズ(以下、単に「レンズ」という。)210R及び210Lと、鼻あて230R及び230Lと、テンプル240R及び240Lと、ブリッジ270とを備えて構成される。
The
テンプル240R及び240Lは、使用者の頭部にHMD200を支持するための支持部材である。使用者は、テンプル240R及び240Lそれぞれを側頭部を介して左右の耳介にかけ、鼻あて230R及び230Lを鼻の付け根部分に載せるように装着すると、レンズ210R及び210Lそれぞれが左右の眼Eの前に配置される。
また、HMD200は、表示ユニット250と、カメラユニット260とを備えて構成されている。この表示ユニット250、カメラユニット260及びコントロールユニットは、ケーブル290を介して通信可能に接続される。ケーブル290は、各ユニット間を電気的に接続する通信媒体である。尚、翻訳装置100は、ケーブル290を介して各種データ通信を行うこととするが、各ユニットに無線通信機を設けて無線方式のデータ通信を行うこととしてもよい。無線方式を採用することで、遊動可能なケーブル290が使用者に掛かって邪魔になることなくなる。
The
表示ユニット250(映像投射手段、認識文字投射手段)は、接眼光学系220に対して光学像を投射し、レンズ210Rの上部に設けられる。接眼光学系220は、レンズ210Rと一体的に形成され、表示ユニット250から投射された光学像を使用者の眼Eに導く機能部である。
The display unit 250 (video projection means, recognition character projection means) projects an optical image onto the eyepiece
接眼光学系220により投影された光学像は、使用者の眼Eに虚像映像として映し出される。これにより、表示ユニット250及び接眼光学系220が、仮想的な映像を表示する表示装置として機能することとなる。
The optical image projected by the eyepiece
図2に、表示ユニット250及び接眼光学系220の断面図の一例を示す。図2に示すように、表示ユニット250は、LED(Light Emitting Diode)等により構成される光源252と、コンデンサレンズ等により構成される集光レンズ254と、LCD(Liquid Crystal Display)等により構成される透過型の表示パネル256とが筐体258内に保持されて構成される。
FIG. 2 shows an example of a cross-sectional view of the
光源252が、表示パネル256へ照射光を出射すると、その照射光は集光レンズ254により表示パネル256全面に均一に導かれる。プリズム214の上面に対して傾斜して配設された表示パネル256は、使用者の眼Eに映し出すための映像を表示すると、光源252からの照明光を受けて、当該映像の光学像、即ち映像光を接眼光学系220のプリズム214に対して発することとなる。
When the
筐体258は、プリズム214の上部を狭持するように設けられ、光源252、集光レンズ254及び表示パネル256を覆い保持する。
The
接眼光学系220は、プリズム214と、ホログラフィック光学素子(Holographic Optical Element;以下「HOE」という。)212とを有し、レンズ210Rと一体的に形成されて構成される。
The eyepiece
プリズム214は、透明なガラス又は樹脂等からなり、平板状に形成されたものである。プリズム214は、右眼用のレンズ210Rの一部に埋め込まれており、その下端部にHOE212が接合形成されている。HOE212は、プリズム214とレンズ210Rとをホログラム基板として、その間に挟まれるように配置されている。
The
HOE212は、ホログラム基板面に対して平行でない干渉縞からなる2つの干渉縞パターンを有している。HOE212に入射した光学像は、その干渉縞パターンの回折作用によって回折反射して使用者の眼Eに導かれる。
The
また、表示ユニット250は、ケーブル290を介してコントロールユニット300に接続され、コントロールユニット300からの指示に基づいた映像を表示する。即ち、表示パネル256から発せられた映像光が、プリズム214により反射を複数回繰り返しながらHOE212に導かれると、HOE212により回折して平行光に近い光束となって利用者の眼Eに入射する。これにより、使用者に対して映像を仮想的に表示せしめることができる。
The
また、接眼光学系220及びレンズ210Rは、使用者の視界にある像の光学像を透過して、使用者の眼Eに導く。このため、使用者の眼Eには、レンズ210R前方(図2の矢印V2の方向)の映像に、表示パネル256が表示した映像を重ね合わせた映像が映し出されることとなる。
Further, the eyepiece
カメラユニット260は、光学レンズ、CCD等の光電変換素子と、A/D変換部とを有して構成される。光学レンズを介して入力される被写体の光学像をCCDにより光電変換する。そして、この光電変換により得られた電気信号を、A/D変換部によってA/D変換して、デジタルデータの画像データ(撮影画像)を生成する。この光電変換及びA/D変換を連続的に行うことにより、被写体の動画撮影が行われる。
The
コントロールユニット300は、図1に示すように、操作スイッチ群310を備えて構成される。操作スイッチ310は、電源ボタンやカーソルキー、決定スイッチ、モード設定スイッチなどにより構成される。使用者は、この操作スイッチ310を押下することにより、翻訳装置1を操作し、翻訳装置1の動作モードの切り替えや動画撮影の開始指示、翻訳の継続指示等を行う。
The
翻訳装置1の動作モードとしては翻訳モードや音楽モードや道案内モード等が設けられている。翻訳モードは、カメラユニット260により撮影・生成された撮影画像に含まれた文字列の訳語を表示するモードである。音楽モードは、記憶部50に記憶された音楽データを再生して、イヤホン(図示略)から音声出力するモードである。また、道案内モードは、GPS受信装置(図示略)により受信したGPS信号に基づいて現在位置を測位し、記憶部50に記憶された地図情報に従って当該現在位置から目的地までの地図を表示するモードである。
As an operation mode of the
使用者は、モード設定スイッチを操作することにより、所望の動作モードに切り替える。尚、翻訳装置1の動作モードは、上述した動作モードに限らず、適宜追加変更可能である。
The user switches to a desired operation mode by operating the mode setting switch. Note that the operation mode of the
〔翻訳装置の機能構成〕
図3は、翻訳装置1の機能構成の一例を示すブロック図である。図3によれば、翻訳装置1は、撮影部10、操作入力部20、画像処理部30、言語処理部40、記憶部50、翻訳エンジン60及び表示部70を備えて構成される。また、操作入力部20、画像処理部30、言語処理部40、記憶部50及び翻訳エンジン60(翻訳手段)は、コントロールユニット300内に設けられる。
[Functional structure of translation device]
FIG. 3 is a block diagram illustrating an example of a functional configuration of the
撮影部10(撮影手段)は、ガラスやプラスチック等からなる光学レンズプリズムと、CCDやCMOS等の撮像素子と、A/D変換器とを有して構成される機能部であり、上述したカメラユニット260に相当する。撮影部10は、光学レンズを介して入力される被写体の光学像を撮像素子によりフレーム単位で電気信号に変換して画像データを生成することで動画撮影を行い、そのフレーム単位の画像データを随時画像処理部30に出力する。
The imaging unit 10 (imaging means) is a functional unit that includes an optical lens prism made of glass, plastic, or the like, an imaging element such as a CCD or CMOS, and an A / D converter. This corresponds to the
また、撮影部10は、複数の光学レンズプリズムを組み合わせたり、光学レンズプリズムと撮像素子との距離を調整したりすることにより、ピント(焦点)を自動的に合わせるオートフォーカス(Auto Focus;以下、「AF」と略す。)機能を実現する。本実施形態では、ピントが合っていないときに撮像素子上のコントラストが低下することを利用してピント合わせを行う所謂パッシブ方式によりAF機能を実現する。そして、撮影部10(測定手段)は、AF機能によるピント調整の結果に基づいて焦点距離を取得し、この焦点距離から撮影部10から被写体までの距離を測定する。この測定した距離(測定距離53)は、後述するパララックス補正に用いられる。
In addition, the photographing
尚、AF機能の実現方法及び被写体までの距離の測定方法として、パッシブ方式を採用することとしたが、撮影部10に赤外線照射部を設けて、被写体に向けて照射した赤外線の反射を利用して被写体との距離を測定し、ピント合わせを行うアクティブ方式を採用することとしても勿論よい。
Although the passive method is adopted as a method for realizing the AF function and a method for measuring the distance to the subject, an infrared irradiation unit is provided in the photographing
また、撮影部10(ブレ補正手段)は、角速度センサを有して構成され、当該角速度センサによりアンチシェイク(Anti Shake;以下、「AS」という。)機能を有している。AS機能は、撮影時のブレを補正する機能であり、次のようにして実現される。即ち、角速度センサによりブレの量、速度及び方向を検知して、光学レンズの画角特性に合わせてCCD上でのズレ量をリアルタイムで算出する。そして、そのズレ量に基づいてCCDを上下左右に駆動することでブレを解消する。このAS機能により、使用者の頭部の動きや細かな振動によるブレを補正することで、より明瞭な撮影画像が得られるようになる。 In addition, the photographing unit 10 (blur correction unit) includes an angular velocity sensor, and has an anti-shake function (hereinafter referred to as “AS”) by the angular velocity sensor. The AS function is a function for correcting blur at the time of shooting, and is realized as follows. That is, the amount, speed, and direction of blur are detected by the angular velocity sensor, and the amount of deviation on the CCD is calculated in real time in accordance with the field angle characteristics of the optical lens. Then, the blur is eliminated by driving the CCD vertically and horizontally based on the amount of deviation. With this AS function, it is possible to obtain a clearer captured image by correcting blurring due to the movement of the user's head and fine vibrations.
尚、ズレ量に基づいてCCDを駆動するCCDシフト方式によりAS機能を実現することとしたが、例えば、ブレ量に基づいて光学レンズプリズムを動かすことでブレを補正する光学式により実現することとしてもよい。 Although the AS function is realized by the CCD shift method of driving the CCD based on the deviation amount, for example, it is realized by an optical method that corrects the blur by moving the optical lens prism based on the blur amount. Also good.
操作入力部20は、上述した操作スイッチ310や、文字入力キー、カーソルキー備えて構成され、使用者により押下されたスイッチの押下信号を出力する入力装置である。
The
画像処理部30(画像処理手段)は、CPU(Central Processing Unit)やROM(Read Only Memory)、RAM(Random Access Memory)等を備えて構成され、CPUが、ROMに記憶された各種プログラムをRAMに展開することで、当該プログラムに従った処理を実行する。特に、画像処理部30は、動画像の画像データからの静止画像データの作成、パララックス補正処理、静止画像データのコントラストを強調する画像処理、文字認識処理等を行う。
The image processing unit 30 (image processing means) includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and the CPU stores various programs stored in the ROM. The processing according to the program is executed. In particular, the
ここで、画像処理部30の動作を説明すると次のようになる。即ち、画像処理部30は、使用者の操作入力部20の押下により動作撮影の開始指示を示す操作信号が入力されると、撮影部10を駆動して動画撮影を開始させる。そして、撮影部10から随時入力されてくる動画像の画像データから静止画像の画像データ(以下、静止画像の画像データを「静止画像データ」という。)を作成して、静止画像データ51として記憶部50に記憶させる。
Here, the operation of the
この静止画像データの作成方法は、適宜公知技術を採用可能であり、例えば、撮影部10から入力されたフレーム単位の画像データから、任意のタイミングの画像データを選択して取得することで静止画像データ51としてもよいし、数フレーム分(例えば、3フレーム分)の画像データを取得して、それらの画像データを合成することで静止画像データ51を作成することとしてもよい。
As a method for creating the still image data, a publicly known technique can be used as appropriate. For example, a still image can be obtained by selecting and acquiring image data at an arbitrary timing from image data in units of frames input from the
この画像処理部30が作成した静止画像データ51、即ち、撮影画像の中心位置と、使用者がレンズ210Rを介して見た被写体の中心位置とには、カメラユニット260とレンズ210RとのHMD100上における設置位置の違いから視差(パララックス)が生じる。
The
より具体的には、例えば、図6(a)のように遠景の景色を被写体OB2として、被写体OB2とHMD100との距離が充分に長い場合、カメラユニット260の画角の中心点P1は、レンズ210Rを介した使用者の視界の中心点P2(レンズ210Rの画角の中心位置)と略同一となり、パララックスの影響は小さい。
More specifically, for example, as shown in FIG. 6A, when a distant view is a subject OB2, and the distance between the subject OB2 and the HMD 100 is sufficiently long, the center point P1 of the angle of view of the
しかし、例えば、図6(b)のように、使用者が把持した文書を被写体OB3として、HMD100と被写体OB2との距離が近ければ近いほど、カメラユニット260の画角の中心点P1と、レンズ210Rを介した使用者の視界の中心点P2とのパララックスが大きくなる。
However, for example, as shown in FIG. 6B, the document held by the user is the subject OB3, and the closer the distance between the HMD 100 and the subject OB2, the closer the center point P1 of the angle of view of the
そこで、画像処理部30は、レンズ210Rに対する被写体の中心点P2(使用者の視点の中心)に合わせるように、カメラユニット260の画角の中心点P1(カメラユニット260の視点)を補正するパララックス補正を行う。パララックス補正は公知の手法であるが、簡単に説明すると次のようになる。
Therefore, the
先ず、図5(b)に示すように、カメラユニット260の前方方向(矢印V1の方向)の中心点P1と当該カメラユニット260との距離D1(測定距離53)を、上述したAF機能を用いて撮影部10が測定する。そして、画像処理部30(距離算出手段)は、カメラユニット260の中心とレンズ210Rの中心との距離D2と測定した距離D1とから、三角関数を用いることにより、なす角Rを算出する。このなす角Rは、カメラユニット260からレンズ210Rの前方方向V2の方向の中心点P2に対する方向V3と、カメラユニット260の前方方向V1とのなす角である。画像処理部30(推測手段、補正手段)は、静止画像データ51をなす角Rに基づいてずらすことで、静止画像データ51の中心位置(撮影画像の中心位置)をレンズ210Rから見た被写体OB1の中心点P2の位置(使用者の視野の中心位置)に合わせる。
First, as shown in FIG. 5B, the distance D1 (measurement distance 53) between the center point P1 in the forward direction (the direction of the arrow V1) of the
画像処理部30は、パララックス補正を行って静止画像データ51を更新する。このパララックス補正により、レンズ210Rの中心点を介して使用者の眼Eに映し出される文字列と、画像処理部30が文字認識の対象とする文字列とを一致させることができる。
The
画像処理部30(文字認識手段)は、静止画像データ51の周辺部位を切り出して(カットして)、残りの一定領域に対して文字認識を行う。具体的には、予めアルファベットやハングル文字等といった外国語の表記文字のテンプレートを用意しておく。そして、静止画像データ51の中心の一定領域内における画素毎に当該テンプレートと比較する。その比較の結果、テンプレートの文字と略一致した場合には、当該テンプレートの文字が静止画像データ51中に含まれているとして抽出する。尚、この文字認識の手法は、パターンマッチングに限らず、ゾンデ法やストロークアナリシス法など適宜公知技術を採用可能である。画像処理部30は、文字認識により抽出した文字列を抽出文字列55として記憶部50に記憶させる。
The image processing unit 30 (character recognition means) cuts out (cuts) the peripheral portion of the
言語処理部40は、CPUやROM、RAM等を備えて構成され、抽出文字列55の言語種別57の判定と、翻訳エンジン60により取得された複数の訳語から訳語選択条件に基づいた訳語の選択と、表示部70に対する訳語の表示制御等を行う。
The
言語処理部40の具体的な動作は次のようになる。先ず、画像処理部30により抽出された抽出文字列55内の個々の文字の表記形式と、文字の配列等から言語の種別を決定する。例えば、抽出文字列55の表記形式から文字種がハングル文字であれば言語の種別を韓国語として判定して、言語種別57として記憶部50に記憶する。また、抽出文字列55の文字種がアルファベットであった場合は、個々のアルファベットの配列から英語、独語、仏語等といった言語種別57を判定する。
The specific operation of the
そして、記憶部50に記憶された抽出文字列55及び言語種別57を翻訳エンジン60に送信し、翻訳エンジン60の翻訳処理の結果得られた抽出文字列55の訳語を受信して記憶部50に記憶させる。言語処理部40は、訳語59が複数ある場合は、一般的に使用頻度の高い訳語であるという訳語選択条件を満たす訳語を選択する。
Then, the extracted
訳語選択条件としては、例えば、観光、英文学等の使用者の翻訳装置1の使用目的に応じた分野に関わるか否か、過去に翻訳エンジン60によって取得された訳語の分野に近似するか否か等があり適宜変更可能である。このように訳語選択条件を満たす訳語を選択することで、表示する訳語を使用者の使用目的に近いものや、よく使われるもの等に制限することができる。
As the translation selection condition, for example, whether it is related to the field according to the purpose of use of the
言語処理部40(訳語選択手段)は、訳語選択条件を満たす訳語59を選択した後、当該訳語59と、抽出文字列55とを、例えば、図8の一覧リストLSTように表示させるための表示データを生成して表示部70に出力する。
The language processing unit 40 (translation word selection means) selects a
記憶部50は、光学的又は磁気的な記憶媒体にデータの読み書きを行う機能部であり、例えば、HDD(Hard Disk Drive)等により構成される。図4は、記憶部50のデータ構成の一例を示す図である。図4によれば、記憶部50は、静止画像データ51、測定距離53、抽出文字列55、言語種別57及び訳語59を記憶している。
The
翻訳エンジン60(翻訳手段、複数訳語取得手段)は、CPUやROM、RAM等の他に、翻訳データベース(以下、データベースを「DB」という。)を備えて構成され、言語処理部40から入力された抽出文字列55の言語種別57とに基づいて、抽出文字列55の訳語を翻訳データベースから検索して、その検索結果を全て言語処理部40に出力する。
The translation engine 60 (translation means, multiple translation acquisition means) includes a translation database (hereinafter referred to as “DB”) in addition to the CPU, ROM, RAM, and the like, and is input from the
翻訳DBは、見出語と、当該見出語の訳語(和語)とを対応付けて記憶するデータテーブルであり、言語種別毎に設けられている。例えば、言語処理部40から出力された言語種別57が韓国語であった場合、翻訳エンジン60は、韓国語の翻訳DBを選択し、この翻訳DBに記憶された見出語の中から、抽出文字列55と一致する見出語を検索する。そして、一致する見出語があったならば、当該見出語に対応する訳語を翻訳DBから読み出して言語処理部40に出力する。
The translation DB is a data table that stores a headword and a translation (Japanese) of the headword in association with each other, and is provided for each language type. For example, if the
表示部70は、言語処理部40から入力される表示データに基づいて各種画面を表示させるものであり、図2に示した表示パネル256に相当する。静止画像データ51の中から抽出された文字列の訳語が表示部70に表示されることで、当該訳語の光学像が接眼光学系220を介して使用者の眼Eに映し出されることとなる。
The
〔翻訳装置の具体的な動作〕
次に、翻訳装置1の具体的な動作について図7のフローチャートを用い、図8を参照しつつ説明する。
[Specific operation of translation device]
Next, a specific operation of the
先ず、使用者のモード設定スイッチの操作に従って動作モードの設定を行い(モード設定処理;ステップS1)、操作入力部20は、翻訳モードが選択されたと判定した場合は(ステップS3;Yes)、翻訳モードONを示す操作信号を画像処理部30に出力する。また、他の動作モードが選択されたと判定した場合には(ステップS3;No)、当該動作モードに応じた処理を開始する(ステップS5)。
First, the operation mode is set in accordance with the user's operation of the mode setting switch (mode setting process; step S1). When the
画像処理部30は、使用者の操作入力部20の操作により、動画撮影の開始指示(例えば、決定スイッチの押下操作)が入力されるまで待機し、当該開始指示が入力されたならば(ステップS7;Yes)、撮影部10を駆動して動画撮影を開始させる(ステップS9)。
The
そして、画像処理部30は、撮影部10から随時入力される動画像の画像データから静止画像データ51を作成して記憶部50に記憶した後(ステップS11)、当該静止画像データ51に対してパララックス補正を行う(ステップS17)。
Then, the
そして、パララックス補正後の、静止画像データ51に含まれる文字列の抽出を行い(ステップS17)、当該抽出に成功したか否かを判定する(ステップS19)。画像処理部30は、文字列の抽出に失敗したと判定した場合(ステップS19;No)、静止画像データ51に対して各種画像処理を施した後に(ステップS21)、再度文字列の抽出を行う。
Then, the character string included in the
ステップS23の画像処理では、例えば、静止画像データ51に含まれる文字列の輪郭を明瞭にするエッジ強調や、静止画像データ51全体のコントラストの増加(又は低減)させる階調補正を行う。尚、ステップS21で行う画像処理は、エッジ強調や階調補正に限らず、例えば、拡大縮小処理、2値化処理やノイズ除去等、適宜公知技術を採用可能である。
In the image processing in step S23, for example, edge enhancement that makes the outline of the character string included in the
このような画像処理を施した静止画像データ51に対して文字列の抽出を行って、再度失敗した場合には(ステップS19;No)、他の画像処理を順次施していく(ステップS21→S23)。尚、パラメータを変更してエッジ強調を数回行うといったように、同じ種類の画像処理を段階的に行うこととしてもよい。
When the character string is extracted from the
このため、ステップS11において作成した静止画像データ51が文字認識に不向きな画像であっても、文字認識しやすい画像となるように画像処理を繰り返し施すことで、文字認識の成功率、即ち、文字認識率の向上を図ることができる。
For this reason, even if the
画像処理部30は、文字列の抽出に失敗したと判定した際、ステップS21において画像処理を行うが、全ての種類の画像処理を施してしまった場合には(ステップS21;Yes)、ステップS9の処理に移行して、再度動画撮影を行ってステップS11〜S19の処理を行う。
When the
画像処理部30が文字列の抽出に成功したと判定した場合(ステップS19;Yes)、言語処理部40は、抽出文字列55の言語の種別を判定し(ステップS25)、言語種別57と抽出文字列55とを翻訳エンジン60に伝達する(ステップS27)。
When the
翻訳エンジン60は、言語種別57に応じた翻訳DBを選択して、抽出文字列55に対する訳語を検索する(翻訳処理;ステップS29)。そして、翻訳処理により得られた訳語59を言語処理部40に返して記憶部50に記憶させる。
The
言語処理部40は、訳語59の中から訳語選択条件を満たす訳語を選択、即ち妥当性の高い訳語を選択する(ステップS31)。そして、抽出文字列55と、選択した訳語(選択訳語)とを出力して表示部70に表示させる(ステップS33)。
The
例えば、使用者が図6(a)に示した遠景の被写体OB2を見ながら、レンズ210Rの中心点P2を看板SBに合わせてから動作撮影の開始指示を入力すると、撮影部10が被写体OB2の撮影を開始する。このとき、AF機能によりカメラユニット260と被写体OB2との距離が例えば、100mと測定された場合は、測定距離53が充分に遠い、即ちパララックスが小さいために、ステップS15におけるパララックス補正は行わなくてよい。
For example, when the user inputs an operation shooting start instruction after aligning the center point P2 of the
そして、静止画像データ51中から看板SB上に描かれている「HOTEL」という文字列が画像処理部30により抽出される。そして、抽出文字列55「HOTEL」の言語種別57が「英語」と判定されて、英語の翻訳DBから「HOTEL」に対する訳語が検索される。
Then, the character string “HOTEL” drawn on the signboard SB from the
表示部70が、抽出文字列55「HOTEL」と、その訳語である「旅館」と「ホテル」とを一覧リストLSTで表示部70に表示すると、レンズ210Rを介して被写体OB2の光学像と、一覧リストLSTの光学像とが使用者の眼Eに導かれて、図8(a)のような映像が映し出される。このため、使用者は翻訳装置1を装着して、例えば、街中を歩きながら興味のあるものを見ながら動画撮影の開始指示を行うだけで、その訳語を確認することができる。
When the
また、6(b)の使用者が把持した被写体OB3を見ながら、レンズ210Rの中心点P2を「HOTEL B」に合わせると、画像処理部30は、カメラユニット260を介して被写体OB3を撮影する。このとき、カメラユニット260と被写体OB3との距離が例えば30cmと測定された場合、測定距離53が近い、即ちパララックスが大きいため、カメラユニット260の画角の中心点P1を使用者の視点の中心点P2に合わせるようにパララックス補正を行う。
When the center point P2 of the
このパララックス補正により、静止画像データ51上の中心点P2上にある「HOTEL」という文字列が画像処理部30により抽出されて、遠景の被写体OB2を見た場合と同様に、一覧リストLSTを表示部70に表示すると、図8(b)のような映像が使用者の眼Eに映し出される。
By this parallax correction, the character string “HOTEL” on the center point P2 on the
このように、一覧リストLST内に、抽出文字列55が表示されることで、翻訳装置1により文字認識された文字列が所望の文字列であるかを確認することができる。
Thus, by displaying the extracted
ステップS33による一覧リストLSTの表示後、使用者は、翻訳装置1により翻訳された文字列が所望の文字列ではなかった、表示された訳語が所望のものではなかった、又は別の文字列の訳語が知りたい場合等に、翻訳継続操作(例えば、決定スイッチの押下操作)を行う。
After the display of the list LST in step S33, the user has determined that the character string translated by the
操作入力部20は、翻訳継続操作が為されたか否かを判定し(ステップS35)、当該操作が為されたと判定した場合は(ステップS35;Yes)、ステップS9の処理へ移行する。また、当該操作が為されなかった場合は(ステップS35;No)、翻訳モードにおける図7の処理を終了する。
The
尚、図8(a)及び(b)のように一覧リストLSTを、使用者の視界の中心点P2からずらした位置に表示することとしたが、図8(c)に示すように、被写体OB2の中心位置(使用者の視界の中心)に表示することで、看板SBに重畳表示させることとしてもよい。また、一覧リストLSTの表示する静止画像データ51の背景の色(背景色)を検出し、一覧リストLSTの表示色を、検出した背景色と異なる色にすることとしてもよい。これにより、例えば、背景色が黒であった場合に、一覧リストLSTの色とすることで、一覧リストLSTが明確になる。
Note that the list LST is displayed at a position shifted from the center point P2 of the user's field of view as shown in FIGS. 8A and 8B. However, as shown in FIG. It may be superimposed on the signboard SB by displaying it at the center position of OB2 (the center of the user's field of view). Alternatively, the background color (background color) of the
また、ステップS33において抽出文字列55を使用者の眼Eに投射すると共に、当該抽出文字列55を音声出力することとしてもよい。この場合、翻訳装置100にイヤホンを設け、更に、記憶部50に表記文字毎の発音を表す音声データを予め記憶しておく。そして、言語処理部40が、抽出文字列55に応じた音声データを読み出して、その音声データを合成して抽出文字列55の発音を表す音声をイヤホンを介して音声出力する。これにより、使用者は、翻訳しようとする外国語の発音を知ることもできる。尚、翻訳エンジン60が訳語の発音を表す音声データを訳語毎に記憶し、この音声データを言語処理部40に出力することとしてもよい。
In step S33, the extracted
〔翻訳装置の評価〕
次に、機能仕様の異なる7つの翻訳装置1a〜1gを用意し、翻訳装置それぞれを評価した評価結果について説明する。先ず、翻訳装置1a〜1gの評価方法は、次のようにした。
[Evaluation of translation equipment]
Next, the evaluation results obtained by preparing seven
(1)図9(a)に示すような模擬セット500を作成して、分岐点に看板502〜518を設置する。
(2)看板502〜518上に、評価者に対する歩行指示(例えば、「右折」、「左折」)を外国語(例えば、韓国語)で表記する。
(3)評価者は、翻訳装置1a〜1gそれぞれを装着して、模擬セット500内を歩行する。
(4)評価者は、翻訳装置によって表示される歩行指示の訳語に従って歩行する。
(5)5つの看板に従って歩行して、所定のポジションに到達したら評価を終了し、その到達するまでの所要時間と、歩行の容易性とを評価結果として記録する。
(6)評価者は20人とする。
(7)評価の都度、看板502〜518の表記内容は変更する。
(8)翻訳装置の使用方法が分からないことによる時間のロスを軽減するために、各評価者は、同一の翻訳装置を2回ずつ評価して良好な評価結果を評価対象とする。
(9)翻訳装置1a〜1gそれぞれについての、20人分の評価結果の平均を取る。
(1) A simulation set 500 as shown in FIG. 9A is created, and
(2) On the
(3) The evaluator wears each of the
(4) The evaluator walks according to the translation of the walking instruction displayed by the translation device.
(5) Walk according to the five signboards, end the evaluation when reaching a predetermined position, and record the time required to reach the position and the ease of walking as an evaluation result.
(6) There are 20 evaluators.
(7) The contents of the signs on the
(8) In order to reduce the time loss due to not knowing how to use the translation device, each evaluator evaluates the same translation device twice and sets a good evaluation result as an evaluation target.
(9) Take the average of the evaluation results for 20 people for each of the
翻訳装置1a〜1gそれぞれの機能仕様は、図9(b)に示すように変えた。翻訳装置1a〜1eは、表示手段としてHOEを採用して、パララックス補正処理、AS機能及び画像処理の組み合わせを変えたものである。特に翻訳装置1aは、表示手段としてHOEを採用して、パララックス補正、ブレ補正及び画像処理全てを行うものであり、上述した翻訳装置1に相当する。
The functional specifications of the
また、表示手段として小型のハーフミラーを採用した翻訳装置1fと、大型のハーフミラーを採用した翻訳装置1gとを用意した。この翻訳装置1gは、上述した特許文献1のHMD装置に相当するものである。
Moreover, the
図9(b)の評価結果によれば、ハーフミラーを採用した翻訳装置1f及び1gは、評価者の眼前がハウジングにより覆われてしまうため、視界が暗くなり、更に視野が狭くなるために歩行自体が困難になってしまうという結果が得られた。
According to the evaluation result of FIG. 9B, the
これに対して、HOEを採用した翻訳装置1a〜1eは、評価者の視界が開けるため、歩行の容易性に優れているという結果が得られた。また、所定のポジションに到達するまでの所要時間の平均に関し、翻訳装置1f及び1gの場合は、4分以上かかってしまうため実用性に欠けていたが、翻訳装置1a〜1eは、2分未満という良好な結果が得られ、街中や公道等で使用しても大きな影響がないことが分かった。
On the other hand, the
また、翻訳装置1eにパララック補正、AS機能及び画像処理それぞれを追加構成した翻訳装置1b〜1dは、翻訳装置1eよりも平均所要時間が短くなるという結果が得られ、それぞれの機能が有用であることが分かった。また、本実施形態の翻訳装置1に相当する翻訳装置1aは、動画撮影から訳語の表示までの処理時間を他の翻訳装置1b〜1eよりも早くすることができ、翻訳装置1a〜1gの中で最短の平均所要時間となった。
In addition, the
以上、本実施形態によれば、静止画像データ51から文字列を抽出し、当該文字列の訳語を表示部70に表示することにより、その訳語の光学像がHOE212を介して使用者の眼Eに投影される。翻訳装置1を装着した使用者は、レンズ210Rを介して所望の文字列を見ながら操作入力部20を操作すると、その文字列の訳語が仮想的に表示されるため、街中を自然に歩きながら違和感なく簡単に外国語の訳語を知ることができる。また、海外旅行先で辞書を引く動作を行わなくても良いため、旅行者であることを分かりにくくすることができ防犯上の効果も得られる。また、従来のように辞書を引いたり、カメラ付き携帯端末で撮影を行う必要がないため、使用者の両手が自由になる。
As described above, according to the present embodiment, by extracting a character string from the
また、翻訳装置1は、静止画像データ51に対してパララックス補正を行うため、使用者の視界の中心にある文字列を適切に抽出することができる。また、撮影部10に、AS機能を搭載することで、静止画像データ51にブレが生ずることを防止できるため、使用者の動きが文字列の抽出に与える影響を低減できる。
Moreover, since the
また、文字列の抽出に失敗した場合は、エッジ強調や階調補正等の各種画像処理を順次施して再度文字列の抽出を行う。このように画像処理を施すことで、静止画像データ51中の文字列を浮き上がらせることができるため、文字抽出の精度を向上させることができる。また、一度文字抽出に失敗したとしても、他の画像処理を順次行って更新される静止画像データ51に対して文字抽出を行うことで、文字列の抽出に成功しうる確率、即ち文字認識率を向上させることができる。
If extraction of the character string fails, various image processes such as edge enhancement and gradation correction are sequentially performed to extract the character string again. By performing image processing in this way, the character string in the
〔変形例〕
尚、本実施形態において、使用者の操作入力部20の操作によって動画撮影を開始することとしたが、例えば、次のようにしてもよい。先ず、使用者の眼球運動を検知して、視線方向を検出する視線検出部を設ける。この視線検出部は、赤外線発光部、赤外線受光部、光学系、演算部等を備えて構成される。
[Modification]
In the present embodiment, the moving image shooting is started by the operation of the
赤外線発光部から使用者の眼球に対して赤外線を照射し、その反射光を赤外線受光部が受光する。そして、赤外線受光部から得られた反射光に基づいて眼球の瞳孔の中心を抽出して使用者の視線を検出する。画像処理部30は、視線検出部により検出された使用者の視線の方向が所定時間(例えば、3秒)一定だった場合に、撮影部10を駆動して動画撮影を開始させる。
Infrared light is irradiated from the infrared light emitting unit to the user's eye, and the reflected light is received by the infrared light receiving unit. Then, based on the reflected light obtained from the infrared light receiver, the center of the pupil of the eyeball is extracted to detect the user's line of sight. When the direction of the user's line of sight detected by the line-of-sight detection unit is constant for a predetermined time (for example, 3 seconds), the
これにより、使用者は、翻訳したい文字列を見つめるといった動作をするだけで、その訳語を確認することができるようになり、コントロールユニット300を操作する必要がなくなる。
As a result, the user can confirm the translated word only by looking at the character string to be translated, and does not need to operate the
また、静止画像データ51に対する画像処理は、ステップS17における文字抽出の後に行うこととしたが、例えば、ステップS15においてパララックス補正を行った後の静止画像データ51に前処理として画像処理を行うこととしてもよい。これにより、ステップS17〜S21で繰り返し行う文字抽出において、最初の文字抽出が成功する確率を高めることができる。
Further, the image processing for the
また、画像処理部30、言語処理部40、記憶部50及び翻訳エンジン60を、コントロールユニット300内に設けることとしたが、これら全ての機能部を小型化して表示ユニット250内に設けることとしてもよいし、操作入力部20を表示ユニット250に一体的に形成して、翻訳装置1の操作をHMD200上で行えるようにしてもよい。
In addition, the
また、翻訳エンジン60を翻訳装置1が内蔵することとしたが、例えば、インターネット回線上のサーバに翻訳エンジン60を設けることとしてもよい。この場合、翻訳装置1は、インターネット回線との通信接続を行う通信部を更に備え、当該通信部を介して翻訳エンジン60とのデータ通信を行う。翻訳エンジン60は、上述したように翻訳DBを備えて構成され、その翻訳DBのデータ量は膨大なものである。このように、翻訳エンジン60を翻訳装置1と別体で設けることにより、翻訳装置1の処理性能を向上させることができる。
In addition, the
また、サーバに設けられた翻訳エンジン60は、抽出文字列55に関する各種情報をインターネット上で検索して、その検索結果を言語処理部40に返すこととしてもよい。例えば、抽出文字列55が観光地名であった場合は、その観光地名でインターネット上を検索し、その観光地名に関する情報を言語処理部40に返す。言語処理部40は、翻訳エンジン60から返された観光地名に関する情報を表示部70に表示させる。このため、使用者は、抽出文字列55に関する様々な情報を確認することができる。また、サーバ上の翻訳エンジン60が記憶する内容は、最新のものに更新可能であるため、常に最新の情報を翻訳装置1に表示させることができる。
In addition, the
また、翻訳エンジン60に言語処理部40から伝送された抽出文字列55と言語種別57に基づいて訳語の検索を行うこととしたが、例えば、使用者により予め設定されたキーワードを、その訳語の検索に利用することとしてもよい。
In addition, the translation word is searched based on the extracted
例えば、翻訳DBに記憶された訳語に対してA〜Cといった難易度が対応付けられているとする。そして、使用者の文字入力キーの操作により「難易度C」というキーワードが入力された場合は、検索した訳語のうち、難易度がCのものを選択して言語処理部40に出力することとしてもよい。また、キーワードとして、「日常会話」が入力された場合は、日常会話で使用される頻度の高いものを検索して出力することとしてもよい。これにより、言語処理部40に入力される訳語の数を減らし、言語処理部40における訳語の選択の処理負荷を低減することができる。
For example, assume that difficulty levels such as A to C are associated with the translation words stored in the translation DB. When the keyword “difficulty level C” is input by the user's operation of the character input key, the search word having the difficulty level C is selected and output to the
また、翻訳エンジン60は、単語の抽出文字列55の訳語を検索することとしたが、抽出文字列55が文章であった場合には、言語種別57の文法規則に則って翻訳することとしてもよい。尚、この文法規則に則った翻訳の手法は、公知技術であるためその説明は省略する。
In addition, the
また、言語処理部40が、抽出文字列55の文字種や文字配列から言語種別57を判定することとしたが、GPS衛星から送信されるGPS信号を受信して、翻訳装置1の現在位置を測位する測位モジュールを設けて、その現在位置に基づいて言語種別57を判定雨することとしてもよい。より詳しくは、言語処理部40が、測位モジュールにより測位された現在位置に基づいて翻訳装置1が存在する国を判定する。
In addition, the
そして、国名(例えば、ドイツ)と、当該国で使用されている言語種別(例えば、独語)とを対応付けて予め記憶した使用言語テーブルから、翻訳装置1が存在する国に対応する言語種別を読み出す。次いで、その読み出した言語種別の翻訳DBを選択して、当該翻訳DBに基づいて抽出文字列55の訳語を取得する。このように、測位モジュールにより測位された現在位置に基づいて言語種別57を判定することで、例えば、アルファベットを表記文字とした言語種別である英語、独語、仏語の中から、簡単に言語種別を選択・決定することができる。
Then, the language type corresponding to the country in which the
また、ステップS9の動画撮影に先だって、撮影部10のズーム率や露出量等の撮影条件を予め設定することとしてもよい。例えば、外光の強い中、翻訳装置1を使用する場合は、操作入力部20(設定手段)によって予め露出量を低く設定しておく。また、屋外で翻訳装置1を使用する場合は、ズーム率を高く設定する。このように、動画撮影の前に、撮影条件を適切に設定することで、適切な大きさの文字列を含み、文字列の輪郭が明瞭な静止画像データ51が得られるようになり、文字認識率の向上が図れる。
Prior to the moving image shooting in step S9, shooting conditions such as the zoom rate and exposure amount of the
1 翻訳装置
10 撮影部
20 操作入力部
30 画像処理部
40 言語処理部
50 記憶部
51 静止画像データ
53 測定距離
55 抽出文字列
57 言語種別
59 訳語
60 翻訳エンジン
70 表示部
220 接眼光学系
210R レンズ
214 プリズム
250 表示ユニット
252 光源
254 集光レンズ
256 表示パネル
260 カメラユニット
290 ケーブル
300 コントロールユニット
310 操作スイッチ
E 眼
DESCRIPTION OF
Claims (10)
前記撮影手段により生成された撮影画像の文字認識を行う文字認識手段と、
前記文字認識手段により文字認識された文字列を翻訳して、当該文字列の訳語を取得する翻訳手段と、
前記翻訳手段により取得された訳語の光学像を投射する映像投射手段と、
ホログラフィック光学素子を含む透過型の素材で形成され、前記映像投射手段により投射された光学像を当該ホログラフィック光学素子の光学効果によって使用者の眼に導く接眼光学系と、
を備えることを特徴とする翻訳装置。 Photographing means for photographing a subject and generating a photographed image;
Character recognition means for performing character recognition of a photographed image generated by the photographing means;
A translation means for translating the character string recognized by the character recognition means and obtaining a translation of the character string;
Video projection means for projecting an optical image of the translation acquired by the translation means;
An eyepiece optical system that is formed of a transmission-type material including a holographic optical element and guides an optical image projected by the image projection means to the user's eye by the optical effect of the holographic optical element;
A translation apparatus comprising:
前記推測手段により推測されたズレに基づいて、前記撮影画像の中心位置を前記使用者の視野の中心位置に合わせる補正手段と、
を更に備えることを特徴とする請求項1又は2に記載の翻訳装置。 An estimation means for estimating a deviation between the center position of the user's visual field and the center position of the captured image;
Based on the deviation estimated by the estimation means, a correction means for aligning the center position of the captured image with the center position of the visual field of the user;
The translation apparatus according to claim 1, further comprising:
前記補正手段は、前記使用者の視野の中心位置と前記撮影手段の中心位置との間の距離と、前記測定手段により測定された距離とに基づいて、前記撮影画像の中心位置を当該使用者の視野の中心位置に合わせることを特徴とする請求項1〜3の何れか一項に記載の翻訳装置。 The estimation means includes a measurement means for measuring a distance between the subject and the photographing means,
The correcting means determines the center position of the photographed image based on the distance between the center position of the user's visual field and the center position of the photographing means and the distance measured by the measuring means. The translation apparatus according to claim 1, wherein the translation apparatus is matched with a center position of the field of view.
前記撮影手段は、前記設定手段により設定された撮影条件に基づいて前記被写体の撮影を行うことを特徴とする請求項1〜4の何れか一項に記載の翻訳装置。 It further comprises setting means for setting shooting conditions,
The translation apparatus according to claim 1, wherein the photographing unit photographs the subject based on a photographing condition set by the setting unit.
前記文字認識手段は、前記画像処理手段により画像処理が施された撮影画像の文字認識を行うことを特徴とする請求項1〜6の何れか一項に記載の翻訳装置。 Image processing means for performing image processing on the photographed image generated by the photographing means;
The translation apparatus according to claim 1, wherein the character recognizing unit performs character recognition of a captured image subjected to image processing by the image processing unit.
前記複数訳語取得手段により取得された複数の訳語の中から訳語選択条件を満たす訳語を選択する訳語選択手段を更に備え、
前記映像投射手段は、前記訳語選択手段により選択された訳語の光学像を投射することを特徴とする請求項1〜8の何れか一項に記載の翻訳装置。 The translating means includes a plurality of translation acquisition means for acquiring a plurality of translations of the character-recognized character string;
A translation selection means for selecting a translation satisfying a translation selection condition from a plurality of translations acquired by the plurality of translation acquisition means;
The translation apparatus according to claim 1, wherein the video projecting unit projects an optical image of the translated word selected by the translated word selecting unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005127784A JP2006309314A (en) | 2005-04-26 | 2005-04-26 | Translation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005127784A JP2006309314A (en) | 2005-04-26 | 2005-04-26 | Translation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006309314A true JP2006309314A (en) | 2006-11-09 |
Family
ID=37476167
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005127784A Pending JP2006309314A (en) | 2005-04-26 | 2005-04-26 | Translation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006309314A (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009258340A (en) * | 2008-04-16 | 2009-11-05 | Yahoo Japan Corp | Personal digital assistant, method, program and system for superimposing and displaying corresponding alternative object instead of original object to be viewed |
JP2011118531A (en) * | 2009-12-01 | 2011-06-16 | Brother Industries Ltd | Head-mounted display |
WO2011077648A1 (en) * | 2009-12-25 | 2011-06-30 | 株式会社スクウェア・エニックス | Real-time camera dictionary |
JP2011138473A (en) * | 2010-06-08 | 2011-07-14 | Square Enix Co Ltd | Real-time camera dictionary |
JP2014093050A (en) * | 2012-11-06 | 2014-05-19 | Sony Corp | Image display device, image display method, and computer program |
JP2014095903A (en) * | 2013-11-20 | 2014-05-22 | Sony Corp | Image display method of head-mounted display |
JP2015011494A (en) * | 2013-06-28 | 2015-01-19 | オリンパス株式会社 | Information presentation system and method for controlling information presentation system |
CN104714302A (en) * | 2013-12-17 | 2015-06-17 | 精工爱普生株式会社 | Head mounted display device |
US9311752B2 (en) | 2010-04-08 | 2016-04-12 | Sony Corporation | Image displaying method for a head-mounted type display unit |
JP2016109710A (en) * | 2014-12-02 | 2016-06-20 | セイコーエプソン株式会社 | Head-mounted display system, control method of head-mounted display system, and computer program |
WO2016114130A1 (en) * | 2015-01-13 | 2016-07-21 | Ricoh Company, Ltd. | Head-mounted display apparatus, and display method |
JP2018018089A (en) * | 2012-06-18 | 2018-02-01 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2019067106A (en) * | 2017-09-29 | 2019-04-25 | 株式会社Spectee | Image processing device, image processing method, and program |
US10339896B2 (en) | 2015-01-13 | 2019-07-02 | Ricoh Company, Ltd. | Head-mounted display apparatus, and display method |
WO2020170758A1 (en) * | 2019-02-18 | 2020-08-27 | 株式会社ロゼッタ | Recognition device, wearable character recognition device, recognition method, and recognition program |
JP2021051308A (en) * | 2013-03-15 | 2021-04-01 | パーセプト テクノロジーズ, インコーポレイテッドPercept Technologies, Inc. | Improved optical and perceptual digital eyewear |
-
2005
- 2005-04-26 JP JP2005127784A patent/JP2006309314A/en active Pending
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009258340A (en) * | 2008-04-16 | 2009-11-05 | Yahoo Japan Corp | Personal digital assistant, method, program and system for superimposing and displaying corresponding alternative object instead of original object to be viewed |
JP2011118531A (en) * | 2009-12-01 | 2011-06-16 | Brother Industries Ltd | Head-mounted display |
WO2011077648A1 (en) * | 2009-12-25 | 2011-06-30 | 株式会社スクウェア・エニックス | Real-time camera dictionary |
JP2011134144A (en) * | 2009-12-25 | 2011-07-07 | Square Enix Co Ltd | Real-time camera dictionary |
US8903131B2 (en) | 2009-12-25 | 2014-12-02 | Kabushiki Kaisha Square Enix | Real-time camera dictionary |
US9311752B2 (en) | 2010-04-08 | 2016-04-12 | Sony Corporation | Image displaying method for a head-mounted type display unit |
JP2011138473A (en) * | 2010-06-08 | 2011-07-14 | Square Enix Co Ltd | Real-time camera dictionary |
JP2018018089A (en) * | 2012-06-18 | 2018-02-01 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2014093050A (en) * | 2012-11-06 | 2014-05-19 | Sony Corp | Image display device, image display method, and computer program |
US10228895B2 (en) | 2012-11-06 | 2019-03-12 | Sony Corporation | Image display device, image display method, and computer program |
JP2021051308A (en) * | 2013-03-15 | 2021-04-01 | パーセプト テクノロジーズ, インコーポレイテッドPercept Technologies, Inc. | Improved optical and perceptual digital eyewear |
JP2015011494A (en) * | 2013-06-28 | 2015-01-19 | オリンパス株式会社 | Information presentation system and method for controlling information presentation system |
US9779549B2 (en) | 2013-06-28 | 2017-10-03 | Olympus Corporation | Information presentation system and method for controlling information presentation system |
JP2014095903A (en) * | 2013-11-20 | 2014-05-22 | Sony Corp | Image display method of head-mounted display |
CN104714302A (en) * | 2013-12-17 | 2015-06-17 | 精工爱普生株式会社 | Head mounted display device |
JP2015119237A (en) * | 2013-12-17 | 2015-06-25 | セイコーエプソン株式会社 | Head mounted type display device |
JP2016109710A (en) * | 2014-12-02 | 2016-06-20 | セイコーエプソン株式会社 | Head-mounted display system, control method of head-mounted display system, and computer program |
WO2016114130A1 (en) * | 2015-01-13 | 2016-07-21 | Ricoh Company, Ltd. | Head-mounted display apparatus, and display method |
US10339896B2 (en) | 2015-01-13 | 2019-07-02 | Ricoh Company, Ltd. | Head-mounted display apparatus, and display method |
JP2019067106A (en) * | 2017-09-29 | 2019-04-25 | 株式会社Spectee | Image processing device, image processing method, and program |
WO2020170758A1 (en) * | 2019-02-18 | 2020-08-27 | 株式会社ロゼッタ | Recognition device, wearable character recognition device, recognition method, and recognition program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006309314A (en) | Translation device | |
US9438806B2 (en) | Photographing apparatus and photographing method for displaying combined avatar and map information related to a subject | |
US9711114B1 (en) | Display apparatus and method of displaying using projectors | |
US9711072B1 (en) | Display apparatus and method of displaying using focus and context displays | |
US9596390B2 (en) | Imaging apparatus, imaging method, and computer-readable recording medium | |
KR20190051028A (en) | Sensory eyewear | |
WO2016203654A1 (en) | Head mounted display device and method for providing visual aid using same | |
US20100194880A1 (en) | Image photographing apparatus, method of controlling image photographing apparatus and control program | |
EP2911371B1 (en) | Portable terminal | |
KR20170064535A (en) | Head display device adated to the environment | |
WO2005117304A1 (en) | Information reception device, information transmission system, and information reception method | |
JP2008096868A (en) | Imaging display device, and imaging display method | |
CN108024058B (en) | Image blurs processing method, device, mobile terminal and storage medium | |
JP5193404B2 (en) | Information equipment | |
CN103747183A (en) | Mobile phone shooting focusing method | |
CN109643157B (en) | Apparatus and method for augmented reality | |
JP4885792B2 (en) | Guide device and guide method | |
US9990037B1 (en) | Display apparatus and method using portable electronic device | |
JP4931693B2 (en) | Information equipment | |
JP2012079330A (en) | Guide apparatus and guide method | |
JP5540051B2 (en) | Camera with guide device and method of shooting with guide | |
JP2007174218A (en) | Display device | |
JP5529303B2 (en) | Information equipment | |
JP2011109462A (en) | Image transmission device, imaging device, and remote work support system | |
JP5901687B2 (en) | Image capturing apparatus and method for controlling image capturing apparatus |