WO2012050029A1 - 電子機器及びその表示言語判定方法 - Google Patents

電子機器及びその表示言語判定方法 Download PDF

Info

Publication number
WO2012050029A1
WO2012050029A1 PCT/JP2011/073002 JP2011073002W WO2012050029A1 WO 2012050029 A1 WO2012050029 A1 WO 2012050029A1 JP 2011073002 W JP2011073002 W JP 2011073002W WO 2012050029 A1 WO2012050029 A1 WO 2012050029A1
Authority
WO
WIPO (PCT)
Prior art keywords
language
viewer
output
information
data
Prior art date
Application number
PCT/JP2011/073002
Other languages
English (en)
French (fr)
Inventor
和広 泊野
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2012050029A1 publication Critical patent/WO2012050029A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/263Language identification
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Definitions

  • the present invention relates to an electronic device and a display language determination method thereof, and more particularly to an electronic device having a function of switching a language displayed on a screen and a display language determination method thereof.
  • Patent Document 1 has character data corresponding to a plurality of languages (Japanese, English, German, etc.) in units of words in a storage unit built in the display device in advance, A display device is disclosed in which priority for display is assigned, and the language is sequentially switched according to the preset priority by the operation of the language switching button and displayed on the screen.
  • languages Japanese, English, German, etc.
  • Patent Document 2 discloses an information reproducing apparatus in which a user selects and reproduces audio information in a user's preferred language from a video disc in which audio information in a plurality of languages is recorded together with video information. .
  • the present invention has been made in view of the above points, and it is an object of the present invention to provide an electronic device that can automatically switch to a language suitable for a viewer and a display language determination method thereof without selection by the viewer.
  • the electronic device of the present invention has video input means for inputting video information of the viewer in front of the screen, and the viewer's face, clothes and possession obtained from the input video information.
  • Image analysis means for extracting feature information of at least one type from an object, and generating feature extraction data quantified according to each of a plurality of features included in the feature information for each type of feature information extracted And feature extraction data generated by the video analysis means, and language output information including a character string displayed in each of a plurality of preset languages and displayed on the screen
  • feature extraction data Storage means for storing language availability data indicating the degree of availability of each of a plurality of languages for each of the plurality of features, and a feature stored in the storage means Based on the values of the plurality of features of the extracted data and the language availability data, language determination means for determining the language most likely to be used by the viewer, and a plurality of languages stored in the storage means It comprises output control means for selecting and outputting language output information in the same language as the language determined by the language determination means
  • the electronic device allows the storage unit to notify the viewer when the output result of the language output information of the language selected by the output control unit can be understood by the viewer.
  • a confirmation message for performing a predetermined movement is further stored for each of a plurality of languages, and a confirmation message in the same language as the language determined by the language determination unit is read from the storage unit and output by the output control unit. Then, based on the video analysis result indicating whether or not the viewer's movement in the video information input from the video input means is a predetermined movement, it is determined that the output result of the language output information cannot be understood by the viewer.
  • the output control means switches to language output information in the same language as the language determined by the language determination means as the language that the viewer may use next And further comprising a correctness determination and correction means for force.
  • a display language determination method for an electronic device includes a video input step for inputting video information of a viewer in front of the screen, and a viewer's face obtained from the input video information. Extracting at least one type of feature information from clothes and possessed items, and extracting each type of feature information numerically according to each of a plurality of features included in the feature information
  • a video analysis step for generating data a storage step for storing the feature extraction data generated by the video analysis step in the storage means, a plurality of feature values of the feature extraction data stored in the storage means, and a storage means in advance Viewers based on language availability data indicating the degree of availability of each of a plurality of languages for each of a plurality of features of stored feature extraction data
  • the language output step including the language determination step for determining the language most likely to be used and each of a plurality of languages stored in the storage means, and including at least a character string displayed on the screen,
  • the display language determination method for an electronic device is such that when the storage unit can understand the output result of the language output information of the language selected by the output control step, A confirmation message for causing the viewer to perform a predetermined movement is further stored for each of the plurality of languages, and a confirmation message in the same language as the language determined in the language determination step is read out from the storage means and output. Correct / incorrect judgment that determines whether the output result of language output information can be understood by the viewer based on the video analysis result of whether or not the viewer's movement in the video information input thereafter is a predetermined movement If it is determined that the output result of the language output information cannot be understood by the viewer through the step and the correctness determination step, the viewer may use it next. Characterized in that the language output information in the same language as the language determined in the language decision step from the storage unit further comprises a correction step of switching output as words.
  • FIG. 1 It is a block diagram of the electronic device which concerns on the 1st Embodiment of this invention. It is a figure for demonstrating an example of the feature extraction data based on the 1st Embodiment of this invention. It is a figure for demonstrating the other example of the feature extraction data which concerns on the 1st Embodiment of this invention. It is a figure which shows an example of the language availability data corresponding to the feature extraction data of the skin color which concerns on the 1st Embodiment of this invention. It is a figure which shows an example of the language availability data corresponding to the feature extraction data of the color of the eye (iris) which concerns on the 1st Embodiment of this invention. It is a flowchart for operation
  • FIG. 1 is a block diagram of an electronic apparatus according to the first embodiment of the present invention.
  • an electronic device 10 according to the present embodiment constitutes a digital signage monitor (hereinafter simply referred to as a monitor), and the video input unit 11 for inputting video information and the entire monitor are integrated.
  • a control unit 12 for controlling, a storage device 13 for storing various data, a display unit 14 for displaying images and characters on a monitor screen, and an audio output unit 15 including a speaker for outputting audio and the like. .
  • the video input unit 11 has a function of inputting video information obtained by imaging a viewer or the like in front of the monitor screen with a camera or the like.
  • the control unit 12 includes a video analysis unit 121, a language determination unit 122, and a display / audio control unit 123.
  • the control unit 12 analyzes video information input from the video input unit 11, and can be used by viewers in the video information. The language having the highest characteristic is determined, and control is performed to switch the display by the display unit 14 and the audio output by the audio output unit 15 to the language.
  • the display / audio control unit 123 constitutes the output control means of the present invention. Details of the control contents of the control unit 12 will be described later.
  • the storage device 13 is a memory for storing various types of data.
  • the language availability data 132 used for determining the language used by the viewer and each language supported in advance by the electronic device 10 (in the present embodiment). (At least Japanese and English) character strings and speech-related language data 133 are stored.
  • the storage device 13 also stores viewer feature extraction data 131 obtained by the control unit 12.
  • control unit 12 Next, the operation of the control unit 12 will be described in detail.
  • the video analysis unit 121 extracts at least one type of feature information from the viewer's face or the like obtained from the video information input from the video input unit 11, and includes each extracted type of feature information in the feature information.
  • the feature extraction data 131 quantified according to each of the plurality of features is generated and stored in the storage device 13. In the present embodiment, description will be given taking the viewer's skin color and eye (iris) color as examples of the characteristic information.
  • FIG. 2 shows skin color feature extraction data.
  • face recognition technology used in digital cameras, video cameras, and the like is common (see, for example, Japanese Patent Laid-Open No. 2000-105819).
  • the video analysis unit 121 detects a face area in the input video information by using this known face recognition technique, further obtains average data of the luminance component of each pixel color of the skin color portion in the face area, and extracts this feature
  • the data 131 is stored in the storage device 13.
  • the skin color feature extraction data shown in FIG. 2 is quantified with “0” as the lowest brightness value and “255” as the highest brightness value according to a plurality of brightness values included in the skin color. Has been.
  • FIG. 3 shows feature extraction data of eye (iris) color.
  • a technique for detecting eyes (iris) from an image is already known (for example, Japanese Patent Application Laid-Open No. 2004-326780).
  • the video analysis unit 121 detects the position of the viewer's eye (iris) from the video information using this known eye (iris) detection technique, and further samples the color of the position to detect the eye ( Iris color is extracted.
  • the feature extraction data of eye (iris) colors shown in FIG. 3 are the colors of eyes (iris): brown (dark brown), hazel (light brown), amber (dark blue), green (green), gray (gray) ), 7 types of color systems including 6 types of blue (blue) and others that do not belong to any of them.
  • the video analysis unit 121 determines which color of the viewer's eyes (iris) extracted from the video information is close to the above seven types of color systems, and stores numerical values corresponding to the determined color systems. Is stored as feature extraction data 131.
  • the language availability data 132 is data indicating the degree of availability of each of a plurality of preset languages for each of the plurality of features of the feature extraction data 131.
  • FIG. 4 shows an example of language availability data corresponding to the feature extraction data of skin color.
  • the skin color feature data is digitized in a range from “0” having the lowest luminance, which is the feature of the skin color feature data, to “255” having the highest luminance.
  • the skin color feature extraction data is “0”
  • a viewer having the skin color is 40% likely to use the language 1, and the viewer uses the language 2 as well.
  • the probability is 15%, the possibility of using language 3 is 3%, the possibility of using language 4 is 6%, and the possibility of using language 5 is 3%.
  • the skin color feature extraction data is “3”
  • the usability data of FIG. Therefore, the possibility that the viewer uses English is 31%, and the possibility that the viewer uses Japanese is 23%.
  • the skin color language availability data stored in the storage device 13 in advance can be created by actually investigating the skin color of people around the world and the language used by that person.
  • FIG. 5 shows an example of language availability data corresponding to feature extraction data of eye (iris) color.
  • the eye (iris) color feature extraction data is digitized into seven types of data (1 to 7) according to the color system that is the feature of the eye (iris) color feature extraction data. Yes.
  • the feature extraction data value “1” of the eye (iris) color the eye color is brown
  • Possibility of using language 2 is 39%
  • possibility of using language 3 is 36%
  • possibility of using language 4 is 15%
  • possibility of using language 5 is 11% ing.
  • the electronic device 10 of the present embodiment supports English as the language 1 and Japanese as the language 2
  • the value of the feature extraction data of the eye (iris) color is “5” (gray).
  • the possibility that the viewer uses English is 15% and the possibility that Japanese is used is 17% from the language availability data shown in FIG.
  • the language use possibility data of the eye (iris) color stored in the storage device 13 in advance is obtained by actually investigating the colors of the eyes (iris) of people around the world and the language used by the person. Can be created.
  • the language determination unit 122 assigns the initial value “1” to the value of the variable n, and assigns the initial value “0” to the b arrays P [1] to P [b] (step S1).
  • the array P [m] stores a numerical value indicating the availability of the mth language.
  • the language determination unit 122 takes in the feature extraction data 131 of the nth feature (step S2), assigns the initial value “1” to the variable m (step S3), and then uses the mth language. Is added to the array P [m] (step S4). That is, the value of the mth language of the language availability data corresponding to the value of the feature extraction data of the nth feature is added to the value of the array P [m].
  • the language determination unit 122 determines whether or not the value of the variable m is “b” that is the last value (step S5). If the value is not “b”, the value of the variable m is incremented by “1”. (Step S6), the process returns to Step S4. Similarly, the language determination unit 122 repeats the operations of steps S4 to S6 until it is determined in step S5 that the value of the variable m is “b” which is the last value.
  • P [1] and P [2 are assumed to be based on the language possibility data corresponding to the feature extraction data of the eye (iris) color shown in FIG. ] Values are as follows.
  • the language P array P [1] is 31% when the skin color feature data value is “3” and 15% when the eye (iris) color feature extraction data value is “5”. The sum of the two is “46”. Further, the language P array P [2] is 23% when the skin color feature data value is “3” and 17% when the eye (iris) color feature extraction data value is “5”. The sum of both is “40”.
  • the language determination unit 122 is P [1]> P [2] in the above example. Therefore, the language that can be used in step S9 is English. Is determined.
  • the display / voice control unit 123 reads the language data (character string data or voice data) 133 in the language indicated by the language determination result by the language determination unit 122 from the storage device 13 and supplies the character string data to the display unit 14 for determination.
  • the audio data is supplied to the audio output unit 15 to output a predetermined audio content by the audio of the determined language.
  • the viewer A located in front of the screen of the monitor 1 which is the electronic device 10 of the present embodiment is captured by the camera 2 constituting the video input unit 11.
  • the monitor 1 electronic device 10
  • the display unit 14 Various information such as news and weather forecast is displayed on the Japanese display 4 on the screen, and Japanese speech 31 is output from the speaker which is the speech output unit 15.
  • the viewer B located in front of the screen of the monitor 1 which is the electronic device 10 of the present embodiment is obtained by imaging with the camera 2 constituting the video input unit 11.
  • the monitor 1 electronic device 10
  • the screen of the display unit 14 In addition to the English display 6, the English voice 32 is output from the speaker which is the voice output unit 15.
  • feature extraction data indicating the viewer's characteristics is generated from the viewer's video information, and the feature extraction data and the storage device 13 are stored in advance.
  • the language availability data 132 indicating the language availability of each feature placed
  • the language most likely to be used by the viewer is determined (estimated), and the language data of the language is displayed on the screen and Since the audio output is performed, the electronic device 10 can automatically switch to the language display and audio output most likely to be the language used by the viewer without the viewer performing an operation for language selection. it can.
  • FIG. 9 shows a block diagram of an electronic apparatus according to the second embodiment of the present invention.
  • an electronic device 20 according to the present embodiment constitutes a monitor, and stores a video input unit 11 for inputting video information, a control unit 21 for overall control of the entire monitor, and various data.
  • the storage device 13 includes a display unit 14 that displays images and characters on a monitor screen, and an audio output unit 15 including a speaker that outputs audio.
  • the language data 135 stored in the storage device 13 is language data created in each of a plurality of languages supported by the electronic device 20, and a character string or voice for confirming whether or not the viewer can confirm. Contains messages.
  • the control unit 21 includes a video analysis unit 211, a language determination unit 212, a correct / incorrect determination / correction unit 213, and a display / audio control unit 214. A specific operation of the control unit 21 of the present embodiment, which is different from the control unit 12 of FIG. 1, will be described below.
  • the language determination result by the control unit 12 of the electronic device 10 shown in FIG. 1 is merely an estimation and is not reliable.
  • the electronic device 20 of the present embodiment is provided with a correct / incorrect determination / correction unit 213 in the control unit 21 so that whether or not the language determination result is correct (that is, the viewer displays the display character string). Or whether or not the content of the output voice can be understood), and if the language determination result is incorrect, the language is switched to the next most usable language.
  • the language determination unit 212 stores in advance the feature extraction data 131 of the skin color and eye (iris) color extracted by the video analysis unit 211 and stored in the storage device 13.
  • the language determination result of the language most likely to be used by the viewer among the languages supported by the electronic device 20 is referred to the language availability data 132 stored in the device 13. Output.
  • the display / voice control unit 214 reads the language data (character string data, voice data, and message data) 135 of the language indicated by the language determination result by the language determination unit 212 from the storage device 13, and the digital signage monitor's original purpose Are output to the display unit 14 and the audio output unit 15. Subsequently, the display / voice control unit 214 supplies the message data of the character string from the language data of the language indicated by the language determination result by the language determination unit 212 to the display unit 14 and displays the message data. The sound is output to the sound output unit 15 and output.
  • the above message is a message for confirming whether or not the viewer can understand the language
  • the language of the original character string (including images) of the digital signage monitor displayed on the monitor and the voice output unit 15 is a message for requesting a predetermined motion (for example, raising the right hand) to the viewer when the language output by voice from 15 can be understood.
  • the electronic device 20 outputs a character string (including an image) or sound intended for the digital signage monitor in a language most likely to be used by the viewer by the language determination unit 212, and then performs the above confirmation. Display the message on the monitor screen or output the sound.
  • the electronic device 20 displays the display unit as indicated by reference numeral 7 in FIG.
  • a confirmation message “Please raise your right hand if you can understand this language” is displayed to the viewer C in Japanese on the screen of 14, and a speaker is provided as indicated by reference numeral 33 in FIG. 10.
  • the voice output unit 15 outputs the confirmation message in Japanese.
  • the electronic device 20 displays the display unit as indicated by reference numeral 8 in FIG.
  • the English confirmation message having the same meaning as described above is displayed to the viewer D on the screen 14 in English, and the confirmation is performed by the audio output unit 15 comprising a speaker as indicated by reference numeral 34 in FIG. Messages are output in English.
  • the video analysis unit 211 determines whether the viewer C or D has raised his right hand by analyzing the video information within a predetermined time set in advance by the viewer C or D from the video input unit 11. For example, the video analysis unit 211 determines whether the viewer C or D has raised his right hand slightly above the viewer's face (the face area detected in the input video information from the video input unit 11). It is sufficient to determine whether or not there is a palm at a position slightly on the left of the top of.
  • the known skin color described in, for example, Japanese Patent Application Laid-Open No. 2000-105819 and Japanese Patent Application Laid-Open No. 2006-318375 is similar to the determination of the face region. This can be realized by using this determination method.
  • the right / wrong judgment / correction unit 213 confirms that the viewer C or D is displayed on the screen when the video analysis result of the video analysis unit 211 indicates that the viewer C or D has raised his right hand. It is determined that the language of the message for use (or the output voice) is understood. On the other hand, when the video analysis result of the video analysis unit 211 indicates that the viewer C or D does not raise his right hand, the confirmation message (or the viewer C or D displayed on the screen) (or It is determined that the language of the output voice is not understood.
  • the correctness / correction determination / correction unit 213 determines the language that has been determined to be likely to be used next to the language currently displayed (or output by voice) by the language determination unit 212.
  • Language data (character string data, voice data and message data) 135 is read from the storage device 13 and supplied to the display / voice control unit 214.
  • the display / speech control unit 214 obtains character string data originally intended for the digital signage monitor from language data (character string data, voice data, and message data) 135 of a language that is determined to be likely to be used next.
  • the display unit 14 switches and displays the voice data in the language from the voice output unit 15.
  • the display / voice control unit 214 supplies the message data of the character string from the language data of the language determined to be highly likely to be used next to the display unit 14 to display the message data.
  • Message data is supplied to the voice output unit 15 for voice output.
  • the right / wrong judgment / correction unit 213 again confirms the viewer C or D displayed on the screen based on the analysis result of the motion of the viewer C or D from the video analysis unit 211 (or is output). Judgment whether or not the language of (speech) is understood. Thereafter, the above process is repeated until the language is understood by the viewer (until the viewer raises his right hand).
  • the correctness determination / correction unit 213 uses the currently displayed language (or audio output) based on the video analysis result from the video analysis unit 211 at that time. A language determination result indicating that the language is most likely is output from the language determination unit 212, and the language data of the language is output by the display / voice control unit 214.
  • the present invention is not limited to the above embodiment, and for example, it is not necessary to perform audio output for the purpose of digital signage.
  • the confirmation message may be displayed on the screen or output as a sound.
  • the present invention can be used not only as a digital signage system but also as an information input device for a mobile phone or a personal computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 映像解析部121は、映像入力部11からの映像情報から得られる視聴者の顔などから少なくとも一つの種類の特徴情報を抽出し、抽出した各種類の特徴情報毎にその特徴情報に含まれる複数の特徴のそれぞれに応じて数値化した特徴抽出データ131を生成して記憶装置13に記憶する。言語判定部122は、特徴抽出データ131の複数の特徴の値と、特徴抽出データの複数の特徴のそれぞれについて複数の言語のそれぞれの使用可能性の度合いを示す言語使用可能性データ132とに基づいて、視聴者が最も使用する可能性のある言語を判定する。表示・音声制御部123は、言語データ133の中から言語判定部122が判定した最も使用する可能性がある言語の言語データを表示部14に表示し、音声出力部15により音声出力する。

Description

電子機器及びその表示言語判定方法
 本発明は電子機器及びその表示言語判定方法に係り、特に画面に表示する言語の切換機能を有する電子機器及びその表示言語判定方法に関する。
 現在普及している、テレビジョン受像機やモニタ等の画面に画像等を表示する電子機器の多くは、視聴者が画面に表示されるメニューを見ながら、リモートコントローラで操作し、電子機器の各種設定を行ったり、電子機器をコントロールすることができる。視聴者が日本語を使用する日本人の場合は、画面に表示されるメニューの言語が日本語で表示されれば問題ないが、日本国内に住んでいる日本語の判らない外国人にとっては、日本語のメニューでは、表示内容が理解できず、操作できない。
 このような問題を解決するため、画面に画像等を表示する多くの電子機器では、その機器内に複数の言語データを持ち、視聴者がこれらの言語の中から好みの言語を選択し、選択された言語でメニューを表示する言語切換機能を有している。
 例えば、特許文献1には、表示装置に内蔵された記憶部に、予め複数種の言語(日本語、英語、ドイツ語等)に対応した文字データを単語単位で有し、各言語にはそれぞれ表示するための優先度が割り当てられ、言語切替えボタンの操作によって、予め設定された優先度に応じて順次言語を切替えて画面上に表示するようにした表示装置が開示されている。 
 また、デジタル放送やDVD(デジタル多用途ディスク)では、複数の言語の音声データを送出/記録することが可能であり、受信/再生機器側でこれらの言語の中から好みの言語を選んで音声出力させることができる。特許文献2には、複数の言語の音声情報が映像情報と共に記録されているビデオディスクからユーザーの好みの言語の音声情報をユーザーが選択部により選択して再生する情報再生装置が開示されている。
特開平9-127926号公報 特開平9-259507号公報
 上記の特許文献1記載の表示装置や特許文献2記載の情報再生装置では、表示される言語を切り替えるためには、視聴者あるいはユーザー自らが、言語切替えボタン、選択部、あるいはリモートコントローラやタッチパネル等を使って、自分に合った言語を選択しなければならない。
 しかしながら、通常、電子看板を表示するデジタルサイネージモニタでは、不特定多数の通行人への視聴を目的とし、盗難防止の理由等からリモートコントローラは用意されておらず、また言語切り替えボタンやタッチパネルは設けられていない。このため、通行人である視聴者が変わって、視聴者の使用言語が変わった場合は言語切り替えを行うべきであるが、特許文献1や特許文献2記載の発明を適用して言語切り替えのための操作ができない。また、仮にリモートコントローラを設置したとしても、切替方法が判らない、切り替えるのが面倒であるといった理由で、言語が判らないにもかかわらず、実際に切り替えが行われるケースが少ないのが現状である。
 本発明は以上の点に鑑みなされたもので、視聴者が選択することなしに、自動で視聴者に合った言語に切り替えできる電子機器及びその表示言語判定方法を提供することを目的とする。
 上記の目的を達成するため、本発明の電子機器は、画面前方の視聴者の映像情報を入力する映像入力手段と、入力される映像情報から得られる視聴者の顔、服装及び所持している物の中から少なくとも一つの種類の特徴情報を抽出し、抽出した各種類の特徴情報毎にその特徴情報に含まれる複数の特徴のそれぞれに応じて数値化した特徴抽出データを生成する映像解析手段と、映像解析手段により生成された特徴抽出データを記憶すると共に、予め設定した複数の言語のそれぞれで表され、かつ、少なくとも画面に表示される文字列を含む言語出力情報と、特徴抽出データの複数の特徴のそれぞれについて複数の言語のそれぞれの使用可能性の度合いを示す言語使用可能性データとを予め格納している記憶手段と、記憶手段に記憶された特徴抽出データの複数の特徴の値と、言語使用可能性データとに基づいて、視聴者が最も使用する可能性のある言語を判定する言語判定手段と、記憶手段に格納されている複数の言語の言語出力情報のうち、言語判定手段により判定された言語と同じ言語の言語出力情報を選択して出力し、少なくとも文字列を画面に表示させる出力制御手段とを有することを特徴とする。
 また、上記の目的を達成するため、本発明の電子機器は、上記記憶手段が、出力制御手段により選択された言語の言語出力情報の出力結果が視聴者により理解できるときに、その視聴者に対して所定の動きを行わせる確認メッセージを複数の言語のそれぞれについて更に記憶しており、上記言語判定手段により判定された言語と同じ言語の確認メッセージを記憶手段から読み出して出力制御手段により出力させ、その後に映像入力手段から入力される映像情報中の視聴者の動きが所定の動きであるか否かの映像解析結果に基づいて、言語出力情報の出力結果が視聴者により理解できないと判断したときは、出力制御手段により視聴者が次に使用する可能性のある言語として言語判定手段が判定した言語と同じ言語の言語出力情報に切り替え出力させる正誤判定・訂正手段を更に有することを特徴とする。
 また、上記の目的を達成するため、本発明の電子機器の表示言語判定方法は、画面前方の視聴者の映像情報を入力する映像入力ステップと、入力される映像情報から得られる視聴者の顔、服装及び所持している物の中から少なくとも一つの種類の特徴情報を抽出し、抽出した各種類の特徴情報毎にその特徴情報に含まれる複数の特徴のそれぞれに応じて数値化した特徴抽出データを生成する映像解析ステップと、映像解析ステップにより生成された特徴抽出データを記憶手段に記憶する記憶ステップと、記憶手段に記憶された特徴抽出データの複数の特徴の値と、記憶手段に予め格納されている特徴抽出データの複数の特徴のそれぞれについて複数の言語のそれぞれの使用可能性の度合いを示す言語使用可能性データとに基づいて、視聴者が最も使用する可能性のある言語を判定する言語判定ステップと、記憶手段に格納されている複数の言語のそれぞれで表され、かつ、少なくとも画面に表示される文字列を含む言語出力情報のうち、言語判定ステップにより判定された言語と同じ言語の言語出力情報を選択して少なくとも画面に文字列を表示させる出力制御ステップとを含むことを特徴とする。
 また、上記の目的を達成するため、本発明の電子機器の表示言語判定方法は、記憶手段は、出力制御ステップにより選択された言語の言語出力情報の出力結果が視聴者により理解できるときに、その視聴者に対して所定の動きを行わせる確認メッセージを複数の言語のそれぞれについて更に記憶しており、言語判定ステップにより判定された言語と同じ言語の確認メッセージを記憶手段から読み出して出力させ、その後に入力される映像情報中の視聴者の動きが所定の動きであるか否かの映像解析結果に基づいて、言語出力情報の出力結果が視聴者により理解できるか否かを判断する正誤判断ステップと、正誤判断ステップにより言語出力情報の出力結果が視聴者により理解できないと判断したときは、視聴者が次に使用する可能性のある言語として言語判定ステップで判定した言語と同じ言語の言語出力情報を記憶手段から読み出して切り替え出力する訂正ステップとを更に含むことを特徴とする。
 本発明によれば、視聴者が言語選択のための操作をすることなしに、視聴者の使用言語である可能性が最も高い言語の表示及び音声出力に自動で切り替えることができる。
本発明の第1の実施の形態に係る電子機器のブロック図である。 本発明の第1の実施の形態に係る特徴抽出データの一例を説明するための図である。 本発明の第1の実施の形態に係る特徴抽出データの他の例を説明するための図である。 本発明の第1の実施の形態に係る肌の色の特徴抽出データに対応した言語使用可能性データの一例を示す図である。 本発明の第1の実施の形態に係る目(虹彩)の色の特徴抽出データに対応した言語使用可能性データの一例を示す図である。 図1中の言語判定部の動作説明用フローチャートである。 図1の電子機器により日本語で画面表示及び音声出力を行う時の一例を示す図である。 図1の電子機器により英語で画面表示及び音声出力を行う時の一例を示す図である。 本発明の第2の実施の形態に係る電子機器のブロック図である。 図9の電子機器により日本語で確認用メッセージの画面表示及び音声出力を行う時の一例を示す図である。 図9の電子機器により英語で確認用メッセージの画面表示及び音声出力を行う時の一例を示す図である。
 次に、本発明の実施の形態について図面を参照して詳細に説明する。
 (第1の実施の形態)
 図1は、本発明の第1の実施の形態に係る電子機器のブロック図を示す。図1に示すように、本実施の形態の電子機器10は、デジタルサイネージモニタ(以下、単にモニタという)を構成しており、映像情報を入力する映像入力部11と、モニタ全体を統括的に制御する制御部12と、各種データを記憶する記憶装置13と、モニタの画面に画像や文字を表示する表示部14と、音声を出力するスピーカ等からなる音声出力部15とにより構成されている。
 映像入力部11は、カメラ等によりモニタの画面前方の視聴者等を撮像して得た映像情報を入力する機能を有する。制御部12は、映像解析部121、言語判定部122、及び表示・音声制御部123を有し、映像入力部11から入力された映像情報を解析し、映像情報中の視聴者が使用する可能性が最も高い言語を判定し、表示部14による表示及び音声出力部15による音声出力をその言語に切り替える制御を行う。表示・音声制御部123は、本発明の出力制御手段を構成している。この制御部12の制御内容の詳細については後述する。
 記憶装置13は、各種データを記憶するメモリであり、視聴者の使用言語を判定するために使われる言語使用可能性データ132と、予めこの電子機器10がサポートする各言語(本実施の形態では少なくとも日本語と英語)の文字列や音声に関する言語データ133とが格納されている。また、記憶装置13は、制御部12により得られた視聴者の特徴抽出データ131も記憶する。
 次に、制御部12の動作について詳細に説明する。
 映像解析部121は、映像入力部11から入力される映像情報から得られる視聴者の顔などから少なくとも一つの種類の特徴情報を抽出し、抽出した各種類の特徴情報毎にその特徴情報に含まれる複数の特徴のそれぞれに応じて数値化した特徴抽出データ131を生成して記憶装置13に記憶する。本実施の形態では、上記の特徴情報として視聴者の肌の色と目(虹彩)の色を例にとって説明する。
 図2、図3は、特徴抽出データの各例を示す。図2は、肌の色の特徴抽出データを示す。近年、デジタルカメラやビデオカメラ等で使われている顔認識技術は一般的である(例えば、特開2000-105819号公報参照)。映像解析部121は、この公知の顔認識技術により入力映像情報中の顔領域を検出し、更にその顔領域内の肌色部分の各画素の色の輝度成分の平均データを求め、これを特徴抽出データ131として記憶装置13に記憶する。図2に示す肌の色の特徴抽出データは、肌の色に含まれる複数の輝度の値に応じて、最も輝度の低い値を「0」、最も輝度の高い値を「255」として数値化されている。
 図3は、目(虹彩)の色の特徴抽出データを示す。画像中から目(虹彩)を検出する技術は既に知られている(例えば、特開2004-326780号公報)。映像解析部121は、この公知の目(虹彩)を検出する技術を用いて映像情報中から視聴者の目(虹彩)の位置を検出し、更にその位置の色をサンプリングすることで、目(虹彩)の色を抽出する。図3に示す目(虹彩)の色の特徴抽出データは、目(虹彩)の色であるブラウン(濃褐色)、ヘーゼル(淡褐色)、アンバー(琥珀色)、グリーン(緑色)、グレー(灰色)、ブルー(青色)の6種類と、いずれにも属さないその他を含めた7種類の色系統を割り当てられた数値で示す。
 映像解析部121は、映像情報から抽出した視聴者の目(虹彩)の色が、上記の7種類の色系統のいずれに近いかを決定し、決定した色系統に対応する数値を記憶装置13に特徴抽出データ131として記憶する。
 図1の言語判定部122は、映像解析部121により抽出されて記憶装置13内に格納された肌の色や目(虹彩)の色の特徴抽出データ131と、予め記憶装置13内に格納されている言語使用可能性データ132とを参照し、本電子機器10がサポートしているそれぞれの言語について、その言語を使用する可能性を求める。言語使用可能性データ132は、特徴抽出データ131の複数の特徴のそれぞれについて、予め設定した複数の言語のそれぞれの使用可能性の度合いを示すデータである。
 図4は、肌の色の特徴抽出データに対応した言語使用可能性データの一例を示す。肌の色の特徴データは、前述したように、肌の色の特徴データの特徴である輝度が最も低い「0」から最も輝度が高い「255」までの範囲で数値化されている。図4において、例えば、肌の色の特徴抽出データが「0」の場合、その肌の色を持つ視聴者が言語1を使用する可能性は40%、同じくその視聴者が言語2を使用する可能性は15%、言語3を使用する可能性は3%、言語4を使用する可能性は6%、言語5を使用する可能性は3%であることを示している。
 本実施形態の電子機器10でサポートしている英語が言語1、日本語が言語2だと仮定し、肌の色の特徴抽出データが「3」であった場合、図4の使用可能性データからその視聴者が英語を使用する可能性は31%、日本語を使用する可能性は23%ということになる。予め、記憶装置13に格納しておく、肌の色の言語使用可能性データは、世界各地の人の肌の色とその人が使用する言語を実際に調査することで作成できる。
 図5は、目(虹彩)の色の特徴抽出データに対応した言語使用可能性データの一例を示す。目(虹彩)の色の特徴抽出データは、前述したように、目(虹彩)の色の特徴抽出データの特徴である色の系統により、7種類のデータ(1~7)に数値化されている。図5において、例えば、目(虹彩)の色の特徴抽出データの値「1」(目の色がブラウン系)の場合、その目の色を持つ視聴者が言語1を使用する可能性は27%、言語2を使用する可能性は39%、言語3を使用する可能性は36%、言語4を使用する可能性は15%、言語5を使用する可能性は11%であることを示している。
 本実施の形態の電子機器10でサポートしている英語が言語1、日本語が言語2だと仮定し、目(虹彩)の色の特徴抽出データの値が「5」(グレー系)であった場合、図5の言語使用可能性データからその視聴者が英語を使用する可能性は15%、日本語を使用する可能性は17%ということになる。予め、記憶装置13に格納しておく、目(虹彩)の色の言語使用可能性データは、世界各地の人の目(虹彩)の色とその人が使用する言語を実際に調査することで作成できる。
 次に、言語判定部122の動作について、図6のフローチャートを参照して説明する。ここでは、特徴抽出はa種類、言語の種類はb種類であるものとする。まず、言語判定部122は、変数nの値に初期値「1」を代入すると共に、b個の配列P[1]~P[b]に初期値「0」を代入する(ステップS1)。ここで配列P[m]は、m番目の言語の使用可能性を示す数値を格納する。
 続いて、言語判定部122は、n番目の特徴の特徴抽出データ131を取り込み(ステップS2)、変数mに初期値「1」を代入した後(ステップS3)、m番目の言語の使用可能性を求め、配列P[m]に加える(ステップS4)。つまり、n番目の特徴の特徴抽出データの値に対応した言語使用可能性データのm番目の言語の値を配列P[m]の値に加える。
 続いて、言語判定部122は、変数mの値が最後の値である「b」であるかどうかを判定し(ステップS5)、「b」でなければ変数mの値を「1」だけインクリメントし(ステップS6)、ステップS4に戻る。以下、同様にして、言語判定部122は、ステップS5で変数mの値が最後の値である「b」であると判定されるまで、ステップS4~S6の動作を繰り返す。
 次に、言語判定部122は、変数nの値が最後の値「a」であるかどうかを判定し(ステップS7)、「a」でなければ変数nの値を「1」だけインクリメントし(ステップS8)、ステップS2に戻り次の順番の特徴の特徴抽出データを取り込む。以下、同様にして、言語判定部122は、ステップS7で変数nの値が最後の値である「a」であると判定されるまで、ステップS2~S8の動作を繰り返す。そして、言語判定部122は、ステップS7でn=aと判定すると、配列P[1]~P[m]の値を確認し、最も大きな値が格納されている配列が示す言語を、最も使用可能性の高い言語として判定する(ステップS9)。
 これにより、例えばa=b=2であり、n=1番目の特徴の特徴抽出データが肌の色の特徴抽出データでその値が「3」であり、n=2番目の特徴の特徴抽出データが目(虹彩)の色の特徴抽出データでその値が「5」であり、また、ステップS4で求める使用可能性は、n=1のときは図4に示した肌の色の特徴抽出データに対応した言語可能性データ、n=2のときは図5に示した目(虹彩)の色の特徴抽出データに対応した言語可能性データに基づくものとすると、P[1]、P[2]の値は以下の通りになる。
 すなわち、言語1の配列P[1]は肌の色の特徴データの値「3」のとき31%、目(虹彩)の色の特徴抽出データの値が「5」のとき15%であるから、両者の和の「46」となる。また、言語2の配列P[2]は肌の色の特徴データの値「3」のとき23%、目(虹彩)の色の特徴抽出データの値が「5」のとき17%であるから、両者の和の「40」となる。ここで、言語1が英語、言語2が日本語とすると、言語判定部122は、上記の例ではP[1]>P[2]であるから、ステップS9で使用可能性が高い言語として英語と判定する。
 再び図1に戻って説明する。表示・音声制御部123は、言語判定部122による言語判定結果が示す言語の言語データ(文字列データや音声データ)133を記憶装置13から読み出し、文字列データは表示部14に供給して判定された言語の文字列を表示させると共に、音声データは音声出力部15に供給して判定された言語の音声により所定の音声内容を出力する。
 これにより、例えば図7に示すように、本実施の形態の電子機器10であるモニタ1の画面の前方に位置する視聴者Aを、映像入力部11を構成するカメラ2により撮像して得られた映像情報から抽出した特徴抽出データに基づいて、モニタ1(電子機器10)が上述した方法により視聴者Aが使用する言語が日本語である可能性が高いと判定したときは、表示部14の画面に日本語表示4にてニュースや天気予報等の各種情報を表示すると共に、音声出力部15であるスピーカから日本語音声31を出力する。
 また、例えば図8に示すように、本実施の形態の電子機器10であるモニタ1の画面の前方に位置する視聴者Bを、映像入力部11を構成するカメラ2により撮像して得られた映像情報から抽出した特徴抽出データに基づいて、モニタ1(電子機器10)が上述した方法により視聴者Bが使用する言語が英語である可能性が高いと判定したときは、表示部14の画面に英語表示6を行うと共に、音声出力部15であるスピーカから英語音声32を出力する。
 このようにして、本実施の形態の電子機器10によれば、視聴者の映像情報から視聴者の特徴を示す特徴抽出データを生成し、その特徴抽出データと予め記憶装置13内に記憶しておいた各特徴における言語使用可能性を示す言語使用可能性データ132とに基づいて、その視聴者が使用する可能性が最も高い言語を判定(推定)し、その言語の言語データを画面表示及び音声出力するようにしたため、視聴者が言語選択のための操作をすることなしに、電子機器10が視聴者の使用言語である可能性が最も高い言語の表示及び音声出力に自動で切り替えることができる。
 なお、上記の説明では、特徴抽出データの例として、肌の色と目(虹彩)の色の2つの例を挙げたが、この限りではなく、例えば視聴者の髪の色、鼻の高さ、服装、身につけているあるいは持っている物に記載されている文字情報等を抽出してもよい。
 例えば、身につけている服装が日本の振袖であるかどうかを、襟や袖の形状、腹部に太い帯があるか等を解析し、その解析結果から得られる日本の振袖を着ている可能性を示すデータを特徴抽出データとしてもよい。この場合、振袖を着ている可能性が高いほど、日本語を使用する可能性が高くなるような言語使用可能性データを用意しておくことになる。
 また、視聴者が手に持っているパスポートの表紙の図柄や、国籍が記載されたページの文字を認識することで、視聴者の国籍を推測し、その国籍を示すデータを特徴抽出データとしてもよい。この場合、各国籍毎の言語使用可能性データを用意しておくことになる。本明細書では、これらの具体的な特徴抽出データの規定はしない。
 (第2の実施の形態)
 次に、本発明の第2の実施の形態について説明する。図9は、本発明の第2の実施の形態に係る電子機器のブロック図を示す。図9中、図1と同一構成部分には同一符号を付し、その説明を省略する。図9において、本実施の形態の電子機器20は、モニタを構成しており、映像情報を入力する映像入力部11と、モニタ全体を統括的に制御する制御部21と、各種データを記憶する記憶装置13と、モニタの画面に画像や文字を表示する表示部14と、音声を出力するスピーカ等からなる音声出力部15とにより構成されている。また、記憶装置13に記憶されている言語データ135は、電子機器20がサポートする複数の言語のそれぞれで作成された言語データで、視聴者が確認できるかどうかを確認するための文字列や音声のメッセージを含んでいる。
 制御部21は、映像解析部211、言語判定部212、正誤判断・訂正部213、及び表示・音声制御部214から構成されている。図1の制御部12とは異なる本実施の形態の制御部21の特有の動作について以下説明する。
 図1に示した電子機器10の制御部12による言語判定結果は、あくまでも推定に過ぎず、確実なものではない。これをより確実にするために、本実施の形態の電子機器20では制御部21内に正誤判断・訂正部213を設け、これにより言語判定結果が正しいかどうか(すなわち、視聴者が表示文字列又は出力音声内容が理解できるか否か)を確認し、言語判定結果が間違っていた場合は、次に使用可能性の高い言語に切り替えるようにしたものである。
 言語判定部212は、言語判定部122と同様にして、映像解析部211により抽出されて記憶装置13内に格納された肌の色や目(虹彩)の色の特徴抽出データ131と、予め記憶装置13内に格納されている言語使用可能性データ132とを参照し、本電子機器20がサポートしているそれぞれの言語のうち、視聴者が使用する可能性が最も高い言語の言語判定結果を出力する。
 表示・音声制御部214は、言語判定部212による言語判定結果が示す言語の言語データ(文字列データ、音声データ及びメッセージデータ)135を記憶装置13から読み出し、その中からデジタルサイネージモニタ本来の目的の文字列データや音声データを表示部14及び音声出力部15に出力する。続いて、表示・音声制御部214は、言語判定部212による言語判定結果が示す言語の言語データの中から文字列のメッセージデータを表示部14に供給して表示させると共に、音声のメッセージデータを音声出力部15に供給して音声出力させる。ここで、上記のメッセージは、その言語で視聴者が理解できるかどうかを確認するためのメッセージで、モニタに表示したデジタルサイネージモニタ本来の目的の文字列(画像含む)の言語や、音声出力部15から音声出力した言語が理解できるときに、視聴者に対して所定の動き(例えば、右手を上げるなど)を要求するメッセージである。
 これにより、電子機器20は、言語判定部212により視聴者の最も使用する可能性が高い言語で、デジタルサイネージモニタ本来の目的の文字列(画像含む)や音声を出力した後、上記の確認用メッセージをモニタの画面に表示したり、音声出力する。
 例えば言語判定部212により視聴者の最も使用する可能性が高い言語が日本語であると判定された場合は、電子機器20(モニタ5)は図10に参照番号7で示すように、表示部14の画面に日本語で「この言語が理解できるなら右手を上げてください。」との確認用メッセージを視聴者Cに対して表示すると共に、図10に参照番号33で示すようにスピーカからなる音声出力部15により上記の確認用メッセージを日本語で音声出力させる。
 また、言語判定部212により視聴者の最も使用する可能性が高い言語が英語であると判定された場合は、電子機器20(モニタ5)は図11に参照番号8で示すように、表示部14の画面に英語で上記と同様の意味を示す英文の確認用メッセージを視聴者Dに対して表示すると共に、図11に参照番号34で示すようにスピーカからなる音声出力部15により上記の確認用メッセージを英語で音声出力させる。
 その後、映像解析部211は、視聴者C又はDが右手を上げたかどうかを映像入力部11からの視聴者C又はDの予め設定した所定の時間内の映像情報を解析して判定する。視聴者C又はDが右手を上げたかどうかの判定は、例えば、映像解析部211により、視聴者の顔の上部のやや右の位置(映像入力部11からの入力映像情報内では検出した顔領域の上部のやや左の位置)に手のひらがあるかどうかを判定すればよい。
 手のひらの判定は、手のひらも顔と同様に肌色をしているので、顔領域の判定と同様に、例えば特開2000-105819号公報や特開2006-318375号公報に記載の公知の肌の色の判定方法を用いることで実現できる。
 正誤判断・訂正部213は、上記の映像解析部211の映像解析結果が、視聴者C又はDが右手を上げたことを示しているときは、視聴者C又はDが画面に表示された確認用メッセージ(または、出力された音声)の言語を理解できていると判断する。一方、上記の映像解析部211の映像解析結果が、視聴者C又はDが右手を上げていないことを示しているときは、視聴者C又はDが画面に表示された確認用メッセージ(または、出力された音声)の言語を理解できていないと判断する。
 言語を理解できていないと判断した場合、正誤判断・訂正部213は、言語判定部212が現在表示(又は音声出力)している言語の次に使用する可能性が高いと判定された言語の言語データ(文字列データ、音声データ及びメッセージデータ)135を記憶装置13から読み出して表示・音声制御部214に供給する。表示・音声制御部214は、次に使用する可能性が高いと判定された言語の言語データ(文字列データ、音声データ及びメッセージデータ)135の中からデジタルサイネージモニタ本来の目的の文字列データを表示部14により切り替え表示させると共に、その言語の音声データを音声出力部15から切り替え出力させる。続いて、表示・音声制御部214は、上記の次に使用する可能性が高いと判定された言語の言語データの中から文字列のメッセージデータを表示部14に供給して表示させると共に、音声のメッセージデータを音声出力部15に供給して音声出力させる。
 その後、正誤判断・訂正部213は、再び映像解析部211からの視聴者C又はDの動きの解析結果に基づいて視聴者C又はDが画面に表示された確認用メッセージ(または、出力された音声)の言語を理解できているか否かを判断する。以後、視聴者が理解できる言語になるまで(視聴者が右手を上げるまで)、上記処理が繰り返される。視聴者が理解できる言語になった場合は、正誤判断・訂正部213は、そのときの映像解析部211からの映像解析結果に基づいて、現在表示(又は音声出力)している言語を使用する可能性が最も高い言語であるという言語判定結果を言語判定部212から出力させて、表示・音声制御部214によりその言語の言語データを出力させる。
 なお、本発明は以上の実施の形態に限定されるものではなく、例えばデジタルサイネージの目的の音声出力は行わなくても構わない。また、確認用メッセージは画面での表示と音声出力のどちらか一方でも差し支えない。更に、本発明はデジタルサイネージシステムに限らず、携帯電話機やパーソナルコンピュータの情報入力装置としても使用可能である。
 1、5 モニタ
 2 カメラ
 14 画面
 10、20 電子機器
 11 映像入力部
 12、21 制御部
 13 記憶装置
 14 表示部
 15 音声出力部
 121、211 映像解析部
 122、212 言語判定部
 123、214 表示・音声制御部
 131 特徴抽出データ
 132 言語使用可能性データ
 133、135 言語データ
 213 正誤判断・訂正部

Claims (4)

  1.  画面前方の視聴者の映像情報を入力する映像入力手段と、
     入力される前記映像情報から得られる前記視聴者の顔、服装及び所持している物の中から少なくとも一つの種類の特徴情報を抽出し、抽出した各種類の特徴情報毎にその特徴情報に含まれる複数の特徴のそれぞれに応じて数値化した特徴抽出データを生成する映像解析手段と、
     前記映像解析手段により生成された前記特徴抽出データを記憶すると共に、予め設定した複数の言語のそれぞれで表され、かつ、少なくとも前記画面に表示される文字列を含む言語出力情報と、前記特徴抽出データの前記複数の特徴のそれぞれについて前記複数の言語のそれぞれの使用可能性の度合いを示す言語使用可能性データとを予め格納している記憶手段と、
     前記記憶手段に記憶された前記特徴抽出データの前記複数の特徴の値と、前記言語使用可能性データとに基づいて、前記視聴者が最も使用する可能性のある言語を判定する言語判定手段と、
     前記記憶手段に格納されている複数の言語の前記言語出力情報のうち、前記言語判定手段により判定された言語と同じ言語の前記言語出力情報を選択して出力し、少なくとも前記文字列を前記画面に表示させる出力制御手段と
     を有することを特徴とする電子機器。
  2.  前記記憶手段は、前記出力制御手段により選択された言語の前記言語出力情報の出力結果が前記視聴者により理解できるときに、その視聴者に対して所定の動きを行わせる確認メッセージを前記複数の言語のそれぞれについて更に記憶しており、
     前記言語判定手段により判定された言語と同じ言語の前記確認メッセージを前記記憶手段から読み出して前記出力制御手段により出力させ、その後に前記映像入力手段から入力される前記映像情報中の前記視聴者の動きが前記所定の動きであるか否かの映像解析結果に基づいて、前記言語出力情報の出力結果が前記視聴者により理解できないと判断したときは、前記出力制御手段により前記視聴者が次に使用する可能性のある言語として前記言語判定手段が判定した言語と同じ言語の前記言語出力情報に切り替え出力させる正誤判定・訂正手段
     を更に有することを特徴とする請求項1記載の電子機器。
  3.  画面前方の視聴者の映像情報を入力する映像入力ステップと、
     入力される前記映像情報から得られる前記視聴者の顔、服装及び所持している物の中から少なくとも一つの種類の特徴情報を抽出し、抽出した各種類の特徴情報毎にその特徴情報に含まれる複数の特徴のそれぞれに応じて数値化した特徴抽出データを生成する映像解析ステップと、
     前記映像解析ステップにより生成された前記特徴抽出データを記憶手段に記憶する記憶ステップと、
     前記記憶手段に記憶された前記特徴抽出データの前記複数の特徴の値と、前記記憶手段に予め格納されている前記特徴抽出データの前記複数の特徴のそれぞれについて前記複数の言語のそれぞれの使用可能性の度合いを示す言語使用可能性データとに基づいて、前記視聴者が最も使用する可能性のある言語を判定する言語判定ステップと、
     前記記憶手段に格納されている複数の言語のそれぞれで表され、かつ、少なくとも前記画面に表示される文字列を含む言語出力情報のうち、前記言語判定ステップにより判定された言語と同じ言語の前記言語出力情報を選択して少なくとも前記画面に前記文字列を表示させる出力制御ステップと
     を含むことを特徴とする電子機器の表示言語判定方法。
  4.  前記記憶手段は、前記出力制御ステップにより選択された言語の前記言語出力情報の出力結果が前記視聴者により理解できるときに、その視聴者に対して所定の動きを行わせる確認メッセージを前記複数の言語のそれぞれについて更に記憶しており、
     前記言語判定ステップにより判定された言語と同じ言語の前記確認メッセージを前記記憶手段から読み出して出力させ、その後に入力される前記映像情報中の前記視聴者の動きが前記所定の動きであるか否かの映像解析結果に基づいて、前記言語出力情報の出力結果が前記視聴者により理解できるか否かを判断する正誤判断ステップと、
     前記正誤判断ステップにより前記言語出力情報の出力結果が前記視聴者により理解できないと判断したときは、前記視聴者が次に使用する可能性のある言語として前記言語判定ステップで判定した言語と同じ言語の前記言語出力情報を前記記憶手段から読み出して切り替え出力する訂正ステップと
     を更に含むことを特徴とする請求項3記載の電子機器の表示言語判定方法。
PCT/JP2011/073002 2010-10-10 2011-10-05 電子機器及びその表示言語判定方法 WO2012050029A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010229165A JP2012083925A (ja) 2010-10-10 2010-10-10 電子機器及びその表示言語判定方法
JP2010-229165 2010-10-10

Publications (1)

Publication Number Publication Date
WO2012050029A1 true WO2012050029A1 (ja) 2012-04-19

Family

ID=45938258

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/073002 WO2012050029A1 (ja) 2010-10-10 2011-10-05 電子機器及びその表示言語判定方法

Country Status (2)

Country Link
JP (1) JP2012083925A (ja)
WO (1) WO2012050029A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017163719A1 (ja) * 2016-03-23 2017-09-28 日本電気株式会社 出力制御装置、出力制御方法、およびプログラム
CN111510576A (zh) * 2018-12-28 2020-08-07 京瓷办公信息***株式会社 图像形成装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014011676A (ja) * 2012-06-29 2014-01-20 Casio Comput Co Ltd コンテンツ再生制御装置、コンテンツ再生制御方法及びプログラム
JP6066265B2 (ja) * 2012-07-31 2017-01-25 株式会社リコー 画像表示装置
JP2016155179A (ja) * 2015-02-23 2016-09-01 株式会社国際電気通信基礎技術研究所 誘導サービスシステム、誘導サービスプログラム、誘導サービス方法および誘導サービス装置
JP6597209B2 (ja) * 2015-05-25 2019-10-30 株式会社リコー 免税販売書類作成システム、免税販売書類作成装置および免税販売書類作成プログラム
JP6456869B2 (ja) * 2016-05-11 2019-01-23 日本電信電話株式会社 属性推定装置、属性推定方法およびプログラム
JP6461856B2 (ja) * 2016-05-11 2019-01-30 日本電信電話株式会社 推定装置、推定方法およびプログラム
JP7150688B2 (ja) * 2019-12-04 2022-10-11 Kddi株式会社 コンテンツの顕著性を考慮してユーザの属性を推定する装置、プログラム及び方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005275935A (ja) * 2004-03-25 2005-10-06 Omron Corp 端末装置
JP2006244280A (ja) * 2005-03-04 2006-09-14 Kts:Kk 表示言語切換装置及びプログラム
JP2008293079A (ja) * 2007-05-22 2008-12-04 Olympus Imaging Corp ガイド装置およびカメラ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005275935A (ja) * 2004-03-25 2005-10-06 Omron Corp 端末装置
JP2006244280A (ja) * 2005-03-04 2006-09-14 Kts:Kk 表示言語切換装置及びプログラム
JP2008293079A (ja) * 2007-05-22 2008-12-04 Olympus Imaging Corp ガイド装置およびカメラ

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017163719A1 (ja) * 2016-03-23 2017-09-28 日本電気株式会社 出力制御装置、出力制御方法、およびプログラム
JPWO2017163719A1 (ja) * 2016-03-23 2018-11-08 日本電気株式会社 出力制御装置、出力制御方法、およびプログラム
CN111510576A (zh) * 2018-12-28 2020-08-07 京瓷办公信息***株式会社 图像形成装置
CN111510576B (zh) * 2018-12-28 2022-11-15 京瓷办公信息***株式会社 图像形成装置

Also Published As

Publication number Publication date
JP2012083925A (ja) 2012-04-26

Similar Documents

Publication Publication Date Title
WO2012050029A1 (ja) 電子機器及びその表示言語判定方法
JP6030945B2 (ja) 視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラム
CN104378688B (zh) 模式切换方法和装置
US9507420B2 (en) System and method for providing haptic feedback to assist in capturing images
US9323982B2 (en) Display apparatus for performing user certification and method thereof
CN106341522A (zh) 移动终端及其控制方法
CN107155138A (zh) 视频播放跳转方法、设备及计算机可读存储介质
CN108712603B (zh) 一种图像处理方法及移动终端
US10409324B2 (en) Glass-type terminal and method of controlling the same
US9075431B2 (en) Display apparatus and control method thereof
US20070259318A1 (en) System for interacting with developmentally challenged individuals
CN104662889A (zh) 用于在便携式终端中进行拍摄的方法和设备
EP2753094B1 (en) Method and apparatus for controlling contents in electronic device
KR20130088493A (ko) Ui 제공 방법 및 이를 적용한 영상 수신 장치
KR20130056529A (ko) 휴대용 단말기에서 증강현실 서비스를 제공하기 위한 장치 및 방법
WO2021248787A1 (zh) 限制级画面检测方法、装置、显示设备和可读存储介质
KR20190006221A (ko) 디스플레이 장치 및 이의 제어 방법
CN112601120A (zh) 字幕显示方法及装置
CN113875227A (zh) 信息处理设备、信息处理方法和程序
WO2016192762A1 (en) Augmented reality systems and methods to access optical information
JP2019105751A (ja) 表示制御装置、プログラム、表示システム、表示制御方法及び表示データ
JP2013197827A (ja) 撮影補助装置、方法、並びに該撮影補助装置を搭載した撮影装置及びカメラ付き携帯端末
CN108600797B (zh) 一种信息处理法方法和电子设备
KR100817953B1 (ko) 촬상 영상 객체 대응 화면 출력 광고장치 및 그 방법
CN110662113B (zh) 视频播放方法、装置和计算机可读存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11832464

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11832464

Country of ref document: EP

Kind code of ref document: A1