JP6799063B2 - 注目位置認識装置、撮像装置、表示装置、注目位置認識方法及びプログラム - Google Patents
注目位置認識装置、撮像装置、表示装置、注目位置認識方法及びプログラム Download PDFInfo
- Publication number
- JP6799063B2 JP6799063B2 JP2018528440A JP2018528440A JP6799063B2 JP 6799063 B2 JP6799063 B2 JP 6799063B2 JP 2018528440 A JP2018528440 A JP 2018528440A JP 2018528440 A JP2018528440 A JP 2018528440A JP 6799063 B2 JP6799063 B2 JP 6799063B2
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- video
- attention
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 23
- 238000004458 analytical method Methods 0.000 claims description 117
- 238000003384 imaging method Methods 0.000 claims description 28
- 238000010191 image analysis Methods 0.000 claims description 27
- 238000012937 correction Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 2
- 238000003860 storage Methods 0.000 description 35
- 238000001514 detection method Methods 0.000 description 31
- 238000004891 communication Methods 0.000 description 30
- 230000006870 function Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 17
- 239000013598 vector Substances 0.000 description 12
- 101150013335 img1 gene Proteins 0.000 description 8
- 230000008859 change Effects 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B7/00—Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
- G03B7/08—Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
- G03B7/091—Digital circuits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Eye Examination Apparatus (AREA)
Description
図1は、本発明に係る注目位置認識装置の基本構成例を示すブロック図である。
本明細書で、視線位置の「安定」とは、「映像中のユーザの視線位置が時系列で安定している」ことをいう。視線解析部22は、視線位置安定性判断機能として、映像中のユーザの視線位置が時系列で安定しているか否かを判断する。以下、視線解析部22による判断例を、説明する。
本明細書で映像の「安定」とは、「映像が時系列で安定している」ことをいう。つまり、映像中の要素(例えば被写体像)の動きが所定時間にわたって無い、又は映像中の要素の所定時間にわたる動きが小さい(閾値以下である)場合、「映像が安定している」ということができる。ここで、「所定時間」及び「閾値」は、固定である場合に限定されず、可変の設定された値とすることができる。映像解析部24は、映像安定性判断機能として、映像が時系列で安定しているか否かを判断する。以下、映像解析部24による判断例を、説明する。尚、本発明において、本機能は必須ではなく、オプションとして実装できる。
映像解析部24は、映像中の注目部分を推定するために必要な情報として、映像中の各部分の特徴量を算出する機能を有する。ここで「映像中の各部分」は、撮像により被写体を撮像して得られた映像では「被写体像」でよく、非撮像の映像では映像を構成する要素でよい。尚、本発明において本機能は必須ではなく、オプションとして実装できる。「映像中の各部分」を、以下では「対象物」(オブジェクト)ということもある。
注目位置認識部26による注目位置認識の具体例を説明する。
図10は、本発明に係る注目位置認識方法を適用した基本的な処理の流れを示すフローチャートである。本処理は、図1の記憶部30を構成する非一時的記憶デバイスに記憶されたプログラムに従って、実行される。
図16は、本発明に係る注目位置認識装置を適用した撮像装置の構成例を示すブロック図である。尚、図1に示した注目位置認識装置10と同じ構成要素には、同じ符号を付してあり、既に説明した内容を以下では省略する。
図17は、本発明に係る注目位置認識装置を適用したスマートフォンの一例の外観図である。図17に示すスマートフォン200は、平板状の筐体202を有し、筐体202の一方の面に表示パネル221と、操作パネル222とが一体となった表示入力部220を備えている。また、筐体202は、スピーカ231と、マイクロホン232、操作部240と、カメラ部241とを備えている。尚、筐体202の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。
図19は、本発明に係る注目位置認識装置を適用した表示装置の構成例を示すブロック図である。尚、図1に示した注目位置認識装置10と同じ構成要素には、同じ符号を付してあり、既に説明した内容を以下では省略する。
12 視線取得部
14 映像取得部
16 表示部
18 操作部
22 視線解析部
24 映像解析部
26 注目位置認識部
30 記憶部
100 撮像装置
102 撮像部
104 撮像制御部
200 スマートフォン
201 主制御部
202 筐体
210 無線通信部
220 表示入力部
221 表示パネル
222 操作パネル
230 通話部
231 スピーカ
232 マイクロホン
240 操作部
241 カメラ部
250 記憶部
251 内部記憶部
252 外部記憶部
260 外部入出力部
270 GPS受信部
280 モーションセンサ部
290 電源部
300 表示装置
302 通信部
304 タッチパネルディスプレイ
306 距離測定部
308 音声入力部
310 音声出力部
350 データベース
IMG、IMG1、IMG2、IMG3、 映像
MV1、MV2 動きベクトル
NW ネットワーク
OBJ11、OBJ12、OBJ13、OBJ2、OBJ3 被写体像
ROI 注目部分
SP 視線位置
ST1〜STn GPS衛星
Claims (13)
- ユーザの視線位置の検出と前記視線位置が安定しているか否かの判断とを前記ユーザの視線解析として行う視線解析部と、
映像を取得する映像取得部と、
前記取得された映像の映像解析を行う映像解析部と、
前記視線解析の結果及び前記映像解析の結果に基づいて、前記映像中の前記ユーザにより注目された部分の位置である注目位置を認識する注目位置認識部と、
を備え、
前記注目位置認識部は、前記視線位置が不安定であると判断され、かつ前記映像が安定していると判断された場合、前記検出された視線位置を時系列でフィルタリングして前記注目位置として採用する注目位置認識装置。 - 前記注目位置認識部は、前記視線位置が不安定であると判断され、かつ前記映像が不安定であると判断された場合、前記検出された視線位置の動きと前記映像中の動きとを比較して、前記検出された視線位置を前記注目位置として採用するか否かを判定する、
請求項1に記載の注目位置認識装置。 - 前記注目位置認識部は、前記視線位置が不安定であると判断され、かつ前記映像が不安定であると判断された場合、前記映像解析の結果に基づいて前記映像中の注目部分を推定し、前記検出された視線位置の動きと前記映像中の前記推定した注目部分の動きとを比較して、前記検出された視線位置を前記注目位置として採用するか否かを判定する、
請求項1に記載の注目位置認識装置。 - ユーザの視線位置の検出と前記視線位置が安定しているか否かの判断とを前記ユーザの視線解析として行う視線解析部と、
映像を取得する映像取得部と、
前記取得された映像の映像解析を行う映像解析部と、
前記視線解析の結果及び前記映像解析の結果に基づいて、前記映像中の前記ユーザにより注目された部分の位置である注目位置を認識する注目位置認識部と、
を備え、
前記注目位置認識部は、前記視線位置が安定していると判断された場合、前記検出され
た視線位置を前記注目位置として採用し、
前記注目位置認識部は、前記視線位置が不安定であると判断された場合、前記検出された視線位置の動きと前記映像中の動きとを比較して、前記検出された視線位置を前記注目位置として採用するか否かを判定する、
注目位置認識装置。 - ユーザの視線位置の検出と前記視線位置が安定しているか否かの判断とを前記ユーザの視線解析として行う視線解析部と、
映像を取得する映像取得部と、
前記取得された映像の映像解析を行う映像解析部と、
前記視線解析の結果及び前記映像解析の結果に基づいて、前記映像中の前記ユーザにより注目された部分の位置である注目位置を認識する注目位置認識部と、
を備え、
前記注目位置認識部は、前記視線位置が安定していると判断された場合、前記検出された視線位置を前記注目位置として採用し、
前記注目位置認識部は、前記視線位置が安定していると判断された場合、前記視線位置が不安定であると判断された場合よりも、前記視線解析の結果の重みを大きくして前記注目位置を認識する、
注目位置認識装置。 - 請求項1から5のうちいずれか一項に記載の注目位置認識装置を備え、
被写体を撮像する撮像部を、前記映像取得部として用いる撮像装置。 - 前記視線解析の結果と前記撮像により得られた前記映像の解析結果とに基づいて認識された前記注目位置を用いて、自動焦点調節、自動露出、及び自動色バランス補正のうち少なくとも一つを行う、
請求項6に記載の撮像装置。 - 請求項1から5のうちいずれか一項に記載の注目位置認識装置と、
前記映像を表示する表示部と、
を備える表示装置。 - ユーザの視線位置の検出と前記視線位置が安定しているか否かの判断とをユーザの視線解析として行うステップと、
映像を取得するステップと、
前記取得された映像の映像解析を行うステップと、
前記視線解析の結果及び前記映像解析の結果に基づいて、前記映像中の前記ユーザにより注目された部分の位置である注目位置を認識するステップと、
を含み、
前記注目位置を認識するステップは、前記視線位置が不安定であると判断され、かつ前記映像解析を行うステップによって前記映像が安定していると判断された場合、前記検出された視線位置を時系列でフィルタリングして前記注目位置として採用することを含む、注目位置認識方法。 - ユーザの視線位置の検出と前記視線位置が安定しているか否かの判断とをユーザの視線解析として行うステップと、
映像を取得するステップと、
前記取得された映像の映像解析を行うステップと、
前記視線解析の結果及び前記映像解析の結果に基づいて、前記映像中の前記ユーザにより注目された部分の位置である注目位置を認識するステップと、
を含み、
前記注目位置を認識するステップは、前記視線位置が不安定であると判断された場合、前記検出された視線位置の動きと前記映像中の動きとを比較して、前記検出された視線位置を前記注目位置として採用するか否かを判定することを含む、注目位置認識方法。 - ユーザの視線位置の検出と前記視線位置が安定しているか否かの判断とをユーザの視線解析として行うステップと、
映像を取得するステップと、
前記取得された映像の映像解析を行うステップと、
前記視線解析の結果及び前記映像解析の結果に基づいて、前記映像中の前記ユーザにより注目された部分の位置である注目位置を認識するステップと、
を含み、
前記注目位置を認識するステップは、前記視線位置が安定していると判断された場合、前記視線位置が不安定であると判断された場合よりも、前記視線解析の結果の重みを大きくして前記注目位置を認識することを含む、注目位置認識方法。 - 請求項9から11のいずれか1項に記載の注目位置認識方法をコンピュータに実行させるプログラム。
- 請求項12に記載のプログラムを記録したコンピュータ読み取り可能な非一時的有形媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016142484 | 2016-07-20 | ||
JP2016142484 | 2016-07-20 | ||
PCT/JP2017/020842 WO2018016209A1 (ja) | 2016-07-20 | 2017-06-05 | 注目位置認識装置、撮像装置、表示装置、注目位置認識方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018016209A1 JPWO2018016209A1 (ja) | 2019-05-16 |
JP6799063B2 true JP6799063B2 (ja) | 2020-12-09 |
Family
ID=60992020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018528440A Active JP6799063B2 (ja) | 2016-07-20 | 2017-06-05 | 注目位置認識装置、撮像装置、表示装置、注目位置認識方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10664991B2 (ja) |
JP (1) | JP6799063B2 (ja) |
CN (1) | CN109478334B (ja) |
WO (1) | WO2018016209A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7030545B2 (ja) * | 2018-01-26 | 2022-03-07 | キヤノン株式会社 | 被写体認識装置 |
JP7353811B2 (ja) * | 2019-06-17 | 2023-10-02 | キヤノン株式会社 | 電子機器およびその制御方法 |
JP7433788B2 (ja) * | 2019-07-03 | 2024-02-20 | キヤノン株式会社 | 制御装置、撮像装置、制御方法、プログラム |
JP2021012238A (ja) * | 2019-07-03 | 2021-02-04 | キヤノン株式会社 | 電子機器およびその制御方法、プログラム、並びに記憶媒体 |
JP7467114B2 (ja) * | 2019-12-27 | 2024-04-15 | キヤノン株式会社 | 撮像装置およびその制御方法 |
JP7490372B2 (ja) * | 2020-01-21 | 2024-05-27 | キヤノン株式会社 | 撮像制御装置及びその制御方法 |
JP2021131443A (ja) * | 2020-02-19 | 2021-09-09 | キヤノン株式会社 | 電子機器 |
JP7463155B2 (ja) * | 2020-03-25 | 2024-04-08 | キヤノン株式会社 | 撮像制御装置およびその制御方法 |
WO2021205979A1 (ja) * | 2020-04-09 | 2021-10-14 | ソニーグループ株式会社 | 撮像装置、撮像装置の制御方法およびプログラム |
JP2021180446A (ja) * | 2020-05-15 | 2021-11-18 | キヤノン株式会社 | 撮像制御装置、撮像装置、撮像装置の制御方法、プログラム |
JP2023006771A (ja) * | 2021-06-30 | 2023-01-18 | キヤノン株式会社 | 制御装置およびその制御方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5392091A (en) | 1991-08-27 | 1995-02-21 | Nikon Corporation | Exposure calculating apparatus |
JP3163668B2 (ja) * | 1991-08-27 | 2001-05-08 | 株式会社ニコン | 被写体認識装置およびカメラ |
JPH07184089A (ja) | 1993-12-21 | 1995-07-21 | Canon Inc | ビデオカメラ |
JPH07199042A (ja) | 1993-12-28 | 1995-08-04 | Canon Inc | 視線検出機能付カメラ |
US6388707B1 (en) | 1994-04-12 | 2002-05-14 | Canon Kabushiki Kaisha | Image pickup apparatus having means for appointing an arbitrary position on the display frame and performing a predetermined signal process thereon |
JPH089237A (ja) * | 1994-06-17 | 1996-01-12 | Canon Inc | 画像信号処理装置 |
JP2001116985A (ja) | 1999-10-21 | 2001-04-27 | Canon Inc | 被写体認識機能を有するカメラおよび被写体認識方法 |
JP2004064409A (ja) | 2002-07-29 | 2004-02-26 | Mazda Motor Corp | 情報記録装置、情報記録方法及び情報記録用プログラム |
US8793620B2 (en) * | 2011-04-21 | 2014-07-29 | Sony Computer Entertainment Inc. | Gaze-assisted computer interface |
CN101620359A (zh) * | 2008-07-04 | 2010-01-06 | 华晶科技股份有限公司 | 眼睛视线判断的方法 |
EP2515206B1 (en) * | 2009-12-14 | 2019-08-14 | Panasonic Intellectual Property Corporation of America | User interface apparatus and input method |
JP6257198B2 (ja) * | 2013-07-22 | 2018-01-10 | キヤノン株式会社 | 光学機器、その制御方法、および制御プログラム |
US9445005B2 (en) | 2013-07-22 | 2016-09-13 | Canon Kabushiki Kaisha | Optical device capable of selecting focus detection point, method of controlling the same, and storage medium |
WO2015056466A1 (ja) * | 2013-10-16 | 2015-04-23 | オリンパスイメージング株式会社 | 表示装置、画像生成装置、表示方法およびプログラム |
JP2015162822A (ja) | 2014-02-27 | 2015-09-07 | 株式会社ニコン | 電子機器、撮像装置及び通信装置 |
US9958938B2 (en) * | 2014-01-24 | 2018-05-01 | Sony Corporation | Gaze tracking for a mobile device |
EP3103058A1 (de) * | 2014-02-04 | 2016-12-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Hough-prozessor |
US9639968B2 (en) * | 2014-02-18 | 2017-05-02 | Harman International Industries, Inc. | Generating an augmented view of a location of interest |
JP6329635B2 (ja) * | 2014-02-25 | 2018-05-23 | アイベリファイ インコーポレイテッド | 視線追跡 |
CN104729485B (zh) * | 2015-03-03 | 2016-11-30 | 北京空间机电研究所 | 一种基于车载全景影像与街景地图匹配的视觉定位方法 |
-
2017
- 2017-06-05 WO PCT/JP2017/020842 patent/WO2018016209A1/ja active Application Filing
- 2017-06-05 CN CN201780043876.6A patent/CN109478334B/zh active Active
- 2017-06-05 JP JP2018528440A patent/JP6799063B2/ja active Active
-
2019
- 2019-01-10 US US16/244,941 patent/US10664991B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20190147618A1 (en) | 2019-05-16 |
US10664991B2 (en) | 2020-05-26 |
CN109478334A (zh) | 2019-03-15 |
WO2018016209A1 (ja) | 2018-01-25 |
JPWO2018016209A1 (ja) | 2019-05-16 |
CN109478334B (zh) | 2021-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6799063B2 (ja) | 注目位置認識装置、撮像装置、表示装置、注目位置認識方法及びプログラム | |
EP2549741B1 (en) | Image capturing apparatus and image-capture control program product | |
US9912859B2 (en) | Focusing control device, imaging device, focusing control method, and focusing control program | |
US9235916B2 (en) | Image processing device, imaging device, computer-readable storage medium, and image processing method | |
US8730335B2 (en) | Imaging apparatus and imaging system | |
US9094597B2 (en) | Imaging apparatus and imaging system | |
US8928770B2 (en) | Multi-subject imaging device and imaging method | |
US9794472B2 (en) | Imaging device and focusing control method | |
JP5719480B2 (ja) | 画像変形装置およびその動作制御方法 | |
EP3381180B1 (en) | Photographing device and method of controlling the same | |
US20120307080A1 (en) | Imaging apparatus and imaging system | |
US9547217B2 (en) | Device and, method for controlling a focusing operation | |
US11257201B2 (en) | Computer-implemented method and system for preventing sight deterioration caused by prolonged use of electronic visual displays in low-light conditions | |
CN113454706B (zh) | 显示控制装置、摄像装置、显示控制方法 | |
US9948828B2 (en) | Image sensing apparatus and method of controlling operation of same | |
JP2014216830A (ja) | 画像追尾装置、画像追尾方法及びプログラム | |
JP7085651B2 (ja) | 撮像装置の制御装置、撮像装置、撮像装置の制御方法、撮像装置の制御プログラム | |
US9955059B2 (en) | Electronic device, method, and computer program product | |
JP7138199B2 (ja) | 顔領域検出装置、撮像装置、顔領域検出方法、及び顔領域検出プログラム | |
KR20150041279A (ko) | 이동 단말기 및 그 제어 방법 | |
CN117597655A (zh) | 显示画面控制方法、装置、电子设备及可读储存介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190110 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200327 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201029 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6799063 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |