WO2011052492A1 - 携帯通信装置 - Google Patents

携帯通信装置 Download PDF

Info

Publication number
WO2011052492A1
WO2011052492A1 PCT/JP2010/068666 JP2010068666W WO2011052492A1 WO 2011052492 A1 WO2011052492 A1 WO 2011052492A1 JP 2010068666 W JP2010068666 W JP 2010068666W WO 2011052492 A1 WO2011052492 A1 WO 2011052492A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
still image
shooting
data
camera unit
Prior art date
Application number
PCT/JP2010/068666
Other languages
English (en)
French (fr)
Inventor
康弘 田島
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to CN201080049454.8A priority Critical patent/CN102598653B/zh
Priority to US13/505,610 priority patent/US8941745B2/en
Priority to EP10826624.8A priority patent/EP2498487B1/en
Priority to JP2011538391A priority patent/JP5594485B2/ja
Publication of WO2011052492A1 publication Critical patent/WO2011052492A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Definitions

  • the present invention relates to a portable communication device provided with a camera function.
  • mobile phone terminals are widely used as mobile communication devices.
  • mobile phone terminals are becoming smaller and lighter.
  • an increasing number of mobile phone terminals are provided with a camera (camera function).
  • a mobile phone terminal is not dedicated to a camera, when shooting a subject with a camera function, the stability is often not as good as that of a normal camera.
  • a photographer presses a shutter button (shooting button) when shooting a subject with a camera function.
  • the cellular phone terminal is shaken from a desired position (causes camera shake) when the photographer presses the photographing button, depending on how the photographer presses and the skill.
  • “blurring” occurs in an image captured by the camera function.
  • a remote control device In order to prevent camera shake, it may be possible to perform a shooting operation with a remote control device (hereinafter referred to as a remote control device).
  • a remote control device hereinafter referred to as a remote control device
  • the photographer needs to carry a remote control device separately from the mobile phone terminal.
  • the mobile phone terminal recognizes the voice of the photographer as a shooting opportunity, there is a problem in shooting in a place where the voice cannot be spoken.
  • Japanese Patent Application Laid-Open No. 2008-227672 describes a portable terminal that can cancel a power saving state of a display without touching a key.
  • Japanese Patent Application Laid-Open No. 2005-250396 describes a mobile terminal with a camera that can adjust parallax and focus of a pair of imaging units and can capture a stereoscopic image.
  • Japanese Patent Application Laid-Open No. 2003-274376 describes a portable communication device that newly uses another camera in parallel when it is used as a videophone using one camera.
  • An object of the present invention is to provide a portable communication device that can prevent camera shake when a subject is photographed by a camera function.
  • the portable communication device of the present invention includes a first camera unit for photographing a subject, a second camera unit for photographing a photographer or an object possessed by the photographer, an activation control unit, and an action recognition processing unit. And a photographing control unit.
  • the activation control unit starts photographing and controls the second camera unit so as to sequentially generate still image data.
  • the motion recognition processing unit compares the current still image data, which is still image data, with the previous still image data in response to a shooting start instruction.
  • the shooting control unit controls the first camera unit to shoot a subject and generate shooting data when the current still image data changes from the previous still image data.
  • the mobile communication device of the present invention when the subject is photographed by the camera function (first camera unit), a change in the image photographed by the second camera unit is used as a photographing opportunity. Accordingly, since the photographer can take a picture with the portable communication device placed, camera shake can be prevented.
  • FIG. 1 shows a configuration of a mobile phone terminal 11 as a mobile communication device according to first to third embodiments of the present invention.
  • FIG. 2A shows a front perspective view of the mobile phone terminal 11.
  • FIG. 2B shows a rear perspective view of the mobile phone terminal 11.
  • FIG. 3 is a flowchart showing the operation of the mobile phone terminal 11.
  • Examples of the mobile communication device according to the embodiment of the present invention include a mobile phone terminal, PHS (Personal Handyphone System), PDA (Personal Data Assistance, Personal Digital Assistant).
  • PHS Personal Handyphone System
  • PDA Personal Data Assistance, Personal Digital Assistant
  • a mobile phone terminal will be described as an example.
  • FIG. 1 shows the configuration of the mobile phone terminal 11 according to the first embodiment of the present invention.
  • the mobile phone terminal 11 includes a CPU (Central Processing Unit) 12, a bus 13, a ROM (Read Only Memory) 14, a RAM (Random Access Memory) 15, and a first camera unit 16.
  • the CPU 12 is connected to the ROM 14, the RAM 15, the first camera unit 16, the second camera unit 17, the display unit 18, the operation recognition processing unit 19, and the storage device 20 via the bus 13.
  • the ROM 14 stores control programs that are various computer programs to be executed by the CPU 12 and fixed data used in the mobile phone terminal 11.
  • the RAM 15 stores data temporarily required for the CPU 12 to execute the program.
  • the first camera unit 16 is used for photographing a subject.
  • the second camera unit 17 is used for photographing a photographer or an object possessed by the photographer.
  • the display unit 18 displays information to the operator such as an execution result of the CPU 12 (for example, an operation menu) and images taken by the first camera unit 16 and the second camera unit 17.
  • the motion recognition processing unit 19 inputs an image photographed by the second camera unit 17 and detects a change in motion based on the image.
  • the recording device 20 stores an image photographed by the first camera unit 16.
  • the control program stored in the ROM 14 includes a camera shooting program.
  • This camera shooting program includes an activation control unit 21 and a shooting control unit 22.
  • the motion recognition processing unit 19 may be realized by a circuit (device) or a computer program (camera shooting program).
  • FIG. 2A shows a front perspective view of the mobile phone terminal 11
  • FIG. 2B shows a rear perspective view of the mobile phone terminal 11.
  • the mobile phone terminal 11 further includes an input unit 23 for operation by a user (photographer) and a housing 24.
  • a second camera unit 17, a display unit 18, and an input unit 23 are provided on the front surface of the housing 24.
  • a first camera unit 16 is provided on the back surface of the housing 24.
  • the CPU 12, the bus 13, the ROM 14, the RAM 15, the operation recognition processing unit 19, and the storage device 20 are provided in the housing 24.
  • FIG. 3 is a flowchart showing the operation of the mobile phone terminal 11.
  • the photographer points the first camera unit 16 (front of the mobile phone terminal 11) toward the subject. At this time, the photographer operates the input unit 23 to give a start instruction for starting the camera shooting program (camera shooting application) to the mobile phone terminal 11 (step S30).
  • the activation control unit 21 activates the first camera unit 16 in response to the activation instruction. At this time, the activation control unit 21 starts photographing, controls the first camera unit 16 to generate preview video data that is moving image data representing the image of the subject, and displays the preview video data on the display unit 18. Display in one display area (step S31).
  • the activation control unit 21 activates the second camera unit 17 in response to the activation instruction. At this time, the activation control unit 21 starts photographing, controls the second camera unit 17 so as to sequentially generate still image data, and sequentially displays the still image data in the second display area of the display unit 18. (Step S32).
  • the first and second display areas of the display unit 18 are square, and the second display area is smaller than the first display area.
  • the second display area is provided with a small frame at the corner (corner) of the first display area, and is displayed so as not to greatly disturb the image represented by the preview video data.
  • the photographer operates the input unit 23 to give a photographing start instruction to the mobile phone terminal 11 while the camera photographing application is activated (step S33).
  • the motion recognition processing unit 19 sequentially inputs the still image data generated by the second camera unit 17 in accordance with the shooting start instruction (step S34).
  • the motion recognition processing unit 19 compares the current still image data, which is the above-described still image data, with the previous still image data, and determines whether or not the current still image data has changed with respect to the previous still image data. Is determined (step S35).
  • step S35 as a change determination method, for example, the motion recognition processing unit 19 determines the brightness value of the image represented by the current still image data and the brightness value of the image represented by the previous still image data in accordance with the shooting start instruction. The difference luminance value indicating the difference is calculated, and the calculated luminance value is compared with the set luminance value.
  • Step S35 If the calculated luminance value does not exceed the set luminance value (step S35—NO), the motion recognition processing unit 19 determines that the current still image data has not changed from the previous still image data, Step S34 is executed.
  • step S35 determines that the current still image data has changed from the previous still image data, and the motion detection signal Is output.
  • step S35-YES for example, when the photographer performs an operation of crossing his / her finger or object in front of the second camera 17, the motion recognition processing unit 19 makes the current still image data the previous still image data. Judged to have changed. In this case, the photographer or the object is photographed in the image represented by one of the still image data of the current still image data and the previous still image data, and the current still image data and the previous still image data are The photographer or the object is not copied in the image represented by the other still image data.
  • the photographing control unit 22 controls the first camera unit 16 to photograph the subject and generate photographing data in accordance with the motion detection signal, and stores the photographing data in the storage device 20 (step S36).
  • the cellular phone terminal 11 when a subject is photographed by the camera function (first camera unit 16), a change in the image photographed by the second camera unit 17 is used as a photographing opportunity. Accordingly, since the photographer can take a picture with the mobile phone terminal 11 placed, hand shake can be prevented.
  • an image photographed by the second camera unit 17 is displayed in one corner (second display area) of the display unit 18, which is a shooting opportunity for the photographer. Easy to measure timing.
  • the motion recognition processing unit 19 calculates a difference luminance value indicating a difference in luminance value when comparing the current still image data with the previous still image data.
  • the present invention is not limited to this.
  • a change value indicating the number of pixels or the area that is the change portion is calculated, and the change value And the set value may be compared.
  • descriptions overlapping with those in the first embodiment are omitted.
  • steps S30 to S34 are executed.
  • step S35 as a change determination method, for example, the motion recognition processing unit 19 is a pixel that is a changed portion between the image represented by the current still image data and the image represented by the previous still image data in accordance with the shooting start instruction. A change value indicating the number or area is calculated, and the change value is compared with the set value.
  • step S35 If the changed value does not exceed the set value (step S35—NO), the motion recognition processing unit 19 determines that the current still image data has not changed from the previous still image data, and step S34. Execute.
  • step S35 YES
  • the motion recognition processing unit 19 determines that the current still image data has changed from the previous still image data, and outputs a motion detection signal. To do. Thereafter, step S36 is executed.
  • the mobile phone terminal 11 according to the second embodiment of the present invention has the same effect as the first embodiment.
  • the motion recognition processing unit 19 performs the current still image. Although it is determined that the data has changed with respect to the previous still image data, the present invention is not limited to this.
  • the motion recognition processing unit 19 when the photographer changes the facial expression in front of the second camera 17, the motion recognition processing unit 19 performs face recognition so that the current still image data is the previous one. You may judge that it changed with respect to still image data.
  • the description which overlaps with 1st and 2nd embodiment is abbreviate
  • steps S30 to S34 are executed.
  • step S35 as a change determination method, for example, the motion recognition processing unit 19 is a pixel that is a changed portion between the image represented by the current still image data and the image represented by the previous still image data in accordance with the shooting start instruction.
  • a change value indicating the number or area is calculated, and the change value is compared with the set value.
  • the photographer's face is captured in the image represented by the current still image data and the image represented by the previous still image data, and the image represented by the current still image data and the image represented by the previous still image data
  • the changed part is the facial expression.
  • setting values are set so that the change value does not exceed the set value due to face recognition, and face recognition is performed when the photographer winks or smiles.
  • Face recognition is performed when the photographer winks or smiles.
  • step S35—NO when the changed value does not exceed the set value (step S35—NO), the motion recognition processing unit 19 determines that the current still image data has not changed from the previous still image data, and step S34. Execute.
  • step S35 YES
  • the motion recognition processing unit 19 determines that the current still image data has changed from the previous still image data, and outputs a motion detection signal. To do. Thereafter, step S36 is executed.
  • the change of the image photographed by the second camera unit 17 is used as face recognition.
  • the shooting opportunity As a result, the photographer can shoot with a more natural posture by fixing the mobile phone terminal 11 with both hands.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

 本発明の携帯通信装置は、被写体を撮影するための第1カメラ部と、撮影者又は撮影者が所持する物を撮影するための第2カメラ部と、起動制御部と、動作認識処理部と、撮影制御部とを具備している。起動制御部は、起動指示に応じて、撮影を開始し、静止画像データを順次に生成するように第2カメラ部を制御する。動作認識処理部は、撮影開始指示に応じて、静止画像データである今回の静止画像データと前回の静止画像データとを比較する。撮影制御部は、今回の静止画像データが前回の静止画像データに対して変化した場合、被写体を撮影して撮影データを生成するように第1カメラ部を制御する。これにより、本発明の携帯通信装置では、カメラ機能により被写体の撮影を行うときに手振れを防止することができる。

Description

携帯通信装置
 本発明は、カメラ機能が設けられた携帯通信装置に関する。
 携帯通信装置として、例えば携帯電話端末が普及している。近年では、携帯電話端末の小型・軽量化が進んでいる。また、携帯電話端末にカメラ(カメラ機能)が設けられているタイプが増えてきている。
 しかし、携帯電話端末は、カメラ専用ではないため、カメラ機能により被写体の撮影を行う場合、通常のカメラに比べて安定性がよくない場合が多い。例えば、携帯電話端末では、撮影者がカメラ機能により被写体の撮影を行うときにシャッターボタン(撮影ボタン)を押下する。このとき、撮影者の押下の仕方や技量によって、撮影者が撮影ボタンを押下したときに携帯電話端末が所望の位置からぶれてしまう(手振れを起こしてしまう)。その結果、カメラ機能により撮影された画像に“ぶれ”が生じてしまう。
 手振れを防ぐため、リモートコントロール装置(以下、リモコン装置と称する)で撮影操作を行うことも考えられるが、撮影者は携帯電話端末とは別にリモコン装置も携帯する必要があり、利便性の点で課題がある。また、携帯電話端末が撮影者の音声を認識して撮影契機とすることも考えられるが、声を発せない場所での撮影に課題がある。
 携帯通信装置に関する技術を紹介する。
 特開2008-227672号公報には、キーに触らなくても、ディスプレイの省電力状態を解除することが可能となる携帯端末が記載されている。
 特開2005-250396号公報には、一対の撮像部の視差調節、及び焦点調節ができ、立体画像の撮像を可能とするカメラ付き携帯端末が記載されている。
 特開2003-274376号公報には、1つのカメラを使ってテレビ電話として使用しているときに、新たに他のカメラを並行して使用する携帯通信装置が記載されている。
特開2008-227672号公報 特開2005-250396号公報 特開2003-274376号公報
 本発明の課題は、カメラ機能により被写体の撮影を行うときに手振れを防止することができる携帯通信装置を提供することにある。
 本発明の携帯通信装置は、被写体を撮影するための第1カメラ部と、撮影者又は撮影者が所持する物を撮影するための第2カメラ部と、起動制御部と、動作認識処理部と、撮影制御部とを具備している。起動制御部は、起動指示に応じて、撮影を開始し、静止画像データを順次に生成するように第2カメラ部を制御する。動作認識処理部は、撮影開始指示に応じて、静止画像データである今回の静止画像データと前回の静止画像データとを比較する。撮影制御部は、今回の静止画像データが前回の静止画像データに対して変化した場合、被写体を撮影して撮影データを生成するように第1カメラ部を制御する。
 本発明の携帯通信装置では、カメラ機能(第1カメラ部)により被写体の撮影を行うときに、第2カメラ部により撮影された画像の変化を撮影契機としている。これにより、撮影者が携帯通信装置を置いたまま撮影が行えるため、手振れを防止することができる。
 上記発明の目的、効果、特徴は、添付される図面と連携して実施の形態の記述から、より明らかになる。
図1は、本発明の第1~3実施形態による携帯通信装置として、携帯電話端末11の構成を示している。 図2Aは、携帯電話端末11の正面斜視図を示している。 図2Bは、携帯電話端末11の背面斜視図を示している。 図3は、携帯電話端末11の動作を示すフローチャートである。
 以下に添付図面を参照して、本発明の実施形態による携帯通信装置について詳細に説明する。
 (第1実施形態)
 本発明の実施形態による携帯通信装置として、携帯電話端末、PHS(Personal Handyphone System)、PDA(Personal Data Assistance、Personal Digital Assistants:個人向け携帯型情報通信機器)などが挙げられる。以下、携帯電話端末を例にして説明する。
 図1は、本発明の第1実施形態による携帯電話端末11の構成を示している。
 本発明の第1実施形態による携帯電話端末11は、CPU(Central Processing Unit)12と、バス13と、ROM(Read Only Memory)14と、RAM(Random Access Memory)15と、第1カメラ部16と、第2カメラ部17と、表示部18と、動作認識処理部19と、記憶装置20とを具備している。
 CPU12は、バス13を介して、ROM14、RAM15、第1カメラ部16、第2カメラ部17、表示部18、動作認識処理部19、記憶装置20と接続されている。
 ROM14には、CPU12が実行するための各種のコンピュータプログラムである制御用プログラムや携帯電話端末11内で使用する固定的なデータが格納されている。
 RAM15には、CPU12がプログラムを実行する上で一時的に必要とされるデータが格納される。
 第1カメラ部16は、被写体を撮影するために使用される。
 第2カメラ部17は、撮影者又は撮影者が所持する物を撮影するために使用される。
 表示部18は、CPU12の実行結果(例えば、操作メニュー)や第1カメラ部16、第2カメラ部17により撮影された画像など、操作者への情報を表示する。
 動作認識処理部19は、第2カメラ部17により撮影された画像を入力し、その画像により動作の変化を検出する。
 記録装置20は、第1カメラ部16により撮影された画像を保存する。
 ROM14に格納された制御用プログラムは、カメラ撮影用プログラムを含んでいる。このカメラ撮影用プログラムは、起動制御部21、撮影制御部22を含んでいる。ここで、動作認識処理部19は、回路(装置)で実現してもよいし、コンピュータプログラム(カメラ撮影用プログラム)で実現してもよい。
 図2Aは、携帯電話端末11の正面斜視図を示し、図2Bは、携帯電話端末11の背面斜視図を示している。
 携帯電話端末11は、更に、利用者(撮影者)が操作するための入力部23と、筐体24とを具備している。筐体24の正面には、第2カメラ部17、表示部18、入力部23が設けられている。筐体24の背面には、第1カメラ部16が設けられている。CPU12、バス13、ROM14、RAM15、動作認識処理部19、記憶装置20は、筐体24内に設けられている。
 図3は、携帯電話端末11の動作を示すフローチャートである。
 撮影者は、第1カメラ部16(携帯電話端末11の正面)を被写体に向ける。このとき、撮影者は、入力部23を操作して、カメラ撮影用プログラム(カメラ撮影アプリケーション)を起動させるための起動指示を携帯電話端末11に与える(ステップS30)。
 起動制御部21は、起動指示に応じて、第1カメラ部16を起動する。このとき、起動制御部21は、撮影を開始し、被写体の画像を表す動画像データであるプレビュー映像データを生成するように第1カメラ部16を制御し、プレビュー映像データを表示部18の第1表示領域に表示する(ステップS31)。
 また、起動制御部21は、起動指示に応じて、第2カメラ部17を起動する。このとき、起動制御部21は、撮影を開始し、静止画像データを順次に生成するように第2カメラ部17を制御し、静止画像データを順次に表示部18の第2表示領域に表示する(ステップS32)。
 ステップS32において、表示部18の第1、2表示領域は、四角形であり、第2表示領域は、第1表示領域より小さい。例えば、第2表示領域は、第1表示領域の角(隅)に小さな枠により設けられ、プレビュー映像データが表す画像を大きく妨げないように表示される。
 撮影者は、入力部23を操作して、カメラ撮影アプリケーションの起動中に撮影開始指示を携帯電話端末11に与える(ステップS33)。
 このとき、動作認識処理部19は、撮影開始指示に応じて、第2カメラ部17により生成された静止画像データを順次に入力する(ステップS34)。
 動作認識処理部19は、上記の静止画像データである今回の静止画像データと前回の静止画像データとを比較し、今回の静止画像データが前回の静止画像データに対して変化しているか否かを判断する(ステップS35)。
 ステップS35において、変化の判断方法として、例えば、動作認識処理部19は、撮影開始指示に応じて、今回の静止画像データが表す画像の輝度値と前回の静止画像データが表す画像の輝度値との差分を示す差分輝度値を算出し、算出輝度値と設定輝度値とを比較する。
 ここで、算出輝度値が設定輝度値を超えない場合(ステップS35-NO)、動作認識処理部19は、今回の静止画像データが前回の静止画像データに対して変化していないと判断し、ステップS34を実行する。
 一方、算出輝度値が設定輝度値を超えた場合(ステップS35-YES)、動作認識処理部19は、今回の静止画像データが前回の静止画像データに対して変化したと判断し、動作検出信号を出力する。
 ステップS35-YESにおいて、例えば、撮影者が自身の指又は物を第2カメラ17の前で横切る程度の動作を行うことにより、動作認識処理部19が今回の静止画像データが前回の静止画像データに対して変化したと判断する。この場合、今回の静止画像データと前回の静止画像データとの一方の静止画像データが表す画像には、撮影者又は物が写されていて、今回の静止画像データと前回の静止画像データとの他方の静止画像データが表す画像には、撮影者又は物が写されていない。
 撮影制御部22は、動作検出信号に応じて、被写体を撮影して撮影データを生成するように第1カメラ部16を制御し、その撮影データを記憶装置20に保存する(ステップS36)。
 本発明の第1実施形態による携帯電話端末11では、カメラ機能(第1カメラ部16)により被写体の撮影を行うときに、第2カメラ部17により撮影された画像の変化を撮影契機としている。これにより、撮影者が携帯電話端末11を置いたまま撮影が行えるため、手振れを防止することができる。
 また、本発明の第1実施形態による携帯電話端末11では、第2カメラ部17により撮影された画像が表示部18の片隅(第2表示領域)に表示されるため、撮影者にとって撮影契機のタイミングを計りやすい。
 (第2実施形態)
 本発明の第1実施形態による携帯電話端末11では、動作認識処理部19は、今回の静止画像データと前回の静止画像データとを比較する際、輝度値の差分を示す差分輝度値を算出し、算出輝度値と設定輝度値とを比較しているが、これに限定されない。本発明の第2実施形態による携帯電話端末11では、今回の静止画像データと前回の静止画像データとを比較する際、その変更部分である画素数又は面積を示す変更値を算出し、変更値と設定値とを比較してもよい。第2実施形態では、第1実施形態と重複する説明を省略する。
 まず、ステップS30~S34が実行される。
 ステップS35において、変化の判断方法として、例えば、動作認識処理部19は、撮影開始指示に応じて、今回の静止画像データが表す画像と前回の静止画像データが表す画像との変更部分である画素数又は面積を示す変更値を算出し、変更値と設定値とを比較する。
 ここで、変更値が設定値を超えない場合(ステップS35-NO)、動作認識処理部19は、今回の静止画像データが前回の静止画像データに対して変化していないと判断し、ステップS34を実行する。
 一方、変更値が設定値を超えた場合(ステップS35-YES)、動作認識処理部19は、今回の静止画像データが前回の静止画像データに対して変化したと判断し、動作検出信号を出力する。その後、ステップS36が実行される。
 本発明の第2実施形態による携帯電話端末11では、第1実施形態と同じ効果である。
 (第3実施形態)
 本発明の第2実施形態による携帯電話端末11では、撮影者が自身の指又は物を第2カメラ17の前で横切る程度の動作を行った際に、動作認識処理部19が今回の静止画像データが前回の静止画像データに対して変化したと判断するが、これに限定されない。本発明の第3実施形態による携帯電話端末11では、撮影者が第2カメラ17の前で表情を変えた際に、動作認識処理部19が、顔認識により、今回の静止画像データが前回の静止画像データに対して変化したと判断してもよい。第3実施形態では、第1、2実施形態と重複する説明を省略する。
 まず、ステップS30~S34が実行される。
 ステップS35において、変化の判断方法として、例えば、動作認識処理部19は、撮影開始指示に応じて、今回の静止画像データが表す画像と前回の静止画像データが表す画像との変更部分である画素数又は面積を示す変更値を算出し、変更値と設定値とを比較する。この場合、今回の静止画像データが表す画像と前回の静止画像データが表す画像には、撮影者の顔が写されていて、今回の静止画像データが表す画像と前回の静止画像データが表す画像との変更部分は、顔の表情である。
 例えば、撮影者が真顔のままでいるとき、顔認識により変更値が設定値を超えないように、設定値を設定しておき、撮影者が真顔からウィンクや笑顔になったときに、顔認識により変更値が設定値を超えるように、設定値を設定しておく。
 これにより、変更値が設定値を超えない場合(ステップS35-NO)、動作認識処理部19は、今回の静止画像データが前回の静止画像データに対して変化していないと判断し、ステップS34を実行する。
 一方、変更値が設定値を超えた場合(ステップS35-YES)、動作認識処理部19は、今回の静止画像データが前回の静止画像データに対して変化したと判断し、動作検出信号を出力する。その後、ステップS36が実行される。
 本発明の第3実施形態による携帯電話端末11では、カメラ機能(第1カメラ部16)により被写体の撮影を行うときに、第2カメラ部17により撮影された画像の変化を、顔認識を用いて撮影契機としている。これにより、撮影者が両手で携帯電話端末11を固定してより自然な体勢で撮影が可能となる。
 以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2009年11月2日に出願された特許出願番号2009-252155号の日本特許出願に基づいており、その出願による優先権の利益を主張し、その出願の開示は、引用することにより、そっくりそのままここに組み込まれている。

Claims (17)

  1.  被写体を撮影するための第1カメラ部と、
     撮影者又は前記撮影者が所持する物を撮影するための第2カメラ部と、
     起動指示に応じて、撮影を開始し、静止画像データを順次に生成するように前記第2カメラ部を制御する起動制御部と、
     撮影開始指示に応じて、前記静止画像データである今回の静止画像データと前回の静止画像データとを比較する動作認識処理部と、
     前記今回の静止画像データが前記前回の静止画像データに対して変化した場合、前記被写体を撮影して撮影データを生成するように前記第1カメラ部を制御する撮影制御部と
    具備する携帯通信装置。
  2.  前記動作認識処理部は、撮影開始指示に応じて、
     前記今回の静止画像データが表す画像の輝度値と前記前回の静止画像データが表す画像の輝度値との差分を示す差分輝度値を算出し、
     前記算出輝度値と設定輝度値とを比較し、
     前記撮影制御部は、
     前記算出輝度値が前記設定輝度値を超えた場合、前記被写体を撮影して前記撮影データを生成するように前記第1カメラ部を制御する
    請求項1に記載の携帯通信装置。
  3.  前記動作認識処理部は、撮影開始指示に応じて、
     前記今回の静止画像データが表す画像と前記前回の静止画像データが表す画像との変更部分である画素数又は面積を示す変更値を算出し、
     前記変更値と設定値とを比較し、
     前記撮影制御部は、
     前記変更値が前記設定値を超えた場合、前記被写体を撮影して前記撮影データを生成するように前記第1カメラ部を制御する
    請求項1に記載の携帯通信装置。
  4.  前記今回の静止画像データと前記前回の静止画像データとの一方の静止画像データが表す画像には、前記撮影者又は前記物が写されていて、
     前記今回の静止画像データと前記前回の静止画像データとの他方の静止画像データが表す画像には、前記撮影者又は前記物が写されていない
    請求項2又は3に記載の携帯通信装置。
  5.  前記今回の静止画像データが表す画像と前記前回の静止画像データが表す画像には、前記撮影者の顔が写されていて、
     前記今回の静止画像データが表す画像と前記前回の静止画像データが表す画像との変更部分は、前記顔の表情である
    請求項3に記載の携帯通信装置。
  6.  表示部
    を更に具備し、
     前記起動制御部は、前記起動指示に応じて、
     撮影を開始し、前記被写体の画像を表す動画像データであるプレビュー映像データを生成するように前記第1カメラ部を制御し、前記プレビュー映像データを前記表示部の第1表示領域に表示し、
     撮影を開始し、前記静止画像データを順次に生成するように前記第2カメラ部を制御し、前記静止画像データを順次に前記表示部の第2表示領域に表示する
    請求項1~5のいずれかに記載の携帯通信装置。
  7.  前記第2表示領域は、前記第1表示領域より小さい
    請求項6に記載の携帯通信装置。
  8.  前記撮影データを保存する記憶装置
    を更に具備する請求項1~7のいずれかに記載の携帯通信装置。
  9.  被写体を撮影するための第1カメラ部と、撮影者又は前記撮影者が所持する物を撮影するための第2カメラ部とが設けられた携帯通信装置が実行する撮影方法であって、
    (a) 起動指示に応じて、撮影を開始し、静止画像データを順次に生成するように前記第2カメラ部を制御するステップと、
    (b) 撮影開始指示に応じて、前記静止画像データである今回の静止画像データと前回の静止画像データとを比較するステップと、
    (c) 前記今回の静止画像データが前記前回の静止画像データに対して変化した場合、前記被写体を撮影して撮影データを生成するように前記第1カメラ部を制御するステップと
    具備する撮影方法。
  10.  前記(b)のステップは、撮影開始指示に応じて、
     前記今回の静止画像データが表す画像の輝度値と前記前回の静止画像データが表す画像の輝度値との差分を示す差分輝度値を算出し、
     前記算出輝度値と設定輝度値とを比較し、
     前記(c)のステップは、
     前記算出輝度値が前記設定輝度値を超えた場合、前記被写体を撮影して前記撮影データを生成するように前記第1カメラ部を制御する
    請求項9に記載の撮影方法。
  11.  前記(b)のステップは、撮影開始指示に応じて、
     前記今回の静止画像データが表す画像と前記前回の静止画像データが表す画像との変更部分である画素数又は面積を示す変更値を算出し、
     前記変更値と設定値とを比較し、
     前記(c)のステップは、
     前記変更値が前記設定値を超えた場合、前記被写体を撮影して前記撮影データを生成するように前記第1カメラ部を制御する
    請求項9に記載の撮影方法。
  12.  前記今回の静止画像データと前記前回の静止画像データとの一方の静止画像データが表す画像には、前記撮影者又は前記物が写されていて、
     前記今回の静止画像データと前記前回の静止画像データとの他方の静止画像データが表す画像には、前記撮影者又は前記物が写されていない
    請求項10又は11に記載の撮影方法。
  13.  前記今回の静止画像データが表す画像と前記前回の静止画像データが表す画像には、前記撮影者の顔が写されていて、
     前記今回の静止画像データが表す画像と前記前回の静止画像データが表す画像との変更部分は、前記顔の表情である
    請求項11に記載の撮影方法。
  14.  前記携帯通信装置には表示部が設けられ、
     前記(a)のステップは、前記起動指示に応じて、
     撮影を開始し、前記被写体の画像を表す動画像データであるプレビュー映像データを生成するように前記第1カメラ部を制御し、前記プレビュー映像データを前記表示部の第1表示領域に表示し、
     撮影を開始し、前記静止画像データを順次に生成するように前記第2カメラ部を制御し、前記静止画像データを順次に前記表示部の第2表示領域に表示する
    請求項9~13のいずれかに記載の撮影方法。
  15.  前記第2表示領域は、前記第1表示領域より小さい
    請求項14に記載の撮影方法。
  16.  前記携帯通信装置には記憶装置が設けられ、
     前記撮影データを前記記憶装置に保存するステップ
    を更に具備する請求項9~15のいずれかに記載の撮影方法。
  17.  請求項9~16のいずれかに記載の撮影方法の各ステップをコンピュータである携帯通信装置に実行させるコンピュータプログラムが記憶され、前記コンピュータプログラムを前記コンピュータが読み取り可能な記録媒体。
PCT/JP2010/068666 2009-11-02 2010-10-22 携帯通信装置 WO2011052492A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201080049454.8A CN102598653B (zh) 2009-11-02 2010-10-22 移动通信设备和拍摄方法
US13/505,610 US8941745B2 (en) 2009-11-02 2010-10-22 Mobile communication apparatus for controlling imaging based on facial recognition
EP10826624.8A EP2498487B1 (en) 2009-11-02 2010-10-22 Mobile communication apparatus
JP2011538391A JP5594485B2 (ja) 2009-11-02 2010-10-22 携帯通信装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009252155 2009-11-02
JP2009-252155 2009-11-02

Publications (1)

Publication Number Publication Date
WO2011052492A1 true WO2011052492A1 (ja) 2011-05-05

Family

ID=43921916

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/068666 WO2011052492A1 (ja) 2009-11-02 2010-10-22 携帯通信装置

Country Status (5)

Country Link
US (1) US8941745B2 (ja)
EP (1) EP2498487B1 (ja)
JP (1) JP5594485B2 (ja)
CN (1) CN102598653B (ja)
WO (1) WO2011052492A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143414A (ja) * 2015-01-30 2016-08-08 ピックスアート イメージング インコーポレイテッド インタラクティブシステム、リモコン及びその操作方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5779367B2 (ja) * 2011-03-10 2015-09-16 オリンパス株式会社 撮像装置、撮像制御方法及び撮像制御プログラム
CN111784615A (zh) 2016-03-25 2020-10-16 北京三星通信技术研究有限公司 多媒体信息处理的方法和装置
CN108780593A (zh) 2016-04-11 2018-11-09 创科(澳门离岸商业服务)有限公司 模块化车库开门器
CA2961090A1 (en) 2016-04-11 2017-10-11 Tti (Macao Commercial Offshore) Limited Modular garage door opener
CN106231175A (zh) * 2016-07-09 2016-12-14 东莞市华睿电子科技有限公司 一种终端手势拍照的方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0540303A (ja) * 1991-08-05 1993-02-19 Canon Inc カメラ
JPH11101935A (ja) * 1997-09-26 1999-04-13 Canon Inc 注視状態検出装置及び電子機器の制御装置
JP2000196934A (ja) * 1998-12-25 2000-07-14 Casio Comput Co Ltd 撮像方法および撮像装置
JP2003274376A (ja) 2002-03-14 2003-09-26 Sanyo Electric Co Ltd 携帯通信装置
JP2004147046A (ja) * 2002-10-24 2004-05-20 Matsushita Electric Ind Co Ltd ディジタルカメラおよびディジタルカメラ付き携帯電話装置
JP2005094741A (ja) * 2003-08-14 2005-04-07 Fuji Photo Film Co Ltd 撮像装置及び画像合成方法
JP2005250396A (ja) 2004-03-08 2005-09-15 Fuji Photo Film Co Ltd カメラ付き携帯端末
JP2008032828A (ja) * 2006-07-26 2008-02-14 Fujifilm Corp 撮像装置、及びカメラ付き携帯電話機
JP2008227672A (ja) 2007-03-09 2008-09-25 Fujitsu Ltd 携帯端末,省電力制御方法および省電力制御プログラム
JP2009252155A (ja) 2008-04-10 2009-10-29 Nippon Telegr & Teleph Corp <Ntt> 運搬状況管理システムおよび運搬状況管理方法
JP2010148052A (ja) * 2008-12-22 2010-07-01 Kyocera Corp カメラ付き携帯端末

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092419A (ja) * 2003-09-16 2005-04-07 Casio Comput Co Ltd 情報処理装置およびプログラム
JP2005176301A (ja) * 2003-11-11 2005-06-30 Canon Inc 画像処理装置、ネットワークカメラシステム、画像処理方法、及びプログラム
JP4810850B2 (ja) * 2005-03-28 2011-11-09 カシオ計算機株式会社 撮像装置及びプログラム
JP4240108B2 (ja) * 2006-10-31 2009-03-18 ソニー株式会社 画像記憶装置、撮像装置、画像記憶方法およびプログラム
JP4845755B2 (ja) 2007-01-30 2011-12-28 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
US7995794B2 (en) * 2007-03-02 2011-08-09 Sony Ericsson Mobile Communications Ab Remote control of an image capturing unit in a portable electronic device
JP4898532B2 (ja) 2007-04-13 2012-03-14 富士フイルム株式会社 画像処理装置および撮影システム並びに瞬き状態検出方法、瞬き状態検出プログラムおよびそのプログラムが記録された記録媒体
JP2009117975A (ja) * 2007-11-02 2009-05-28 Oki Electric Ind Co Ltd 撮影装置および撮影方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0540303A (ja) * 1991-08-05 1993-02-19 Canon Inc カメラ
JPH11101935A (ja) * 1997-09-26 1999-04-13 Canon Inc 注視状態検出装置及び電子機器の制御装置
JP2000196934A (ja) * 1998-12-25 2000-07-14 Casio Comput Co Ltd 撮像方法および撮像装置
JP2003274376A (ja) 2002-03-14 2003-09-26 Sanyo Electric Co Ltd 携帯通信装置
JP2004147046A (ja) * 2002-10-24 2004-05-20 Matsushita Electric Ind Co Ltd ディジタルカメラおよびディジタルカメラ付き携帯電話装置
JP2005094741A (ja) * 2003-08-14 2005-04-07 Fuji Photo Film Co Ltd 撮像装置及び画像合成方法
JP2005250396A (ja) 2004-03-08 2005-09-15 Fuji Photo Film Co Ltd カメラ付き携帯端末
JP2008032828A (ja) * 2006-07-26 2008-02-14 Fujifilm Corp 撮像装置、及びカメラ付き携帯電話機
JP2008227672A (ja) 2007-03-09 2008-09-25 Fujitsu Ltd 携帯端末,省電力制御方法および省電力制御プログラム
JP2009252155A (ja) 2008-04-10 2009-10-29 Nippon Telegr & Teleph Corp <Ntt> 運搬状況管理システムおよび運搬状況管理方法
JP2010148052A (ja) * 2008-12-22 2010-07-01 Kyocera Corp カメラ付き携帯端末

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2498487A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143414A (ja) * 2015-01-30 2016-08-08 ピックスアート イメージング インコーポレイテッド インタラクティブシステム、リモコン及びその操作方法

Also Published As

Publication number Publication date
JPWO2011052492A1 (ja) 2013-03-21
EP2498487A4 (en) 2014-05-07
JP5594485B2 (ja) 2014-09-24
CN102598653A (zh) 2012-07-18
EP2498487A1 (en) 2012-09-12
CN102598653B (zh) 2015-08-05
EP2498487B1 (en) 2017-01-04
US8941745B2 (en) 2015-01-27
US20120224074A1 (en) 2012-09-06

Similar Documents

Publication Publication Date Title
EP3633975B1 (en) Photographic method, photographic apparatus, and mobile terminal
JP4872797B2 (ja) 撮像装置、撮像方法および撮像プログラム
WO2016208562A1 (ja) 電子機器、電子機器の動作方法及び制御プログラム
JP5594485B2 (ja) 携帯通信装置
US20130120635A1 (en) Subject detecting method and apparatus, and digital photographing apparatus
US10666864B2 (en) Image capturing apparatus and control method for image capturing apparatus
KR20210101009A (ko) 복수의 카메라를 이용한 동영상 촬영 방법 및 그 장치
JP2009171428A (ja) デジタルカメラ装置および電子ズームの制御方法およびプログラム
CN111095912B (zh) 摄像装置、摄像方法及记录介质
JP4687001B2 (ja) 携帯端末装置
JP2012257112A (ja) 撮像装置およびプログラム
US9143684B2 (en) Digital photographing apparatus, method of controlling the same, and computer-readable storage medium
JP2011234015A (ja) 端末装置
JP2009020163A (ja) 撮像装置及びそのプログラム
JP2014045404A (ja) 携帯端末
JP6700693B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP5182395B2 (ja) 撮像装置、撮像方法および撮像プログラム
JP5660306B2 (ja) 撮像装置、プログラム、及び撮像方法
JP5932862B2 (ja) デジタルカメラの撮像方法及びコンピュータが実行可能なプログラム
JP6840903B2 (ja) 撮像装置、撮像方法、及びプログラム
JP2010252238A (ja) 撮像装置および撮像方法
CN115150540A (zh) 拍摄方法、终端设备及计算机可读存储介质
CN118138696A (zh) 防抖方法、装置、电子设备及介质
JP2012120003A (ja) 撮影装置、撮影装置における制御方法及びその制御プログラム
JP2018084849A (ja) 撮像装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080049454.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10826624

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011538391

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2010826624

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13505610

Country of ref document: US

Ref document number: 3883/CHENP/2012

Country of ref document: IN

Ref document number: 2010826624

Country of ref document: EP