JP2012209677A - Portable electronic apparatus - Google Patents
Portable electronic apparatus Download PDFInfo
- Publication number
- JP2012209677A JP2012209677A JP2011072472A JP2011072472A JP2012209677A JP 2012209677 A JP2012209677 A JP 2012209677A JP 2011072472 A JP2011072472 A JP 2011072472A JP 2011072472 A JP2011072472 A JP 2011072472A JP 2012209677 A JP2012209677 A JP 2012209677A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- distance
- control unit
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
- Telephone Function (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、三次元画像の撮影を行う携帯電子機器に関する。 The present invention relates to a portable electronic device that captures a three-dimensional image.
近年では、三次元画像を表示させる電子機器が提案されている。この電子機器に表示させる三次元画像を撮影する装置は、例えばミラー等を配置して角度をずらした2つの画像を撮影することで、三次元画像として再生可能な画像を撮影できる(特許文献1参照)。また、複数台の撮影装置を配置して夫々の撮影装置で同時に画像を撮影することでも、三次元画像として再生可能な画像を撮影できる(特許文献2参照)。 In recent years, electronic devices that display three-dimensional images have been proposed. An apparatus that captures a three-dimensional image to be displayed on the electronic apparatus can capture an image that can be reproduced as a three-dimensional image by capturing, for example, two images at different angles by arranging a mirror or the like (Patent Document 1). reference). In addition, an image that can be reproduced as a three-dimensional image can be captured by arranging a plurality of imaging devices and simultaneously capturing images with each of the imaging devices (see Patent Document 2).
しかしながら、特許文献1に記載の装置は、画像を撮影する撮影機構として三次元画像を撮影するための光学系、撮像素子が必要となる。また、特許文献2に記載の装置は、複数台の撮影装置が必要となる。このため、装置構成が複雑化、大型化し、装置が高価になる。
However, the apparatus described in
また、三次元画像を撮影する装置としては、ユーザが1つの電子機器で1回目の撮影をした後、場所を移動して2回目の撮影を行うことで、三次元画像として再生可能な画像を撮影する装置もある。このように場所を移動しつつ2枚の画像を取得することで1枚の画像を撮影できない電子機器でも三次元画像として再生可能な画像を撮影することができる。 In addition, as a device that captures a 3D image, a user can capture an image that can be reproduced as a 3D image by moving the location and performing a second image after the first image is captured with one electronic device. Some devices take pictures. Thus, by acquiring two images while moving between places, an electronic device that cannot capture one image can capture an image that can be reproduced as a three-dimensional image.
しかしながら、1台の装置で移動しながら撮影する方法では、撮影した2つの画像の間に不要なずれ等が生じ、撮影した画像が三次元画像にならない、つまり立体画像に見えない恐れがある。 However, in the method of shooting while moving with one apparatus, an unnecessary shift or the like occurs between the two shot images, and the shot image may not become a three-dimensional image, that is, may not be seen as a three-dimensional image.
本発明は、上記に鑑みてなされたものであって、三次元画像として表示可能な画像の撮影を好適に実行できる携帯電子機器を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a portable electronic device that can suitably execute shooting of an image that can be displayed as a three-dimensional image.
上述した課題を解決し、目的を達成するために、本発明の携帯電子機器は、筐体と、前記筐体に配置され、被写体を撮影する撮影部と、前記撮影部と前記被写体との被写体距離を検出する距離検出部と、前記撮影部で前記被写体の1枚目の画像を撮影した後、前記距離検出部で検出した結果に基づいて、前記1枚目の画像と組み合わせることで前記被写体を立体視できる画像を撮影できる前記被写体距離に前記筐体が配置されていると判定した場合、前記撮影部で前記被写体の2枚目の画像を撮影する制御部と、を有することを特徴とする。 In order to solve the above-described problems and achieve the object, a portable electronic device of the present invention includes a housing, a photographing unit that is disposed in the housing and photographs a subject, and a subject of the photographing unit and the subject. A distance detection unit that detects a distance; and the first image of the subject is captured by the imaging unit and then combined with the first image based on a result detected by the distance detection unit. A control unit that captures a second image of the subject by the photographing unit when it is determined that the casing is disposed at the subject distance at which a stereoscopically viewable image can be photographed. To do.
ここで、前記距離検出部は、前記被写体に向けて超音波を出力し、当該超音波の反射波を検出することで、前記被写体距離を検出する超音波センサであることが好ましい。 Here, it is preferable that the distance detection unit is an ultrasonic sensor that outputs the ultrasonic wave toward the subject and detects the subject distance by detecting a reflected wave of the ultrasonic wave.
また、前記超音波センサは、超音波を出力してから当該超音波の反射波を検出するまでの時間に基づいて前記被写体距離を検出することが好ましい。 Further, it is preferable that the ultrasonic sensor detects the subject distance based on a time from when an ultrasonic wave is output until a reflected wave of the ultrasonic wave is detected.
また、前記超音波センサは、超音波の反射波の反射強度の変化に基づいて前記被写体との相対位置の変化を検出することが好ましい。 Moreover, it is preferable that the ultrasonic sensor detects a change in the relative position with respect to the subject based on a change in the reflection intensity of the reflected wave of the ultrasonic wave.
また、報知部をさらに有し、前記制御部は、前記距離検出部で検出した結果に基づいて前記被写体が動かないと判定した場合、前記報知部から前記筐体を移動させる指示を報知し、前記被写体が動いていると判定した場合、前記報知部から前記筐体を移動させない指示を報知することが好ましい。 Further, the information processing apparatus further includes a notification unit, and when the control unit determines that the subject does not move based on a result detected by the distance detection unit, the control unit notifies the instruction to move the housing from the notification unit, When it is determined that the subject is moving, it is preferable that an instruction not to move the housing is notified from the notification unit.
また、前記筐体の移動を検出する加速度センサと、報知部と、をさらに有し、前記制御部は、前記被写体が動いていると判定しかつ前記加速度センサで前記筐体が移動していることを検出した場合、前記報知部から前記筐体を移動させない指示を報知することが好ましい。 In addition, the apparatus further includes an acceleration sensor that detects movement of the housing and a notification unit, and the control unit determines that the subject is moving and the housing is moved by the acceleration sensor. When this is detected, it is preferable that an instruction not to move the housing is notified from the notification unit.
また、前記制御部は、検出した被写体距離と前記1枚目の画像の撮影時の被写体距離との差分が設定した範囲にある場合、前記被写体の2枚目の画像を撮影することが好ましい。 In addition, it is preferable that the control unit captures the second image of the subject when the difference between the detected subject distance and the subject distance at the time of capturing the first image is within a set range.
また、前記制御部は、前記撮影部で撮影した画像に基づいて被写体を特定し、前記撮影部と特定した被写体との距離を前記被写体距離とすることが好ましい。 Further, it is preferable that the control unit specifies a subject based on an image photographed by the photographing unit, and sets a distance between the photographing unit and the identified subject as the subject distance.
本発明にかかる携帯電子機器は、三次元画像として表示可能な画像の撮影を好適に実行できるという効果を奏する。 The portable electronic device according to the present invention has an effect that it is possible to suitably perform shooting of an image that can be displayed as a three-dimensional image.
以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、電子機器として携帯電話端末を例として説明するが、本発明の適用対象は携帯電話端末に限定されるものではなく、三次元(3D)画像表示機能を備える各種装置、例えば、PHS(Personal Handy-phone System)、PDA、ポータブルナビゲーション装置、パーソナルコンピュータ、ゲーム機等に対しても本発明は適用できる。 Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description. In addition, constituent elements in the following description include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range. In the following, a mobile phone terminal will be described as an example of an electronic device. However, the application target of the present invention is not limited to a mobile phone terminal, and various devices having a three-dimensional (3D) image display function, for example, PHS The present invention can also be applied to (Personal Handy-phone System), PDAs, portable navigation devices, personal computers, game machines, and the like.
図1は、本発明の携帯電子機器の一実施形態である携帯電話端末1の外観を示す正面図である。携帯電話端末1は、薄板状の筐体12を有する。携帯電話端末1は、筐体12の表面に、タッチパネル2と、ボタン20、ボタン22及び入力デバイス24からなる入力部3と、レシーバ7と、マイク8と、カメラ16と、超音波センサ17と、が配置されている。タッチパネル2は、板状の筐体12の面積が最も広い面に配置されている。また、入力部3も、筐体12のタッチパネル2が配置されている面の、長手方向の一方の端部に配置されている。入力部3は、短手方向の一方から他方に向かって、ボタン20、入力デバイス24、ボタン22の順で配置されている。また、レシーバ7は、筐体12のタッチパネル2が配置されている面の長手方向の他方の端部、つまり、入力部3が配置されている端部とは反対側の端部に配置されている。また、マイク8は、筐体12のタッチパネル2が配置されている面の長手方向の一方の端部、つまり、入力部3が配置されている端部に配置されている。また、カメラ16は、タッチパネル2が配置されている面とは反対側の面に配置されている。超音波センサ17は、タッチパネル2が配置されている面とは反対側の面に配置されている。また、超音波センサ17は、カメラ16の近傍に配置されている。本実施形態の携帯電話端末1は、カメラ16と超音波センサ17とが筐体12の長手方向のレシーバ7が配置されている側の端部に配置されている。
FIG. 1 is a front view showing an appearance of a
タッチパネル2は、文字、図形、画像等を表示するとともに、指、スタイラス、ペン(ペンの先端、棒状部材の先端)等(以下、単に「指」という)を用いてタッチパネル2に対して行われる各種動作を検出する。例えば、携帯電話端末1は、利用者から文字の入力を受け付けるために、タッチパネル2上に仮想キーボードを表示させる。携帯電話端末1は、タッチパネル2上に仮想キーボードを表示させた状態で、指によってタッチパネル2に入力される各種動作を検出し、仮想キーボードのどのキーが押下されたか、接触されたかを検出し、押下、接触を検出したキーを入力したキーとすることで、文字入力を行うことができる。また、タッチパネル2は、文字の入力によらず、表示させている画像と、指によってタッチパネル2に対して行われる各種動作とに基づいて、各種操作の入力を検出し、入力された操作に基づいて各種制御を行う。
The
入力部3は、ボタン20、22が押下された場合に、押下されたボタンに対応する機能を起動させる。また、入力部3は、入力デバイス24に入力された動作も操作として検出し、入力された操作に基づいて各種制御を行う。例えば、入力デバイス24は、方向指示操作や決定操作を検出する。入力デバイス24は、タッチパッド、光学式入力デバイス、4方及び中央にボタンを備える入力デバイス等で構成される。
When the
カメラ16は、画像を撮影する撮影装置である。撮影窓が、筐体12のタッチパネル2が配置されている面とは反対側の面に露出して配置されている。カメラ16は、撮影窓から入射した撮影領域の光を読み取ることで、カメラ16が配置されている面に向かい合う面のうち所定の角度領域(撮影領域)の画像を取得する。
The
超音波センサ17は、配置されている面と対面する物体との距離を検出する検出素子である。超音波センサ17は、カメラ16と同様に筐体12のタッチパネル2が配置されている面とは反対側の面に露出して配置されている。超音波センサ17は、カメラ16の撮影領域に含まれる被写体とカメラ16との距離を検出する。なお超音波センサ17は、超音波センサ17とカメラ16との位置関係は一定であるため、自身と被写体との距離を検出して、検出した距離を補正することで、カメラ16と被写体との距離を算出する。なお、カメラ16と超音波センサ17とは近接した位置に配置されているため、超音波センサ17は、補正を行うことなく、自身と被写体との距離をカメラ16と被写体との距離としてもよい。
The
次に、携帯電話端末1の機能と制御部との関係を説明する。図2は、図1に示す携帯電話端末1の機能の概略構成を示すブロック図である。図2に示すように携帯電話端末1は、タッチパネル2と、入力部3と、電源部5と、通信部6と、レシーバ7と、マイク8と、記憶部9と、主制御部10と、RAM(Random Access Memory)11と、カメラ(撮影部)16と、超音波センサ17と、加速度センサ18と、を有する。なお、本実施形態では、超音波センサ17が被写体とカメラ(撮影部)16との距離を検出する距離検出部となる。
Next, the relationship between the function of the
タッチパネル2は、表示部2Bと、表示部2Bに重畳されたタッチセンサ2Aとを有する。タッチセンサ2Aは、指を用いてタッチパネル2に対して行われた各種動作を、動作が行われた場所のタッチパネル2上での位置とともに検出する。タッチセンサ2Aによって検出される動作には、指をタッチパネル2の表面に接触させる動作や、指をタッチパネル2の表面に接触させたまま移動させる動作や、指をタッチパネル2の表面から離す動作が含まれる。なお、タッチセンサ2Aは、感圧式、静電式等のいずれの検出方式を採用していてもよい。表示部2Bは、例えば、液晶ディスプレイ(LCD、Liquid Crystal Display)や、有機EL(Organic Electro−Luminescence)パネル等で構成され、文字、図形、画像等を表示する。また、表示部2Bは、複数の画像を重ねて表示させて三次元(3D)画像、つまり利用者が立体視できる画像を表示できる。つまり、表示部2Bは、複数の画像を重ねて表示させることで三次元(3D)画像を表示できる。
The
入力部3は、上述したようにボタン20、22と、入力デバイス24とを有する。ボタン20、22は、物理的な入力(押下)を通じて利用者の操作を受け付け、受け付けた操作に対応する信号を主制御部10へ送信する。また、入力デバイス24も、利用者の操作を受け付け、受け付けた操作に対応する信号を主制御部10へ送信する。
The
電源部5は、蓄電池または外部電源から得られる電力を、主制御部10を含む携帯電話端末1の各機能部へ供給する。通信部6は、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA方式等による無線信号回線を確立し、基地局との間で電話通信及び情報通信を行う。レシーバ7は、電話通信における相手側の音声や着信音等を出力する。マイク8は、利用者等の音声を電気的な信号へ変換する。
The
記憶部9は、例えば、不揮発性メモリや磁気記憶装置であり、主制御部10での処理に利用されるプログラムやデータを保存する。具体的には、記憶部9は、メールの送受信や閲覧のためのメールプログラム9Aや、WEBページの閲覧のためのブラウザプログラム9Bや、カメラ16で画像を撮影するためのカメラプログラム9Cや、超音波センサ17の検出結果に基づいて自身と被写体との距離を検出し、加速度センサ18の検出結果に基づいて自身の位置の移動を検出するための位置検出プログラム9Dや、3D(三次元)画像として表示可能な画像を撮影するためおよび3D画像を表示するための3D(三次元)画像処理プログラム9Eや、各種プログラムを実行する際に用いる各種条件を対応付けた処理条件テーブル9Fや、撮影等により取得された画像が格納された画像フォルダ9Gを記憶する。また、記憶部9には、携帯電話端末1の基本的な機能を実現するオペレーティングシステムプログラムや、氏名、電話番号、メールアドレス等が登録されたアドレス帳データ等の他のプログラムやデータも記憶される。また、記憶部9には、タッチパネル2に入力された入力操作に基づいて制御動作、処理を決定するプログラム等も記憶される。なお、制御動作、処理とは、携帯電話端末1で実行する各種動作、処理が含まれ、例えば、カーソル、ポインタの移動、画面の表示切換、文字入力処理、各種アプリケーションの起動処理、終了処理がある。
The
主制御部10は、例えば、CPU(Central Processing Unit)であり、携帯電話端末1の動作を統括的に制御する。具体的には、主制御部10は、記憶部9に記憶されているデータを必要に応じて参照しつつ、記憶部9に記憶されているプログラムを実行して、タッチパネル2、入力部3、通信部6、カメラ16、超音波センサ17、加速度センサ18等を制御することによって各種処理を実行する。主制御部10は、記憶部9に記憶されているプログラムや、処理を実行することによって取得/生成/加工されたデータを、一時的な記憶領域を提供するRAM11に必要に応じて展開する。なお、主制御部10が実行するプログラムや参照するデータは、通信部6による無線通信でサーバ装置からダウンロードすることとしてもよい。
The main control unit 10 is, for example, a CPU (Central Processing Unit), and comprehensively controls the operation of the
カメラ16は、画像を撮影する撮影装置である。撮影窓が、筐体12のタッチパネル2が配置されている面とは反対側の面に露出して配置されている。カメラ16は、撮影窓から入射した撮影領域の光を読み取ることで、対面する領域のうち所定の角度領域(撮影領域)の画像を取得する。
The
超音波センサ17は、所定の方向(本実施形態では、カメラ16の撮影領域内)にある被写体との距離(相対距離、被写体距離)を測定する計測器である。超音波センサ17は、筐体12の上面に配置され、計測波として超音波を射出する出力部17aと、筐体12の上面に配置され、計測波を受信する受信部17bとを有する。超音波センサ17は、出力部17aから出力した超音波のうち被写体に当たって反射した反射波の計測波を受信部17bで受信する。超音波センサ17は、受信部17bが受信した計測波の強度や、計測波の入射角、出力部17aで出力されてから受信部17bで受信されるまでの時間等に基づいて、自身と被写体との距離を算出する。
The
加速度センサ18は、筐体12に加わる加速度を検出する検出器である。ここで、加速度センサ18としては、種々の方法で加速度を検出する検出器を用いることができ、例えば、静電容量の変化や、ピエゾ抵抗の変化、相対位置の変化等で加速度を検出する検出器を用いることができる。また、加速度センサ18は、加速度の大きさに加え加速度の方向を検出する。加速度センサ18は、操作者が筐体12を移動させたり振ったりする際に筐体12に作用する加速度を検出し、検出した加速度情報を主制御部10に送る。主制御部10は、位置検出プログラム9Dを実行し、加速度センサ18の検出結果を解析することで、具体的には検出した加速度の情報を積算することで筐体12の姿勢の変化量や移動を検出する。
The
次に、図3を用いて、撮影動作の一例について説明する。図3は、携帯電話端末の撮影動作時の処理の一例を示すフロー図である。図3に示す処理は、携帯電話端末1により三次元画像で表示可能な画像を撮影する撮影動作の一例である。図3に示す処理手順は、カメラプログラム9C、位置検出プログラム9D、3D画像処置プログラム9Eが提供する機能に基づいて繰り返し実行される。より具体的には、カメラプログラム9Cが提供する機能(画像撮影機能)、位置検出プログラム9Dが提供する機能(距離検出機能)により取得した各種検出結果および画像を3D画像処理プログラム9Eが提供する機能に基づいて、解析してカメラプログラム9Cが提供する機能(撮影機能)の動作を制御し、被写体の撮影を行う。携帯電話端末1は、三次元画像の撮影を行う機能を起動する指示が入力された場合、図3に示す処理を行う。
Next, an example of the photographing operation will be described with reference to FIG. FIG. 3 is a flowchart showing an example of processing at the time of photographing operation of the mobile phone terminal. The process shown in FIG. 3 is an example of a photographing operation for photographing an image that can be displayed as a three-dimensional image by the
主制御部10は、ステップS12として超音波センサ17を起動させる。主制御部10は、ステップS12で超音波センサ17を起動させたら、ステップS14としてカメラ16を起動させる。なお、ステップS12とステップS14の処理は、同時に行っても、逆の順序で行ってもよい。また、既に起動されている場合は、処理を行わなくてもよい。
The main control unit 10 activates the
主制御部10は、ステップS14でカメラ16を起動させたら、ステップS15として初期設定を行う。ここで、初期設定とは、撮影に必要な各種条件の設定である。例えば、明るさ、ズーム角等の撮影条件の設定、画像をタッチパネル2に表示させるかの設定、撮影指示として検出する操作の設定等を行う。携帯電話端末1は、ステップS15で初期設定を行ったら、カメラ16による撮影を開始し、ステップS16として、ビューイングを行う。つまりカメラ16で撮影した画像をプレビュー画像としてタッチパネル2に表示させる。主制御部10は、ステップS16でビューイングを実行したら、ステップS18として、撮影指示を検出したかを判定する。具体的には、主制御部10は、利用者からの撮影指示開始指示(シャッタ)の押下等を検出したかを判定する。携帯電話端末1は、ステップS18で撮影指示なし(No)、つまり、撮影指示を検出していないと判定したら、ステップS16に進む。このように、主制御部10は、撮影指示を検出するまでビューイング、つまりブレビュー画像の表示を行う。
When the main controller 10 activates the
主制御部10は、ステップS18で撮影指示を検出した(Yes)と判定したら、ステップS20として1枚目の画像の撮影を行う。つまり、画像を取得する。主制御部10は、取得した画像のデータをRAM11、記憶部9等に一時的に保存する。主制御部10は、ステップS20で画像を取得したら、ステップS22からステップS26の処理で自身と被写体との相対距離の検出を行う。
If the main control unit 10 determines in step S18 that a shooting instruction has been detected (Yes), it takes a first image in step S20. That is, an image is acquired. The main control unit 10 temporarily stores the acquired image data in the
主制御部10は、ステップS22として、超音波センサ17の出力部17aから超音波を送出(出力)し、ステップS24として、超音波センサ17の受信部17bで反射波を検出する。つまり、超音波センサ17は、ステップS24で出力部17aから出力された超音波のうち、被写体で反射され受信部17bに到達した超音波である反射波を受信部17bで検出する。主制御部10は、ステップS24で反射波を検出したら、ステップS26として距離を算出する。具体的には、主制御部10は、超音波を出力してから当該超音波の反射波を検出するまでの時間に基づいて、被写体と自身(筐体12、超音波センサ17またはカメラ16)との距離を検出する。なお、超音波の速度は既知であるので、超音波を出力してから当該超音波の反射波を検出するまでの時間と超音波の速度とを計算することで、被写体と自身との距離を算出することができる。なお、主制御部10は、ステップS20で画像を撮影した直後のステップS22からステップS26の処理は、1枚目の画像の撮影時の自身と被写体との相対距離の検出として実行する。
The main control unit 10 sends (outputs) ultrasonic waves from the output unit 17a of the
主制御部10は、ステップS26で距離を算出したら、ステップS28として2枚目を撮影可能な距離であるかを判定する。2枚目を撮影可能な距離とは、1枚目の画像の相対距離との間に設定した閾値範囲の距離差があり、1枚目の画像と重ねて表示させることで被写体を立体視できる画像を撮影することが可能な距離である。 After calculating the distance in step S26, the main control unit 10 determines whether it is a distance at which the second image can be captured in step S28. The distance that can be photographed for the second image is a difference in the threshold range set between the relative distance of the first image, and the subject can be stereoscopically viewed by overlapping it with the first image. This is the distance at which an image can be taken.
主制御部10は、ステップS28で撮影可能な距離ではない(No)と判定したら、ステップS30として、距離の変化が規定値よりも大きいかを判定する。なお、規定値とは、2枚目を撮影可能な距離の判定の基準に設定した閾値範囲の距離差よりも大きい距離である。なお、規定値と閾値範囲の距離差とは、同一でなくてもよい。規定値は、閾値範囲の距離よりも大きくてもよい。主制御部10は、ステップS30で規定値よりも大きくない(No)と判定したら、ステップS22に進み、上記処理を繰り返す。 If the main control unit 10 determines in step S28 that the distance is not photographable (No), in step S30, the main control unit 10 determines whether the change in the distance is greater than a specified value. The specified value is a distance that is larger than the distance difference between the threshold ranges set as a criterion for determining the distance at which the second image can be taken. Note that the distance difference between the specified value and the threshold range may not be the same. The specified value may be larger than the distance of the threshold range. If the main control unit 10 determines in step S30 that it is not greater than the specified value (No), the main control unit 10 proceeds to step S22 and repeats the above processing.
主制御部10は、ステップS30で規定値よりも大きい(Yes)と判定したら、ステップS32としてアラームを送出し、ステップS34として撮影不可の処理を行い、本処理を終了する。つまり、距離差が規定値を越えた場合は、その旨を報知するアラームを出力し、三次元画像の撮影を不可と判定して、1枚目の画像の消去等の処理を行い処理を終了する。 If the main control unit 10 determines that the value is larger than the specified value (Yes) in step S30, the main control unit 10 sends an alarm in step S32, performs a non-shooting process in step S34, and ends this process. In other words, if the distance difference exceeds the specified value, an alarm that informs that is output, it is determined that 3D image shooting is not possible, processing such as erasing the first image is completed, and the processing ends. To do.
携帯電話端末1は、ステップS28で撮影可能距離である(Yes)と判定したら、ステップS36として2枚目の画像を撮影する。つまり、ステップS20で撮影した画像と共に表示することで被写体の3D画像を表示できる画像を撮影する。また、携帯電話端末1は、撮影した2枚の画像をタッチパネル2に重ねて表示させ、三次元画像のプレビュー表示を行ってもよい。その後、携帯電話端末1は、撮影した画像を記憶部9の画像フォルダ9Gに保存する。なお、携帯電話端末1は、タッチパネル2に撮影した画像および撮影した画像を保存するかの問い合わせ画像を表示させ、利用者による保存指示を検出したら画像を保存してもよい。携帯電話端末1は、保存処理を行ったら、本処理を終了する。
If the
以下、図4および図5を用いて、撮影動作の具体例を説明する。ここで、図4および図5は、それぞれ携帯電話端末の撮影動作を説明するための説明図である。なお、図4は、自身が移動する場合の例であり、図5は、被写体が移動する場合の例である。図4に示すように携帯電話端末1は、ステップS1として、撮影領域50に被写体40が含まれた状態で画像を撮影する指示を検出した場合、1枚目の画像の撮影を行う。また、携帯電話端末1は、超音波センサ17により超音波52を出力し、携帯電話端末1と被写体40との相対距離を算出する。
Hereinafter, a specific example of the photographing operation will be described with reference to FIGS. 4 and 5. Here, FIG. 4 and FIG. 5 are explanatory diagrams for explaining the photographing operation of the mobile phone terminal, respectively. FIG. 4 is an example when the subject moves, and FIG. 5 is an example when the subject moves. As shown in FIG. 4, when the
その後、携帯電話端末1を持つ利用者が被写体40と向かい合っている状態を維持しつつ移動し、本実施形態では被写体40と離れる方向に移動する。携帯電話端末1は、一定時間毎に超音波センサ17により定期的に相対距離を検出する。その後、ステップS2に示すように、携帯電話端末1は、被写体40に向けて超音波52を出力して携帯電話端末1と被写体40との相対距離を検出し、相対距離が1枚目の画像を撮影した相対距離よりも距離L離れたことを検出した場合、2枚目の画像を撮影する。これにより、被写体との相対距離が一定距離変化している2枚の画像を撮影することができる。
Thereafter, the user who has the
次に、図5に示すように携帯電話端末1は、ステップS5として、撮影領域に被写体100が含まれた状態で画像を撮影する指示を検出した場合、1枚目の画像の撮影を行う。また、携帯電話端末1は、超音波センサ17により超音波を出力し、携帯電話端末1と被写体100との相対距離を算出する。
Next, as shown in FIG. 5, when the
その後、被写体100は、携帯電話端末1と向かい合っている状態を維持しつつ移動し、本実施形態では携帯電話端末1と離れる方向に移動する。携帯電話端末1は、一定時間毎に超音波センサ17により定期的に相対距離を検出する。その後、ステップS6に示すように、携帯電話端末1は、移動した被写体100aに向けて超音波を出力して携帯電話端末1と被写体100aとの相対距離を検出し、相対距離が1枚目の画像を撮影した相対距離から設定した範囲内の距離分離れたことを検出した場合、2枚目の画像を撮影する。これにより、被写体との相対距離が一定距離変化している2枚の画像を撮影することができる。
Thereafter, the subject 100 moves while maintaining the state facing the
このように、携帯電話端末1は、超音波センサ17を用いて、自身(筐体12、携帯電話端末1)と被写体との距離(相対距離、被写体距離)を検出することで、1枚目の画像と2枚目の画像との相対位置を高い精度で検出することができる。これにより、より好適に被写体の三次元画像を撮影可能な位置で画像を取得することができる。つまり、被写体を立体視できる画像の組み合わせを高い精度で撮影し、取得することができる。また、1台の携帯電話端末1で三次元表示が可能な画像データの組み合わせを撮影することができる。
Thus, the
また、携帯電話端末1は、超音波センサ17を用いて相対距離を算出することで、携帯電話端末1が動かない場合、つまり被写体が移動する場合でも被写体の移動により適切な位置関係となったときに2枚目の画像を撮影することができる。また、両者が移動した場合も同様に、適切な位置関係となったときに2枚目の画像を撮影することができる。これにより、被写体が移動する場合でも被写体の移動を加味して2枚目の画像の撮影タイミングを決定することができる。これにより、より好適に被写体の三次元画像を撮影可能な位置で画像を取得することができる。
Further, the
また、携帯電話端末1は、1枚目の画像を撮影した後、超音波センサ17で検出した相対距離の情報に基づいて、自動的に2枚目の画像を撮影することで、利用者が勘や携帯電話端末1からの指示により撮影を行う場合よりも高い精度で、被写体の三次元画像を撮影可能な位置で画像を取得することができる。
In addition, the
携帯電話端末1は、主制御部10で、検出した被写体距離と1枚目の画像の撮影時の被写体距離との差分が設定した範囲にある場合、被写体の2枚目の画像を撮影する設定とすることで、より適切に、被写体の三次元画像を撮影可能な位置で画像を取得することができる。
The
また、携帯電話端末1は、超音波センサ17により検出した超音波の反射波の反射強度の変化に基づいて被写体との相対位置の変化を検出することが好ましい。このように、反射強度を判定することで、被写体が位置を移動せずに回転し、超音波が当たる位置が変化することを検出することができる。これにより、移動していないが相対位置が変化し、2枚目の画像を撮影できる場合にも対応することができる。
In addition, the
また、携帯電話端末1の主制御部10は、超音波センサ17で検出した結果に基づいて被写体が動かないと判定した場合、タッチパネル2やレシーバ7等の報知部(利用者に情報を伝達できる機構)から筐体12を移動させる指示を報知してもよい。また、主制御部10は、被写体が動いていると判定した場合、報知部から筐体12を移動させない指示を報知してもよい。このように、相対距離の情報に基づいて利用者に移動しないことを含めて適切な移動を指示することで、短時間でより好適に被写体の三次元画像を撮影可能な位置で画像を取得することができる。なお、被写体が動いているか、筐体12が動いているかは加速度センサ18の検出結果を用いることで判定できる。なお、撮影した画像の解析を行い、被写体と周りの風景との関係を検出することでも判定することはできる。
In addition, when the main control unit 10 of the
主制御部10は、被写体が動いていると判定しかつ加速度センサ18で筐体12が移動していることを検出した場合、報知部から筐体12を移動させない指示を報知することがより好ましい。これにより、相対位置の関係が大きく変化し、好適に被写体の三次元画像を撮影可能な位置で画像を取得することができる。
When the main control unit 10 determines that the subject is moving and detects that the
また、主制御部10は、カメラ16で撮影した画像に基づいて被写体を特定し、前記撮影部と特定した被写体との距離を被写体距離とすることが好ましい。これにより、被写体距離を評価する対象が変化することを抑制でき、より高い確率で被写体を立体視することができる画像を撮影することができる。
Further, it is preferable that the main control unit 10 identifies a subject based on an image photographed by the
また、上記実施形態では、2枚の画像で1つの三次元画像を表示させる場合としたが、さらに多くの枚数で1つの三次元画像を表示させるようにしてもよい。この場合、携帯電話端末1は、必要な相対位置の画像を対応する枚数分撮影することで、複数枚の画像データで構成される三次元画像を撮影することができる。
In the above embodiment, one three-dimensional image is displayed with two images, but one three-dimensional image may be displayed with a larger number of images. In this case, the
次に、図6を用いて、撮影動作の他の例について説明する。図6は、携帯電話端末の撮影動作時の処理の一例を示すフロー図である。図6に示す処理は、携帯電話端末1により三次元画像で表示可能な画像を撮影する撮影動作の一例である。図6に示す処理手順は、図3と同様に、カメラプログラム9C、位置検出プログラム9D、3D画像処置プログラム9Eが提供する機能に基づいて繰り返し実行される。
Next, another example of the photographing operation will be described with reference to FIG. FIG. 6 is a flowchart showing an example of processing at the time of photographing operation of the mobile phone terminal. The process shown in FIG. 6 is an example of a photographing operation for photographing an image that can be displayed as a three-dimensional image by the
主制御部10は、ステップS112として超音波センサ17を起動させる。主制御部10は、ステップS112で超音波センサを起動させたら、ステップS114としてカメラ16を起動させる。なお、ステップS112とステップS114の処理は、同時に行っても、逆の順序で行ってもよい。また、既に起動されている場合は、処理を行わなくてもよい。
The main control unit 10 activates the
主制御部10は、ステップS114でカメラ16を起動させたら、ステップS116として、画像を撮影する。つまり、1枚目の画像を取得する。主制御部10は、取得した画像のデータをRAM11、記憶部9等に一時的に保存する。主制御部10は、ステップS16で画像を取得したら、ステップS118で撮影位置情報を取得する。具体的には、主制御部10は、超音波センサ17で検出した情報に基づいて自身(筐体12)と被写体との距離を検出し、相対的な位置関係(相対距離)の情報を取得する。なお、主制御部10は、最初に検出した相対距離を基準の相対距離とする。主制御部10は、取得した撮影位置情報を一時的に保存する。
When the main control unit 10 activates the
主制御部10は、ステップS118で撮影位置情報を取得したら、ステップS120として、現在位置情報を取得する。具体的には、主制御部10は、ステップS118と同様に超音波センサ17から取得した情報に基づいて、現在の相対距離の情報を取得する。
After acquiring the shooting position information in step S118, the main control unit 10 acquires the current position information as step S120. Specifically, the main control unit 10 acquires information on the current relative distance based on information acquired from the
主制御部10は、ステップS120で現在の位置情報(相対距離)を取得したら、ステップS122として立体視に適した位置であるかを判定する。つまり、撮影した画像とこれから撮影する画像とで被写体の立体画像を表示することが可能な状態であるかを判定する。 After acquiring the current position information (relative distance) in step S120, the main control unit 10 determines whether the position is suitable for stereoscopic vision in step S122. That is, it is determined whether or not it is possible to display a stereoscopic image of the subject between the photographed image and the image to be photographed.
主制御部10は、ステップS122で立体視に適した位置ではない(No)と判定したら、ステップS120に進む。つまり、主制御部10は、立体視に適した相対距離となるまで、ステップS120とステップS122の処理を繰り返す。なお主制御部10は、立体視に適した位置ではないと判定したら、1枚目の画像から撮影しなおしてもよい。つまり、ステップS122でNoと判定したら、ステップS116に進むようにしてもよい。主制御部10は、ステップS122で立体視に適した位置である(Yes)と判定したら、ステップS124として画像(2枚目の画像)を撮影する。つまり、ステップS116で撮影した画像と共に表示することで前記被写体の3D画像を表示できる画像を撮影する。主制御部10は、ステップS124で撮影した2枚目の画像のデータおよび2枚目の画像のデータの撮影位置情報(直近のステップS188で取得した情報)を一時的に記憶する。また、主制御部10は、撮影した2枚の画像をタッチパネル2に重ねて表示させ、三次元画像のプレビュー表示を行ってもよい。
If the main control unit 10 determines in step S122 that the position is not suitable for stereoscopic viewing (No), the main control unit 10 proceeds to step S120. That is, the main control unit 10 repeats the processes of step S120 and step S122 until the relative distance suitable for stereoscopic viewing is reached. If the main control unit 10 determines that the position is not suitable for stereoscopic viewing, the main control unit 10 may re-shoot from the first image. That is, if it is determined No in step S122, the process may proceed to step S116. If the main control unit 10 determines in step S122 that the position is suitable for stereoscopic viewing (Yes), the main control unit 10 captures an image (second image) in step S124. That is, an image that can display a 3D image of the subject is displayed by displaying the image together with the image captured in step S116. The main control unit 10 temporarily stores the data of the second image captured in step S124 and the shooting position information of the data of the second image (information acquired in the latest step S188). Further, the main control unit 10 may display the captured two images on the
主制御部10は、ステップS124で画像を撮影したら、ステップS126として、画像を調整する。具体的には、ステップS116で撮影した1枚目の画像とステップS124で撮影した2枚目の画像とを比較し、いずれか一方の画像のみに含まれる周囲の景色等を切り取り、2つの画像に含まれる被写体、景色等を同一の構成とする。 When the main control unit 10 captures an image in step S124, the main control unit 10 adjusts the image in step S126. Specifically, the first image captured in step S116 and the second image captured in step S124 are compared, and the surrounding scenery or the like included in only one of the images is cut out to obtain two images. The subject, scenery, etc. included in the same structure.
主制御部10は、ステップS126で画像の調整を行ったら、ステップS128として、撮影指示ありかを判定する。なお、撮影指示とは、画像を撮影するトリガーとなる操作であり、いわゆるシャッタ操作である。主制御部10は、ステップS128で撮影指示なし(No)、つまり、シャッタが押されていないと判定したら、ステップS116に進み、上記処理を繰り返す。なお、この際、主制御部10は、一時的に記憶していた撮影データおよび撮影位置情報を破棄(消去)する。 After adjusting the image in step S126, the main control unit 10 determines whether there is a shooting instruction in step S128. The shooting instruction is an operation that serves as a trigger for shooting an image, and is a so-called shutter operation. If the main control unit 10 determines in step S128 that there is no shooting instruction (No), that is, the shutter is not pressed, the main control unit 10 proceeds to step S116 and repeats the above processing. At this time, the main control unit 10 discards (deletes) the temporarily stored shooting data and shooting position information.
主制御部10は、ステップS128で撮影指示あり(Yes)と判定したら、ステップS130として、撮影した画像と位置情報を記憶部9の画像フォルダ9Gに保存する。なお、主制御部10は、タッチパネル2に撮影した画像および撮影した画像を保存するかの問い合わせ画像を表示させ、利用者による保存指示を検出したら画像を保存してもよい。主制御部10は、ステップS130の保存処理を行ったら、本処理を終了する。
If the main control unit 10 determines that there is a shooting instruction (Yes) in step S128, the main control unit 10 stores the shot image and position information in the image folder 9G of the
携帯電話端末1は、図6に示すように超音波センサ17での測定結果に基づいて相対距離を検出しつつ、画像を撮影し、立体視が可能な画像の組み合わせを撮影しておき、利用者が撮影指示を入力したら、予め撮影した立体視が可能な画像の組み合わせを保存するようにしてもよい。つまり、随時、立体視が可能な画像を自動的に撮影しつづけてもよい。
As shown in FIG. 6, the
携帯電話端末1は、主制御部10でカメラプログラム9Cの処理を実行することで、焦点距離、倍率(ズーム)露出量等の撮影条件を調整し、撮影した画像の被写体の明るさ、大きさ等を同等とすることが好ましい。これにより、三次元画像を表示させるために画像を重ねたときに違和感が生じることを抑制することができる。
The
また、携帯電話端末1の超音波センサ17は、出力部17aから出力する超音波に指向性を持たせることが好ましい。これにより、主制御部10は、利用者の操作に基づいて撮影領域に含まれる複数の被写体から特定の被写体を抽出し、超音波センサ17によって、当該特定の被写体と自身との距離を算出することで、2つの画像の間で特定の被写体の位置を適切にずらすことができ、特定の被写体を三次元で表示できる画像を撮影することができる。
Moreover, it is preferable that the
また、携帯電話端末1は、加速度センサ18での検出結果も加味して、相対距離に加え、筐体12の移動を加味して、2枚目の画像を撮影するかを判定してもよい。例えば、携帯電話端末1は、撮影時の位置からの自身(筐体12)の移動距離を算出し、撮影時の距離と現在の距離と被写体とで構成される二等辺三角形(被写体と撮影時の位置を結んだ線と、被写体と現在の位置とを結んだ線と、が長さの等しい三角形)の頂角を算出し、当該頂角が立体視に適した角度であるかを判定する。これにより、被写体を立体視できる画像をより高い確率で撮影することができる。
Further, the
なお、上記実施形態の携帯電話端末1は、距離検出部として超音波センサ17を用いることで、より遠くの被写体との距離をより高精度に計測することができる。このため、距離検出部としては、超音波で距離を検出する方法、カメラのオートフォーカス機能(絞りの調整機能)で被写体との焦点距離を算出して当該焦点距離を被写体との距離として検出する方法を用いることが好ましいがこれに限定されない。距離検出部は、超音波以外にも、赤外線やレーザ光等を用いて自身と被写体との距離を算出するセンサも用いることができる。
Note that the
また、上記の実施形態では、表示部としてタッチパネルを有する電子機器に本発明を適用する例について説明したが、本発明は、表示手段として、タッチセンサが重畳されていない単なる表示パネルを有する電子機器に適用することもできる。 In the above embodiment, an example in which the present invention is applied to an electronic device having a touch panel as a display unit has been described. However, the present invention is an electronic device having a simple display panel on which a touch sensor is not superimposed as a display unit. It can also be applied to.
1 携帯電話端末
2 タッチパネル
2A タッチセンサ
2B 表示部
3 入力部
5 電源部
6 通信部
7 レシーバ
8 マイク
9 記憶部
9A メールプログラム
9B ブラウザプログラム
9C カメラプログラム
9D 位置検出プログラム
9E 3D画像処理プログラム
9F 処理条件テーブル
9G 画像フォルダ
10 主制御部
11 RAM
12 筐体
16 カメラ
17 超音波センサ
17a 出力部
17b 受信部
18 加速度センサ
20、22 ボタン
24 入力デバイス
DESCRIPTION OF
DESCRIPTION OF
Claims (8)
前記筐体に配置され、被写体を撮影する撮影部と、
前記撮影部と前記被写体との被写体距離を検出する距離検出部と、
前記撮影部で前記被写体の1枚目の画像を撮影した後、前記距離検出部で検出した結果に基づいて、前記1枚目の画像と組み合わせることで前記被写体を立体視できる画像を撮影できる前記被写体距離に前記筐体が配置されていると判定した場合、前記撮影部で前記被写体の2枚目の画像を撮影する制御部と、
を有することを特徴とする携帯電子機器。 A housing,
An imaging unit arranged in the housing for imaging a subject;
A distance detection unit for detecting a subject distance between the photographing unit and the subject;
After the first image of the subject is photographed by the photographing unit, an image capable of stereoscopically viewing the subject can be photographed by combining with the first image based on the result detected by the distance detecting unit. A control unit that captures a second image of the subject by the photographing unit when it is determined that the casing is disposed at a subject distance;
A portable electronic device characterized by comprising:
前記制御部は、前記距離検出部で検出した結果に基づいて前記被写体が動かないと判定した場合、前記報知部から前記筐体を移動させる指示を報知し、前記被写体が動いていると判定した場合、前記報知部から前記筐体を移動させない指示を報知することを特徴とする請求項1から4のいずれか一項に記載の携帯電子機器。 It further has a notification unit,
When the control unit determines that the subject does not move based on the result detected by the distance detection unit, the control unit notifies the instruction to move the housing from the notification unit, and determines that the subject is moving. In this case, the portable electronic device according to any one of claims 1 to 4, wherein an instruction not to move the casing is issued from the notification unit.
前記制御部は、前記被写体が動いていると判定しかつ前記加速度センサで前記筐体が移動していることを検出した場合、前記報知部から前記筐体を移動させない指示を報知することを特徴とする請求項1から4のいずれか一項に記載の携帯電子機器。 An acceleration sensor that detects movement of the housing; and a notification unit;
When the control unit determines that the subject is moving and the acceleration sensor detects that the casing is moving, the control unit notifies the instruction not to move the casing from the notification unit. The portable electronic device according to any one of claims 1 to 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011072472A JP5701124B2 (en) | 2011-03-29 | 2011-03-29 | Portable electronic devices |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011072472A JP5701124B2 (en) | 2011-03-29 | 2011-03-29 | Portable electronic devices |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012209677A true JP2012209677A (en) | 2012-10-25 |
JP5701124B2 JP5701124B2 (en) | 2015-04-15 |
Family
ID=47189095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011072472A Expired - Fee Related JP5701124B2 (en) | 2011-03-29 | 2011-03-29 | Portable electronic devices |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5701124B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200142829A (en) * | 2019-06-13 | 2020-12-23 | 주식회사 파이리코 | Animal Recognition Apparatus And Animal Recognition Method |
WO2024111475A1 (en) * | 2022-11-25 | 2024-05-30 | ソニーグループ株式会社 | Information processing apparatus, information processing method, and information processing program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002501349A (en) * | 1998-01-06 | 2002-01-15 | インテル・コーポレーション | Method for determining relative camera orientation to create a 3-D visual image |
JP2006086591A (en) * | 2004-09-14 | 2006-03-30 | Canon Inc | Mobile body tracing system, photographing apparatus, and photographing method |
JP2010239564A (en) * | 2009-03-31 | 2010-10-21 | Casio Computer Co Ltd | Imaging apparatus, imaging control method, and program |
-
2011
- 2011-03-29 JP JP2011072472A patent/JP5701124B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002501349A (en) * | 1998-01-06 | 2002-01-15 | インテル・コーポレーション | Method for determining relative camera orientation to create a 3-D visual image |
JP2006086591A (en) * | 2004-09-14 | 2006-03-30 | Canon Inc | Mobile body tracing system, photographing apparatus, and photographing method |
JP2010239564A (en) * | 2009-03-31 | 2010-10-21 | Casio Computer Co Ltd | Imaging apparatus, imaging control method, and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200142829A (en) * | 2019-06-13 | 2020-12-23 | 주식회사 파이리코 | Animal Recognition Apparatus And Animal Recognition Method |
KR102261175B1 (en) * | 2019-06-13 | 2021-06-07 | 주식회사 파이리코 | Animal Recognition Apparatus And Animal Recognition Method |
WO2024111475A1 (en) * | 2022-11-25 | 2024-05-30 | ソニーグループ株式会社 | Information processing apparatus, information processing method, and information processing program |
Also Published As
Publication number | Publication date |
---|---|
JP5701124B2 (en) | 2015-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2012115253A1 (en) | Electronic apparatus, image display method and image display program | |
JP7127149B6 (en) | IMAGE CORRECTION METHOD, IMAGE CORRECTION APPARATUS, AND ELECTRONIC DEVICE | |
AU2014221568B2 (en) | Apparatus and method for positioning image area using image sensor location | |
US9621812B2 (en) | Image capturing control apparatus and method | |
KR101946437B1 (en) | Method and terminal for acquiring panoramic image | |
WO2019091486A1 (en) | Photographing processing method and device, terminal, and storage medium | |
KR102085766B1 (en) | Method and Apparatus for controlling Auto Focus of an photographing device | |
KR20160017991A (en) | Mobile terminal having smart measuring tape and object size measuring method thereof | |
KR20170006559A (en) | Mobile terminal and method for controlling the same | |
KR20140090318A (en) | Supporting Method For Operating a Camera based on a Haptic function and Electronic Device supporting the same | |
CN109922253B (en) | Lens anti-shake method and device and mobile equipment | |
WO2018173597A1 (en) | Imaging device, imaging method, and imaging program | |
JP2017069896A (en) | Electronic device | |
JP2012175694A (en) | Electronic apparatus | |
WO2012133117A1 (en) | Electronic apparatus | |
US20220236836A1 (en) | Method, apparatus and device for displaying lyric, and storage medium | |
CN111385525B (en) | Video monitoring method, device, terminal and system | |
CN109005337B (en) | Photographing method and terminal | |
JP5701124B2 (en) | Portable electronic devices | |
KR20150087681A (en) | Holder for mobile terminal and method for changing direction of the mobile terminal using the same | |
JP5756652B2 (en) | Electronics | |
TW201807540A (en) | Information processing system, operation method, and operation program | |
JP2012243266A (en) | Electronic apparatus and display method | |
JP2012175692A (en) | Electronic apparatus | |
JP2016111521A (en) | Information processing device, information processing program and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5701124 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |