JP2010238097A - Image composition device, method and program for controlling image composition - Google Patents

Image composition device, method and program for controlling image composition Download PDF

Info

Publication number
JP2010238097A
JP2010238097A JP2009087201A JP2009087201A JP2010238097A JP 2010238097 A JP2010238097 A JP 2010238097A JP 2009087201 A JP2009087201 A JP 2009087201A JP 2009087201 A JP2009087201 A JP 2009087201A JP 2010238097 A JP2010238097 A JP 2010238097A
Authority
JP
Japan
Prior art keywords
image
unit
target image
synthesis
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009087201A
Other languages
Japanese (ja)
Inventor
Yosuke Hatanaka
陽介 畑中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Ericsson Mobile Communications Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Ericsson Mobile Communications Japan Inc filed Critical Sony Ericsson Mobile Communications Japan Inc
Priority to JP2009087201A priority Critical patent/JP2010238097A/en
Publication of JP2010238097A publication Critical patent/JP2010238097A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To briefly and easily perform composition of three or more images, adjustment or the like by newly applying a plurality of pieces of composition processing to a once selected image. <P>SOLUTION: A control part 10 reads the plurality of images selected through an operation part 13 from images inside an image data storage part 32 as composition target images. The control part 10 selects a set of composition target images selected through the operation part 13 from the plurality of composition target images as composition target images used for the image composition. The control part 10 calculates an image composition parameter corresponding to a vibration duration time when an acceleration sensor 24 detects vibration continuing over a prescribed time, executes the image composition processing by the parameter, and returns the processing when the vibration duration time ends in a time less than the prescribed time. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、デジタル化された画像を合成する画像合成装置、画像合成制御方法及び画像合成制御プログラムに関する。   The present invention relates to an image composition device, an image composition control method, and an image composition control program for compositing digitized images.

近年は、画像のデジタル化が普及しており、比較的簡単に画像の処理や合成を行うことが可能となっている。但し、画像処理のためには、少なくとも数段階の処理ステップを踏まなければならない。すなわち例えば、特開2003−339026号の公開特許公報(特許文献1)に記載されているように、デジタルカメラなどにより撮影された複数枚の画像を一枚の画像に合成する場合には、先ず合成する画像を複数枚選択し、次に各画像の合成比率(重み)を決定した上で、各々画像を合成するような作業手順が必要となされている。   In recent years, digitization of images has become widespread, and image processing and composition can be performed relatively easily. However, at least several processing steps must be taken for image processing. That is, for example, as described in Japanese Patent Application Laid-Open No. 2003-339026 (Patent Document 1), when combining a plurality of images taken by a digital camera or the like into a single image, first, A work procedure is required in which a plurality of images to be combined are selected, and then a combination ratio (weight) of each image is determined, and then the images are combined.

このような従来の画像処理において、例えば合成比率を決定する際には、その合成比率を表す数値や文字列をユーザが入力することにより行われており、このような入力作業はユーザによって非常に煩わしい作業となっている。そのため、従来より、画像処理は、例えばキーボード等を備えていることで数値や文字列等の入力が比較的容易なパーソナルコンピュータにより行われることが多く、例えば携帯電話端末やデジタルカメラといったモバイル機器で行われることは少ない。   In such conventional image processing, for example, when determining the composition ratio, the user inputs a numerical value or a character string representing the composition ratio, and such an input operation is very much performed by the user. It is annoying work. Therefore, conventionally, image processing is often performed by a personal computer that is relatively easy to input numerical values, character strings, and the like, for example, by including a keyboard and the like. For example, in mobile devices such as mobile phone terminals and digital cameras. There is little to be done.

このようなことから、例えば特開2007−25746号の公開特許公報(特許文献2)には、携帯電話機末の動きを計測する機器を用いて画像処理のパラメータを決定する方法が提案されており、画像処理パラメータ決定の簡略化が図られている。   For this reason, for example, Japanese Patent Application Laid-Open No. 2007-25746 (Patent Document 2) proposes a method for determining image processing parameters using a device that measures the movement of the mobile phone. Thus, the determination of image processing parameters is simplified.

すなわちこの特許文献2に記載の技術において、二枚の撮影画像を合成するときの処理フローは以下のようになる。   That is, in the technique described in Patent Document 2, the processing flow when two photographed images are combined is as follows.

先ず第一の処理として、ユーザからの指示を基に、合成の土台となる原画像とそれに足し込むアイテム画像が選択される。   First, as a first process, based on an instruction from the user, an original image serving as a base for synthesis and an item image to be added to the original image are selected.

次に第二の処理として、ユーザから計測開始の指令が入力されると、計測器が携帯電話機の動きを計測する。   Next, as a second process, when a measurement start command is input from the user, the measuring instrument measures the movement of the mobile phone.

次に第三の処理として、ユーザから計測終了の指令が入力されると計測を終了し、それにより計測値が決定される。   Next, as a third process, when a measurement termination command is input from the user, the measurement is terminated, and the measurement value is thereby determined.

その後、第四の処理として、上記計測値を基に画像処理パラメータを決定し、画像処理を実行する。   Thereafter, as a fourth process, an image processing parameter is determined based on the measurement value, and image processing is executed.

最後に第五の処理として、処理された画像をファイルとして保存する。   Finally, as a fifth process, the processed image is saved as a file.

その他、機器の動きに応じた制御技術としては、特開2000−125184号の公開特許公報には、加速度センサを用いて振動の有無を検知し、デジタルカメラの動作を制御する旨の技術が開示されている。   In addition, as a control technique according to the movement of the device, Japanese Patent Laid-Open No. 2000-125184 discloses a technique for detecting the presence or absence of vibration using an acceleration sensor and controlling the operation of the digital camera. Has been.

特開2003−339026号公報(図1)JP 2003-339026 A (FIG. 1) 特開2007−25746号公報(図3)Japanese Patent Laying-Open No. 2007-25746 (FIG. 3) 特開2000−125184号公報(図1)JP 2000-125184 A (FIG. 1)

ところで、特許文献2に記載の技術の場合、例えば三枚以上の画像を合成するような時には、上述したフローの処理を画像の枚数分だけ繰り返さなければならない。すなわち、特許文献2に記載の技術では、画像選択、携帯電話機の動きの計測、計測値に基づく画像処理パラメータの決定、その画像処理パラメータを用いた画像処理、その後の保存という流れを、合成したい画像の枚数分だけ繰り返すことになる。また、特許文献2に記載の技術では、例えば一度選択した画像に対して何度も処理をかけ直して調整するといった、逐次処理を行ことができない。   By the way, in the case of the technique described in Patent Document 2, for example, when three or more images are to be combined, the above-described flow process must be repeated for the number of images. That is, in the technique described in Patent Document 2, it is desired to combine the flow of image selection, measurement of mobile phone movement, determination of image processing parameters based on the measurement values, image processing using the image processing parameters, and subsequent storage. This is repeated for the number of images. Further, with the technique described in Patent Document 2, it is not possible to perform sequential processing such as, for example, re-adjusting and adjusting the image once selected.

本発明は、このような実情に鑑みて提案されたものであり、三枚以上の複数枚の画像の合成を簡単な作業により迅速に行うことができ、また、一度選択した画像に対して複数回の合成処理をかけ直して調整するようなことを簡単且つ容易に行うことを可能とする画像合成装置、画像合成制御方法及び画像合成制御プログラムを提供することを目的とする。   The present invention has been proposed in view of such a situation, and it is possible to quickly synthesize a plurality of three or more images by a simple operation, and to select a plurality of images once selected. It is an object of the present invention to provide an image composition apparatus, an image composition control method, and an image composition control program that can easily and easily perform adjustments by repeating the composition processing.

本発明は、画像データ保存部から複数の画像を合成対象画像として読み込み、それら複数の合成対象画像の中から一組の合成対象画像を選択し、自機体に加えられた所定の操作の継続時間が一定時間以上であるときには、その継続時間に応じた画像合成比率で一組の合成対象画像を合成し、一方、継続時間が一定時間未満で終了したときには、合成対象画像の読み込みと合成対象画像の選択へ処理を戻すことにより、上述した課題を解決する。   The present invention reads a plurality of images as a compositing target image from the image data storage unit, selects a set of compositing target images from the plurality of compositing target images, and continues a predetermined operation applied to the aircraft. Is equal to or longer than a certain time, a set of compositing target images is composed at an image compositing ratio according to the duration, and when the duration is less than a certain time, the compositing target image is read and the compositing target image The above-described problem is solved by returning the processing to the selection.

すなわち、本発明によれば、自機体に加えられた所定の操作の継続時間に応じて画像合成比率を算出しているため、ユーザは数値や文字列により画像合成比率を入力する必要がない。また、本発明によれば、自機体に加えられた所定の操作の継続時間が一定時間未満のときには、合成対象画像の読み込みと合成対象画像の選択へ処理を戻すことで、画像合成処理を可逆的に行え、合成対象画像に対する逐次的な合成処理が可能となる。   That is, according to the present invention, since the image composition ratio is calculated according to the duration of a predetermined operation applied to the aircraft, the user does not need to input the image composition ratio using a numerical value or a character string. In addition, according to the present invention, when the duration of a predetermined operation applied to the aircraft is less than a predetermined time, the image synthesis process is reversible by returning the process to reading the synthesis target image and selecting the synthesis target image. Thus, it is possible to perform sequential synthesis processing on the synthesis target image.

本発明においては、所定操作の継続時間に応じて画像合成比率を算出し、また、所定操作の継続時間に応じて画像合成処理の実行或いはその一つ前の処理への復帰が可能となされているため、例えば三枚以上の複数枚の画像の合成を簡単な作業により迅速に行うことができ、また、一度選択した画像に対して複数回の合成処理をかけ直して調整するようなことも簡単且つ容易に行うことが可能である。   In the present invention, the image composition ratio is calculated according to the duration of the predetermined operation, and the image composition processing can be executed or returned to the previous processing according to the duration of the predetermined operation. Therefore, for example, it is possible to quickly synthesize a plurality of images of three or more images by a simple operation, and to adjust the image once selected by performing a plurality of times of combining processing. It can be done easily and easily.

本発明実施形態の携帯電話端末の概略的な内部構成例を示すブロック図である。It is a block diagram which shows the schematic internal structural example of the mobile telephone terminal of embodiment of this invention. 本実施形態の画像合成処理フローのうち、合成対象画像の選択及び変更までの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process until selection and a change of a synthetic | combination target image among the image composition processing flows of this embodiment. 本実施形態の画像合成処理フローのうち、振動計測による画像合成パラメータの決定とそのパラメータを用いた画像合成処理の実行までの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process until determination of the image synthesis parameter by vibration measurement, and execution of the image synthesis process using the parameter among the image synthesis processing flows of this embodiment. 本実施形態の携帯電話端末の主要な構成要素間における処理の全体的な流れを示すシーケンス図である。It is a sequence diagram which shows the whole flow of the process between the main components of the mobile telephone terminal of this embodiment. 本実施形態の携帯電話端末の主要な構成要素間における処理のうち、画像合成後にさらにソース画像の追加と選択が行われて合成対象画像を変更するまでの処理部分を示すシーケンス図である。It is a sequence diagram which shows the process part until the addition and selection of a source image are further performed after an image composition, and a synthetic | combination object image is changed among the processes between the main components of the mobile telephone terminal of this embodiment.

以下、図面を参照しながら、本発明の一実施形態について説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

なお、本発明が適用される一例として、本実施形態では携帯電話端末を例に挙げているが、勿論、ここで説明する内容はあくまで一例であり、本発明はこの例に限定されないことは言うまでもない。   As an example to which the present invention is applied, in the present embodiment, a mobile phone terminal is taken as an example. However, it goes without saying that the content described here is merely an example, and the present invention is not limited to this example. Yes.

[携帯電話端末の概略構成]
図1には、本実施形態の携帯電話端末の概略的な内部構成例を示す。
[Schematic configuration of mobile phone terminal]
FIG. 1 shows a schematic internal configuration example of the mobile phone terminal of the present embodiment.

図1において、通信アンテナ12は、例えば内蔵アンテナであり、通話や電子メール等のパケット通信のための信号電波の送受信を行う。通信回路11は、送受信信号の周波数変換、変調と復調等を行う。   In FIG. 1, a communication antenna 12 is a built-in antenna, for example, and transmits / receives signal radio waves for packet communication such as telephone calls and e-mails. The communication circuit 11 performs frequency conversion, modulation, demodulation, and the like of transmission / reception signals.

スピーカ20は、携帯電話端末に設けられている受話用のスピーカや、リンガ(着信音)、再生音楽等の出力用スピーカからなり、制御部10から供給されたデジタル音声データを、デジタル/アナログ変換した後に増幅し、その増幅後の音声信号を音響波に変換して空気中へ出力する。   The speaker 20 is composed of a speaker for reception provided in a mobile phone terminal, a speaker for output of ringer (ringing tone), reproduced music, etc., and digital / analog conversion of digital audio data supplied from the control unit 10 And then amplifying, converting the amplified audio signal into an acoustic wave and outputting it to the air.

マイクロホン21は、送話用及び外部音声集音用のマイクロホンであり、音響波を音声信号に変換し、その入力音声信号を増幅及びアナログ/デジタル変換し、そのアナログ/デジタル変換後の音声データを制御部10へ送る。   The microphone 21 is a microphone for transmitting and collecting external audio, converts an acoustic wave into an audio signal, amplifies and analog / digital converts the input audio signal, and converts the audio data after the analog / digital conversion. Send to control unit 10.

操作部13は、本実施形態の携帯電話端末の図示しない筐体上に設けられているテンキーや発話キー、終話/電源キー等の各キーや十字キー,ジョグダイヤル等の各操作子と、それら操作子が操作された時の操作信号を発生する操作信号発生器とからなる。なお、操作部13はいわゆるタッチパネルと、そのタッチパネルへの接触検知信号から操作信号を発生する操作信号発生器とからなるものであってもよい。   The operation unit 13 includes keys such as a numeric keypad, an utterance key, and an end / power key provided on a casing (not shown) of the mobile phone terminal according to the present embodiment, and operation elements such as a cross key and a jog dial. An operation signal generator that generates an operation signal when the operation element is operated. The operation unit 13 may include a so-called touch panel and an operation signal generator that generates an operation signal from a contact detection signal to the touch panel.

表示部14は、例えば液晶ディスプレイや有機EL(ElectroLuminescent)ディスプレイ等の表示デバイスと、そのディスプレイの表示駆動回路とを含み、制御部10から供給された画像信号により、上記ディスプレイ上に例えば電子メール等の各種文字やメッセージを表示したり、各種メニュー画面、静止画像や動画像等を表示する。   The display unit 14 includes, for example, a display device such as a liquid crystal display or an organic EL (ElectroLuminescent) display, and a display drive circuit for the display. An image signal supplied from the control unit 10 causes an e-mail or the like on the display. Various characters and messages, various menu screens, still images, moving images, and the like.

カメラ23は、写真画像や動画像の撮影のための撮像素子,光学系等を有してなる。撮像制御部22は、制御部10からの指示の基で、カメラ23の撮像素子の制御やオートフォーカスの制御、露出の制御等を行う。そして、カメラ23により撮影された写真画像や動画像のデータは、データラインを介して制御部10へ送られ、必要に応じて画像処理が施されたり、メモリ部15に送られ、画像ファイル保存部34に保存される。なお、メモリ部15の画像ファイル保存部34に保存された画像は、後述するような画像合成に使用可能となされている。   The camera 23 includes an image sensor, an optical system, and the like for taking photographic images and moving images. The imaging control unit 22 performs control of the imaging element of the camera 23, autofocus control, exposure control, and the like based on instructions from the control unit 10. Then, photographic image data and moving image data captured by the camera 23 are sent to the control unit 10 via the data line, and are subjected to image processing as needed, or sent to the memory unit 15 to save the image file. Stored in the unit 34. The image stored in the image file storage unit 34 of the memory unit 15 can be used for image composition as will be described later.

加速度センサ24は、本実施形態の携帯電話端末が利用者により振られるなどし、当該端末による加速度が加えられたような場合に、その加速度を計測する加速度センサ素子と、その周辺回路とを備えてなる。当該加速度センサ24にて計測された加速度データは、制御部10へ送られる。なお、加速度センサ24には、角速度センサ素子とその周辺回路からなる角速度センサが併設されていてもよい。当該角速度センサは、本実施形態の携帯電話端末が利用者により振られるなどして、当該端末に振動が加えられた時の角速度を計測し、その角速度データを制御部10へ送る。   The acceleration sensor 24 includes an acceleration sensor element that measures acceleration when the mobile phone terminal according to the present embodiment is shaken by a user and acceleration is applied by the terminal, and a peripheral circuit thereof. It becomes. The acceleration data measured by the acceleration sensor 24 is sent to the control unit 10. The acceleration sensor 24 may be provided with an angular velocity sensor composed of an angular velocity sensor element and its peripheral circuit. The angular velocity sensor measures the angular velocity when the mobile phone terminal of the present embodiment is vibrated by the user, for example, and sends the angular velocity data to the control unit 10.

メモリ部15は、当該端末の内部に設けられている内蔵メモリと、いわゆるSIM(Subscriber Identity Module)情報等を格納する着脱可能なカード状メモリとからなる。内蔵メモリは、ROM(Read Only Memory)とRAM(Random Access Memory)とからなる。上記ROMは、OS(Operating System)、制御部10が各部を制御するための制御プログラム、各種の初期設定値、辞書データ、着信音やキー操作音等の音データ、本発明実施形態にかかる後述する画像合成制御に関連する各種処理を実行する画像合成制御プログラム、その他の各種アプリケーションプログラムなどが格納されている。このROMは、NAND型フラッシュメモリ(NAND-type flash memory)或いはEEPROM(Electrically Erasable Programmable Read-Only Memory)のような書き換え可能なROMを含み、電子メールデータ、電話帳やメールアドレス帳のデータ、スケジュール帳のデータ、インターネット等に接続した際のキャッシュデータ等の様々なデータ、ユーザ辞書データ、静止画や動画データ、その他、各種のユーザ設定値等をも保存可能となされている。RAMは、制御部10が各種のデータ処理を行う際の作業領域として、随時データを格納する。   The memory unit 15 includes a built-in memory provided inside the terminal and a removable card-like memory that stores so-called SIM (Subscriber Identity Module) information and the like. The built-in memory includes a ROM (Read Only Memory) and a RAM (Random Access Memory). The ROM includes an OS (Operating System), a control program for the control unit 10 to control each unit, various initial setting values, dictionary data, sound data such as ringtones and key operation sounds, and the like according to an embodiment of the present invention. An image composition control program for executing various processes related to the image composition control to be performed, various other application programs, and the like are stored. This ROM includes a rewritable ROM such as NAND-type flash memory (NAND-type flash memory) or EEPROM (Electrically Erasable Programmable Read-Only Memory), and includes e-mail data, telephone book and mail address book data, schedules, etc. Various data such as book data, cache data when connected to the Internet, user dictionary data, still image and moving image data, and various user setting values can be stored. The RAM stores data as needed as a work area when the control unit 10 performs various data processing.

なお、図1の例では、上記メモリ部15が有する各格納領域のうち、アプリケーションプログラム等が格納されているプログラム格納部31と、画像データが格納される画像ファイル保存部32のみを図示している。上記プログラム格納部31には、複数のアプリケーションプログラムの一つとして、本発明実施形態にかかる画像合成処理を制御部10が実行するための画像合成制御プログラムが格納されている。上記画像ファイル保存部32には、カメラ23により撮影された画像データファイル、デジタルテレビジョン放送信号から取得した画像データファイル、電子メールに添付されていた画像データファイル、インターネット等の外部ネットワークを介して取得した画像データファイル、外部接続ケーブルや外部メモリ等から取得した画像データファイルなどが格納される。   In the example of FIG. 1, only the program storage unit 31 storing application programs and the like and the image file storage unit 32 storing image data among the storage areas of the memory unit 15 are illustrated. Yes. The program storage unit 31 stores an image composition control program for the control unit 10 to execute the image composition processing according to the embodiment of the present invention as one of a plurality of application programs. The image file storage unit 32 includes an image data file captured by the camera 23, an image data file acquired from a digital television broadcast signal, an image data file attached to an e-mail, and an external network such as the Internet. An acquired image data file, an image data file acquired from an external connection cable, an external memory, or the like are stored.

制御部10は、CPU(中央処理ユニット)からなり、通信回路11における通信の制御、音声信号処理、画像信号処理、その他各種信号処理や各部の制御等を行う。また、制御部10は、メモリ部15に保存されている各種の制御プログラムやアプリケーションプログラムの実行及びそれに付随する各種データ処理等を行う。   The control unit 10 includes a CPU (central processing unit), and performs communication control, audio signal processing, image signal processing, other various signal processing, control of each unit, and the like in the communication circuit 11. The control unit 10 executes various control programs and application programs stored in the memory unit 15 and performs various data processing associated therewith.

特に本実施形態の場合、制御部10は、メモリ部15のプログラム格納部31に格納されている画像合成制御プログラムを実行することにより、後述するような画像処理制御機能とパラメータ算出機能を実現可能となされている。処理の詳細については後述するが、上記画像処理制御機能は、例えば、合成すべき画像の選択制御や、画像ファイル保存部32への画像の保存、画像ファイル保存部32から画像の読み込み、表示部14の画面上への画像の表示、画像の合成処理などを実行する。同様に詳細については後述するが、上記パラメータ算出機能は、加速度センサ24からの加速度データを基に、画像合成処理時の合成比率を示す画像合成パラメータの生成処理を実行する。   Particularly in the case of the present embodiment, the control unit 10 can realize an image processing control function and a parameter calculation function as described later by executing an image composition control program stored in the program storage unit 31 of the memory unit 15. It has been. Although details of the processing will be described later, the image processing control function includes, for example, selection control of an image to be synthesized, storage of an image in the image file storage unit 32, reading of an image from the image file storage unit 32, display unit 14 display an image on the screen, image composition processing, and the like. Similarly, although details will be described later, the parameter calculation function executes an image synthesis parameter generation process indicating a synthesis ratio at the time of the image synthesis process based on the acceleration data from the acceleration sensor 24.

その他、制御部10は、復号等の所定の音声処理により生成した音声データを上記スピーカ20へ送る処理や、マイクロホン21から供給された音声データの符号化等の所定の音声処理も行う。また、制御部10は、表示部14に画面表示される文字、記号、画像、各種のユーザインターフェース画像、ウェブページの画像等の生成も行う。   In addition, the control unit 10 also performs predetermined audio processing such as processing for sending audio data generated by predetermined audio processing such as decoding to the speaker 20 and encoding of audio data supplied from the microphone 21. The control unit 10 also generates characters, symbols, images, various user interface images, web page images, and the like that are displayed on the display unit 14 on the screen.

さらに、図1には図示を省略しているが、本実施形態の携帯電話端末は、キー照明や着信ライト用などのLED(発光ダイオード)とその駆動部、いわゆるブルートゥース方式(Bluetooth:登録商標)やUWB(Ultra Wide Band)方式、無線LAN(Local Area Network)などによる近距離無線通信を行うための近距離無線通信部、非接触ICカード機能とリーダライタ機能とを備えた非接触通信処理部、GPS(Global Positioning System)通信部、外部メモリ用スロット、デジタル放送の受信チューナ部とAVコーデック部、タイマ(時計部)、充電制御部とバッテリなど、一般的な携帯電話端末に設けられる各構成要素についても備えている。   Further, although not shown in FIG. 1, the mobile phone terminal of the present embodiment includes an LED (light emitting diode) for key illumination and incoming light and a driving unit thereof, a so-called Bluetooth method (Bluetooth: registered trademark). , UWB (Ultra Wide Band) system, short-range wireless communication unit for short-range wireless communication by wireless LAN (Local Area Network), etc., non-contact communication processing unit with non-contact IC card function and reader / writer function , GPS (Global Positioning System) communication unit, external memory slot, digital broadcast receiving tuner unit and AV codec unit, timer (clock unit), charging control unit and battery, etc. It also has elements.

[画像合成時の処理及び制御]
本発明実施形態の携帯電話端末では、画像合成を行う際に、加速度センサ24や角速度センサのような計測器を用いることにより、当該端末が振られるなどのような自端末に加えられた動きを計測し、その計測信号を基に画像合成比率を示す値(画像合成パラメータ)を生成するようにしている。これにより、本実施形態の携帯電話端末においては、例えばユーザによる数値や文字列の入力のような作業を必要とせずに簡単に画像合成比率を決定することができ、さらに、その合成比率による画像合成処理を実行可能となっている。また、本発明実施形態の携帯電話端末においては、画像合成を行う際に、合成される画像(以下、合成対象画像と表記する。)の選択と、合成対象画像の合成処理といった作業を可逆的に行えるようにする機能を備えていることにより、合成対象画像に対する逐次的な合成処理を可能としている。
[Processing and control during image composition]
In the mobile phone terminal according to the embodiment of the present invention, when performing image composition, by using a measuring instrument such as the acceleration sensor 24 or the angular velocity sensor, a movement applied to the terminal such as the terminal being shaken is detected. Measurement is performed, and a value (image composition parameter) indicating an image composition ratio is generated based on the measurement signal. Thereby, in the mobile phone terminal of the present embodiment, for example, an image composition ratio can be easily determined without requiring an operation such as input of a numerical value or a character string by the user, and further, an image based on the composition ratio can be determined. The composition process can be executed. In the cellular phone terminal according to the embodiment of the present invention, when image synthesis is performed, operations such as selection of an image to be synthesized (hereinafter referred to as a synthesis target image) and synthesis processing of the synthesis target image are reversible. By providing a function that allows the image to be synthesized, sequential synthesis processing can be performed on the synthesis target image.

以下、加速度センサ24の計測信号に基づく画像合成パラメータの決定、合成対象画像の選択、当該選択された合成対象画像を上記画像合成パラメータに応じて合成する処理について、図2及び図3のフローチャートを参照しながら説明する。なお、これら図2及び図3のフローチャートの処理は、本実施形態の携帯電話端末の制御部10が、メモリ部15のプログラム格納部31に格納されている画像合成制御プログラムを実行することにより実現される処理である。   Hereinafter, the flowcharts of FIGS. 2 and 3 will be described with respect to the determination of the image synthesis parameter based on the measurement signal of the acceleration sensor 24, the selection of the synthesis target image, and the process of synthesizing the selected synthesis target image according to the image synthesis parameter. The description will be given with reference. 2 and FIG. 3 is realized by the control unit 10 of the mobile phone terminal according to the present embodiment executing the image composition control program stored in the program storage unit 31 of the memory unit 15. Process.

図2及び図3のフローチャートにおいて、画像合成制御プログラムが起動すると、制御部10は、先ずステップS10の処理として、画像処理制御機能により、画像ファイル保存部32に保存されている複数の画像の例えばサムネイル画像(或いは各画像ファイル名など)を表示部14の画面上に一覧表示させる。そして、画像処理制御機能は、それら複数のサムネイル画像等の中から、例えば操作部13を通じたユーザからの選択指示により画像が選択されると、当該選択された画像のデータを、画像合成の土台となり且つ合成対象画像の一つであるベース画像として、画像ファイル保存部32から読み出し、例えばメモリ部15のRAM領域に一時的に保存する。   2 and 3, when the image composition control program is started, the control unit 10 first performs a process of step S10 on, for example, a plurality of images stored in the image file storage unit 32 by the image processing control function. A list of thumbnail images (or names of image files, etc.) is displayed on the screen of the display unit 14. When the image processing control function selects an image from among the plurality of thumbnail images, for example, according to a selection instruction from the user through the operation unit 13, the data of the selected image is used as a basis for image composition. And is read from the image file storage unit 32 as a base image which is one of the synthesis target images, and temporarily stored in, for example, the RAM area of the memory unit 15.

次に、制御部10は、ステップS11の処理として、画像処理制御機能により、前述同様に、画像ファイル保存部32に保存されている複数の画像の例えばサムネイル画像等を表示部14の画面上に一覧表示させる。そして、画像処理制御機能は、それら複数のサムネイル画像等の中から、例えば操作部13を通じたユーザからの選択指示により画像が選択されると、当該選択された画像のデータを、合成対象画像の一つであるソース画像G1のデータとして、画像ファイル保存部32から読み出し、例えばメモリ部15のRAM領域に一時的に保存する。   Next, as the processing in step S11, the control unit 10 uses the image processing control function to display, for example, thumbnail images of a plurality of images stored in the image file storage unit 32 on the screen of the display unit 14 as described above. Display a list. The image processing control function, when an image is selected from among the plurality of thumbnail images, for example, in accordance with a selection instruction from the user through the operation unit 13, the data of the selected image is converted into the composition target image. One source image G1 data is read from the image file storage unit 32 and temporarily stored in, for example, the RAM area of the memory unit 15.

次に、制御部10は、ステップS12以降の画像合成処理の工程に移る。   Next, the control unit 10 proceeds to the image composition process after step S12.

上記ステップS12にて画像合成処理の工程に移ると、制御部10の画像処理制御機能は、ユーザから所定のオプション指示を受け付け可能な状態になり、操作部13を通じてユーザから所定のオプション指示が入力された場合には、そのオプション指示に応じた処理を実行する。   When the process proceeds to the image composition process in step S12, the image processing control function of the control unit 10 is ready to accept a predetermined option instruction from the user, and the predetermined option instruction is input from the user through the operation unit 13. If so, the process according to the option instruction is executed.

ここで、本実施形態においては、上記ユーザが入力可能な所定のオプション指示として、複数のソース画像を合成対象画像として追加可能とするためのソース画像追加指示と、画像合成に使用可能な複数の合成対象画像の中から何れの画像を実際の合成時に使用するかを適宜変更して選択するための合成対象画像変更指示とが用意されている。   Here, in the present embodiment, as a predetermined option instruction that can be input by the user, a source image addition instruction for allowing a plurality of source images to be added as a compositing target image, and a plurality of images that can be used for image composition. A compositing target image change instruction is provided for appropriately changing which image is used during compositing from among compositing target images.

すなわち、これら所定のオプション指示に対応するために、制御部10の画像処理制御機能は、ステップS13の処理として、上記ソース画像の追加指示を受け付け可能な状態となる。この時の画像処理制御機能は、操作部13を通じてユーザからソース画像の追加指示が入力されたか否かを監視し、当該ソース画像の追加指示の入力がなされた時にはステップS14へ処理を進め、一方、追加指示が入力されない時にはステップS15へ処理を進める。   That is, in order to respond to these predetermined option instructions, the image processing control function of the control unit 10 is in a state where it can accept the instruction to add the source image as the process of step S13. The image processing control function at this time monitors whether or not an instruction to add a source image has been input from the user through the operation unit 13. When the instruction to add the source image has been input, the process proceeds to step S14. If no additional instruction is input, the process proceeds to step S15.

ユーザからソース画像の追加指示が入力されてステップS14の処理に進むと、制御部10の画像処理制御機能は、前述のソース画像の選択時と同様に、例えば画面上に複数のサムネイル画像等を一覧表示させる。この時の画像処理制御機能は、それら複数のサムネイル画像等の中から合成対象画像として選択可能な画像の数を一つに限定せず、複数の画像の選択を受け付け可能となる。そして、操作部13を通じたユーザからの指示入力により、例えばn個(n=2,3,4,…)のソース画像が選択されると、画像処理制御機能は、これらn個のソース画像Gnについてもそれぞれを合成対象画像とする。勿論、画像処理制御機能は、何れも選択されずにソース画像の追加指示をキャンセルする旨のユーザ入力についても受け付け可能となされている。このステップS14の処理後、制御部10は、ステップS15へ処理を進める。   When an instruction to add a source image is input from the user and the process proceeds to step S14, the image processing control function of the control unit 10 displays, for example, a plurality of thumbnail images on the screen, as in the case of selecting the source image described above. Display a list. The image processing control function at this time can accept selection of a plurality of images without limiting the number of images that can be selected as a synthesis target image from the plurality of thumbnail images and the like. When, for example, n (n = 2, 3, 4,...) Source images are selected by an instruction input from the user through the operation unit 13, the image processing control function causes the n source images Gn to be selected. Each of the images is a synthesis target image. Of course, the image processing control function can accept user input to cancel the instruction to add the source image without selecting any of them. After the process of step S14, the control unit 10 advances the process to step S15.

ステップS15の処理に進むと、制御部10の画像処理制御機能は、実際に画像合成に使用される一組の合成対象画像の変更指示を受け付け可能な状態となる。この時の画像処理制御機能は、操作部13を通じてユーザから合成対象画像の変更指示が入力されたか否かを監視し、当該合成対象画像の変更指示の入力がなされた時にはステップS16へ処理を進め、一方、変更指示の入力がなされていない時には図3のステップS17へ処理を進める。   When the processing proceeds to step S15, the image processing control function of the control unit 10 is in a state where it can accept an instruction to change a set of compositing target images that are actually used for image compositing. The image processing control function at this time monitors whether or not an instruction to change the compositing target image is input from the user through the operation unit 13, and when the instruction to change the compositing target image is input, the process proceeds to step S16. On the other hand, when the change instruction is not input, the process proceeds to step S17 in FIG.

ユーザから合成対象画像の変更指示が入力されてステップS16の処理に進むと、制御部10の画像処理制御機能は、例えば画面上に各合成対象画像のサムネイル画像(或いはそれらのファイル名)等を一覧表示させる。そして、操作部13を通じたユーザからの指示入力により、それら複数の合成対象画像の中から、画像合成に使用する一組の合成対象画像が選択されると、画像処理制御機能は、図3のステップS17へ処理を進める。なお、勿論、画像処理制御機能は、合成対象画像の変更指示をキャンセルする旨のユーザ入力についても受け付け可能となされている。   When an instruction to change the compositing target image is input from the user and the process proceeds to step S16, the image processing control function of the control unit 10 displays, for example, thumbnail images (or their file names) of the compositing target images on the screen. Display a list. When a set of compositing target images used for image compositing is selected from the plurality of compositing target images by an instruction input from the user through the operation unit 13, the image processing control function The process proceeds to step S17. Of course, the image processing control function can also accept a user input for canceling the compositing target image change instruction.

上述のように、本実施形態においては、合成対象画像を任意に追加及び変更可能となされている。すなわち例えば、ステップS10とステップS11の処理が終わった時点では、前記ベース画像とソース画像G1が一組の合成対象画像となっているが、上記ステップS14で新たに複数のソース画像Gnが追加されたことで合成対象画像が複数になり、さらにステップS16にてそれら複数の合成対象画像の中からユーザが所望の一組の合成対象画像を選択した場合には、当該選択された一組の合成対象画像が、後段のステップS17以降での画像合成の際に使用される画像となる。   As described above, in the present embodiment, the compositing target image can be arbitrarily added and changed. That is, for example, at the time when the processing of step S10 and step S11 is completed, the base image and the source image G1 are a set of synthesis target images, but a plurality of source images Gn are newly added in step S14. If there is a plurality of compositing target images, and the user selects a desired set of compositing target images from the plurality of compositing target images in step S16, the selected set of compositing images. The target image is an image used for image synthesis in step S17 and subsequent steps.

なお、上記ステップS16での合成対象画像の選択の際には、上記ベース画像或いは既にベース画像にソース画像が合成された後の合成画像を、上記一組の合成対象画像の一つとして必ず使用するようにしてもよい。つまりこの場合、ステップS16では、上記ベース画像或いは既にベース画像にソース画像が合成された後の合成画像については変更されず、ステップS14にて追加されたソース画像のみが変更されて、上記一組の合成対象画像が選ばれることになる。   When selecting the compositing target image in step S16, the base image or the composite image after the source image has already been composited with the base image is always used as one of the set of compositing target images. You may make it do. That is, in this case, in step S16, the base image or the composite image after the source image has already been combined with the base image is not changed, only the source image added in step S14 is changed, and The synthesis target image is selected.

図3のステップS17の処理に進むと、制御部10は、加速度センサ24による振動計測を開始させる。そして、制御部10は、自端末の機体が振られることによる振動が加速度センサ24にて検知されると、ステップS18の処理として、当該振動が一定時間以上続いたか否か判定し、一定時間以上継続したと判定した場合にはその旨をパラメータ算出機能へ知らせてステップS19へ処理を進め、一方、振動継続時間が一定時間未満で終了したと判定した場合にはステップS20へ処理を進める。   When the process proceeds to step S <b> 17 in FIG. 3, the control unit 10 starts vibration measurement by the acceleration sensor 24. Then, when the acceleration sensor 24 detects vibration due to the shaking of the terminal body, the control unit 10 determines whether or not the vibration has continued for a certain time or more as a process in step S18. If it is determined that the vibration has continued, the parameter calculation function is notified of this, and the process proceeds to step S19. On the other hand, if it is determined that the vibration duration time is less than a predetermined time, the process proceeds to step S20.

ステップS20の処理に進んだ場合、制御部10は、画像合成処理をユーザの操作一回分前の状態に戻し、その旨を表示部14の画面上に表示させる。すなわち、本実施形態によれば、操作一回分前の状態に処理を戻すことにより、ソース画像の追加や合成対象画像の変更といった作業を可逆的に行うことが可能となる。   When the processing proceeds to step S20, the control unit 10 returns the image composition processing to the state before the user's operation once, and displays that effect on the screen of the display unit 14. That is, according to the present embodiment, it is possible to reversibly perform operations such as adding a source image and changing a compositing target image by returning the processing to the state before one operation.

一方、ステップS19の処理に進むと、制御部10のパラメータ算出機能は、上記振動の継続時間に応じた画像合成パラメータ(具体的には合成比率)を算出する。すなわち、一例として、上記振動継続時間が長い時には大きな合成比率を示すパラメータとし、短い時には少ない合成比率を示すパラメータを算出する。そして、当該算出した画像合成パラメータは、画像処理制御機能へ渡される。この時の画像処理制御機能は、当該画像合成パラメータにより表される合成比率により、前記一組の合成対象画像を合成する。   On the other hand, when the processing proceeds to step S19, the parameter calculation function of the control unit 10 calculates an image synthesis parameter (specifically, a synthesis ratio) corresponding to the duration of the vibration. That is, as an example, a parameter indicating a large composition ratio is calculated when the vibration duration time is long, and a parameter indicating a small composition ratio is calculated when the vibration duration time is short. Then, the calculated image composition parameter is passed to the image processing control function. The image processing control function at this time synthesizes the set of synthesis target images based on the synthesis ratio represented by the image synthesis parameter.

上記画像合成処理が完了すると、制御部10の画像処理制御機能は、ステップS21の処理として、上記合成された画像を表示部14の画面上に表示する。   When the image synthesis process is completed, the image processing control function of the control unit 10 displays the synthesized image on the screen of the display unit 14 as a process of step S21.

その後、ステップS22の処理として、制御部13を介してユーザから画像合成処理の終了指示が入力されたか否か判定し、上記終了指示が入力された場合にはステップS23にて上記合成画像を画像ファイル保存部32に保存した後、このフローチャートの処理を終了する。   Thereafter, in step S22, it is determined whether or not an end instruction for image composition processing has been input from the user via the control unit 13. If the end instruction has been input, the composite image is imaged in step S23. After saving in the file saving unit 32, the process of this flowchart ends.

一方、ステップS22において、終了指示が入力されない場合、制御部10は、図2のステップS13へ処理を戻す。これにより、さらにソース画像の追加や合成対象画像の変更が可能となり、またその後に画像合成処理を行うことが可能となる。言い換えると、本実施形態によれば、画像合成の逐次的な処理が可能となる。   On the other hand, when the end instruction is not input in step S22, the control unit 10 returns the process to step S13 in FIG. As a result, it is possible to add a source image and change a composition target image, and to perform an image composition process thereafter. In other words, according to the present embodiment, sequential processing of image composition is possible.

なお、本実施形態において、振動の継続時間と合成比率との相関を例えば線形とし、例えば同じ長さの振動継続時間により、例えばベース画像へソース画像を合成する作業を二回繰り返したような場合には、当該二回目の振動による画像合成が終了した時点におけるソース画像のベース画像に対する合成重みは、一回目の振動による画像合成が終了した時点におけるベース画像に対するソース画像の合成重みの二倍となる。   In the present embodiment, the correlation between the duration of vibration and the composition ratio is linear, for example, and the operation of synthesizing the source image to the base image is repeated twice, for example, with the same duration of vibration duration. The combination weight of the source image with respect to the base image at the time when the image synthesis by the second vibration is completed is twice the synthesis weight of the source image with respect to the base image at the time when the image synthesis by the first vibration is completed. Become.

[本実施形態の携帯電話端末の各構成要素間における処理のシーケンス例]
図4には、本実施形態の携帯電話端末において、本発明に係る主要な構成要素間における処理のシーケンス図を示す。また、図5には、画像合成が行われた後にさらにソース画像の追加と選択を行って合成対象画像を変更する処理のシーケンス図を示す。
[Example of Sequence of Processing Between Components of Mobile Phone Terminal of Present Embodiment]
FIG. 4 shows a sequence diagram of processing between main components according to the present invention in the mobile phone terminal of the present embodiment. Further, FIG. 5 shows a sequence diagram of processing for changing the composition target image by further adding and selecting the source image after the image composition is performed.

図4において、画像合成制御プログラムが起動した後、操作部13を介したユーザ操作によりベース画像の選択(T1)がなされると、画像処理制御機能51は、画像ファイル保存部32からベース画像のデータを読み込み(T2,T3)、さらに当該選択されたベース画像を表示部14の画面上に表示させる(S51)。   In FIG. 4, when the base image is selected (T1) by a user operation via the operation unit 13 after the image composition control program is started, the image processing control function 51 reads the base image from the image file storage unit 32. Data is read (T2, T3), and the selected base image is displayed on the screen of the display unit 14 (S51).

さらに、操作部13を介したユーザ操作によりソース画像G1の選択(T5)がなされると、画像処理制御機能51は、画像ファイル保存部32からソース画像G1のデータを読み込む。   Further, when the source image G1 is selected (T5) by a user operation via the operation unit 13, the image processing control function 51 reads the data of the source image G1 from the image file storage unit 32.

また、操作部13を介したユーザ操作により合成開始の指示が入力(T8)されると、画像処理制御機能51は、加速度センサ24に計測を開始(T9、S52)させ、その計測データ(T10)から振動時間が一定時間以上継続したかを監視する。そして、振動時間が一定時間以上継続した場合、画像処理制御機能51は、当該加速度センサ24にて計測している振動の継続時間をパラメータ算出機能52に通知(S53,T11)させる。   When an instruction to start synthesis is input by a user operation via the operation unit 13 (T8), the image processing control function 51 causes the acceleration sensor 24 to start measurement (T9, S52) and the measurement data (T10). ) To monitor whether the vibration time has continued for a certain time. When the vibration time continues for a certain time or longer, the image processing control function 51 notifies the parameter calculation function 52 of the vibration duration time measured by the acceleration sensor 24 (S53, T11).

パラメータ算出機能52は、上記振動の継続時間に応じて画像合成パラメータを算出(S54)し、その画像合成パラメータを画像処理制御機能51に渡す(T12)。   The parameter calculation function 52 calculates an image synthesis parameter according to the duration of the vibration (S54), and passes the image synthesis parameter to the image processing control function 51 (T12).

画像処理制御機能51は、上記画像合成パラメータを用いて画像合成処理(S55)を実行し、当該画像合成処理後の合成画像を表示部14へ送り(T13)、その合成画像を表示部14に表示(S56)させる。   The image processing control function 51 executes the image composition process (S55) using the image composition parameter, sends the composite image after the image composition process to the display unit 14 (T13), and sends the composite image to the display unit 14. Display (S56).

その後、操作部13を介したユーザ操作により合成合成処理の終了指示が入力(T14)されると、画像処理制御機能51は、上記合成画像のデータを画像ファイル保存部32に送り(T15)、さらに画像ファイル保存部32から保存完了の通知を受ける(T16)と処理を終了する。   After that, when an instruction to end the synthesis / synthesis process is input by a user operation via the operation unit 13 (T14), the image processing control function 51 sends the synthesized image data to the image file storage unit 32 (T15). Further, when the storage completion notification is received from the image file storage unit 32 (T16), the process ends.

また、図5において、上述の図4のように画像合成処理(S61)が行われている場合において、操作部13を介したユーザ操作によりソース画像の追加指示が入力(T21)されると、画像処理制御機能51は、画像ファイル保存部32からソース画像Gnのデータを読み込む(T22,T23)。   Also, in FIG. 5, when the image composition processing (S61) is performed as in FIG. 4 described above, when an instruction to add a source image is input (T21) by a user operation via the operation unit 13, The image processing control function 51 reads the data of the source image Gn from the image file storage unit 32 (T22, T23).

さらに、操作部13を介したユーザ操作により合成対象画像の変更指示が入力(T24)されると、画像処理制御機能51は、その変更指示に応じて、画像合成に用いられる一組の合成対象画像を変更する。   Further, when an instruction to change the compositing target image is input (T24) by a user operation via the operation unit 13, the image processing control function 51 sets a set of compositing targets used for image compositing according to the changing instruction. Change the image.

[まとめ]
以上説明したように、本発明実施形態によれば、端末が振られた時の振動継続時間が一定以上である時、その振動継続時間に応じて画像合成パラメータを決定し、一方、振動継続時間が一定時間未満のときには、ベース画像やソース画像の合成対象画像を追加,変更の処理の戻ることができ、画像合成処理を繰り返し実行可能となされているため、例えば三枚以上の複数枚の画像の合成を簡単な作業により迅速に行うことができ、また、一度選択した画像に対して複数回の合成処理をかけ直して調整するようなことも簡単且つ容易に行うことが可能である。
[Summary]
As described above, according to the embodiment of the present invention, when the vibration continuation time when the terminal is shaken is more than a certain value, the image composition parameter is determined according to the vibration continuation time, while the vibration continuation time is Is less than a certain time, the base image and source image compositing target images can be added and changed, and the image compositing process can be repeated. For example, three or more images Can be quickly performed by a simple operation, and it is also possible to easily and easily perform adjustment by re-applying a plurality of combining processes on an image selected once.

なお、上述した実施形態の説明は、本発明の一例である。このため、本発明は上述した各実施形態に限定されることなく、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることはもちろんである。   The above description of the embodiment is an example of the present invention. Therefore, the present invention is not limited to the above-described embodiments, and various modifications can be made according to the design and the like as long as they do not depart from the technical idea according to the present invention. .

例えば、上述の実施形態では、携帯電話端末に加えられた振動の継続時間に応じて画像合成パラメータを算出するようにしたが、例えばいわゆるタッチパネル上に置いた指等を摺動させた時の摺動継続時間に応じて画像合成パラメータを算出するようにしてもよい。   For example, in the above-described embodiment, the image synthesis parameter is calculated according to the duration of vibration applied to the mobile phone terminal. However, for example, when a finger placed on a touch panel is slid, The image synthesis parameter may be calculated according to the motion duration time.

10…制御部、11…通信回路、12…通信アンテナ、13…操作部、14…表示部、15…メモリ部、20…スピーカ、21…マイクロホン、22…撮像制御部、23…カメラ、24…加速度センサ、31…プログラム格納部、32…画像ファイル保存部、51…画像処理制御機能、52…パラメータ算出機能   DESCRIPTION OF SYMBOLS 10 ... Control part, 11 ... Communication circuit, 12 ... Communication antenna, 13 ... Operation part, 14 ... Display part, 15 ... Memory part, 20 ... Speaker, 21 ... Microphone, 22 ... Imaging control part, 23 ... Camera, 24 ... Acceleration sensor 31... Program storage unit 32. Image file storage unit 51. Image processing control function 52.

Claims (5)

複数の画像のデータを保存する画像保存部と、
使用者からの指示が入力される指示入力部と、
上記画像データ保存部に保存されている画像の中から、上記指示入力部からの指示入力を通じて選ばれた複数の画像を合成対象画像として読み込む合成対象画像読み込み部と、
上記合成対象画像読み込み部にて読み込まれた複数の合成対象画像の中から、上記指示入力部からの指示入力を通じて選ばれた一組の合成対象画像を、画像合成に使用する合成対象画像として選択する合成対象画像選択部と、
自機体に加えられた所定の操作の継続時間を計測する計測部と、
上記計測部にて計測された継続時間が一定時間以上であるときには、当該継続時間に応じた画像合成比率を示すパラメータを算出して、そのパラメータを用いて上記一組の合成対象画像を合成し、上記継続時間が一定時間未満で終了したときには、上記合成対象画像読み込み部による合成対象画像の読み込みと上記合成対象画像選択部による合成対象画像の選択へ処理を戻す処理制御部と、
を有する画像合成装置。
An image storage unit for storing data of a plurality of images;
An instruction input unit for inputting an instruction from the user;
A synthesis target image reading unit that reads a plurality of images selected from the images stored in the image data storage unit through an instruction input from the instruction input unit as a synthesis target image;
From among a plurality of synthesis target images read by the synthesis target image reading unit, a set of synthesis target images selected through instruction input from the instruction input unit is selected as a synthesis target image used for image synthesis. A compositing target image selection unit,
A measuring unit for measuring the duration of a predetermined operation applied to the aircraft,
When the duration measured by the measurement unit is a certain time or more, a parameter indicating an image synthesis ratio corresponding to the duration is calculated, and the set of synthesis target images is synthesized using the parameter. A processing control unit that returns processing to the synthesis target image reading unit by the synthesis target image reading unit and the synthesis target image selection unit to select the synthesis target image when the duration time is less than a predetermined time;
An image synthesizing apparatus.
上記計測部は、自機体に加えられた振動操作の継続時間を計測する請求項1記載の画像合成装置。   The image synthesizing apparatus according to claim 1, wherein the measurement unit measures a duration time of a vibration operation applied to the own body. 上記計測部は、自機体に加えられた摺動操作の継続時間を計測する請求項1記載の画像合成装置。   The image synthesizing apparatus according to claim 1, wherein the measurement unit measures a duration time of a sliding operation applied to the own body. 合成対象画像読み込み部が、画像データ保存部に保存されている複数の画像の中から、指示入力部を通じた使用者からの指示入力により選択された複数の画像を合成対象画像として読み込むステップと、
上記合成対象画像読み込み部にて読み込まれた複数の合成対象画像の中から、合成対象画像選択部が、上記指示入力部を通じた使用者からの指示入力に応じた一組の合成対象画像を、画像合成に使用する合成対象画像として選択するステップと、
計測部が、自機体に加えられた所定の操作の継続時間を計測するステップと、
上記計測部にて計測された継続時間が一定時間以上であるときには、処理制御部が、当該継続時間に応じた画像合成比率を示すパラメータを算出して、そのパラメータを用いて上記一組の合成対象画像を合成するステップと、
上記計測部にて計測された継続時間が一定時間未満で終了したときには、処理制御部が、上記合成対象画像読み込み部による合成対象画像の読み込みと上記合成対象画像選択部による合成対象画像の選択へ処理を戻すステップと、
を有する画像合成制御方法。
A step of reading a plurality of images selected by an instruction input from a user through an instruction input unit as a combination target image from a plurality of images stored in the image data storage unit;
Among the plurality of compositing target images read by the compositing target image reading unit, the compositing target image selecting unit generates a set of compositing target images according to the instruction input from the user through the instruction input unit. Selecting as a compositing target image to be used for image compositing;
A measurement unit measuring a duration of a predetermined operation applied to the aircraft,
When the duration measured by the measurement unit is equal to or longer than a certain time, the processing control unit calculates a parameter indicating an image synthesis ratio according to the duration and uses the set of the combination of the set Compositing the target image; and
When the duration time measured by the measurement unit ends in less than a predetermined time, the processing control unit reads the synthesis target image by the synthesis target image reading unit and selects the synthesis target image by the synthesis target image selection unit. A step to return processing;
An image synthesis control method comprising:
画像データ保存部に保存されている複数の画像の中から、指示入力部を通じた使用者からの指示入力により選択された複数の画像を合成対象画像として読み込む合成対象画像読み込み処理と、
上記合成対象画像読み込み処理にて読み込まれた複数の合成対象画像の中から、上記指示入力部を通じた使用者からの指示入力に応じた一組の合成対象画像を、画像合成に使用する合成対象画像として選択する合成対象画像選択処理と、
自機体に加えられた所定の操作の継続時間を計測部に計測させる計測処理と、
上記計測部にて計測された継続時間が一定時間以上であるときには、当該継続時間に応じた画像合成比率を示すパラメータを算出して、そのパラメータを用いて上記一組の合成対象画像を合成し、上記計測部にて計測された継続時間が一定時間未満で終了したときには、上記合成対象画像読み込み部による合成対象画像の読み込みと上記合成対象画像選択部による合成対象画像の選択へ処理を戻す処理制御部として、
コンピュータを動作させる画像合成制御プログラム。
A compositing target image reading process for reading a plurality of images selected by an instruction input from a user through an instruction input unit from among a plurality of images stored in the image data storage unit as a compositing target image;
A synthesis target that uses a set of synthesis target images corresponding to an instruction input from the user through the instruction input unit from among a plurality of synthesis target images read in the synthesis target image reading process. A compositing target image selection process to be selected as an image;
A measurement process that causes the measurement unit to measure the duration of a predetermined operation applied to the aircraft,
When the duration measured by the measurement unit is a certain time or more, a parameter indicating an image synthesis ratio corresponding to the duration is calculated, and the set of synthesis target images is synthesized using the parameter. When the duration time measured by the measurement unit ends in less than a certain time, the process returns to the process of reading the synthesis target image by the synthesis target image reading unit and the selection of the synthesis target image by the synthesis target image selection unit As a control unit,
An image composition control program for operating a computer.
JP2009087201A 2009-03-31 2009-03-31 Image composition device, method and program for controlling image composition Pending JP2010238097A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009087201A JP2010238097A (en) 2009-03-31 2009-03-31 Image composition device, method and program for controlling image composition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009087201A JP2010238097A (en) 2009-03-31 2009-03-31 Image composition device, method and program for controlling image composition

Publications (1)

Publication Number Publication Date
JP2010238097A true JP2010238097A (en) 2010-10-21

Family

ID=43092340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009087201A Pending JP2010238097A (en) 2009-03-31 2009-03-31 Image composition device, method and program for controlling image composition

Country Status (1)

Country Link
JP (1) JP2010238097A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005230532A (en) * 2004-01-20 2005-09-02 Shinsedai Kk Device, program and method of generating image signal
JP2005284416A (en) * 2004-03-26 2005-10-13 Sony Corp Input device with tactile function, information input method, and electronic equipment
JP2006065507A (en) * 2004-08-25 2006-03-09 Sony Corp Vibration transmission mechanism, method for creating vibration waveform data, input device with touch function, and electronic device
WO2008050823A1 (en) * 2006-10-26 2008-05-02 Hitachi Medical Corporation Medical image display device
JP2008172676A (en) * 2007-01-15 2008-07-24 Fujifilm Corp Image compositing apparatus, and image compositing method
JP2008210127A (en) * 2007-02-26 2008-09-11 Kyocera Corp Mobile terminal device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005230532A (en) * 2004-01-20 2005-09-02 Shinsedai Kk Device, program and method of generating image signal
JP2005284416A (en) * 2004-03-26 2005-10-13 Sony Corp Input device with tactile function, information input method, and electronic equipment
JP2006065507A (en) * 2004-08-25 2006-03-09 Sony Corp Vibration transmission mechanism, method for creating vibration waveform data, input device with touch function, and electronic device
WO2008050823A1 (en) * 2006-10-26 2008-05-02 Hitachi Medical Corporation Medical image display device
JP2008172676A (en) * 2007-01-15 2008-07-24 Fujifilm Corp Image compositing apparatus, and image compositing method
JP2008210127A (en) * 2007-02-26 2008-09-11 Kyocera Corp Mobile terminal device

Similar Documents

Publication Publication Date Title
JP2008532394A (en) Method, electronic device, and computer program product for processing an image using multiple image buffers
JP4437486B2 (en) Voice communication apparatus, voice communication system, voice communication control method, and voice communication control program
CN105009564A (en) Method and apparatus for camera control using a virtual button and gestures
JP4895744B2 (en) Mobile communication terminal
JP2011139516A (en) Mobile terminal device, method of controlling display of the same, program, and computer-readable recording medium
JP2010238097A (en) Image composition device, method and program for controlling image composition
JP2009193427A (en) Setting device, setting method and setting program for electronic device
JP4011095B2 (en) Mobile terminal device
KR100703333B1 (en) Method for multi media message transmitting and receiving in wireless terminal
JP2004140695A (en) Information terminal, information processing method, and information processing program
JP2009044365A (en) Voice processor and processing method, mobile terminal
JP2010177774A (en) Mobile electronic device and voice output adjustment method
KR100617869B1 (en) Method for processing shutter sound in mobile phone with camera and mobile phone thereof
KR100678103B1 (en) Method for displaying menu in the mobile phone
CN109616145B (en) Method and device for generating ring signal file and computer readable storage medium
KR100678119B1 (en) Method for replaying music file in wireless terminal
JP2008227727A (en) Portable information terminal, image management method, and program
JP4093404B2 (en) Mobile communication terminal
JP4791268B2 (en) Terminal device, e-mail creation program, and e-mail creation method
KR100605802B1 (en) Method for controlling key sound in the mobile terminal
KR100620689B1 (en) High-speed photography terminal
JP2009130781A (en) Mobile terminal, positional information acquiring method, and program
KR20060123911A (en) Method for setting idle mode screen in mobile phone
JP5163503B2 (en) Mobile terminal device
JP2002111800A (en) Data transmission/reception system and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120323

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120424

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130605