JP4093404B2 - Mobile communication terminal - Google Patents

Mobile communication terminal Download PDF

Info

Publication number
JP4093404B2
JP4093404B2 JP2002216849A JP2002216849A JP4093404B2 JP 4093404 B2 JP4093404 B2 JP 4093404B2 JP 2002216849 A JP2002216849 A JP 2002216849A JP 2002216849 A JP2002216849 A JP 2002216849A JP 4093404 B2 JP4093404 B2 JP 4093404B2
Authority
JP
Japan
Prior art keywords
data
music data
communication terminal
camera
mobile communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002216849A
Other languages
Japanese (ja)
Other versions
JP2004064226A (en
Inventor
秀夫 鬼海
浩 白川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Ericsson Mobile Communications Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Ericsson Mobile Communications Japan Inc filed Critical Sony Ericsson Mobile Communications Japan Inc
Priority to JP2002216849A priority Critical patent/JP4093404B2/en
Publication of JP2004064226A publication Critical patent/JP2004064226A/en
Application granted granted Critical
Publication of JP4093404B2 publication Critical patent/JP4093404B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Telephone Function (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Mobile Radio Communication Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、カメラ機能を備えた携帯通信端末に関する。
【0002】
【従来の技術】
現在、カメラ機能を備えた携帯通信端末が市場に数多く提供されており、このような携帯通信端末によれば、ユーザは、標準的な被写体の撮影機能に加え、ズーム撮影機能やセルフタイマを利用した遠隔撮影機能等の種々のカメラ機能を、携帯通信端末上で実現することができる。
【0003】
【発明が解決しようとする課題】
しかしながら、従来までの携帯通信端末は、ユーザがカメラ機能毎に割り当てられた所定のキーボタンを操作するに応じて、操作されたキーボタンに対応するカメラ機能を実行する構成となっているために、一つのカメラ機能を連続して利用する場合、ユーザは繰り返しキーボタンを操作しなければならず、カメラ機能を利用するために非常に多くの労力が必要となる。
【0004】
また、遠隔撮影機能等のために設けられているセルフタイマは基本的にシャッターを押下するタイミングしか制御することができないために、ユーザは離れた位置からシャッター押下以外のカメラ機能を利用することができない。さらに、ユーザはセルフタイマ時間を任意の時間に変更することができない。
【0005】
本発明はこのような課題に鑑みてなされたものであり、その目的は、キーボタンを操作することなく、種々のカメラ機能を簡単に利用することを可能にする携帯通信端末を提供することにある。
【0006】
【課題を解決するための手段】
本発明に係る携帯通信端末は、複数のカメラ機能を備えた携帯通信端末であって、上述の課題を解決するための手段として、音楽データと、上記複数のカメラ機能のうち、上記音楽データに含まれる所定の音階に対して関連付けされた少なくとも一つのカメラ機能を示す設定データとが記憶された記憶部と、上記カメラ機能の利用要求に応じて選択された上記音楽データを上記記憶部から読み出して再生する音楽データ再生手段と、上記カメラ機能の利用要求に応じて選択された上記音楽データの再生時に、上記記憶部に記憶されている上記設定データを参照し、該設定データで示される所定の音階が上記音楽データ再生手段により再生された際に、当該所定の音階に関連付けされているカメラ機能を実行制御する制御部とを備える。すなわち、本発明に係る携帯通信端末は、カメラ機能と音楽データに含まれる所定の音階とを関連付けし、音楽データの再生処理と平行して関連付けされたカメラ機能を実行する。このような構成によれば、ユーザはキーボタンを操作せずにカメラ機能を簡単に利用することができる。
【0007】
【発明の実施の形態】
以下、図面を参照して、本発明の好ましい実施の形態について詳しく説明する。
【0008】
[携帯通信端末の概観]
始めに、図1を参照して、本発明の実施の形態となる携帯通信端末の概観の構成について説明する。
【0009】
本発明の実施の形態となる携帯通信端末1は、図1に示すように、主な構成要素として、表示部2、操作入力部3、受話口4、及び送話口5を備える。
【0010】
上記表示部2は、LCD(Liquid Crystal Display)やEL(ElectroLuminescence)パネル等の表示装置により構成され、後述するCPU(Central Processing Unit,図2を参照)15の制御に従って、文字、数字、記号、アイコン、カーソル、画像、動画像等を可視表示する。
【0011】
上記操作入力部3は、例えば「0」から「9」までの数字の入力、仮名文字の入力、アルファベット文字の入力、記号の入力、発信や受信の指示入力、電源のオン/オフの指示入力、後述するカメラ部26を利用したカメラ機能の指示入力等の操作に使用される、複数のキーボタン6を有する。また、この操作入力部3は、表示部2上に表示されたカーソルの移動操作や画面のスクロール操作等の操作に使用するダイアル(ジョグダイアル)7を有する。上記受話口4及び送話口5はそれぞれ、後述するスピーカ及びマイクロフォン(図2を参照)に接続されており、ユーザが通話相手先と音声通話を行う際に使用される。
【0012】
[携帯通信端末の内部構成及びその基本動作]
次に、図2を参照して、上記携帯通信端末1の内部構成及びその基本動作について説明する。なお、表示部2及び操作入力部3の構成及び動作は上述の通りであるので、以下ではその説明を省略する。
【0013】
図2に示す携帯通信端末1において、送話口5(図1参照)に接続されているマイクロフォン8は、ユーザの通話音声等をアナログ音声信号に変換する。そして、アナログ音声信号は、図示しない増幅器により増幅された後、DSP(Digital Siginal Processor)9に入力される。
【0014】
DSP9は、アナログ音声信号が入力されると、アナログ音声信号を所定のサンプリングレートでアナログ/デジタル(A/D)変換する。そして、DSP9は、A/D変換により得られたデジタル音声データに対し、トランスポートブロック(TB)毎にCRC(Cyclic Redundancy Check)符号を付加し、チャネル符号化(誤り訂正符合化)及びインターリーブ処理を施す。なお、上記トランスポートブロックとは、物理レイヤが処理を行うデータの基本単位(MAC(Medium Access Control)レイヤから物理レイヤにデータが転送される単位)を示す。
【0015】
また、DSP9は、上記インターリーブ処理後のビット系列に対し、チャネル確定のためのパイロットビット等のオーバーヘッドを付加した後にデータ変調処理を行い、データ変調マッピングされた位相平面上の同相(In-Phase)及び直交(Quadrature)成分をそれぞれ2階層の拡散符号系列で拡散する。そして、DSP9は、拡散後のチップデータ系列を自乗余弦ルートナイキストフィルタで所定帯域(5MHz)に帯域制限した後にデジタル/アナログ(D/A)変換によりアナログ信号に変換し、アナログ信号を送信部10に入力する。
【0016】
送信部10は、DSP9からアナログ信号が入力されると、アナログ信号を直交復調し、直交復調された中間周波数信号を高周波信号(2GHz帯のRF信号)に周波数変換する。そして、送信部10は、この高周波信号を増幅し、増幅後の高周波信号を送信信号としてデュプレクサ11に出力する。
【0017】
デュプレクサ11は、アンテナ共用器である。すなわち、デュプレクサ11は、送信信号と受信信号とで1本のアンテナ12を共用し、アンテナ12からの受信信号を受信部13に送り、且つ、送信部10からの送信信号をアンテナ12へ送出する機能を備えたフィルタ回路により構成される。
【0018】
受信部13は、アンテナ12及びデュプレクサ11を介して供給された高周波の受信信号を増幅し、増幅した受信信号を中間周波数の信号に周波数変換する。そして、受信部13は、自動利得制御により中間周波数の信号を線形増幅し、線形増幅した中間周波数の信号をDSP9に入力する。このときDSP9は、受信部13からの信号を直交検波(Quardrature Detection)し、直交検波による同相及び直交成分のアナログ信号を所定のサンプリングレートでA/D変換する。そして、DSP9は、A/D変換によりデジタル値に変換された同相及び直交成分を、自乗余弦ルートナイキストフィルタで帯域制限した後に受信信号の拡散符号と同一の拡散符号により逆拡散することにより、伝搬遅延時間が異なる複数のマルチパス成分に時間分離する。
【0019】
また、DSP9は、時間分離した各パスのデータをコヒーレントレイク合成し、コヒーレントレイク合成後のデータ系列をデインターリーブ及びチャネル復号した後、2値のデータ判定を行って相手先の端末が送信してきたデータ系列を再生する。そして、DSP9は、再生したデータ系列を音声データとその他の通信データに弁別する。音声データは、DSP9によりD/A変換され、さらに図示しない増幅器により増幅された後、受話口4(図1参照)に内蔵されているスピーカ14へ送られる。スピーカ14は、増幅されたアナログ音声信号により駆動される。これにより、通話相手先の端末からの通話音声がスピーカ14から放音されることになる。
【0020】
また、DSP9は、上記通信データがどのようなデータであるのかを解析し、その解析結果に応じた処理を行う。例えば上記通信データがテキストデータである場合、DSP9はテキストデータをCPU15に送り、CPU15は表示部2上にテキストデータを表示制御する。また、例えば通信データが圧縮された画像データである場合、DSP9は圧縮画像データを伸張した後にCPU15に送り、CPU15は表示部2上に画像データを表示制御する。また、例えば通信データが圧縮された音声データである場合、DSP9は、圧縮音声データを伸張し、スピーカ16又はスピーカ14に音声データを出力する。
【0021】
上記記録部17は、フラッシュメモリ等の記憶保持動作が不要な書き換え可能なメモリにより構成される。この記録部17は、アドレス帳機能、スケジュール帳機能、ユーザプロフィール登録機能、電子メール送受信機能、データダウンロード/アップロード機能、音楽演奏用データ作成機能等、各種アプリケーションプログラムを格納するアプリケーションプログラム記録部18を備える。
【0022】
また、上記記録部17は、アドレス帳データ、スケジュールデータ、プロフィールデータ、送受信した電子メール、ダウンロード/アップロードしたデータ、カメラ部26により撮影された画像データ、ユーザが作成若しくは記録した音楽演奏用データ19(音楽演奏用データの構成については後述する)等の各種データを格納するデータ記録部20を備える。
【0023】
さらに、この記録部17は、携帯通信端末の各種設定値のうち、ユーザが任意に設定可能な値を含む設定データ21を格納する。なお、上記記録部17内に格納するデータは、RS232-C、USB(Universal Serial Bus)、IEEE1394等の汎用のインタフェイスを介して入力するようにしてもよい。また、特に記録部17内に音楽演奏用データ19を格納する場合には、MIDIインタフェイス等の音楽データ用のインタフェイスを介して入力するとよい。
【0024】
ROM(Read Only Memory)22は、CPU15が各部を制御するための制御プログラム(図示せず)等の各種コンピュータプログラムと、各種の初期設定値、フォントデータ、及びデフォルトで搭載されている音楽演奏用データ19(図示せず)を記憶する。また、ROM22は、音楽演奏用データ19を再生するための再生プログラム23、音楽演奏用データ19の再生処理と平行して音楽演奏用データ19と関連付けされたカメラ部26の機能を実行制御する撮影プログラム24を記憶する。
【0025】
なお、このROM22は、EEPROM(Electrically Erasable and Programmable Read Only Memory)のような書き換え可能なROMであってもよい。また、この実施の形態においては、再生プログラム23を用いて音楽演奏用データ19をソフトウェア的に再生したが、例えば端末内に専用の音源回路を設け、この音源回路に音楽演奏用データを入力することにより、音楽演奏用データ19を再生してもよい。
【0026】
RAM(Random Access Memory)25は、CPU15が各種処理を行う際のワークエリアとして機能し、随時データを格納する。CPU15は、記録部17やROM22内に格納されているコンピュータプログラムを実行することにより、コンピュータプログラムに従って携帯通信端末1内の各部の動作を制御すると共に、各種の演算処理を行う。
【0027】
カメラ部26は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子と、撮像素子上に被写体等の光像を結像させる光学系とを備えたものである。そして、例えばシャッターの押下制御、ズーム撮影、色調調整、セルフタイマを利用した撮影等、カメラ部26を利用した各種機能の実行指示は、操作入力部3上の所定のキーを操作、若しくは、撮影プログラム24を実行することで実現され、カメラ部26が撮影した画像データはDSP9に入力される。
【0028】
なお、カメラ部26から画像データを受け取ったDSP9は、その画像データをCPU15に送り、CPU15は画像データに基づく画像を表示部2上に表示制御する。また、DSP9は、必要に応じて画像データを圧縮し、圧縮後の画像データを送信データとして送信部10に送ることもできる。また、圧縮後の画像データはCPU15を介して記録部17に記録することもできる。
【0029】
近距離無線通信部27とそのアンテナ28は、いわゆるブルートゥース(Bluetooth)方式の無線通信を行うためのものである。なお、ブルートゥース方式は、複数の電子機器間における無線ネットワーキングを実現するための方式である。このブルートゥース方式は、Bluetooth SIG(Special Interest Group)において策定されたものであり、詳細は、"Bluetooth(TM) Special Interest Group, Bluetooth仕様書バージョン1.0"に開示されている。
【0030】
[音楽演奏用データの構成]
上記音楽演奏用データ19は、複数のパート(音源)の音階と音符の組み合わせから成り、この実施の形態においては、例えばスタンダードMIDIファイル(Standard Musical Instruments Digital Interface File)等のMIDIデータにより構成される。また、上記パートは、例えば、ピアノ、オルガン、ギター、ベース、バイオリン、チェロ、ハープ、トランペット、サックス、琴、マリンバ、フルート等の楽器の音色情報により構成され、一つの音楽演奏用データには最大40程度のパートから含めることができる(40和音)。
【0031】
このような構成の音楽演奏用データ19は、例えば着信時、メール受信時、後述する撮影処理時等の所定の処理時に、CPU15が、再生プログラム23に従って、音楽演奏用データ19の各パートの音階及び音符を解釈、処理することよりスピーカ16から放音される。なお、この実施の形態においては、音楽演奏用データ19はMIDIデータ形式により構成されるとしたが、例えばMP3(MPEG Audio Layer-3)等の他のデータ形式により音楽演奏用データを構成してもよい。
【0032】
[携帯通信端末の動作]
〔撮影処理〕
上記構成を有する携帯通信端末1は、操作入力部3の操作による通常の撮影モードに加え、カメラ部26が実現する機能と音楽演奏用データ19内のパート、音階、音符とを関連付け、音楽演奏用データ19の再生処理と平行して関連付けされたカメラ部26の機能を実行する音楽撮影モードを有する。このような音楽撮影モードによれば、ユーザは、カメラ機能を実行させるトリガを音楽演奏用データ19内の任意の位置に設定することにより、任意のタイミングで所望のカメラ機能の実行し、且つ、セルフタイマー時間を自由に設定することができる。以下、図3に示すフローチャートを参照して、この音楽撮影モードでユーザが撮影処理を行う際の携帯通信端末1の動作について詳しく説明する。
【0033】
図3に示すフローチャートは、ユーザが、操作入力部3を操作することにより、携帯通信端末1を音楽撮影モードに設定、撮影処理の実行を指示することで開始となり、この制御はステップS1の処理に進む。ここで、音楽撮影モードを設定する際、ユーザは、再生する音楽演奏用データ19のファイル名を選択すると共に、音楽演奏用データ19内のパート、音階、音符と関連付けするカメラ部26の機能を設定する。なお、以下の説明では、ユーザは、音楽演奏用データ19の音階「ド」と「シャッター押下制御機能」、音階「レ」と「ズーム制御機能」、音階「ミ」と「ホワイトバランス制御機能」とを関連付けしたものとする。そして、このようにして設定されたデータは、例えば図4に示すようなテーブル形式にして、CPU15により記録部17の設定データ21内に記録される。
【0034】
ステップS1の処理では、CPU15が、ユーザが選択した音楽演奏用データ19をRAM25内にロードし、ロードした音楽演奏用データ19の中からパート、音階、音符に関する情報を読み出す。これにより、このステップS1の処理は完了し、この制御はステップS1の処理からステップS2の処理に進む。
【0035】
ステップS2の処理では、CPU15が、再生プログラム23に従って、ステップS1の処理において読み出した情報を用いて音楽演奏用データ19を再生する。これにより、このステップS2の処理は完了し、この制御はステップS2の処理からステップS3の処理に進む。
【0036】
ステップS3の処理では、CPU15が、撮影プログラム24に従って、再生した音楽演奏用データ19(この場合は、音階)がカメラ部26の機能と関連付けされているか否かを設定データ21を参照して判別する。そして、判別の結果、再生した音楽演奏用データ19がカメラ部26の機能と関連付けされていない場合は、CPU15はこの制御をステップS3の処理からステップS5の処理に進める。一方、判別の結果、再生した音楽演奏用データ19がカメラ部26の機能と関連付けされている場合には、CPU15はこの制御をステップS3の処理からステップS4の処理に進める。
【0037】
ステップS4の処理では、CPU15が、撮影プログラム24に従って、再生した音楽演奏用データ19と関連付けされている機能を実行するようにカメラ部26を制御する。具体的には、この例の場合、ユーザは上述の図4に示すように設定データ21を設定しているので、CPU15は、音階「ド」を再生した際はシャッターを押下するようにカメラ部26を制御する。また、同様にして、CPU15は、音階「レ」を再生した際はズーム処理を行うように、音階「ミ」を再生した際はホワイトバランスを調整するように、カメラ部26を制御する。これにより、このステップS4の処理は完了し、この制御はステップS4の処理からステップS5の処理に進む。
【0038】
ステップS5の処理では、CPU15が、RAM25内にロードした音楽演奏用データ19の中に未再生のものがあるか否かを判別する。そして、判別の結果、未再生の音楽演奏用データ19がある場合には、この制御はステップS5の処理からステップS2の処理に戻る。一方、未再生の音楽演奏用データ19がない場合には、一連の制御は終了する。なお、上記説明において、ユーザは音楽演奏用データ19内の音階とカメラ部26の機能を関連付けしたが、音楽演奏用データ19内のパートや音符とカメラ部25の機能を関連付けてもよい。
【0039】
〔音楽演奏用データ作成処理〕
上記制御は記録部17やROM22内に記憶された音楽演奏用データ19を利用して実行したが、ユーザが上記制御を行うための音楽演奏用データを自ら作成し、作成したデータを利用して上記制御を行うようにしてもよい。このような構成によれば、上述の図4に示すように音楽演奏用データ19の音階とカメラ部25の機能とを関連付けした状態で、例えばユーザが「ド」・「レ」・「ド」という3つの連続した音階から成る音楽演奏用データ19を作成した場合には、作成した音楽演奏用データ19の再生に合わせて、「シャッター」・「ズーム」・「シャッター」の3つのカメラ機能を連続的、且つ、自動的に実行させることができ、操作入力部3を繰り返し操作する必要がなくなる。
【0040】
以下、図5に示すフローチャートを参照して、上記制御を行うための音楽演奏用データ19をユーザが作成する際の処理の流れについて説明する。なお、以下では、ユーザは、携帯通信端末1を操作して音楽演奏用データ19を作成するものとするが、パーソナルコンピュータやPDA(Personal Digital Assistant)等の情報処理装置を利用して音楽演奏用データ19を作成し、作成した音楽演奏用データ19を携帯通信端末1の記録部17内にロードしてもよい。
【0041】
図5に示すフローチャートは、ユーザが、操作入力部3を操作することにより、音楽演奏用データ作成機能を実現するアプリケーションプログラムの実行をCPU15に指示することで開始となり、この作成処理はステップS11の処理に進む。なお、以下に示すCPU15の処理はCPU15がアプリケーションプログラムを実行することにより実現される。
【0042】
ステップS11の処理では、CPU15が、音源を登録するパートを選択するための選択画面を表示部2に表示し、選択画面が表示されるに応じて、ユーザは、操作入力部3を操作して、表示された選択画面の中から所望のパートを選択する。これにより、このステップS11の処理は完了し、この作成処理はステップS11の処理からステップS12の処理に進む。
【0043】
ステップS12の処理では、CPU15が、選択したパートに登録する音源を選択するための選択画面を表示部2に表示し、選択画面が表示されるに応じて、ユーザは、操作入力部3を操作して、表示された選択画面の中かから所望の音源を選択する。これにより、このステップS12の処理は完了し、この作成処理はステップS12の処理からステップS13の処理に進む。
【0044】
ステップS13の処理では、CPU15が、音源が登録されているパートを表示部2に表示し、パートが表示されるに応じて、ユーザは、操作入力部3を操作して、表示部2に表示されたパートの中から音階、音符を入力するパートを選択する。これにより、このステップS13の処理は完了し、この作成処理はステップS13の処理からステップS14の処理に進む。
【0045】
ステップS14の処理では、CPU15が、音階、音符を入力するためのインタフェイス画面を表示部2に表示し、インタフェイス画面が表示されるに応じて、ユーザは、操作入力部3を操作して、インタフェイス画面内のパートの音階、音符を入力する。これにより、このステップS14の処理は完了し、この作成処理はステップS14の処理からステップS15の処理に進む。
【0046】
ステップS15の処理では、CPU15が、ユーザが操作入力部3を操作して音階、音符の入力完了動作を行ったか否かを監視し、入力完了動作を行った場合、この作成処理をステップS15の処理からステップS17の処理に進める。一方、ユーザが、入力完了動作を行わず、新たな音階、音符を入力した場合には、CPU15は、ステップS16の処理として、入力された音符データ間にデリミタを挿入し、この作成処理をステップS16の処理からステップS14の処理に戻す。なお、デリミタは、音楽演奏用データ19を構成する各音符を個別に検索することを可能にするための区切り文字であり、このデリミタによりCPU15は各音符が示す情報を解釈し、音符毎に関連付けされたカメラ部26の機能を実行することができる。
【0047】
ステップS17の処理では、CPU15が、「他のパートに音階、音符を入力しますか?」等の確認メッセージを表示部2に表示し、ユーザが、操作入力部3を操作して、他のパートに音階、音符を入力することを指示した場合、この作成処理をステップS17の処理からステップS13の処理に戻す。一方、ユーザが、他のパートに音階、音符を入力することを指示せず、作成処理の完了を要求した場合には、CPU15は、この作成処理をステップS17の処理からステップS18の処理に進める。
【0048】
ステップS18の処理では、CPU15が、ユーザが設定、入力したデータを音楽演奏用データ19として記憶部17内に記録する。これにより、一連の作成処理は終了する。
【0049】
[実施の形態の効果]
以上の説明から明らかなように、この実施の形態となる携帯通信端末によれば、カメラ部26が実現する機能と音楽演奏用データ19内のパート、音階、音符とを関連付けし、関連付けされたカメラ部26の機能を音楽演奏用データ19の再生処理と平行して実行させることができるので、ユーザはキーボタンを操作せずにカメラ機能を簡単に利用することができる。
【0050】
また、この実施の形態となる携帯通信端末によれば、カメラ機能を実行させるトリガを音楽演奏用データ19内の任意の位置に設定し、音楽演奏用データ19の再生処理時にこのトリガが検出されるに応じて設定したカメラ機能を実行させることができるので、ユーザは離れた位置からでもシャッター押下以外のカメラ機能を利用することができる。
【0051】
さらに、この実施の形態となる携帯通信端末によれば、音楽演奏用データ19の再生終了と同時にカメラ機能を実行するように制御することができるので、ユーザは、再生時間の異なる音楽演奏用データ19を適宜選択することにより、セルフタイマ時間を任意に変更することができる。
【0052】
[その他の実施形態]
以上、本発明者によってなされた発明を適用した実施の形態の構成及び動作について説明したが、この実施の形態による本発明の開示の一部をなす論述及び図面により本発明は限定されることはない。
【0053】
例えば、上記実施形態においては、音楽演奏用データ内の音階とカメラ機能を関連付けし、所定の音階再生時に関連付けされたカメラ機能を実行制御したが、ドラム音の再生時にシャッターの押下制御、シンバル音の再生時にズーム制御等、音楽演奏用データ内の音源とカメラ機能を関連付けし、所定の音源再生時に関連付けされたカメラ機能を実行制御してもよい。
【0054】
この場合、ユーザは、例えば、パート1〜パート3及びパート4にそれぞれ、楽曲を構成する音源及びカメラ機能と関連付けさせた音源を指定して音楽演奏用データを構成することにより、カメラ機能と関連付けさせた音源の再生に合わせてカメラ機能を実行制御することができる。
【0055】
また、通常、再生プログラム(若しくは音源回路)は40パートから成る音楽演奏用データを再生することが可能であるのに対し、一般的な音楽演奏用データ(いわゆる着メロ)は1〜30のパートを利用して楽曲を構成する。従って、ユーザは、楽曲として利用されていない31〜40のパートに再生時にカメラ機能を制御する音源を指定することにより、一般的な音楽演奏用データを利用してカメラ機能を制御することもできる。
【0056】
このように、上記実施の形態に基づいて当業者等によりなされる他の実施の形態、実施例及び運用技術等は全て本発明の範疇に含まれることを最後に付け加えておく。
【0057】
【発明の効果】
本発明に係る携帯通信端末によれば、キーボタンを操作することなく、種々のカメラ機能を簡単に利用することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態となる携帯通信端末の概観を示す模式図である。
【図2】図1に示す携帯通信端末の内部構成を示すブロック図である。
【図3】本発明の実施の形態となるカメラ制御処理の流れを示すフローチャート図である。
【図4】再生する音楽演奏用データと実行するカメラ制御処理の関係を示す図である。
【図5】ユーザが音楽演奏用データを作成する際の処理の流れを示すフローチャート図である。
【符号の説明】
1…携帯通信端末、2…表示部、3…操作入力部、15…CPU、17…記録部、18…アプリケーションプログラム記録部、19…音楽演奏用データ、20…データ記録部、21…設定データ、22…ROM、23…再生プログラム、24…撮影プログラム、25…RAM
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a mobile communication terminal having a camera function.
[0002]
[Prior art]
Currently, there are many mobile communication terminals with camera functions on the market. According to such mobile communication terminals, users can use the zoom shooting function and self-timer in addition to the standard subject shooting function. Various camera functions such as the remote shooting function can be realized on the mobile communication terminal.
[0003]
[Problems to be solved by the invention]
However, conventional mobile communication terminals are configured to execute a camera function corresponding to an operated key button in response to a user operating a predetermined key button assigned to each camera function. When using one camera function continuously, the user must operate the key button repeatedly, and much labor is required to use the camera function.
[0004]
In addition, since the self-timer provided for the remote shooting function etc. can basically control only the timing of pressing the shutter, the user can use camera functions other than pressing the shutter from a remote position. Can not. Furthermore, the user cannot change the self-timer time to an arbitrary time.
[0005]
The present invention has been made in view of such problems, and an object of the present invention is to provide a portable communication terminal that can easily use various camera functions without operating key buttons. is there.
[0006]
[Means for Solving the Problems]
The mobile communication terminal according to the present invention is a mobile communication terminal having a plurality of camera functions, and as means for solving the above-described problems, music data and, among the plurality of camera functions, the music data A storage unit that stores setting data indicating at least one camera function associated with a predetermined scale included, and the music data selected in response to a request for use of the camera function is read from the storage unit The music data playback means for playback and the setting data stored in the storage unit are referred to when the music data selected in response to the use request for the camera function is played, and the predetermined data indicated by the setting data is referred to And a control unit that executes and controls a camera function associated with the predetermined scale when the music data is reproduced by the music data reproducing means. That is, the mobile communication terminal according to the present invention associates the camera function with a predetermined scale included in the music data, and executes the associated camera function in parallel with the music data reproduction process. According to such a configuration, the user can easily use the camera function without operating the key buttons.
[0007]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
[0008]
[Overview of mobile communication terminal]
First, with reference to FIG. 1, the general configuration of a mobile communication terminal according to an embodiment of the present invention will be described.
[0009]
As shown in FIG. 1, the mobile communication terminal 1 according to the embodiment of the present invention includes a display unit 2, an operation input unit 3, an earpiece 4, and a mouthpiece 5 as main components.
[0010]
The display unit 2 is configured by a display device such as an LCD (Liquid Crystal Display) or an EL (ElectroLuminescence) panel, and in accordance with control of a CPU (Central Processing Unit, see FIG. 2) 15 described later, letters, numbers, symbols, Visible display of icons, cursors, images, moving images, etc.
[0011]
The operation input unit 3 is, for example, input of numbers from “0” to “9”, input of kana characters, input of alphabet characters, input of symbols, input instruction of transmission and reception, input of instructions to turn on / off the power A plurality of key buttons 6 are used for operations such as inputting camera function instructions using the camera unit 26 described later. The operation input unit 3 also has a dial (jog dial) 7 used for operations such as moving the cursor displayed on the display unit 2 and scrolling the screen. The earpiece 4 and the mouthpiece 5 are respectively connected to a speaker and a microphone (see FIG. 2), which will be described later, and are used when the user performs a voice call with the other party.
[0012]
[Internal configuration of mobile communication terminal and its basic operation]
Next, with reference to FIG. 2, the internal configuration and the basic operation of the mobile communication terminal 1 will be described. In addition, since the structure and operation | movement of the display part 2 and the operation input part 3 are as above-mentioned, the description is abbreviate | omitted below.
[0013]
In the mobile communication terminal 1 shown in FIG. 2, the microphone 8 connected to the mouthpiece 5 (see FIG. 1) converts the user's call voice and the like into an analog voice signal. The analog audio signal is amplified by an amplifier (not shown) and then input to a DSP (Digital Signal Processor) 9.
[0014]
When an analog audio signal is input, the DSP 9 performs analog / digital (A / D) conversion on the analog audio signal at a predetermined sampling rate. The DSP 9 adds a CRC (Cyclic Redundancy Check) code for each transport block (TB) to the digital audio data obtained by the A / D conversion, and performs channel coding (error correction coding) and interleaving processing. Apply. The transport block is a basic unit of data (a unit in which data is transferred from the MAC (Medium Access Control) layer to the physical layer) to be processed by the physical layer.
[0015]
Further, the DSP 9 performs data modulation processing on the bit sequence after the interleave processing, after adding overhead such as pilot bits for channel determination, and performs in-phase on the phase plane on which data modulation mapping is performed. The quadrature component and the quadrature component are each spread with a spreading code sequence of two layers. The DSP 9 limits the band of the spread chip data series to a predetermined band (5 MHz) with a raised cosine root Nyquist filter, and then converts the chip data series into an analog signal by digital / analog (D / A) conversion. To enter.
[0016]
When an analog signal is input from the DSP 9, the transmitter 10 performs quadrature demodulation on the analog signal, and frequency-converts the quadrature demodulated intermediate frequency signal into a high-frequency signal (2 GHz band RF signal). Then, the transmitter 10 amplifies the high-frequency signal and outputs the amplified high-frequency signal to the duplexer 11 as a transmission signal.
[0017]
The duplexer 11 is an antenna duplexer. That is, the duplexer 11 shares one antenna 12 for the transmission signal and the reception signal, sends the reception signal from the antenna 12 to the reception unit 13, and sends the transmission signal from the transmission unit 10 to the antenna 12. It is composed of a filter circuit having a function.
[0018]
The receiving unit 13 amplifies the high frequency received signal supplied via the antenna 12 and the duplexer 11, and frequency-converts the amplified received signal into an intermediate frequency signal. The receiver 13 linearly amplifies the intermediate frequency signal by automatic gain control, and inputs the linearly amplified intermediate frequency signal to the DSP 9. At this time, the DSP 9 performs quadrature detection on the signal from the receiving unit 13 and A / D converts the in-phase and quadrature component analog signals obtained by the quadrature detection at a predetermined sampling rate. The DSP 9 performs propagation by despreading the in-phase and quadrature components converted into digital values by the A / D conversion using the same spreading code as the spreading code of the received signal after band limiting by the square cosine root Nyquist filter. Time separation is performed into a plurality of multipath components having different delay times.
[0019]
In addition, the DSP 9 performs coherent lake combining of the data of each path separated by time, deinterleaves and channel decodes the data sequence after the coherent lake combining, performs binary data determination, and transmits to the destination terminal. Play the data series. The DSP 9 discriminates the reproduced data series into audio data and other communication data. The voice data is D / A converted by the DSP 9 and further amplified by an amplifier (not shown), and then sent to the speaker 14 built in the earpiece 4 (see FIG. 1). The speaker 14 is driven by the amplified analog audio signal. As a result, the call voice from the terminal of the call partner is emitted from the speaker 14.
[0020]
Further, the DSP 9 analyzes what kind of data the communication data is, and performs processing according to the analysis result. For example, when the communication data is text data, the DSP 9 sends the text data to the CPU 15, and the CPU 15 controls the display of the text data on the display unit 2. For example, when the communication data is compressed image data, the DSP 9 decompresses the compressed image data and sends it to the CPU 15. The CPU 15 controls the display of the image data on the display unit 2. For example, when the communication data is compressed audio data, the DSP 9 expands the compressed audio data and outputs the audio data to the speaker 16 or the speaker 14.
[0021]
The recording unit 17 is configured by a rewritable memory that does not require a memory holding operation, such as a flash memory. The recording unit 17 includes an application program recording unit 18 that stores various application programs such as an address book function, a schedule book function, a user profile registration function, an e-mail transmission / reception function, a data download / upload function, and a music performance data creation function. Prepare.
[0022]
The recording unit 17 includes address book data, schedule data, profile data, transmitted / received e-mails, downloaded / uploaded data, image data photographed by the camera unit 26, music performance data 19 created or recorded by the user. A data recording unit 20 is provided for storing various data such as a music performance data structure (to be described later).
[0023]
Further, the recording unit 17 stores setting data 21 including values that can be arbitrarily set by the user among various setting values of the mobile communication terminal. The data stored in the recording unit 17 may be input via a general-purpose interface such as RS232-C, USB (Universal Serial Bus), or IEEE1394. In particular, when the music performance data 19 is stored in the recording unit 17, it may be input via an interface for music data such as a MIDI interface.
[0024]
A ROM (Read Only Memory) 22 is for various computer programs such as a control program (not shown) for the CPU 15 to control each part, various initial setting values, font data, and music performance installed by default. Data 19 (not shown) is stored. Further, the ROM 22 performs execution control of functions of the camera unit 26 associated with the music performance data 19 in parallel with the reproduction program 23 for reproducing the music performance data 19 and the reproduction processing of the music performance data 19. The program 24 is stored.
[0025]
The ROM 22 may be a rewritable ROM such as an EEPROM (Electrically Erasable and Programmable Read Only Memory). In this embodiment, the music performance data 19 is reproduced by software using the reproduction program 23. For example, a dedicated tone generator circuit is provided in the terminal, and the music performance data is input to the tone generator circuit. Accordingly, the music performance data 19 may be reproduced.
[0026]
A RAM (Random Access Memory) 25 functions as a work area when the CPU 15 performs various processes, and stores data as needed. The CPU 15 executes the computer program stored in the recording unit 17 and the ROM 22 to control the operation of each unit in the mobile communication terminal 1 according to the computer program and perform various arithmetic processes.
[0027]
The camera unit 26 includes an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and an optical system that forms an optical image of a subject or the like on the image sensor. is there. For example, an instruction to execute various functions using the camera unit 26, such as shutter pressing control, zoom shooting, color tone adjustment, and shooting using a self-timer, is performed by operating predetermined keys on the operation input unit 3 or shooting. The image data realized by executing the program 24 and captured by the camera unit 26 is input to the DSP 9.
[0028]
The DSP 9 that has received the image data from the camera unit 26 sends the image data to the CPU 15, and the CPU 15 controls the display based on the image data on the display unit 2. The DSP 9 can also compress the image data as necessary, and send the compressed image data to the transmission unit 10 as transmission data. The compressed image data can also be recorded in the recording unit 17 via the CPU 15.
[0029]
The short-range wireless communication unit 27 and its antenna 28 are for performing so-called Bluetooth wireless communication. The Bluetooth method is a method for realizing wireless networking between a plurality of electronic devices. This Bluetooth method was developed by the Bluetooth SIG (Special Interest Group), and details are disclosed in "Bluetooth (TM) Special Interest Group, Bluetooth Specification Version 1.0".
[0030]
[Composition of music performance data]
The music performance data 19 is composed of a combination of scales and notes of a plurality of parts (sound sources). In this embodiment, the music performance data 19 is composed of MIDI data such as a standard MIDI file (Standard Musical Instruments Digital Interface File). . The above part is composed of timbre information of instruments such as piano, organ, guitar, bass, violin, cello, harp, trumpet, saxophone, koto, marimba, flute, etc. It can be included from about 40 parts (40 chords).
[0031]
The music performance data 19 having such a configuration is stored in the scale of each part of the music performance data 19 by the CPU 15 according to the reproduction program 23 at a predetermined process such as an incoming call, a mail reception, or a shooting process described later. The sound is emitted from the speaker 16 by interpreting and processing the musical notes. In this embodiment, the music performance data 19 is configured in the MIDI data format, but the music performance data is configured in another data format such as MP3 (MPEG Audio Layer-3). Also good.
[0032]
[Operation of mobile communication terminal]
[Shooting process]
The mobile communication terminal 1 having the above configuration associates the function realized by the camera unit 26 with the part, scale, and note in the music performance data 19 in addition to the normal shooting mode by operation of the operation input unit 3, A music shooting mode for executing the function of the camera unit 26 associated in parallel with the reproduction processing of the data 19 for use. According to such a music shooting mode, the user can execute a desired camera function at an arbitrary timing by setting a trigger for executing the camera function at an arbitrary position in the music performance data 19, and Self-timer time can be set freely. Hereinafter, the operation of the mobile communication terminal 1 when the user performs shooting processing in the music shooting mode will be described in detail with reference to the flowchart shown in FIG.
[0033]
The flowchart shown in FIG. 3 starts when the user operates the operation input unit 3 to set the mobile communication terminal 1 to the music shooting mode and instruct the execution of the shooting process. This control is performed in step S1. Proceed to Here, when setting the music shooting mode, the user selects the file name of the music performance data 19 to be reproduced, and at the same time functions the camera unit 26 associated with the parts, scales, and notes in the music performance data 19. Set. In the following description, the user selects the scale “do” and “shutter press control function” of the music performance data 19, the scale “re” and “zoom control function”, and the scale “mi” and “white balance control function”. Are associated with each other. The data set in this way is recorded in the setting data 21 of the recording unit 17 by the CPU 15 in a table format as shown in FIG.
[0034]
In the process of step S1, the CPU 15 loads the music performance data 19 selected by the user into the RAM 25, and reads information on the part, scale, and notes from the loaded music performance data 19. Thereby, the process of step S1 is completed, and the control proceeds from the process of step S1 to the process of step S2.
[0035]
In the process of step S2, the CPU 15 reproduces the music performance data 19 using the information read in the process of step S1 according to the reproduction program 23. Thereby, the process of step S2 is completed, and the control proceeds from the process of step S2 to the process of step S3.
[0036]
In step S3, the CPU 15 determines whether or not the reproduced music performance data 19 (in this case, the scale) is associated with the function of the camera unit 26 according to the shooting program 24 with reference to the setting data 21. To do. As a result of the determination, if the reproduced music performance data 19 is not associated with the function of the camera unit 26, the CPU 15 advances the control from step S3 to step S5. On the other hand, if it is determined that the reproduced music performance data 19 is associated with the function of the camera unit 26, the CPU 15 advances the control from step S3 to step S4.
[0037]
In the process of step S4, the CPU 15 controls the camera unit 26 to execute the function associated with the reproduced music performance data 19 in accordance with the shooting program 24. Specifically, in this example, since the user has set the setting data 21 as shown in FIG. 4 described above, the CPU 15 causes the camera unit to press the shutter when the scale “do” is reproduced. 26 is controlled. Similarly, the CPU 15 controls the camera unit 26 so that zoom processing is performed when the scale “R” is reproduced, and white balance is adjusted when the scale “M” is reproduced. Thereby, the process of step S4 is completed, and the control proceeds from the process of step S4 to the process of step S5.
[0038]
In the process of step S5, the CPU 15 determines whether or not there is unreproduced music performance data 19 loaded in the RAM 25. If the result of determination is that there is unreproduced music performance data 19, this control returns from the process of step S5 to the process of step S2. On the other hand, when there is no unreproduced music performance data 19, the series of control ends. In the above description, the user associates the scale in the music performance data 19 with the function of the camera unit 26, but the user may associate the part or note in the music performance data 19 with the function of the camera unit 25.
[0039]
[Data creation process for music performance]
The above control is performed using the music performance data 19 stored in the recording unit 17 and the ROM 22, but the user creates the music performance data for performing the above control and uses the created data. The above control may be performed. According to such a configuration, as shown in FIG. 4 described above, in a state where the scale of the music performance data 19 is associated with the function of the camera unit 25, for example, the user can select “do”, “le”, “do”. When the music performance data 19 composed of the three continuous scales is created, the three camera functions of “shutter”, “zoom”, and “shutter” are performed in accordance with the reproduction of the created music performance data 19. It can be executed continuously and automatically, eliminating the need to repeatedly operate the operation input unit 3.
[0040]
Hereinafter, with reference to the flowchart shown in FIG. 5, the flow of processing when the user creates the music performance data 19 for performing the above control will be described. In the following description, it is assumed that the user creates the music performance data 19 by operating the mobile communication terminal 1, but for music performance using an information processing device such as a personal computer or a PDA (Personal Digital Assistant). The data 19 may be created, and the created music performance data 19 may be loaded into the recording unit 17 of the mobile communication terminal 1.
[0041]
The flowchart shown in FIG. 5 is started when the user operates the operation input unit 3 to instruct the CPU 15 to execute the application program for realizing the music performance data creation function. This creation process is performed in step S11. Proceed to processing. The processing of the CPU 15 shown below is realized by the CPU 15 executing an application program.
[0042]
In the process of step S11, the CPU 15 displays a selection screen for selecting a part for registering a sound source on the display unit 2, and the user operates the operation input unit 3 in response to the display of the selection screen. Then, a desired part is selected from the displayed selection screen. Thereby, the process of step S11 is completed, and the creation process proceeds from the process of step S11 to the process of step S12.
[0043]
In the process of step S12, the CPU 15 displays a selection screen for selecting a sound source to be registered in the selected part on the display unit 2, and the user operates the operation input unit 3 in response to the display of the selection screen. Then, a desired sound source is selected from the displayed selection screen. Thereby, the process of step S12 is completed, and the creation process proceeds from the process of step S12 to the process of step S13.
[0044]
In the process of step S <b> 13, the CPU 15 displays the part where the sound source is registered on the display unit 2, and the user operates the operation input unit 3 to display the part on the display unit 2 as the part is displayed. Select a part for inputting scales and notes from the selected parts. Thereby, the process of step S13 is completed, and the creation process proceeds from the process of step S13 to the process of step S14.
[0045]
In the process of step S14, the CPU 15 displays an interface screen for inputting scales and notes on the display unit 2, and the user operates the operation input unit 3 in response to the display of the interface screen. Enter the scale and note of the part in the interface screen. Thereby, the process of step S14 is completed, and the creation process proceeds from the process of step S14 to the process of step S15.
[0046]
In the process of step S15, the CPU 15 monitors whether or not the user has operated the operation input unit 3 to perform a scale and note input completion operation. If the input completion operation has been performed, this creation process is performed in step S15. The process proceeds to the process of step S17. On the other hand, when the user does not perform the input completion operation and inputs a new scale and note, the CPU 15 inserts a delimiter between the input note data as the process of step S16, and performs this creation process. The process returns to the process of step S14 from the process of S16. The delimiter is a delimiter for enabling each musical note constituting the music performance data 19 to be individually searched. By this delimiter, the CPU 15 interprets information indicated by each musical note and associates it with each musical note. The functions of the camera unit 26 can be executed.
[0047]
In the process of step S17, the CPU 15 displays a confirmation message such as “Do you want to input a scale or a note in another part?” On the display unit 2, and the user operates the operation input unit 3 to display other messages. When an instruction to input a scale or a note to the part is given, the creation process returns from the process of step S17 to the process of step S13. On the other hand, if the user does not instruct other parts to input scales and notes and requests completion of the creation process, the CPU 15 advances the creation process from step S17 to step S18. .
[0048]
In the process of step S <b> 18, the CPU 15 records data set and input by the user in the storage unit 17 as music performance data 19. Thereby, a series of creation processing ends.
[0049]
[Effect of the embodiment]
As is clear from the above description, according to the mobile communication terminal of this embodiment, the functions realized by the camera unit 26 are associated with the parts, scales, and notes in the music performance data 19 and are associated with each other. Since the function of the camera unit 26 can be executed in parallel with the reproduction processing of the music performance data 19, the user can easily use the camera function without operating the key buttons.
[0050]
Further, according to the mobile communication terminal of this embodiment, a trigger for executing the camera function is set at an arbitrary position in the music performance data 19, and this trigger is detected during the reproduction processing of the music performance data 19. Therefore, the user can use camera functions other than pressing the shutter even from a distant position.
[0051]
Furthermore, according to the mobile communication terminal of this embodiment, since the camera function can be controlled simultaneously with the end of the reproduction of the music performance data 19, the user can perform music performance data with different reproduction times. By appropriately selecting 19, the self-timer time can be arbitrarily changed.
[0052]
[Other Embodiments]
The configuration and operation of the embodiment to which the invention made by the present inventor is applied have been described above. However, the present invention is not limited by the description and drawings that form part of the disclosure of the present invention according to this embodiment. Absent.
[0053]
For example, in the above-described embodiment, the scale in the music performance data is associated with the camera function, and the camera function associated with the reproduction of the predetermined scale is executed and controlled. The sound source in the music performance data and the camera function, such as zoom control, may be associated during playback, and the camera function associated during playback of the predetermined sound source may be controlled.
[0054]
In this case, for example, the user associates with the camera function by configuring the music performance data by specifying the sound source that is associated with the music function and the camera function for each of the parts 1 to 3 and part 4, respectively. The camera function can be executed and controlled in accordance with the playback of the selected sound source.
[0055]
In general, a reproduction program (or tone generator circuit) can reproduce music performance data composed of 40 parts, while general music performance data (so-called ringtones) include 1 to 30 parts. Use it to compose music. Therefore, the user can also control the camera function using general music performance data by designating a sound source for controlling the camera function at the time of reproduction for parts 31 to 40 that are not used as music. .
[0056]
Thus, it is added at the end that all other embodiments, examples, operation techniques, and the like made by those skilled in the art based on the above-described embodiments are included in the scope of the present invention.
[0057]
【The invention's effect】
According to the mobile communication terminal of the present invention, various camera functions can be easily used without operating key buttons.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing an overview of a mobile communication terminal according to an embodiment of the present invention.
2 is a block diagram showing an internal configuration of the mobile communication terminal shown in FIG. 1. FIG.
FIG. 3 is a flowchart showing a flow of camera control processing according to the embodiment of the present invention.
FIG. 4 is a diagram illustrating a relationship between music performance data to be reproduced and camera control processing to be performed.
FIG. 5 is a flowchart showing a flow of processing when a user creates music performance data.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Portable communication terminal, 2 ... Display part, 3 ... Operation input part, 15 ... CPU, 17 ... Recording part, 18 ... Application program recording part, 19 ... Music performance data, 20 ... Data recording part, 21 ... Setting data 22 ... ROM, 23 ... reproduction program, 24 ... photographing program, 25 ... RAM

Claims (4)

複数のカメラ機能を備えた携帯通信端末であって、
音楽データと、上記複数のカメラ機能のうち、上記音楽データに含まれる所定の音階に対して関連付けされた少なくとも一つのカメラ機能を示す設定データとが記憶された記憶部と、
上記カメラ機能の利用要求に応じて選択された上記音楽データを上記記憶部から読み出して再生する音楽データ再生手段と、
上記カメラ機能の利用要求に応じて選択された上記音楽データの再生時に、上記記憶部に記憶されている上記設定データを参照し、該設定データで示される所定の音階が上記音楽データ再生手段により再生された際に、当該所定の音階に関連付けされているカメラ機能を実行制御する制御部と
を備える携帯通信端末。
A mobile communication terminal having a plurality of camera functions,
A storage unit that stores music data and setting data indicating at least one camera function associated with a predetermined scale included in the music data among the plurality of camera functions;
Music data reproduction means for reading out and reproducing the music data selected in response to the use request of the camera function from the storage unit;
When the music data selected according to the use request for the camera function is reproduced, the setting data stored in the storage unit is referred to, and a predetermined scale indicated by the setting data is obtained by the music data reproducing means. A portable communication terminal comprising: a control unit that executes and controls a camera function associated with the predetermined scale when played.
複数のカメラ機能を備えた携帯通信端末であって、
音楽データと、上記複数のカメラ機能のうち、上記音楽データに含まれる所定のパートに対して関連付けされた少なくとも一つのカメラ機能を示す設定データとが記憶された記憶部と、
上記カメラ機能の利用要求に応じて選択された上記音楽データを上記記憶部から読み出して再生する音楽データ再生手段と、
上記カメラ機能の利用要求に応じて選択された上記音楽データの再生時に、上記記憶部に記憶されている上記設定データを参照し、該設定データで示される所定のパートが上記音楽データ再生手段により再生された際に、当該所定のパートに関連付けされているカメラ機能を実行制御する制御部と
を備える携帯通信端末。
A mobile communication terminal having a plurality of camera functions,
A storage unit that stores music data and setting data indicating at least one camera function associated with a predetermined part included in the music data among the plurality of camera functions;
Music data reproduction means for reading out and reproducing the music data selected in response to the use request of the camera function from the storage unit;
When the music data selected in response to the request for use of the camera function is reproduced, the setting data stored in the storage unit is referred to, and the predetermined part indicated by the setting data is reproduced by the music data reproducing means. A mobile communication terminal comprising: a control unit that executes and controls a camera function associated with the predetermined part when played back.
請求項1又は請求項2に記載の携帯通信端末であって、
上記記憶部には、上記音楽データと、上記複数のカメラ機能のうち、上記音楽データに含まれる所定の音符に対して関連付けされた少なくとも一つのカメラ機能を示す設定データとが記憶されており、
上記制御部は、上記カメラ機能の利用要求に応じて選択された上記音楽データの再生時に、上記記憶部に記憶されている上記設定データを参照し、該設定データで示される所定の音符が上記音楽データ再生手段により再生された際に、当該所定の音符に関連付けされているカメラ機能を実行制御すること
を特徴とする携帯通信端末。
The mobile communication terminal according to claim 1 or 2,
The storage unit stores the music data and setting data indicating at least one camera function associated with a predetermined note included in the music data among the plurality of camera functions.
The control unit refers to the setting data stored in the storage unit when the music data selected in response to the use request for the camera function is reproduced, and a predetermined note indicated by the setting data is A portable communication terminal characterized by controlling execution of a camera function associated with the predetermined note when played by a music data playback means.
請求項1から請求項3のうち、いずれか一項に記載の携帯通信端末であって、
上記音楽データに含まれる上記所定の音階、又は上記所定のパート、或いは上記所定の音符に対して関連付けされるカメラ機能は、シャッター押下機能、或いはセルフタイマ機能であること
を特徴とする携帯通信端末。
The mobile communication terminal according to any one of claims 1 to 3,
The mobile communication terminal characterized in that the camera function associated with the predetermined scale, the predetermined part, or the predetermined note included in the music data is a shutter pressing function or a self-timer function. .
JP2002216849A 2002-07-25 2002-07-25 Mobile communication terminal Expired - Fee Related JP4093404B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002216849A JP4093404B2 (en) 2002-07-25 2002-07-25 Mobile communication terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002216849A JP4093404B2 (en) 2002-07-25 2002-07-25 Mobile communication terminal

Publications (2)

Publication Number Publication Date
JP2004064226A JP2004064226A (en) 2004-02-26
JP4093404B2 true JP4093404B2 (en) 2008-06-04

Family

ID=31938490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002216849A Expired - Fee Related JP4093404B2 (en) 2002-07-25 2002-07-25 Mobile communication terminal

Country Status (1)

Country Link
JP (1) JP4093404B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9641743B2 (en) 2015-03-06 2017-05-02 Sony Corporation System, method, and apparatus for controlling timer operations of a camera

Also Published As

Publication number Publication date
JP2004064226A (en) 2004-02-26

Similar Documents

Publication Publication Date Title
KR101488257B1 (en) A method for composing with touch screen of mobile terminal and an apparatus thereof
KR100658151B1 (en) Method and apparatus for position setting of mp3 player&#39;s in mobile phone
KR100678163B1 (en) Apparatus and method for operating play function in a portable terminal unit
WO2005039212A1 (en) Downloading system of self music file and method thereof
KR100774533B1 (en) Method for making sound effect in the mobile terminal
KR100506228B1 (en) Mobile terminal and method for editing and playing music
JP4093404B2 (en) Mobile communication terminal
JP2002244654A (en) Device and system for distribution and play device
JP2007058103A (en) Mobile terminal device with lyric download function
JP4148355B2 (en) Mobile terminal device
JP4574299B2 (en) Music player
KR20040048470A (en) Method for composing a music in portable terminal
KR100397307B1 (en) Karaoke system for use with hand phone and data processing method of the same
WO2017185233A1 (en) Method for controlling playback of audio file and audio playback apparatus
JP4219228B2 (en) Electronic musical instruments
KR100691991B1 (en) Mobile Communication Terminal Having Sound Source Data Convertting Function and Method thereof
JP2004040595A (en) Portable communication terminal
JP2002123273A (en) Information terminal
KR100678119B1 (en) Method for replaying music file in wireless terminal
KR20020057926A (en) Ring-tone composing and editing method about portable mobile phones
KR100861313B1 (en) Multimedia processing apparatus and method of playing different kinds of multimedia contents
KR100540215B1 (en) Mobile communication unit with function for playing sound assigned to button, method for playing sound assigned to button of the mobile communication unit
JP2004219665A (en) Karaoke machine
JP2002169568A (en) Portable terminal
JP2000330557A (en) Digital signal processing device having melody function

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050617

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080228

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130314

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140314

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees