JP2007033200A - Wrist watch, display method of wrist watch, and program - Google Patents

Wrist watch, display method of wrist watch, and program Download PDF

Info

Publication number
JP2007033200A
JP2007033200A JP2005216094A JP2005216094A JP2007033200A JP 2007033200 A JP2007033200 A JP 2007033200A JP 2005216094 A JP2005216094 A JP 2005216094A JP 2005216094 A JP2005216094 A JP 2005216094A JP 2007033200 A JP2007033200 A JP 2007033200A
Authority
JP
Japan
Prior art keywords
image
display
unit
data
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005216094A
Other languages
Japanese (ja)
Inventor
Erika Kumakura
恵理香 熊倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005216094A priority Critical patent/JP2007033200A/en
Publication of JP2007033200A publication Critical patent/JP2007033200A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To display a highly-precise three-dimensional graphic image on a wrist watch with small power consumption. <P>SOLUTION: The graphic image for time display can be displayed on a display part 54 of the wrist watch 1. In this case, a display data generation part 53 generates graphic data for time display by using a computer graphic function to which a curved surface architecture method is applied, and controls display of a computer graphic image corresponding to the graphic data on the display part 54. A generation timing of image data for time display can be set at a prescribed time managed by input from a user input part 55 or by a time managing part 52. A generation command of the image data for time display is issued from a central operation part 51 to the display data generation part 53. This invention can be applied to a wrist watch capable of digital display. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、腕時計、腕時計の表示方法、および、プログラムに関し、特に、高精細の3次元グラフィック画像を低消費電力で表示できるようになった腕時計、腕時計の表示方法、およびプログラムに関する。   The present invention relates to a wristwatch, a wristwatch display method, and a program, and more particularly, to a wristwatch, a wristwatch display method, and a program that can display a high-definition three-dimensional graphic image with low power consumption.

従来、デジタル表示可能な時計(例えば特許文献1参照)は数多く存在する。また、その形態は様々であり、例えば、デジタル表示可能な腕時計も存在する。さらに、デジタル表示可能な腕時計の中には、コンピュータグラフィックス機能を用いて作成したグラフィック画像を表示可能な腕時計もあった。
特開2002−202389号公報
Conventionally, there are many watches (see, for example, Patent Document 1) that can be digitally displayed. Moreover, the form is various, for example, there exists a wristwatch which can be digitally displayed. Furthermore, among wristwatches that can be digitally displayed, there are wristwatches that can display graphic images created using a computer graphics function.
JP 2002-202389 A

しかしながら、従来のデジタル表示可能な腕時計では、非常に乏しいグラフィック画像しか表示することができなかった。   However, conventional wristwatches capable of digital display can only display very few graphic images.

また、3次元コンピュータグラフィックスの手法を腕時計に組み込み、高精細なグラフィック画像をその腕時計で表示させようとしても、従来の手法(例えば特許文献1に開示された手法)では画像生成用のデータ量が膨大になってしまう。このため、腕時計に搭載させる記録媒体の外形サイズを、一般的なユーザが腕に装着しようと思う大きさのサイズに収めることが非常に困難であった。   Further, even if a technique of 3D computer graphics is incorporated in a wristwatch and a high-definition graphic image is displayed on the wristwatch, the conventional technique (for example, the technique disclosed in Patent Document 1) requires a data amount for image generation. Will become enormous. For this reason, it has been very difficult to fit the outer size of the recording medium to be mounted on the wristwatch into a size that a general user wants to wear on the wrist.

そのため、従来のデジタル表示可能な腕時計では、時刻の表現は非常に限られたものであった。特に、従来のデジタル表示可能な腕時計では、数字フォントを用いた時刻の表示を行う場合、数字の形を多少変形させるか、或いは、数字の背景や周囲に単調なグラフィック画像を表示させる程度のことしかできない、という事実があった。   For this reason, in conventional wristwatches capable of digital display, time representation is very limited. In particular, with conventional digital display wristwatches, when displaying the time using a number font, the shape of the number is slightly modified, or a monotonous graphic image is displayed around the background of the number. There was a fact that it could only be done.

このような事実により、従来のデジタル表示可能な腕時計の時刻表示自体を、ユーザに楽しませることは困難であった。また、従来のデジタル表示可能な腕時計では、処理能力や記憶媒体の容量の制約により、その画面に一度で表示可能な情報量は非常に少なく、ユーザに満足感を与えることは困難であった。これらのことは、従来のデジタル表示可能な腕時計では、その表示画面に高精細の3次元グラフィック画像を表示させることは非常に困難であったという事実に起因する。   Due to these facts, it has been difficult for the user to enjoy the time display itself of a wristwatch that can display digital data. Further, in conventional wristwatches capable of digital display, the amount of information that can be displayed on the screen at one time is very small due to restrictions on processing capacity and storage medium capacity, and it is difficult to give satisfaction to the user. These are due to the fact that it is very difficult to display a high-definition three-dimensional graphic image on the display screen of a conventional wristwatch capable of digital display.

また、上述した従来のデジタル表示可能な腕時計のような小型の携帯型機器に搭載できる電池の外形サイズには限りがあるため、その機器で使用可能な電力の量にも限りがある。かかる機器は、電力を供給することで必要なデータを記憶しているため、電池の電力を使い切ってしまうことは、ユーザが必要な情報を再設定しなければならないことになる。そのため、かかる機器では、充電可能な2次電池を搭載し、電池残量が少なくなってきたら、再充電してもらうことで、電池残量を一定上に保つようにしている。   Further, since the external size of a battery that can be mounted on a small portable device such as the above-described conventional digital display wristwatch is limited, the amount of power that can be used in the device is also limited. Since such devices store necessary data by supplying power, exhausting the battery power requires the user to reset necessary information. Therefore, in such a device, a rechargeable secondary battery is mounted, and when the remaining battery level becomes low, the remaining battery level is kept constant by being recharged.

従って、かかる機器の消費電力が多ければ多いほど、ユーザが充電しなければならない回数が増え、その機器の使い勝手が悪くなってしまう。このような事情により、従来のデジタル表示可能な腕時計においては、処理量を可能な限り減らし、電池の持ち時間を長くするという試みがなされており、消費電力の多い高精細3次元コンピュータグラフィックスを腕時計で実現するとは、とうてい考えの及ばないことであった。
本発明は、このような状況に鑑みてなされたものであり、高精細の3次元グラフィック画像を表示可能な腕時計を低消費電力で提供できるようにするものである。
Therefore, as the power consumption of such a device increases, the number of times that the user has to charge increases, and the usability of the device becomes worse. Under these circumstances, in conventional wristwatches capable of digital display, attempts have been made to reduce the amount of processing as much as possible and to increase the battery life. Realizing with a wristwatch was something that was far from thought.
The present invention has been made in view of such circumstances, and is intended to provide a wristwatch capable of displaying a high-definition three-dimensional graphic image with low power consumption.

本発明の一側面の腕時計は、時刻表示用の画像を表示する表示手段を備える腕時計であって、曲面アーキテクチャ手法が適用されたコンピュータグラフィック機能を用いて、時刻表示用の画像データを生成し、その画像データに対応するコンピュータグラフィック画像を表示手段に表示させることを制御する画像生成手段とが設けられている。   A wristwatch according to one aspect of the present invention is a wristwatch including a display unit that displays an image for time display, and generates image data for time display using a computer graphic function to which a curved surface architecture method is applied. Image generation means for controlling the display means to display a computer graphic image corresponding to the image data is provided.

画像生成手段は、さらに、第1のコンピュータグラフィック画像に対応する第1の画像データと、第2のコンピュータグラフィック画像に対応する第2の画像データとを生成し、表示手段に表示させる画像を、第1のコンピュータグラフィック画像から第2のコンピュータグラフィック画像に更新するとき、モーフィングを用いた表示の制御を行うようにすることができる。   The image generation means further generates first image data corresponding to the first computer graphic image and second image data corresponding to the second computer graphic image, and displays an image to be displayed on the display means. When updating from the first computer graphic image to the second computer graphic image, display control using morphing can be performed.

また、画像生成手段は、さらに、コンピュータグラフィック機能を用いて、時刻表示用の画像データに対応するコンピュータグラフィック画像を拡大または縮小させる制御を行うようにすることができる。   Further, the image generation means can perform control for enlarging or reducing the computer graphic image corresponding to the image data for time display using a computer graphic function.

この腕時計は、音を出力する音出力手段と、オーディオデータを生成し、そのオーディオデータに対応する音を音出力手段から出力させることを制御するオーディオ生成手段と、オーディオ生成手段の制御により音出力手段から出力される音と、画像生成手段の制御により表示手段に表示されるコンピュータグラフィック画像との同期制御を行う同期手段とをさらに設けるようにすることができる。   This wristwatch includes a sound output means for outputting sound, an audio generation means for controlling generation of audio data and output of sound corresponding to the audio data from the sound output means, and sound output by control of the audio generation means Synchronizing means for performing synchronization control between the sound output from the means and the computer graphic image displayed on the display means under the control of the image generating means can be further provided.

本発明の一側面の腕時計の表示方法またはプログラムは、時刻表示用の画像を表示する表示手段を備える腕時計を対象としており、曲面アーキテクチャ手法が適用されたコンピュータグラフィック機能を用いて、時刻表示用の画像データを生成し、その画像データに対応するコンピュータグラフィック画像を表示手段に表示させることを制御する画像生成ステップを含む。   A wristwatch display method or program according to one aspect of the present invention is intended for a wristwatch including a display unit that displays an image for time display, and uses a computer graphic function to which a curved surface architecture method is applied to display the time. An image generation step is included for controlling generation of image data and display of a computer graphic image corresponding to the image data on the display means.

本発明の一側面においては、時刻表示用の画像を表示する表示手段を備える腕時計の画像表示が次のように制御される。即ち、曲面アーキテクチャ手法が適用されたコンピュータグラフィック機能を用いて、時刻表示用の画像データが生成され、その画像データに対応するコンピュータグラフィック画像を表示手段に表示させることが制御される。   In one aspect of the present invention, image display of a wristwatch provided with display means for displaying an image for time display is controlled as follows. That is, image data for time display is generated by using a computer graphic function to which the curved surface architecture method is applied, and it is controlled to display a computer graphic image corresponding to the image data on the display means.

以上のごとく、本発明の一側面によれば、高精細の3次元グラフィック画像を低消費電力で表示可能な腕時計を提供できるようになる。   As described above, according to one aspect of the present invention, a wristwatch capable of displaying a high-definition three-dimensional graphic image with low power consumption can be provided.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the configuration requirements of the present invention and the embodiments described in the detailed description of the present invention are exemplified as follows. This description is to confirm that the embodiments supporting the present invention are described in the detailed description of the invention. Accordingly, although there are embodiments that are described in the detailed description of the invention but are not described here as embodiments corresponding to the constituent elements of the present invention, It does not mean that the embodiment does not correspond to the configuration requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の一側面の腕時計は、時刻表示用の画像を表示する表示手段(例えば図5や図12の表示部54であって、具体的には例えば図1のLCD12)を備える腕時計(例えば図1の外観構成を有し、図5や図12の機能的構成を有する腕時計1)であって、第1に、曲面アーキテクチャ手法が適用されたコンピュータグラフィック機能を用いて、時刻表示用の画像データを生成し、前記画像データに対応するコンピュータグラフィック画像(例えば図3のグラフィック画像)を前記表示手段に表示させることを制御する画像生成手段(例えば図5や図12の表示データ生成部53)を備える。   The wristwatch according to one aspect of the present invention is a wristwatch (for example, a display unit 54 shown in FIG. 5 or FIG. 12, specifically, for example, the LCD 12 shown in FIG. 1) that displays an image for time display. 1 is a wristwatch 1) having the appearance configuration of FIG. 5 and the functional configuration of FIG. 5 and FIG. 12, and first, image data for time display using a computer graphic function to which the curved surface architecture method is applied. Image generation means (for example, the display data generation unit 53 in FIGS. 5 and 12) for controlling the display means to display a computer graphic image (for example, the graphic image in FIG. 3) corresponding to the image data. Prepare.

本発明の一側面の腕時計において、前記画像生成手段は、さらに、第1のコンピュータグラフィック画像(例えば図4の「1」を示す画像A)に対応する第1の画像データと、第2のコンピュータグラフィック画像(例えば図4の「2」を示す画像B)に対応する第2の画像データとを生成し、前記表示手段に表示させる画像を、前記第1のコンピュータグラフィック画像から前記第2のコンピュータグラフィック画像に更新するとき、モーフィングを用いた表示の制御を行う(例えば図4に示されるように、画像Aを変形させながら画像Bに更新させていく制御を行う)。   In the wristwatch according to the aspect of the present invention, the image generation unit further includes first image data corresponding to a first computer graphic image (for example, an image A indicating “1” in FIG. 4), and a second computer. The second image data corresponding to the graphic image (for example, the image B indicating “2” in FIG. 4) is generated, and the image to be displayed on the display means is converted from the first computer graphic image to the second computer. When updating to a graphic image, display control using morphing is performed (for example, as illustrated in FIG. 4, control is performed to update image B while deforming image A).

本発明の一側面の腕時計は、第2に、音を出力する音出力手段(例えば図12のオーディオ出力部102)と、オーディオデータを生成し、そのオーディオデータに対応する音を前記音出力手段から出力させることを制御するオーディオ生成手段(例えば図12のオーディオ生成部101)と、前記オーディオ生成手段の制御により前記音出力手段から出力される音と、前記画像生成手段の制御により前記表示手段に表示される前記コンピュータグラフィック画像との同期制御を行う同期手段(例えば図15のグラフィックとオーディオの同期処理や、図22のグラフィックと合成音声の同期処理を実行する図12の中央演算部51)とをさらに備える。   Secondly, the wristwatch according to one aspect of the present invention includes a sound output unit (for example, the audio output unit 102 in FIG. 12) that outputs a sound, generates audio data, and outputs a sound corresponding to the audio data to the sound output unit. Audio generation means (for example, the audio generation unit 101 in FIG. 12) that controls the output from the sound, sound output from the sound output means by the control of the audio generation means, and the display means by the control of the image generation means Synchronizing means for performing synchronization control with the computer graphic image displayed on the screen (for example, the central processing unit 51 in FIG. 12 for executing the graphic and audio synchronization processing in FIG. 15 and the graphic and synthesized speech synchronization processing in FIG. And further comprising.

本発明の一側面の腕時計の表示方法またはプログラムは、時刻表示用の画像を表示する表示手段(例えば図5や図12の表示部54であって、具体的には例えば図1のLCD12)を備える腕時計(例えば図1の外観構成を有し、図5や図12の機能的構成を有する腕時計1)を対象とし、曲面アーキテクチャ手法が適用されたコンピュータグラフィック機能を用いて、時刻表示用の画像データを生成し、前記画像データに対応するコンピュータグラフィック画像を前記表示手段に表示させることを制御する画像生成ステップ(例えば図11の表示データ生成部の処理のうちの、特にステップS63とS64)を含む。   The display method or program for a wristwatch according to one aspect of the present invention includes display means for displaying a time display image (for example, the display unit 54 in FIGS. 5 and 12, specifically, for example, the LCD 12 in FIG. 1). A time display image using a computer graphic function to which a curved surface architecture method is applied, for a wristwatch provided (for example, the wristwatch 1 having the appearance configuration of FIG. 1 and the functional configuration of FIGS. 5 and 12). An image generation step (for example, steps S63 and S64 in the processing of the display data generation unit in FIG. 11 in particular) that controls generation of data and display of a computer graphic image corresponding to the image data on the display means is performed. Including.

以下、図面を参照して、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明を適用した腕時計の外観の構成例を示す図である。   FIG. 1 is a diagram showing a configuration example of the appearance of a wristwatch to which the present invention is applied.

図1の例では、腕時計1がユーザ(人間)の腕にはめられた場合、ユーザが見る面(図1に示される面であって、以下表面と称する)には、ユーザが各種情報(指令等)を入力するためのタクトスイッチ11−1乃至11−5が設けられている。なお、以下、タクトスイッチ11−1乃至11−5のそれぞれを、個々に区別する必要が無い場合、それらをまとめてタクトスイッチ11と称する。   In the example of FIG. 1, when the wristwatch 1 is put on the user's (human) arm, the user sees various information (commands) on the surface viewed by the user (the surface shown in FIG. 1 and hereinafter referred to as the surface). Etc.) tact switches 11-1 to 11-5 are provided. Hereinafter, when it is not necessary to distinguish each of the tact switches 11-1 to 11-5 from each other, they are collectively referred to as a tact switch 11.

腕時計1の表面にはまた、低温ポリシリコンTFT(Thin Film Transistor)型のLCD(Liquid Crystal Display)12も設けられている。   A low temperature polysilicon TFT (Thin Film Transistor) type LCD (Liquid Crystal Display) 12 is also provided on the surface of the wristwatch 1.

図2は、図1の外観構成を有する腕時計1の内部のハードウエア構成例を示すブロック図である。   FIG. 2 is a block diagram showing an example of the internal hardware configuration of the wristwatch 1 having the external configuration shown in FIG.

図2の例では、腕時計1には、上述したタクトスイッチ11およびLCD12の他、システムIC(Integrated Circuit)13、マイクロコンピュータ14、SD-RAM(Synchronous Dynamic Random Access Memory)15、Flash Memory16、および電源部17が設けられている。タクトスイッチ11は、システムIC13とマイクロコンピュータ14とに接続されている。システムIC13にはまた、LCD12、マイクロコンピュータ14、SD-RAM15、およびFlash Memory16が接続されている。   In the example of FIG. 2, in addition to the tact switch 11 and the LCD 12 described above, the wristwatch 1 includes a system IC (Integrated Circuit) 13, a microcomputer 14, an SD-RAM (Synchronous Dynamic Random Access Memory) 15, a Flash Memory 16, and a power source. A portion 17 is provided. The tact switch 11 is connected to the system IC 13 and the microcomputer 14. The system IC 13 is also connected with an LCD 12, a microcomputer 14, an SD-RAM 15, and a Flash Memory 16.

システムIC13には、CPU(Central Processing Unit)21、3DCGエンジン22、および、LCDコントローラ23が設けられている。   The system IC 13 is provided with a CPU (Central Processing Unit) 21, a 3DCG engine 22, and an LCD controller 23.

CPU21は、Flash Memory16からSD-RAM15にロードされた各種プログラム(3DCGエンジン22の制御プログラム等)に従って各種処理を実行する。これにより、腕時計1全体の動作が制御されることになる。SD-RAM15にはまた、CPU21が各種の処理を実行する上において必要なデータなども適宜記憶される。   The CPU 21 executes various processes according to various programs (such as a control program for the 3DCG engine 22) loaded from the flash memory 16 to the SD-RAM 15. Thereby, the operation of the entire wristwatch 1 is controlled. The SD-RAM 15 also appropriately stores data necessary for the CPU 21 to execute various processes.

3DCGエンジン22は、CPU21の制御(指令)に基づいてグラフィックデータを生成し、LCDコントローラ23に供給する。   The 3DCG engine 22 generates graphic data based on the control (command) of the CPU 21 and supplies it to the LCD controller 23.

本実施の形態では、3DCGエンジン22には、曲面アーキテクチャを用いた3次元コンピュータグラフィックス(3DCG)手法が適用されている。換言すると、本実施の形態の3DCGエンジン22は、曲面アーキテクチャをハードウエア的に実現したものである。   In the present embodiment, a 3D computer graphics (3DCG) technique using a curved surface architecture is applied to the 3DCG engine 22. In other words, the 3DCG engine 22 of the present embodiment is a hardware implementation of the curved surface architecture.

なお、3DCGエンジン22に適用される3DCG手法は、本実施の形態では曲面アーキテクチャを用いた3DCG手法(以下、曲面アーキテクチャ手法と称する)とされているが、これに限定されず、その他の3DCG手法、具体的には例えば、ポリゴンを用いた3DCG手法(以下、ポリゴン手法と称する)でもよい。   The 3DCG method applied to the 3DCG engine 22 is a 3DCG method using a curved surface architecture (hereinafter referred to as a curved surface architecture method) in the present embodiment, but is not limited to this, and other 3DCG methods are used. Specifically, for example, a 3DCG method using polygons (hereinafter referred to as a polygon method) may be used.

ただし、ポリゴン手法と曲面アーキテクチャ手法との間には次のような差異があることから、3DCGエンジン22に採用する3DCG手法としては、本実施の形態のように、曲面アーキテクチャ手法の方が好適である。   However, since there are the following differences between the polygon method and the curved surface architecture method, the curved surface architecture method is more suitable as the 3DCG method employed in the 3DCG engine 22 as in this embodiment. is there.

即ち、ポリゴン手法では、X,Y,Zの3つの値を持つ座標(X,Y,Z)として点が表現される。そして、1以上の点をつなぐことで平面が形成される。この平面がポリゴンと称されている。即ち、ポリゴンとは、多角形と言う意味であり、平面であれば何角形でも良い。ただし、3つの頂点によって定義される面(すなわち3角形)は必ず平面であることが保証されており、コンピュータで扱う際には都合がいいことから、ポリゴンとして3角形が使われることが多い。ポリゴン手法では、1以上のポリゴンを組み合わせることで、様々なオブジェクトが形成される。   That is, in the polygon method, a point is expressed as coordinates (X, Y, Z) having three values of X, Y, and Z. A plane is formed by connecting one or more points. This plane is called a polygon. That is, the term “polygon” means a polygon, and any polygon may be used as long as it is a plane. However, since a plane defined by three vertices (ie, a triangle) is guaranteed to be a plane and is convenient when handled by a computer, a triangle is often used as a polygon. In the polygon method, various objects are formed by combining one or more polygons.

しかしながら、ポリゴンは平面(多角形)であるため、そのままでは曲面を表現することができない。そのため、ポリゴン手法で曲面を表現するためには、ポリゴンをどんどん細かくしていく必要、即ち、大量のポリゴンを使う必要が生じる。大量のポリゴンを使うと言うことは、その分だけ演算時間も多大になると言うことであり、たとえ滑らかな曲面を実現することが目的とされている場合であっても現実的ではない。そのため、妥当な数のポリゴンで、且つ面の繋ぎ目で面がカクカクして見えないようにするために、陰影が緩やかに変化するように見せかけると言う手法が適用されることもある。しかしながら、この手法はあくまでも見せかけだけに頼る手法であるため、この手法により形成されるオブジェクトでは、その輪郭部分においてカクカクが出てしまい、さらに拡大するとそのカクカクが目立ってしまうことになる。   However, since a polygon is a plane (polygon), a curved surface cannot be expressed as it is. Therefore, in order to express a curved surface by the polygon method, it is necessary to make the polygons finer, that is, to use a large number of polygons. The use of a large number of polygons means that the calculation time will be increased correspondingly, and even if the purpose is to realize a smooth curved surface, it is not realistic. For this reason, there is a case in which a method of making the shadow appear to change gradually is applied in order to prevent the surface from being crisp and visible at the joint of the surface with a reasonable number of polygons. However, since this method is a method that relies solely on appearance, an object formed by this method will be confused at its outline, and will become more noticeable when further enlarged.

これに対して、曲面アーキテクチャ手法では、オブジェクトは、16個の制御点を持つパッチと称される単位を用いて表現される。制御点の1つ1つはポリゴン手法の場合と同様にX,Y,Zの3つの値を持つ座標(X,Y,Z)で表現される。ただし、曲面アーキテクチャ手法では、ポリゴン手法の場合とは異なり、制御点と制御点の間は滑らかな曲線で補完されることになる。従って、滑らかな曲面を表現するためには、ポリゴン手法では、ポリゴンである多角形(3角形等)の数を増やさなければならないのに対して、曲面アーキテクチャ手法では、パッチの数を増やさずに曲面を簡単に表現することができる。これにより、曲面アーキテクチャ手法では、ポリゴン手法と比較して、より一段と少ないデータ量で滑らかな曲面を実現することが可能になる。   On the other hand, in the curved surface architecture method, an object is expressed using a unit called a patch having 16 control points. Each control point is represented by coordinates (X, Y, Z) having three values of X, Y, and Z, as in the polygon method. However, unlike the polygon method, the curved surface architecture method is complemented by a smooth curve between the control points. Therefore, in order to express a smooth curved surface, the polygon method has to increase the number of polygons (triangles, etc.) that are polygons, whereas the curved surface architecture method does not increase the number of patches. A curved surface can be expressed easily. As a result, the curved surface architecture method can realize a smooth curved surface with a much smaller amount of data than the polygon method.

具体的には例えば、図3は、曲面アーキテクチャ手法により生成された3DCG画像の一例、換言すると、本実施の形態の3DCGエンジン22(図2)により生成されたグラフィックデータに対応するグラフィック画像の一例を示している。このように、本実施の形態では、図3に示されるようなグラフィック画像、即ち、時刻を示す数字等の各オブジェクトが滑らかな曲面で表現された高画質の3DCG画像を、LCD12に表示させることが可能になる。   Specifically, for example, FIG. 3 shows an example of a 3DCG image generated by the curved surface architecture method, in other words, an example of a graphic image corresponding to the graphic data generated by the 3DCG engine 22 (FIG. 2) of the present embodiment. Is shown. As described above, in the present embodiment, a graphic image as shown in FIG. 3, that is, a high-quality 3DCG image in which each object such as a numeral indicating time is expressed by a smooth curved surface is displayed on the LCD 12. Is possible.

ところで、ポリゴン手法における多角形(ポリゴン)、例えば3角形が3つの頂点しか持たないのに対して、パッチが16個の制御点を必要とするというデータ構造から、ポリゴン手法の方が、曲面アーキテクチャ手法よりもデータ量が一見少ないように感じる。しかしながら、実際のところは上述したようにその逆、即ち、曲面アーキテクチャ手法の方が、ポリゴン手法よりもデータ量が圧倒的に少なくて済む。これは、曲面を表現するのに必要となるデータの数が異なるからである。   By the way, from the data structure that a polygon (polygon) in a polygon method, for example, a triangle has only three vertices, but a patch requires 16 control points, the polygon method is more curved surface architecture. The amount of data seems to be less than the method. However, in reality, as described above, the reverse, that is, the curved surface architecture method requires much less data than the polygon method. This is because the number of data required to express the curved surface is different.

このように、曲面アーキテクチャ手法では、そのデータ量が少ないことから、オブジェクトの変形などの制御が容易に可能になる、という第1の特長を有している。また、曲面アーキテクチャ手法では、制御点と制御点の間を補完しているので、拡大しても曲面は滑らかなままである、という第2の特長を有している。   As described above, the curved surface architecture method has the first feature that it is possible to easily control the deformation of the object because the amount of data is small. In addition, the curved surface architecture method has a second feature that the curved surface remains smooth even when enlarged because it complements between the control points.

曲面アーキテクチャ手法では、このような第1の特長を有していることにより、3DCGでオブジェクトを処理する場合、オブジェクトが複雑になればなるほど、ポリゴン手法と比べて有利となる。即ち、ポリゴン手法の場合、複雑なオブジェクトを表現しようとすると、その分ポリゴンの数を増やす必要が生じ、処理すべきデータが膨れ上がるため、処理の負担が増大し、プロセッサの性能によっては処理速度の遅れを生じさせることにもつながる。それに比べ、曲面アーキテクチャ手法の場合は、曲面を表示させるのに少ないデータで済むという特長に加え、オブジェクトが複雑になっても、データの量がさほど増えないので、表現するオブジェクトを複雑にしても、処理の負担が増大するということはほとんどなく、ポリゴン手法と比べて有利となるのである。   Since the curved surface architecture method has such a first feature, when an object is processed by 3DCG, the more complicated the object, the more advantageous than the polygon method. That is, in the case of the polygon method, if it is intended to represent a complex object, it is necessary to increase the number of polygons accordingly, and the data to be processed increases, which increases the processing load, and depending on the performance of the processor, the processing speed It also leads to delays. In contrast, the curved surface architecture method requires less data to display the curved surface, and even if the object becomes complex, the amount of data does not increase so much. The processing load is hardly increased, which is advantageous compared to the polygon method.

また、曲面アーキテクチャ手法の第2の特長は、そのまま3Dオブジェクトの拡大、縮小処理が容易になるというメリットにつながる。即ち、一般にポリゴン手法を用いて、オブジェクトのズームを行うためには、2種類のモデルデータを準備する必要がある。先にも説明したとおり、ポリゴン手法は拡大するとモデルのカクカクが目立ってしまうという難点がある。そのため、ポリゴン手法を用いた3DCGに於いては、拡大してもカクカクしない様にするために、標準画像と拡大画像の2つを用意し、拡大する場合は拡大画像に切り替えるという処理を行う必要がある。このため、オブジェクトを拡大する必要があるアプリケーションにおいては、モデルのデータサイズが2倍になる。また、違和感なく標準画像と拡大画像を切り替えるという処理を行わなければならない。これに対して、曲面アーキテクチャ手法では、拡大しても滑らかであるという第2の特長を有しているので、データ量を増やすことなく、かつ、画像切り替え処理を行わずに、拡大/縮小を実現することができるというメリットにつながる。かかるメリットは、腕時計のような比較的小さな表示画面を有する機器において、ユーザが表示内容を拡大して確認したいという際に、非常に有効であると言えよう。   In addition, the second feature of the curved surface architecture method leads to the advantage that the enlargement / reduction process of the 3D object becomes easy. That is, in general, in order to zoom an object using the polygon method, it is necessary to prepare two types of model data. As described above, the polygon method has a drawback that the model becomes conspicuous when enlarged. Therefore, in 3DCG using the polygon method, it is necessary to prepare two images, a standard image and an enlarged image, and switch to the enlarged image when enlarging in order not to be confused even if enlarged. There is. For this reason, in an application that needs to enlarge an object, the data size of the model is doubled. In addition, it is necessary to perform a process of switching between the standard image and the enlarged image without a sense of incongruity. On the other hand, the curved surface architecture method has the second feature that it is smooth even if it is enlarged, so it can be enlarged / reduced without increasing the amount of data and without performing image switching processing. It leads to the merit that it can be realized. Such a merit can be said to be very effective when the user wants to enlarge and confirm the display contents in a device having a relatively small display screen such as a wristwatch.

曲面アーキテクチャ手法では、このような第1の特長や第2の特長を有しているので、モーフィングなどの効果も容易に実現可能となる。モーフィングとは、パッチを用いて予めデザインされた2つの画像(第1の画像と第2の画像)の制御点を移動させることによって、第1の画像から第2の画像に徐々に変化させていく効果、またはその効果を実現させる手法を言う。本実施の形態の3DCGエンジン22(図1)は、第1の画像の各制御点を始点とし、第2の画像の各制御点を終点とし、中間点を自動補完することで、モーフィングを実現させる。その際、補完すべき中間点の数と始点から終点までの変化時間は、制御プログラムによって決定される。   Since the curved surface architecture method has such first and second features, effects such as morphing can be easily realized. Morphing is a method of gradually changing from the first image to the second image by moving the control points of two images (first image and second image) that are pre-designed using patches. The method to achieve the effect or the effect. The 3DCG engine 22 (FIG. 1) of the present embodiment realizes morphing by automatically complementing intermediate points with each control point of the first image as the start point, each control point of the second image as the end point. Let At that time, the number of intermediate points to be complemented and the change time from the start point to the end point are determined by the control program.

具体的には例えば、図4に示されるように、本実施の形態の3DCGエンジン22(図2)は、例えば、時間の経過に伴い、時刻を示す数字を徐々に変形させていくモーフィングを用いた表示の制御、具体的には例えば図4の例では、時刻を示す1つの数字として、第1の画像Aが示す「1」から、第2の画像Bが示す「2」に徐々に変形させていくモーフィングを用いた表示の制御を行う。これにより、LCD12の時刻表示として、モーフィングを用いた時刻のデジタル表示が実現可能になる。   Specifically, for example, as shown in FIG. 4, the 3DCG engine 22 (FIG. 2) according to the present embodiment uses, for example, morphing that gradually changes a number indicating a time as time passes. In the example of FIG. 4, for example, in the example of FIG. 4, the number of times is gradually changed from “1” indicated by the first image A to “2” indicated by the second image B. Control the display using morphing. Thereby, digital display of time using morphing can be realized as time display of the LCD 12.

また、曲面アーキテクチャ手法では、パッチを用いることによりデータ圧縮率もよいという第3の特長を有している。従って、曲面アーキテクチャ手法を用いて作成された画像データは、ZIPなどの圧縮方法で圧縮前のデータの6分の1程度に圧縮することが可能である。   In addition, the curved surface architecture method has a third feature that a data compression rate is good by using a patch. Therefore, the image data created using the curved surface architecture method can be compressed to about 1/6 of the data before compression by a compression method such as ZIP.

以上説明したように、本実施の形態の腕時計1では、上述した第1の特長乃至第3の特長を有する曲面アーキテクチャ手法が適用されているので、他の3DCG手法(例えばポリゴン手法)が適用された場合と比較して、圧倒的に少ないデータサイズで高精細な3DCG画像を表示することが可能になる。   As described above, in the wristwatch 1 of the present embodiment, the curved surface architecture method having the first to third features described above is applied, so that another 3DCG method (for example, the polygon method) is applied. Compared to the case, it is possible to display a high-definition 3DCG image with an overwhelmingly small data size.

さらに、曲面アーキテクチャ手法で用いるデータサイズが少ないということは、画像生成に必要となる消費電力を軽減させることにも貢献する。   Furthermore, the fact that the data size used in the curved surface architecture method is small contributes to reducing the power consumption required for image generation.

まず、データサイズが少ないことで、メモリ(図2の例ではSD-RAM15やFlash Memory16等)から3DCGエンジン(図2の例では3DCGエンジン22)にデータを転送する回数を減らすことができる。また、画像生成のための演算処理を行うCPU(図2の例ではCPU21)への負荷を減らすことにもなる。これにより、曲面アーキテクチャ手法を適用することで、他の3DCG手法を適用した場合と比較して、低消費電力が実現できるのである。   First, since the data size is small, the number of times data is transferred from the memory (SD-RAM 15 and Flash Memory 16 in the example of FIG. 2) to the 3DCG engine (3DCG engine 22 in the example of FIG. 2) can be reduced. In addition, the load on the CPU (CPU 21 in the example of FIG. 2) that performs arithmetic processing for image generation is also reduced. In this way, by applying the curved surface architecture method, lower power consumption can be realized compared to the case of applying other 3DCG methods.

さらに、本実施の形態の3DCGエンジン22は、曲面アーキテクチャをハードウエア的に実現したものであることはすでに述べたが、本実施の形態のように3DCGエンジンをハードウエアとして実現していることも、低消費電力に大きく貢献している。同じ処理をソフトウエア的に実現しようとすると、処理が複雑になり、非常に多くの電力を必要とすることになるからである。従って、本実施の形態の腕時計1に限らず、腕時計のように使用できる電力の量が限られており、その使用可能な電力をできるだけ長時間持たせる必要があるような機器において、曲面アーキテクチャをハードウエア的に実現したものを用いることの消費電力低減効果は大きいといえる。   Furthermore, although it has already been described that the 3DCG engine 22 of the present embodiment is a curved surface architecture realized in hardware, the 3DCG engine may be realized as hardware as in the present embodiment. This contributes greatly to low power consumption. This is because if the same processing is to be realized by software, the processing becomes complicated and a very large amount of power is required. Accordingly, not only the wristwatch 1 of the present embodiment but also the amount of power that can be used, such as a wristwatch, is limited, and the curved surface architecture is used in a device that needs to have the usable power as long as possible. It can be said that the power consumption reduction effect by using the hardware implementation is great.

図2に戻り、LCDコントローラ23は、LCD12の表示を制御する。即ち、LCDコントローラ23は、3DCGエンジン22から供給されたグラフィックデータを、必要に応じてLCD12に適した形態に変換した上で、LCD12に転送する。これにより、LCD12には、そのグラフィックデータに対応するグラフィック画像、例えば、上述した図3に示されるような時刻表示用の3DCG画像が表示される。さらに、時刻が変化するときには、上述した図4に示されるようなモーフィングにより、時刻を示す数字が徐々に変化していくような3DCG画像(動画像)がLCD12に表示される。   Returning to FIG. 2, the LCD controller 23 controls the display of the LCD 12. That is, the LCD controller 23 converts the graphic data supplied from the 3DCG engine 22 into a form suitable for the LCD 12 as necessary, and transfers the converted data to the LCD 12. As a result, the LCD 12 displays a graphic image corresponding to the graphic data, for example, a 3DCG image for time display as shown in FIG. 3 described above. Further, when the time changes, a 3DCG image (moving image) in which the number indicating the time gradually changes is displayed on the LCD 12 by morphing as shown in FIG.

マイクロコンピュータ14は、図示はしないが例えば発振回路やカウンタ等を内蔵しており、設定された時刻に基づいて時を刻み、現時点の時刻を示す情報(以下、時刻情報と称する)を必要に応じてシステムIC13に提供する。   Although not shown, the microcomputer 14 incorporates, for example, an oscillation circuit, a counter, and the like. The microcomputer 14 keeps time based on the set time and displays information indicating the current time (hereinafter referred to as time information) as necessary. To the system IC 13.

電源部17は、図示はしないが例えば、リチウムイオン二次電池、充電コントローラ、電源レギュレータ等から構成され、腕時計1を構成する上述した各ブロック(各モジュール)のそれぞれに対して必要な電源(電力)を供給する。なお、図2では、電源部17が各ブロックのそれぞれに電源を供給することを表す各種線は、図が煩雑になるため、まとめて1つの白抜き矢印として図示されている。   Although not shown, the power supply unit 17 is composed of, for example, a lithium ion secondary battery, a charge controller, a power supply regulator, and the like, and a necessary power supply (power) for each of the blocks (each module) constituting the wristwatch 1. ). In FIG. 2, various lines representing that the power supply unit 17 supplies power to each of the blocks are collectively shown as one white arrow because the drawing becomes complicated.

以上、図2を参照して、腕時計1のハードウエア構成例について説明した。   The hardware configuration example of the wristwatch 1 has been described above with reference to FIG.

ただし、腕時計1のハードウエア構成は、図2の例に限定されず、次の図5の機能的構成を少なくとも有していれば任意のハードウエア構成でよい。   However, the hardware configuration of the wristwatch 1 is not limited to the example of FIG. 2 and may be any hardware configuration as long as it has at least the functional configuration of FIG.

即ち、図5は、腕時計1の機能的構成例を示す機能ブロック図である。   That is, FIG. 5 is a functional block diagram showing a functional configuration example of the wristwatch 1.

中央演算部51は、この腕時計1の全体の動作を制御する。なお、中央演算部51の詳細な構成例については図6を参照して、中央演算部51の処理例については図10を参照して、それぞれ後述する。   The central processing unit 51 controls the overall operation of the wristwatch 1. A detailed configuration example of the central processing unit 51 will be described later with reference to FIG. 6, and a processing example of the central processing unit 51 will be described later with reference to FIG.

時間管理部52は、腕時計1が図2のハードウエア構成を有している場合には、マイクロコンピュータ14で構成される。従って、時間管理部52が有する機能は、マイクロコンピュータ14が有する上述した機能と同様であるので、その説明については省略する。また、時間管理部52が有する機能により実現される処理の例については、図9を参照して後述する。   The time management unit 52 is configured by the microcomputer 14 when the wristwatch 1 has the hardware configuration of FIG. Accordingly, the function of the time management unit 52 is the same as the above-described function of the microcomputer 14, and the description thereof is omitted. An example of processing realized by the function of the time management unit 52 will be described later with reference to FIG.

なお、中央演算部51と時間管理部52とのそれぞれは、その処理を実行する場合、ユーザ入力部55からの情報を適宜取得する。   Note that each of the central processing unit 51 and the time management unit 52 appropriately acquires information from the user input unit 55 when executing the processing.

表示データ生成部53は、中央演算部51の制御に基づいて、即ち、中央演算部51からの指令に従ってグラフィックデータを生成し、そのグラフィックデータに対応するグラフィック画像(3DCG画像等)を表示部54に表示させるように制御する。これにより、表示部54には、表示データ生成部53により生成されたグラフィックデータに対応するグラフィック画像が表示される。なお、表示データ生成部53の詳細な構成例については図7を参照して、表示データ生成部53の処理例については図11を参照して、それぞれ後述する。   The display data generation unit 53 generates graphic data based on the control of the central processing unit 51, that is, in accordance with a command from the central processing unit 51, and displays a graphic image (3DCG image or the like) corresponding to the graphic data. Control to display on the screen. As a result, a graphic image corresponding to the graphic data generated by the display data generating unit 53 is displayed on the display unit 54. A detailed configuration example of the display data generation unit 53 will be described later with reference to FIG. 7, and a processing example of the display data generation unit 53 will be described later with reference to FIG.

表示部54、ユーザ入力部55、および、電力供給部56のそれぞれは、腕時計1が図2のハードウエア構成を有している場合には、LCD12、タクトスイッチ11、および、電源部17のそれぞれで構成される。従って、表示部54、ユーザ入力部55、および、電力供給部56のそれぞれが有する機能は、LCD12、タクトスイッチ11、および電源部17のそれぞれが有する上述した各機能のそれぞれと同様であるので、それらの説明については省略する。また、電力供給部56が有する機能により実現される処理の例については、図8を参照して後述する。   The display unit 54, the user input unit 55, and the power supply unit 56 are respectively the LCD 12, the tact switch 11, and the power supply unit 17 when the wristwatch 1 has the hardware configuration of FIG. Consists of. Therefore, the functions of the display unit 54, the user input unit 55, and the power supply unit 56 are the same as the functions of the LCD 12, the tact switch 11, and the power supply unit 17, respectively. Their description is omitted. An example of processing realized by the function of the power supply unit 56 will be described later with reference to FIG.

図6は、中央演算部51の詳細な機能的構成例を示している。図6の例では、中央演算部51は、主制御部61、プログラム格納部62、および、作業用データ記憶部63から構成されている。   FIG. 6 shows a detailed functional configuration example of the central processing unit 51. In the example of FIG. 6, the central processing unit 51 includes a main control unit 61, a program storage unit 62, and a work data storage unit 63.

主制御部61、プログラム格納部62、および、作業用データ記憶部63のそれぞれは、腕時計1が図2のハードウエア構成を有している場合には、CPU21、Flash Memory16、および、SD-RAM15のそれぞれで構成される。   The main control unit 61, the program storage unit 62, and the work data storage unit 63 are respectively connected to the CPU 21, the Flash Memory 16, and the SD-RAM 15 when the wristwatch 1 has the hardware configuration shown in FIG. It consists of each of.

従って、主制御部61は、プログラム格納部62に格納されている各種プログラムのうちの1以上を選択して作業用データ記憶部63にロードし、実行することができる。作業用データ記憶部63には、所定のプログラムの実行に必要な各種データが記憶される。また、作業用データ記憶部63には、プログラム格納部62に格納されている各種プログラムを作業用データ記憶部63にロードして、起動させるための起動プログラムが格納されている。この起動プログラムは、主制御部61上で動作するようになされている。   Therefore, the main control unit 61 can select one or more of the various programs stored in the program storage unit 62, load it into the work data storage unit 63, and execute it. The work data storage unit 63 stores various data necessary for executing a predetermined program. The work data storage unit 63 stores a startup program for loading various programs stored in the program storage unit 62 into the work data storage unit 63 and starting them. This activation program is configured to operate on the main control unit 61.

なお、プログラム格納部62に格納されているプログラム、および、そのプログラムにより実現される処理の具体例については後述する。   A specific example of the program stored in the program storage unit 62 and processing realized by the program will be described later.

図7は、表示データ生成部53の詳細な構成例を示している。図7の例では、表示データ生成部53は、3Dグラフィックスエンジン部71と、LCDコントロール部72とから構成されている。   FIG. 7 shows a detailed configuration example of the display data generation unit 53. In the example of FIG. 7, the display data generation unit 53 includes a 3D graphics engine unit 71 and an LCD control unit 72.

3Dグラフィックスエンジン部71と、LCDコントロール部72とのそれぞれは、腕時計1が図2のハードウエア構成を有している場合には、3DCGエンジン22と、LCDコントローラ23とのそれぞれで構成される。従って、3Dグラフィックスエンジン部71とLCDコントロール部72とのそれぞれが有する機能は、3DCGエンジン22とLCDコントローラ23とのそれぞれが有する上述した各機能のそれぞれと同様であるので、それらの説明については省略する。   Each of the 3D graphics engine unit 71 and the LCD control unit 72 includes the 3DCG engine 22 and the LCD controller 23 when the wristwatch 1 has the hardware configuration shown in FIG. . Accordingly, the functions of the 3D graphics engine unit 71 and the LCD control unit 72 are the same as the functions of the 3DCG engine 22 and the LCD controller 23, respectively. Omitted.

以上、図5乃至図7を参照して、腕時計1の機能的構成例について説明した。   The functional configuration example of the wristwatch 1 has been described above with reference to FIGS.

なお、図5乃至図7に示される各機能ブロックのそれぞれは、本実施の形態では、腕時計1が図2のハードウエア構成を有していることを前提として、上述したように構成されているとした。しかしながら、図5乃至図7に示される各機能ブロックのそれぞれは、そのハードウエア構成に応じて、ハードウエア単体で構成してもよいし、ソフトウエア単体で構成してもよいし、或いは、ハードウエアとソフトウエアの組み合わせで構成してもよい。   Each of the functional blocks shown in FIGS. 5 to 7 is configured as described above on the assumption that the wristwatch 1 has the hardware configuration of FIG. 2 in the present embodiment. It was. However, each of the functional blocks shown in FIG. 5 to FIG. 7 may be composed of a single hardware, a single software, or a hardware depending on the hardware configuration. A combination of software and software may be used.

次に、図8乃至図11を参照して、係る図5乃至図7の機能的構成を有する腕時計1の動作の幾つかの例、即ち、腕時計1を構成する各機能ブロックの処理の例について説明する。   Next, referring to FIG. 8 to FIG. 11, some examples of operations of the wristwatch 1 having the functional configuration of FIG. 5 to FIG. 7, that is, examples of processing of each functional block constituting the wristwatch 1. explain.

図8は、電力供給部56の処理例を説明するフローチャートである。   FIG. 8 is a flowchart for explaining a processing example of the power supply unit 56.

電源オンの指示がなされると、ステップS1において、電力供給部56は、電源をオン状態にする。そして、ステップS2において、電力供給部56は、中央演算部51乃至表示部54のそれぞれに対して電力を供給する。   When a power-on instruction is given, in step S1, the power supply unit 56 turns on the power. In step S <b> 2, the power supply unit 56 supplies power to each of the central processing unit 51 to the display unit 54.

ステップS3において、電力供給部56は、電池残量が閾値以下であるか否かを判定する。   In step S3, the power supply unit 56 determines whether or not the remaining battery level is equal to or less than a threshold value.

ステップS3において、電池残量が閾値以下であると判定した場合、ステップS4において、電力供給部56は、その電池に対して充電を行う。充電が完了すると、ステップS4の処理は終了となり、処理はステップS5に進む。   If it is determined in step S3 that the remaining battery level is equal to or less than the threshold value, in step S4, the power supply unit 56 charges the battery. When the charging is completed, the process of step S4 ends, and the process proceeds to step S5.

これに対して、ステップS3において、電池残量が閾値を越えている(閾値以下ではない)と判定された場合、ステップS4の処理(充電)は実行されずに、処理はステップS5に進む。   On the other hand, if it is determined in step S3 that the remaining battery level exceeds the threshold value (not less than the threshold value), the process proceeds to step S5 without executing the process (charging) in step S4.

ステップS5において、電力供給部56は、電源オフが指示されたか否かを判定する。   In step S <b> 5, the power supply unit 56 determines whether power-off is instructed.

ステップS5において、電源オフが指示されたと判定した場合、ステップS6において、電力供給部56は、電源をオフ状態にする。これにより、中央演算部51乃至表示部54のそれぞれに対する電源供給が遮断されて、電力供給部56の処理は終了となる。   If it is determined in step S5 that power-off has been instructed, in step S6, the power supply unit 56 turns off the power. Thereby, the power supply to each of the central processing unit 51 to the display unit 54 is cut off, and the processing of the power supply unit 56 is ended.

これに対して、ステップS5において、電源オフがまだ指示されていないと判定された場合、処理はステップS2に戻され、それ以降の処理が繰り返し実行される。即ち、電源オフの指示がなされず、かつ、電池残量が閾値を超えている限り、中央演算部51乃至表示部54のそれぞれに対する電源供給が継続される。   On the other hand, if it is determined in step S5 that power-off has not been instructed yet, the process returns to step S2, and the subsequent processes are repeatedly executed. That is, as long as the power-off instruction is not given and the remaining battery level exceeds the threshold value, the power supply to each of the central processing unit 51 to the display unit 54 is continued.

以上説明したように、電力供給部56の電源がオン状態になると(ステップS1)、電力供給部56は、中央演算部51乃至表示部54に対して電力を供給する(ステップS2)。これにより、時間管理部52と中央演算部51は、ユーザ入力部55からの入力を受け付けることが可能になる。そこで、以下、図9と図10とのそれぞれを参照して、時間管理部52と中央演算部51とのそれぞれの処理をその順番で個別に説明していく。   As described above, when the power supply unit 56 is turned on (step S1), the power supply unit 56 supplies power to the central processing unit 51 through the display unit 54 (step S2). As a result, the time management unit 52 and the central processing unit 51 can accept input from the user input unit 55. Therefore, hereinafter, the processes of the time management unit 52 and the central processing unit 51 will be individually described in the order with reference to FIGS. 9 and 10.

図9は、時間管理部52の処理例を説明するフローチャートである。   FIG. 9 is a flowchart for explaining a processing example of the time management unit 52.

ステップS21において、時間管理部52は、初期時刻を設定する。   In step S21, the time management unit 52 sets an initial time.

なお、このステップS21の処理、即ち、初期時刻の設定処理は、腕時計1の出荷時に製造場所において行われてもよいし、ユーザによるユーザ入力部55の操作、即ち図1の例ではタクトスイッチ11の押下操作により行われてもよい。   The process of step S21, that is, the initial time setting process may be performed at the manufacturing location when the wristwatch 1 is shipped, or the user operates the user input unit 55, that is, the tact switch 11 in the example of FIG. It may be performed by pressing the button.

ステップS22において、時間管理部52は、時刻の自動更新処理(自身の判断で時を刻む処理)を行う。   In step S <b> 22, the time management unit 52 performs automatic time update processing (processing that keeps time according to its own judgment).

ステップS23において、時間管理部52は、時刻の再設定が必要であるか否かを判定する。   In step S23, the time management unit 52 determines whether it is necessary to reset the time.

ステップS23において、時刻の再設定が必要であると判定した場合、ステップS24において、時間管理部52は、時刻を再設定する。なお、このステップS24の処理、即ち、時刻の再設定処理は、例えば本実施の形態では、ユーザによるユーザ入力部55の操作、即ち図1の例ではタクトスイッチ11の押下操作により行われるとする。時刻の再設定処理が完了すると、処理はステップS25に進む。   When it is determined in step S23 that the time needs to be reset, in step S24, the time management unit 52 resets the time. Note that the process of step S24, that is, the time resetting process, is performed, for example, by the user operating the user input unit 55, that is, by pressing the tact switch 11 in the example of FIG. . When the time resetting process is completed, the process proceeds to step S25.

これに対して、ステップS23において、時刻の再設定が不要である(必要ではない)と判定された場合、ステップS24の処理は実行されずに、即ち、時刻の再設定処理は特に行われずに、処理はステップS25に進む。   On the other hand, if it is determined in step S23 that resetting of the time is unnecessary (not required), the process of step S24 is not executed, that is, the resetting process of the time is not particularly performed. The process proceeds to step S25.

ステップS25において、時間管理部52は、中央演算部51から時刻情報提供リクエストがあったか否かを判定する。   In step S <b> 25, the time management unit 52 determines whether or not there is a time information provision request from the central processing unit 51.

ここで、「中央演算部51から時刻情報提供リクエストがあった」とは、「その時点で中央演算部51から明示的に時刻情報提供リクエストがあった」の他、「中央演算部51から明示的ではない時刻情報提供リクエストがあった」も含む広義な概念である。   Here, “there is a time information provision request from the central processing unit 51” means that “there is an explicit time information provision request from the central processing unit 51 at that time”, This is a broad concept including “there was an untimely request for providing time information”.

「中央演算部51から明示的ではない時刻情報提供リクエストがあった」とは、例えば次のようなことを指す。即ち、例えば、中央演算部51の処理過程(後述する図10参照)で、選択された実行プログラムが「その時点の時刻を表示する」という制御を行う場合、実行プログラムが実行されてから終了されるまでの間のことを、「中央演算部51から明示的ではない時刻情報提供リクエストがあった」と捉えることができる。即ち、この間は、時間管理部52から中央演算部51に時刻情報が提供されるたびに、中央演算部51は時刻表示を更新することになる。その際、中央演算部51は、どのタイミングで時刻情報提供リクエストを出せばいいかの情報を持っていないので、一定間隔で時間管理部52から提供される時刻情報を能動的に受け取り、時刻表示の制御を行うことになる。従って、この場合には、一定間隔が経過するまでの間は、ステップS25の処理で時刻情報提供リクエストがなかったと判定されて処理はステップS27に進み、その後、一定間隔が経過した時点で、ステップS25の処理で時刻情報提供リクエストがあったたと判定されて処理はステップS26に進むことになる。   The phrase “there is an explicit time information provision request from the central processing unit 51” indicates, for example, the following. That is, for example, in the process of the central processing unit 51 (see FIG. 10 to be described later), when the selected execution program performs the control of “displaying the time at that time”, the execution program is terminated after being executed. Can be understood as “there was an explicit time information provision request from the central processing unit 51”. That is, during this period, whenever the time information is provided from the time management unit 52 to the central processing unit 51, the central processing unit 51 updates the time display. At that time, the central processing unit 51 does not have information on when to issue the time information provision request, so it actively receives the time information provided from the time management unit 52 at regular intervals, and displays the time display. Will be controlled. Therefore, in this case, until the predetermined interval elapses, it is determined that there is no time information provision request in the process of step S25, and the process proceeds to step S27. The process proceeds to step S26 when it is determined that there is a time information provision request in the process of S25.

このように時間管理部52から常に一定間隔で提供される時刻情報を基に、中央演算部51が処理を行う場合もあるし、中央演算部51が処理の過程で、特定の時点の時刻を知る必要があり、時刻情報提供リクエストを出す場合もあり、何れの場合も、ここでは、「中央演算部51から時刻情報提供リクエストがあった」場合とされているのである。   As described above, the central processing unit 51 may perform processing based on the time information always provided from the time management unit 52 at regular intervals, or the central processing unit 51 may set the time at a specific time in the course of processing. It is necessary to know, and a time information provision request may be issued. In any case, it is assumed that “the time information provision request is received from the central processing unit 51”.

以上の前提の下、ステップS25において、中央演算部51から時刻情報提供リクエストがあったと判定した場合、ステップS26において、時間管理部52は、時刻情報を中央演算部51に出力する。これにより、処理はステップS27に進む。   Under the above assumption, when it is determined in step S25 that there is a time information provision request from the central processing unit 51, the time management unit 52 outputs the time information to the central processing unit 51 in step S26. Thereby, a process progresses to step S27.

これに対して、ステップS25において、中央演算部51から時刻情報提供リクエストが無かったと判定された場合、ステップS26の処理は実行されずに、処理はステップS27に進む。   On the other hand, if it is determined in step S25 that there is no time information provision request from the central processing unit 51, the process proceeds to step S27 without executing the process in step S26.

ステップS27において、時間管理部52は、処理の終了が指示されたか否かを判定する。   In step S27, the time management unit 52 determines whether or not an instruction to end the process is given.

ステップS27において、処理の終了がまだ指示されていないと判定された場合、処理はステップS22に戻され、それ以降の処理が繰り返し実行される。即ち、時間管理部52は、時刻の自動更新処理を継続しつつ、必要に応じて、時刻の再設定処理や、時刻情報を中央演算部51に出力する処理を実行する。   If it is determined in step S27 that the process has not been instructed yet, the process returns to step S22, and the subsequent processes are repeatedly executed. That is, the time management unit 52 executes time resetting processing and processing for outputting time information to the central processing unit 51 as necessary while continuing the automatic time updating processing.

その後、ステップS27において、処理の終了が指示されたと判定された場合、時間管理部52の処理は終了となる。   Thereafter, if it is determined in step S27 that the process has been instructed, the process of the time management unit 52 ends.

次に、図10のフローチャートを参照して、中央演算部51の処理例を説明する。   Next, a processing example of the central processing unit 51 will be described with reference to the flowchart of FIG.

ステップS41において、中央演算部51は、電力供給部56からの電力供給が遮断されたか否かを判定する。   In step S <b> 41, the central processing unit 51 determines whether the power supply from the power supply unit 56 is cut off.

ステップS41において、電力供給が遮断されたと判定された場合、中央演算部51の処理は終了となる。   If it is determined in step S41 that the power supply has been cut off, the processing of the central processing unit 51 ends.

これに対して、電力供給部56からの電力供給が継続されている限り、ステップS41において、電力供給が遮断されていないと常に判定されて、処理はステップS42に進む。   On the other hand, as long as the power supply from the power supply unit 56 is continued, it is always determined in step S41 that the power supply is not cut off, and the process proceeds to step S42.

ステップS42において、中央演算部51は、ユーザ入力部55によるユーザ操作があったか否かを判定する。   In step S <b> 42, the central processing unit 51 determines whether or not a user operation has been performed by the user input unit 55.

ステップS42において、ユーザ操作が無かったと判定した場合、ステップS43において、中央演算部51は、指定された時刻であるか否かを判定する。   If it is determined in step S42 that there is no user operation, in step S43, the central processing unit 51 determines whether or not it is a designated time.

具体的には例えば本実施の形態では、ステップS43の処理の開始時点で、中央演算部51は、時刻情報提供リクエストを時間管理部52に対して発行する。すると、上述したように、時間管理部52は、この時刻情報提供リクエストを受けて(図9のステップS25YES)、時刻情報を中央演算部51に出力してくる(ステップS26)。そこで、中央演算部51は、その時刻情報を作業用データ記憶部63(図6)に記憶させ、その時刻情報で特定される時刻が、指定された時刻であるか否かを判定する。   Specifically, for example, in the present embodiment, the central processing unit 51 issues a time information provision request to the time management unit 52 at the start of the process of step S43. Then, as described above, the time management unit 52 receives this time information provision request (step S25 YES in FIG. 9), and outputs the time information to the central processing unit 51 (step S26). Therefore, the central processing unit 51 stores the time information in the work data storage unit 63 (FIG. 6), and determines whether or not the time specified by the time information is the specified time.

ステップS43において、指定された時刻であると判定された場合、処理はステップS45に進む。ただし、ステップS45以降の処理については後述する。   If it is determined in step S43 that the designated time is reached, the process proceeds to step S45. However, the processing after step S45 will be described later.

これに対して、ステップS43において、指定された時刻ではないと判定された場合、処理はステップS41に戻され、それ以降の処理が繰り返し実行される。即ち、電力供給部56からの電力供給が継続されている限り、中央演算部51は、ユーザ操作があるか、或いは、指定された時刻になるまで、ステップS41NO,S42NO,S43NOのループ処理を繰り返し実行することで、待機状態を維持する。   On the other hand, when it is determined in step S43 that it is not the designated time, the process is returned to step S41, and the subsequent processes are repeatedly executed. That is, as long as the power supply from the power supply unit 56 is continued, the central processing unit 51 repeats the loop process of steps S41NO, S42NO, and S43NO until there is a user operation or the designated time comes. By executing, the standby state is maintained.

その後、ユーザ入力部55によるユーザ操作があると、次のステップS42の処理でYESであると判定されて、処理はステップS44に進む。   Thereafter, if there is a user operation by the user input unit 55, it is determined as YES in the process of the next step S42, and the process proceeds to step S44.

ステップS44において、中央演算部51の主制御部61(図6)は、上述した起動プログラムを実行する。この起動プログラムにより、次のステップS45以降の処理が実行される。   In step S44, the main control unit 61 (FIG. 6) of the central processing unit 51 executes the startup program described above. By this activation program, the processing after the next step S45 is executed.

即ち、主制御部61は、ステップS45において、プログラム格納部62に格納されている各種プログラムの中から、これから実行するプログラム(以下、実行プログラムと称する)を選択し、ステップS46において、その実行プログラムをプログラム格納部62から作業用データ記憶部63に転送する。   That is, the main control unit 61 selects a program to be executed (hereinafter referred to as an execution program) from various programs stored in the program storage unit 62 in step S45, and the execution program in step S46. Is transferred from the program storage unit 62 to the work data storage unit 63.

具体的には例えばここでは、アプリケーション製作者によって作成された制御プログラムであって、時刻表示用のグラフィックデータの生成処理を実行するための制御プログラムが、プログラム格納部62に1つ以上格納されているとする。また、この制御プログラムには、3Dグラフィックスエンジン部71(図7)がグラフィックデータ(グラフィック画像)を生成するために必要となる各種モデルのデータ、各種モデルの表示方法(エフェクト、変形パターンなど)、および、各種モデルの表示タイミングの制御指令などが含まれているとする。   Specifically, for example, here, one or more control programs created by an application producer for executing processing for generating time display graphic data are stored in the program storage unit 62. Suppose that The control program also includes various model data necessary for the 3D graphics engine unit 71 (FIG. 7) to generate graphic data (graphic image), and various model display methods (effects, deformation patterns, etc.). , And various models of display timing control commands are included.

この場合、主制御部61は、ステップS45において、ユーザ入力部55から送られる操作情報に一般的には従って、上述した1つ以上の制御プログラムの中から所定の1つを実行プログラムとして選択する。そして、主制御部61は、ステップS46において、その実行プログラムをプログラム格納部62から作業用データ記憶部63に転送する。   In this case, in step S45, the main control unit 61 generally selects a predetermined one from the one or more control programs described above as an execution program in accordance with the operation information sent from the user input unit 55. . In step S46, the main control unit 61 transfers the execution program from the program storage unit 62 to the work data storage unit 63.

即ち、ユーザは、ユーザ入力部55を操作することで、何れの制御プログラムを用いて時刻を表示させたいのかを指定することができる。この場合、ユーザ入力部55の操作内容を示す情報、即ち、ユーザの指定内容を示す情報は、中央演算部51に操作情報として送られる。すると、起動プログラム(主制御部61)は、ステップS45において、ユーザ入力部55から得られた操作情報に従って実行プログラムを選択し、ステップS46において、その実行プログラムを作業用データ記憶部63に転送する。   In other words, the user can specify which control program is to be used to display the time by operating the user input unit 55. In this case, information indicating the operation content of the user input unit 55, that is, information indicating the user-specified content is sent to the central processing unit 51 as operation information. Then, the activation program (main control unit 61) selects an execution program in accordance with the operation information obtained from the user input unit 55 in step S45, and transfers the execution program to the work data storage unit 63 in step S46. .

なお、ユーザ入力部55から操作情報が与えられない場合には、主制御部61は、上述した手法とは別の手法を用いて、ステップS45の処理、即ち、時刻表示用の制御プログラムの中から所定の1つを実行プログラムとして選択する、といった処理を実行する必要がある。   When the operation information is not given from the user input unit 55, the main control unit 61 uses a method different from the above-described method to perform the process of step S45, that is, in the control program for time display. It is necessary to execute a process of selecting a predetermined one as an execution program.

例えば、別の手法のひとつとして、腕時計1の出荷時に製造場所において、何れの制御プログラムを実行プログラムとして使用(選択)するのかを初期値ないしデフォルト値として設定しておき、その初期値ないしデフォルト値で特定される制御プログラムを実行プログラムとして選択する、という手法を採用することができる。   For example, as another method, at the time of shipment of the wristwatch 1, which control program is used (selected) as an execution program at the manufacturing location is set as an initial value or default value, and the initial value or default value is set. A method of selecting a control program specified in (1) as an execution program can be employed.

また例えば、別の手法のひとつとして、ランダムないし所定の順番に選択した制御プログラムを実行プログラムとする、という手法を採用することができる。   For example, as another method, a method of using a control program selected randomly or in a predetermined order as an execution program can be employed.

さらに例えば、別の手法として、ユーザが予め指定した制御プログラムを実行プログラムとして繰り返し選択(使用)する、という手法を採用することができる。   Furthermore, for example, as another method, a method of repeatedly selecting (using) a control program designated in advance by the user as an execution program can be employed.

このようにして、ステップS45の処理で、実行プログラムが選択され、ステップS46の処理で、その実行プログラムが作業用データ記憶部63に転送されると、処理はステップS47に進む。   In this manner, when the execution program is selected in the process of step S45 and the execution program is transferred to the work data storage unit 63 in the process of step S46, the process proceeds to step S47.

ステップS47において、主制御部61は、実行プログラムを実行する。   In step S47, the main control unit 61 executes an execution program.

具体的には例えばここでは、上述したように、1以上の時刻表示用の制御プログラムのうちの所定の1つが実行プログラムとして選択されているので、次のような一連の処理がステップS47の処理として実行される。   Specifically, for example, as described above, since a predetermined one of the one or more time display control programs is selected as the execution program, the following series of processing is performed in step S47. Run as.

即ち、主制御部61は、実行プログラムに基づいて、時刻情報提供リクエストを時間管理部52に対して発行する。すると、上述したように、時間管理部52は、この時刻情報提供リクエストを受けて(図9のステップS25YES)、時刻情報を中央演算部51に出力してくる(ステップS26)。そこで、中央演算部51は、その時刻情報を作業用データ記憶部63に記憶させる。   That is, the main control unit 61 issues a time information provision request to the time management unit 52 based on the execution program. Then, as described above, the time management unit 52 receives this time information provision request (step S25 YES in FIG. 9), and outputs the time information to the central processing unit 51 (step S26). Therefore, the central processing unit 51 stores the time information in the work data storage unit 63.

なお、ステップS43の処理でYESであると判定されて、ステップS45,S46の処理が実行された直後に行われるステップS47においては、ここまでの処理は省略してもよい。   Note that the processing up to this point may be omitted in step S47 performed immediately after the processing of steps S45 and S46 is executed after the determination of YES in step S43.

次に、主制御部61は、実行プログラムと、作業用データ記憶部63に記憶された時刻情報とに基づいて、表示データ生成部53の3Dグラフィックスエンジン部71(図7)に対してグラフィックデータの生成指令(以下、画像生成指令と称する)を発行する。   Next, based on the execution program and the time information stored in the work data storage unit 63, the main control unit 61 displays a graphic for the 3D graphics engine unit 71 (FIG. 7) of the display data generation unit 53. A data generation command (hereinafter referred to as an image generation command) is issued.

すると、3Dグラフィックスエンジン部71は、この画像生成指令に基づいて、グラフィックデータ(グラフィック画像)を随時生成する(後述する図11のステップS62YES,S63参照)。   Then, the 3D graphics engine unit 71 generates graphic data (graphic image) as needed based on this image generation command (see steps S62 YES and S63 in FIG. 11 described later).

3Dグラフィックスエンジン部71によって生成されたグラフィックデータは、LCDコントロール部72(図7)を経由して、表示部54(図5)へと転送される(後述する図11のステップS64参照)。これにより、そのグラフィックデータに対応するグラフィック画像、例えば上述した図3に示されるような時刻表示用の3DCG画像が、表示部54に表示される。   The graphic data generated by the 3D graphics engine unit 71 is transferred to the display unit 54 (FIG. 5) via the LCD control unit 72 (FIG. 7) (see step S64 in FIG. 11 described later). As a result, a graphic image corresponding to the graphic data, for example, a 3DCG image for time display as shown in FIG. 3 described above, is displayed on the display unit 54.

なお、時刻の変化タイミング時には、図4で上述したモーフィングを用いることで、時刻を示す数字が徐々に変形していくような3DCG画像(動画像)を、表示部54に表示させることも容易に可能である。   Note that, at the time of time change timing, by using the morphing described above with reference to FIG. 4, it is possible to easily display a 3DCG image (moving image) in which the number indicating the time gradually changes on the display unit 54. Is possible.

このようにして、ステップS47の処理でプログラムが実行されて、時刻表示用のグラフィック画像が表示部54に表示されると、処理はステップS48に進む。   In this way, when the program is executed in the process of step S47 and the graphic image for time display is displayed on the display unit 54, the process proceeds to step S48.

ステップS48において、主制御部61は、実行プログラム中で指定された時刻であるか否かを判定する。   In step S48, the main control unit 61 determines whether or not it is a time specified in the execution program.

具体的には例えば本実施の形態では、ステップS48の処理の開始時点で、中央演算部51は、時刻情報提供リクエストを時間管理部52に対して発行する。すると、上述したように、時間管理部52は、この時刻情報提供リクエストを受けて(図9のステップS25YES)、時刻情報を中央演算部51に出力してくる(ステップS26)。そこで、中央演算部51は、その時刻情報を作業用データ記憶部63に記憶させ、その時刻情報で特定される時刻が、指定された時刻であるか否かを判定する。   Specifically, for example, in the present embodiment, the central processing unit 51 issues a time information provision request to the time management unit 52 at the start of the process of step S48. Then, as described above, the time management unit 52 receives this time information provision request (step S25 YES in FIG. 9), and outputs the time information to the central processing unit 51 (step S26). Therefore, the central processing unit 51 stores the time information in the work data storage unit 63, and determines whether or not the time specified by the time information is a specified time.

例えばここでは、実行プログラムに、指定された時刻になったときには時刻表示用の制御プログラムを変更させる指令等が含まれているとする。   For example, here, it is assumed that the execution program includes a command for changing the time display control program when the designated time comes.

この場合、実行プログラムで指定された時刻になると、ステップS48においてYESであると判定されて、処理はステップS49に進む。ステップS49において、主制御部61は、実行プログラムを終了させる。その後、処理はステップS45に戻されそれ以降の処理が繰り返し実行される。即ち、今度は別の制御プログラムが実行プログラムとして選択され、その別の制御プログラムに従って時刻表示のための処理が実行される。   In this case, when the time specified by the execution program is reached, it is determined as YES in Step S48, and the process proceeds to Step S49. In step S49, the main control unit 61 ends the execution program. Thereafter, the process returns to step S45, and the subsequent processes are repeatedly executed. That is, this time, another control program is selected as an execution program, and processing for displaying time is executed according to the other control program.

これに対して、実行プログラムで指定された時刻になっていない場合(そもそも実行プログラムで指定されている時刻が1つもない場合も含む)、ステップS48においてNOであると判定されて、処理はステップS50に進む。   On the other hand, if the time specified by the execution program is not reached (including the case where there is no time specified by the execution program in the first place), it is determined as NO in step S48, and the process is step Proceed to S50.

ステップS50において、主制御部51は、実行プログラムの終了条件(指定された時刻になるという条件を除く)を満たしたか否かを判定する。   In step S50, the main control unit 51 determines whether or not an end condition of the execution program (excluding a condition that a specified time is reached) is satisfied.

実行プログラムの終了条件がまだ満たされていない場合には、ステップS50においてNOであると判定されて、処理はステップS47に戻され、それ以降の処理が繰り返し実行される。即ち、実行プログラムの終了条件(指定された時刻になるという条件含む)を満たすようになるまでの間、その時点で実行プログラムとして選択されている制御プログラムの実行が継続される。   If the end condition of the execution program is not yet satisfied, it is determined as NO in Step S50, the process returns to Step S47, and the subsequent processes are repeatedly executed. That is, the execution of the control program selected as the execution program at that time is continued until the end condition of the execution program (including the condition that the designated time is reached) is satisfied.

そして、実行プログラムの終了条件(指定された時刻になるという条件を除く)が満たされると、ステップS50においてYESであると判定されて、処理はステップS51に進む。ステップS51において、主制御部61は、実行プログラムを終了させる。その後、処理はステップS41に戻され、それ以降の処理が繰り返し実行される。   If the end condition of the execution program (excluding the condition that the designated time is reached) is satisfied, it is determined as YES in Step S50, and the process proceeds to Step S51. In step S51, the main control unit 61 ends the execution program. Thereafter, the process returns to step S41, and the subsequent processes are repeatedly executed.

以上、時刻表示用の制御プログラムが実行プログラムとして選択される場合の例について説明した。この例の場合、上述したように、図7の表示データ生成部53が、時刻表示のために必要な処理を実行することになる。このような表示データ生成部53の処理例が図11に示されている。そこで、以下、図11のフローチャートを参照して、表示データ生成部53の処理例について説明する。   The example in which the control program for time display is selected as the execution program has been described above. In the case of this example, as described above, the display data generation unit 53 in FIG. 7 executes processing necessary for time display. An example of processing of the display data generation unit 53 is shown in FIG. Therefore, a processing example of the display data generation unit 53 will be described below with reference to the flowchart of FIG.

ステップS61において、表示データ生成部53は、電力供給部56からの電力供給が遮断されたか否かを判定する。   In step S <b> 61, the display data generation unit 53 determines whether the power supply from the power supply unit 56 is cut off.

ステップS61において、電力供給が遮断されたと判定された場合、表示データ生成部53の処理は終了となる。   If it is determined in step S61 that the power supply has been cut off, the processing of the display data generation unit 53 ends.

これに対して、電力供給部56からの電力供給が継続されている限り、ステップS61において、電力供給が遮断されていないと常に判定されて、処理はステップS62に進む。   On the other hand, as long as the power supply from the power supply unit 56 is continued, it is always determined in step S61 that the power supply is not interrupted, and the process proceeds to step S62.

ステップS62において、表示データ生成部53は、中央演算部51から指示(画像生成指令)があったか否かを判定する。   In step S62, the display data generation unit 53 determines whether or not there is an instruction (image generation command) from the central processing unit 51.

ステップS62において、中央演算部51から指示(画像生成指令)がないと判定された場合、処理はステップS61に戻され、それ以降の処理が繰り返し実行される。即ち、電力供給部56からの電力供給が継続されている限り、表示データ生成部53は、中央演算部51から指示(画像生成指令)がなされるまで、ステップS61NO,S62NOのループ処理を繰り返し実行することで、待機状態を維持する。   If it is determined in step S62 that there is no instruction (image generation command) from the central processing unit 51, the process returns to step S61, and the subsequent processes are repeatedly executed. That is, as long as the power supply from the power supply unit 56 is continued, the display data generation unit 53 repeatedly executes the loop processing of steps S61NO and S62NO until an instruction (image generation command) is issued from the central processing unit 51. By doing so, the standby state is maintained.

その後、中央演算部51が、表示データ生成部53の3Dグラフィックスエンジン部71(図7)に画像生成指令(指示)を出すと(上述した図10のステップS47の処理の一環)、次のステップS62の処理でYESであると判定されて、処理はステップS63に進む。   After that, when the central processing unit 51 issues an image generation command (instruction) to the 3D graphics engine unit 71 (FIG. 7) of the display data generation unit 53 (part of the process of step S47 of FIG. 10 described above), If it is determined as YES in the process of step S62, the process proceeds to step S63.

ステップS63において、3Dグラフィックスエンジン部71は、この画像生成指令に基づいて、グラフィックデータ(グラフィック画像)を随時生成する。   In step S63, the 3D graphics engine unit 71 generates graphic data (graphic image) as needed based on this image generation command.

なお、表示データ生成部53は、このステップS63の処理の際、中央演算部51の作業用データ記憶部63に随時アクセスし、グラフィックデータの生成に必要な暫定データ(モデルのデータ等)、その処理のための演算の結果などを一時的に格納しながら、グラフィックデータの生成処理を行う。   The display data generation unit 53 accesses the work data storage unit 63 of the central processing unit 51 as needed during the process of step S63, and provisional data (model data, etc.) necessary for generating graphic data, The graphic data generation process is performed while temporarily storing the calculation results for the process.

ステップS64において、3Dグラフィックスエンジン部71は、ステップS63の処理で生成したグラフィックデータを、LCDコントロール部72を経由して、表示部54(図5)へ転送する。   In step S64, the 3D graphics engine unit 71 transfers the graphic data generated in the process of step S63 to the display unit 54 (FIG. 5) via the LCD control unit 72.

これにより、そのグラフィックデータに対応するグラフィック画像、例えば上述した図3に示されるような時刻表示用の3DCG画像が、表示部54に表示される。   As a result, a graphic image corresponding to the graphic data, for example, a 3DCG image for time display as shown in FIG. 3 described above, is displayed on the display unit 54.

また、図4で説明したモーフィングを用いることで、時刻の変化タイミング時には、時刻の数字が徐々に変形していくような3DCG画像(動画像)を表示部54に表示させることも容易に可能になる。即ち、図5の機能的構成を有する腕時計1は、時刻表示等に使用する画像とそれぞれの画像の遷移を制御する制御プログラムを1以上予め用意しておき、実際のグラフィック画像(グラフィックデータ)生成をリアルタイムに行うことで、少ないデータ量と処理の負荷でモーフィングを実現し、より表現力の高い時刻表示を行うことが可能になる。   In addition, by using the morphing described with reference to FIG. 4, it is possible to easily display a 3DCG image (moving image) on the display unit 54 in which the time figure is gradually deformed at the time of time change timing. Become. That is, the wristwatch 1 having the functional configuration of FIG. 5 prepares at least one image used for time display and the like and one or more control programs for controlling the transition of each image to generate an actual graphic image (graphic data). By performing in real time, it is possible to realize morphing with a small amount of data and processing load, and to display time with higher expressive power.

その後、処理はステップS61に戻され、それ以降の処理が繰り返し実行される。   Thereafter, the process returns to step S61, and the subsequent processes are repeatedly executed.

以上、図5の機能的構成を有する腕時計1について説明した。   The wristwatch 1 having the functional configuration of FIG. 5 has been described above.

ただし、本発明が適用される腕時計1の機能的構成は、上述した図5の例に限定されず、様々な実施の形態を取ることが可能である。具体的には例えば、図12は、本発明が適用される腕時計1の機能的構成の図5とは異なる例を示している。なお、図12の機能的構成例の腕時計1において、図5の機能的構成例と対応する部分には同一の符号を付してあり、その説明は適宜省略する。   However, the functional configuration of the wristwatch 1 to which the present invention is applied is not limited to the example of FIG. 5 described above, and various embodiments can be taken. Specifically, for example, FIG. 12 shows an example different from FIG. 5 of the functional configuration of the wristwatch 1 to which the present invention is applied. In the wristwatch 1 having the functional configuration example shown in FIG. 12, the same reference numerals are given to the portions corresponding to those in the functional configuration example shown in FIG.

図12の例では、腕時計1には、図5の例と同様の中央演算部51乃至電源部56に加えてさらに、オーディオ生成部101およびオーディオ出力部102が設けられている。即ち、図12の機能的構成を有する腕時計1では、画像表示に加えてさらに、オーディオ出力が可能とされている。   In the example of FIG. 12, the wristwatch 1 is further provided with an audio generation unit 101 and an audio output unit 102 in addition to the central processing unit 51 through the power supply unit 56 similar to those in the example of FIG. That is, in the wristwatch 1 having the functional configuration of FIG. 12, in addition to image display, audio output is further possible.

ただし、本実施の形態では、オーディオ出力を可能とするために、中央演算部51のプログラム格納部62(図6)に、オーディオデータの生成の入力となる(元となる)各種のMIDI(Musical Instruments Digital Interface)データが格納され、かつ、各種MIDIデータを解析して、その解析結果に基づくオーディオデータの生成指令(以下、オーディオ生成指令と称する)をオーディオ生成部101に発行するための制御プログラムが格納されている。この制御プログラムは、MIDIデータを解析してオーディオ生成部101にオーディオ生成指令を出すための機能を少なくとも有していれば足り、MIDIシーケンサと呼ばれるタイプのプログラムであっても良いし、3DCG表示とオーディオ出力とを同時に制御できる(例えば同期再生制御ができる)専用プログラムであっても良い。なお、以下、他の制御プログラムと区別するために、各種MIDIデータを解析してオーディオ生成部101にオーディオ生成指令を出すための制御プログラムを、オーディオ出力用プログラムと称する。   However, in the present embodiment, in order to enable audio output, various MIDI (Musical) (input) audio data generation input (original) is input to the program storage unit 62 (FIG. 6) of the central processing unit 51. Instruments Digital Interface) control program for storing data, analyzing various MIDI data, and issuing audio data generation commands (hereinafter referred to as audio generation commands) to the audio generation unit 101 based on the analysis results Is stored. This control program is sufficient if it has at least a function for analyzing MIDI data and issuing an audio generation command to the audio generation unit 101, and may be a type of program called a MIDI sequencer. A dedicated program that can control audio output simultaneously (for example, synchronous playback control) may be used. Hereinafter, in order to distinguish from other control programs, a control program for analyzing various MIDI data and issuing an audio generation command to the audio generation unit 101 is referred to as an audio output program.

詳細には、オーディオ生成部101は、図13に示されるようにサウンドエンジン部111とDA変換部112とから構成することができる。即ち、図13は、オーディオ生成部101の詳細な構成例を示している。   Specifically, the audio generation unit 101 can be configured by a sound engine unit 111 and a DA conversion unit 112 as shown in FIG. That is, FIG. 13 shows a detailed configuration example of the audio generation unit 101.

サウンドエンジン部111は、中央演算部51からのオーディオ生成指令(指示)に従って、オーディオ出力部102から出力させる音に対応するオーディオデータ(デジタルデータ)を生成し、DA変換部112に提供する。DA変換部112は、そのオーディオデータに対してDA(Digital to Analog)変換処理を施し、その結果得られるアナログのオーディオデータ(オーディオ信号)を、オーディオ出力部102に転送する。   The sound engine unit 111 generates audio data (digital data) corresponding to the sound output from the audio output unit 102 in accordance with the audio generation command (instruction) from the central processing unit 51 and provides the audio data (digital data) to the DA conversion unit 112. The DA conversion unit 112 performs DA (Digital to Analog) conversion processing on the audio data, and transfers the resulting analog audio data (audio signal) to the audio output unit 102.

より詳細には、後述するように、中央演算部51の主制御部61は、所定のMIDIデータを読み込んで解析して、その解析結果に基づいて制御情報を生成して、その制御情報をオーディオ生成指令としてサウンドエンジン部111に出力する。   More specifically, as will be described later, the main control unit 61 of the central processing unit 51 reads and analyzes predetermined MIDI data, generates control information based on the analysis result, and transmits the control information to the audio. It outputs to the sound engine unit 111 as a generation command.

サウンドエンジン部111は、例えば複数音を同時発話可能なシンセサイザとして構成されている場合には、発話用の波形データを複数個保持しており、中央演算部51からのオーディオ生成指令(制御情報)に基づき、複数の波形データの中から1以上を選択し、それらを組み合わせることにより、オーディオデータを生成する。   For example, when the sound engine unit 111 is configured as a synthesizer capable of simultaneously speaking a plurality of sounds, the sound engine unit 111 holds a plurality of waveform data for utterances, and generates an audio generation command (control information) from the central processing unit 51. Based on the above, audio data is generated by selecting one or more of the plurality of waveform data and combining them.

また、サウンドエンジン部111は、自身内部に予め格納されている発話用の波形データではなく、別の波形データを用いて、オーディオデータを生成することもできる。   The sound engine unit 111 can also generate audio data using other waveform data instead of the speech waveform data stored in advance in the sound engine unit 111.

具体的には例えば本実施の形態では、オーディオ出力用プログラムには複数の波形データが含まれており、そのオーディオ出力用プログラム(中央演算部51)が、複数の波形データのうちのいずれを使用するかを指定して、その指定内容を制御情報としてサウンドエンジン部111に出力するとする。   Specifically, for example, in the present embodiment, the audio output program includes a plurality of waveform data, and the audio output program (central processing unit 51) uses any of the plurality of waveform data. It is assumed that the specified content is output to the sound engine unit 111 as control information.

なお、サウンドエンジン部111は、オーディオデータを生成する際、中央演算部51の作業用データ記憶部63(図6)にアクセスし、オーディオデータの生成に必要な暫定データ、処理のための演算の結果などを一時的に格納し、その処理を実行する。   When the sound engine unit 111 generates audio data, the sound engine unit 111 accesses the work data storage unit 63 (FIG. 6) of the central processing unit 51 to perform provisional data necessary for generating the audio data and processing for processing. The result is temporarily stored and the process is executed.

図12に戻り、オーディオ出力部102は、スピーカやヘッドフォンからなり、オーディオ生成部101により生成されたオーディオデータに対応する音を出力する。   Returning to FIG. 12, the audio output unit 102 includes a speaker and headphones, and outputs sound corresponding to the audio data generated by the audio generation unit 101.

その他、図12の機能的構成例では、図5の機能的構成例と比較して、次のような差異がある。   In addition, the functional configuration example of FIG. 12 has the following differences compared to the functional configuration example of FIG.

即ち、電力供給部56は、中央演算部51乃至表示部54に加えてさらに、オーディオ生成部101とオーディオ出力部102とのそれぞれにも電源(電力)を供給する。   That is, the power supply unit 56 supplies power (power) to each of the audio generation unit 101 and the audio output unit 102 in addition to the central processing unit 51 to the display unit 54.

また、図12の機能的構成を有する腕時計1のハードウエア構成は、図示はしないが、図2のハードウエア構成例に対してさらに、オーディオ生成部101およびオーディオ出力部102のそれぞれに対応するハードウエアブロック(モジュール)が設けられることになる。   The hardware configuration of the wristwatch 1 having the functional configuration of FIG. 12 is not shown, but further corresponds to each of the audio generation unit 101 and the audio output unit 102 with respect to the hardware configuration example of FIG. Wear blocks (modules) are provided.

次に、係る図12と図13の機能的構成を有する腕時計1の動作の幾つかの例、即ち、腕時計1を構成する各機能ブロックの処理の例について説明する。   Next, some examples of the operation of the wristwatch 1 having the functional configuration of FIGS. 12 and 13, that is, examples of processing of each functional block constituting the wristwatch 1 will be described.

図12と図13の例でも、中央演算部51、時間管理部52、表示データ生成部53、および電力供給部56のそれぞれの処理は、基本的に、上述した図10、図9、図11、および、図8のそれぞれのフローチャートに従った処理となる。また、オーディオ生成部101の処理は、図14のフローチャートに従った処理となる。即ち、図14は、オーディオ生成部101の処理例を説明するフローチャートである。   12 and 13, the processes of the central processing unit 51, the time management unit 52, the display data generation unit 53, and the power supply unit 56 are basically the same as those described above with reference to FIGS. 10, 9, and 11. And processing according to the flowcharts of FIGS. The processing of the audio generation unit 101 is processing according to the flowchart of FIG. That is, FIG. 14 is a flowchart for explaining a processing example of the audio generation unit 101.

ステップS81において、オーディオ生成部101は、電力供給部56からの電力供給が遮断されたか否かを判定する。   In step S <b> 81, the audio generation unit 101 determines whether the power supply from the power supply unit 56 is cut off.

ステップS81において、電力供給が遮断されたと判定された場合、オーディオ生成部101の処理は終了となる。   If it is determined in step S81 that the power supply has been cut off, the processing of the audio generation unit 101 ends.

これに対して、電力供給部56からの電力供給が継続されている限り、ステップS81において、電力供給が遮断されていないと常に判定されて、処理はステップS82に進む。   On the other hand, as long as the power supply from the power supply unit 56 is continued, it is always determined in step S81 that the power supply is not interrupted, and the process proceeds to step S82.

ステップS82において、オーディオ生成部101は、中央演算部51から指示(オーディオ生成指令)があったか否かを判定する。   In step S <b> 82, the audio generation unit 101 determines whether or not there is an instruction (audio generation command) from the central processing unit 51.

ステップS82において、中央演算部51から指示(オーディオ生成指令)がないと判定された場合、処理はステップS81に戻され、それ以降の処理が繰り返し実行される。即ち、電力供給部56からの電力供給が継続されている限り、オーディオ生成部101は、中央演算部51から指示(オーディオ生成指令)がなされるまで、ステップS81NO,S82NOのループ処理を繰り返し実行することで、待機状態を維持する。   If it is determined in step S82 that there is no instruction (audio generation command) from the central processing unit 51, the process returns to step S81, and the subsequent processes are repeatedly executed. That is, as long as the power supply from the power supply unit 56 is continued, the audio generation unit 101 repeatedly executes the loop processing of steps S81NO and S82NO until an instruction (audio generation command) is issued from the central processing unit 51. In this way, the standby state is maintained.

その後、中央演算部51に対して、ユーザ入力部55からの指令、または、時間管理部52からの指令がなされると、その結果、中央演算部51から指示(オーディオ生成指令)がオーディオ生成部101になされることになり、次のステップS82の処理でYESであると判定されて、処理はステップS83に進む。   Thereafter, when a command from the user input unit 55 or a command from the time management unit 52 is given to the central processing unit 51, an instruction (audio generation command) is sent from the central processing unit 51 as a result. 101, it is determined as YES in the process of the next step S82, and the process proceeds to step S83.

即ち、ユーザ入力部55からの指令とは、ユーザがユーザ入力部55を利用して、明示的にオーディオ再生用の操作を行ったことにより発令される指令を言う。このユーザ入力部55からの指令がなされると、上述した図10のステップS42の処理でYESであると判定されて、ステップS44の処理の後、処理はステップS45に進む。   That is, the command from the user input unit 55 is a command issued when the user explicitly performs an operation for audio reproduction using the user input unit 55. When the command from the user input unit 55 is given, it is determined as YES in the process of step S42 of FIG. 10 described above, and after the process of step S44, the process proceeds to step S45.

これに対して、時間管理部52からの指令とは、例えば、時報のように、決まった時刻(例えば毎時0分)にオーディオ再生指令を発令するような制御情報が時間管理部52に記憶されており、その制御情報が中央演算部51に提供されたことにより発令される指令を言う。その他、アラームのように、ユーザがユーザ入力部55を操作することで、特定の時間にオーディオ再生指令を発令するような設定を時間管理部52に施すことによって発令されるものも、時間管理部52からの指令となり得る。この時間管理部52からの指令がなされると、上述した図10のステップS43の処理でYESであると判定されて、処理はステップS45に進む。   On the other hand, the command from the time management unit 52 is stored in the time management unit 52 as control information for issuing an audio playback command at a fixed time (for example, 0 minutes per hour), for example, as a time signal. And a command issued when the control information is provided to the central processing unit 51. Others such as alarms that are issued when the user operates the user input unit 55 so that the time management unit 52 is set to issue an audio playback command at a specific time are also provided. It can be a command from 52. When a command is issued from the time management unit 52, it is determined as YES in the process of step S43 of FIG. 10 described above, and the process proceeds to step S45.

すると、中央演算部51は、ステップS45の処理でオーディオ出力用プログラムを実行プログラムとして選択して、ステップS46の処理の後、ステップS47の処理の一環として、オーディオ生成部101のサウンドエンジン部111(図13)にオーディオデータの生成の指示(制御情報の出力含む)の出力、即ち、オーディオ生成指令の発令を行う。   Then, the central processing unit 51 selects the audio output program as an execution program in the process of step S45, and after the process of step S46, as part of the process of step S47, the sound engine unit 111 ( In FIG. 13, an audio data generation instruction (including output of control information) is output, that is, an audio generation instruction is issued.

より具体的には例えば、ステップS47において、中央演算部51は、所定のMIDIデータをプログラム格納部62から読み込む。その際、読み込まれるMIDIデータは、オーディオ出力用プログラムによって定められている場合と、ユーザの指定により決定される場合とがある。ユーザの指定により決定される場合、ユーザはユーザ入力部55(図12)を操作することで、使用するMIDIデータを指定する。いずれの場合でも、決定されたMIDIデータは、プログラム格納部62から作業用データ記憶部63に転送される。これにより、オーディオ出力用プログラム上でMIDIデータの使用が可能になる。   More specifically, for example, in step S47, the central processing unit 51 reads predetermined MIDI data from the program storage unit 62. At that time, the read MIDI data may be determined by an audio output program or may be determined by a user's specification. When determined by the user's designation, the user designates the MIDI data to be used by operating the user input unit 55 (FIG. 12). In any case, the determined MIDI data is transferred from the program storage unit 62 to the work data storage unit 63. As a result, the MIDI data can be used in the audio output program.

このMIDIデータは、メッセージの種類を表すステイタスバイトと、実データを伝えるデータバイトとから構成されている。従って、MIDIデータを解析することで、音階情報、何の楽器が使われているか、どれくらいの強さで再生すればよいかなどの情報を得ることができる。そこで、主制御部51は、所定のMIDIデータを読み込み、それを解析して、その解析結果に基づいて制御情報を生成し、その制御情報をサウンドエンジン部111に提供することで、オーディオデータの生成の指示の出力、即ち、オーディオ生成指令の発令を行うことができる。   This MIDI data is composed of a status byte indicating the type of message and a data byte for transmitting actual data. Therefore, by analyzing the MIDI data, it is possible to obtain information such as scale information, what instrument is being used, and how strong it should be played. Therefore, the main control unit 51 reads predetermined MIDI data, analyzes it, generates control information based on the analysis result, and provides the control information to the sound engine unit 111, thereby providing audio data. The generation instruction can be output, that is, the audio generation instruction can be issued.

これにより、オーディオ生成部101側の処理(図14)としては、次のステップS82の処理でYESであると判定されて、処理はステップS83に進むことになる。   Thereby, as a process (FIG. 14) by the side of the audio production | generation part 101, it determines with it being YES by the process of the following step S82, and a process progresses to step S83.

ステップS83において、サウンドエンジン部111は、オーディオ生成指令に基づいて、デジタルのオーディオデータを随時生成し、DA変換部112に提供する。   In step S83, the sound engine unit 111 generates digital audio data as needed based on the audio generation command, and provides the digital audio data to the DA conversion unit 112.

すると、DA変換部112は、ステップS84において、そのオーディオデータに対してDA変換処理を施し、ステップS85において、そのDA変換処理の結果得られるアナログのオーディオデータ(オーディオ信号)をオーディオ出力部102に転送する。   Then, in step S84, the DA conversion unit 112 performs DA conversion processing on the audio data, and in step S85, analog audio data (audio signal) obtained as a result of the DA conversion processing is sent to the audio output unit 102. Forward.

これにより、そのオーディオデータに対応する音が、オーディオ出力部102から出力される。   As a result, a sound corresponding to the audio data is output from the audio output unit 102.

その後、処理はステップS81に戻され、それ以降の処理が繰り返し実行される。   Thereafter, the process returns to step S81, and the subsequent processes are repeatedly executed.

このように、図12の機能的構成例を有する腕時計1は、オーディオ生成部101の処理等で説明した一連の処理を実行することにより、MIDIシンセサイザを実現することが可能になる。ここで言うMIDIシンセサイザとは、MIDIデータの再生のほか、腕時計1のアラーム機能等に使用することができるものである。   In this way, the wristwatch 1 having the functional configuration example of FIG. 12 can realize a MIDI synthesizer by executing a series of processing described in the processing of the audio generation unit 101 and the like. The MIDI synthesizer mentioned here can be used for the alarm function of the wristwatch 1 in addition to the reproduction of MIDI data.

さらに、図12の機能的構成例を有する腕時計1は、図13のオーディオ生成部101のサウンドエンジン部111を用いず、DA変換部112のみを用いることで、MIDIデータから生成されるオーディオデータのみならず、あらかじめ外部で生成/準備されたオーディオデータ(例えば、waveファイル)を再生することも可能である。   Furthermore, the wristwatch 1 having the functional configuration example of FIG. 12 uses only the DA conversion unit 112 without using the sound engine unit 111 of the audio generation unit 101 of FIG. 13, so that only audio data generated from MIDI data is used. In addition, audio data (for example, a wave file) generated / prepared externally in advance can be reproduced.

また、図12の機能的構成例を有する腕時計1は、MP3やATRAC3などの圧縮オーディオデータも、中央演算部51のオーディオ出力用プログラムとして、圧縮データのデコード機能を用意して、その機能により圧縮状態をデコードすることで、通常のオーディオデータと同様に扱うことができるようになり、オーディオ出力部102から出力することが可能となる。   In addition, the wristwatch 1 having the functional configuration example of FIG. 12 prepares a decoding function of compressed data as an audio output program of the central processing unit 51 and compresses compressed audio data such as MP3 and ATRAC3 by the function. By decoding the state, it can be handled in the same way as normal audio data, and can be output from the audio output unit 102.

さらにまた、図12には図示はしないが、ブザーのようにオーディオ出力部102そのものを振動させることで生成するような音の場合は、オーディオ生成部101の機能を全く使用せず、中央演算部51からの指令を(オーディオ生成部101を通過させて)直接オーディオ出力部102に送り、音を生成させ出力することもできる。   Furthermore, although not shown in FIG. 12, in the case of a sound generated by vibrating the audio output unit 102 itself like a buzzer, the function of the audio generation unit 101 is not used at all, and the central processing unit is not used. It is also possible to send a command from 51 directly to the audio output unit 102 (through the audio generation unit 101) to generate and output a sound.

ところで、腕時計1は、図12の機能的構成例を有することで、即ち、表示データ生成部53とオーディオ生成部101とをあわせ持つことにより、グラフィック出力(3DCG画像等の表示)とオーディオ出力とを連動させること、即ち、グラフィックとオーディオの同期出力が可能になる。   By the way, the wristwatch 1 has the functional configuration example of FIG. 12, that is, the display data generation unit 53 and the audio generation unit 101 are combined, so that the graphic output (display of 3DCG image or the like) and the audio output are performed. Can be linked, that is, synchronous output of graphics and audio becomes possible.

ただし、この場合、グラフィックとオーディオの同期出力を行うための制御プログラム(以下、画像音同期プログラムと称する)が、中央演算部51のプログラム格納部62(図6)に格納されている必要がある。   However, in this case, a control program (hereinafter referred to as an image sound synchronization program) for performing synchronous output of graphics and audio needs to be stored in the program storage unit 62 (FIG. 6) of the central processing unit 51. .

図15は、この画像音同期プログラムにより実現される中央演算部51の処理(以下、グラフィックとオーディオの同期処理と称する)の一例を示すフローチャートである。即ち、この画像音同期プログラムが、上述した図10のステップ45の処理で実行プログラムとして選択されて、ステップS46の処理で転送されると、ステップS47の処理として、この図15のグラフィックとオーディオの同期処理が実行されることになる。   FIG. 15 is a flowchart showing an example of processing of the central processing unit 51 (hereinafter referred to as graphic and audio synchronization processing) realized by the image sound synchronization program. That is, when this image / sound synchronization program is selected as an execution program in the process of step 45 of FIG. 10 and transferred in the process of step S46, the graphic and audio of FIG. Synchronous processing will be executed.

ステップS101において、中央演算部51は、初期化を行う。   In step S101, the central processing unit 51 performs initialization.

ステップS102において、中央演算部51は、MIDIデータを解析する。即ち、上述した通り、中央演算部51は、ステップS102において、MIDIデータを解析することで、音階情報、何の楽器が使われているか、どれくらいの強さで再生すればよいかなどの各種情報を得ることができる。   In step S102, the central processing unit 51 analyzes the MIDI data. That is, as described above, the central processing unit 51 analyzes various kinds of information such as musical scale information, what musical instrument is used, and how strong it is to reproduce by analyzing the MIDI data in step S102. Can be obtained.

そこで、これらの各種情報を、表示データ生成部53が生成するグラフィックデータにも反映させることで、グラフィックとオーディオの同期出力が容易に可能になる。即ち、ステップS103において、中央演算部51は、ステップS102におけるMIDIデータの解析結果に基づいて、画像生成指令とオーディオ生成指令とのそれぞれを生成し、それぞれの指令を表示データ生成部53とオーディオ生成部101とのそれぞれに発行する。   Therefore, by reflecting these various types of information on the graphic data generated by the display data generation unit 53, it is possible to easily output the graphic and the audio synchronously. That is, in step S103, the central processing unit 51 generates an image generation command and an audio generation command based on the analysis result of the MIDI data in step S102, and outputs the commands to the display data generation unit 53 and the audio generation. Issued to each of the sections 101.

すると、表示データ生成部53は、上述した図11のステップS63,S64の処理を実行することで、グラフィック画像(3DCG画像等)を表示部54に表示させる。それとほぼ同時に、オーディオ生成部101は、上述した図14のステップS83乃至S85の処理を実行することで、グラフィック画像に対応する音をオーディオ出力部102から出力させる。このようにして、グラフィックとオーディオの同期出力が実現される。   Then, the display data generation unit 53 displays the graphic image (3DCG image or the like) on the display unit 54 by executing the above-described processing of steps S63 and S64 of FIG. At substantially the same time, the audio generation unit 101 outputs the sound corresponding to the graphic image from the audio output unit 102 by executing the processing of steps S83 to S85 of FIG. In this way, synchronous output of graphics and audio is realized.

なお、中央演算部51によるステップS103の処理、および、その処理に関連する表示データ生成部53とオーディオ生成部101との処理は、より正確には例えば次のような一連の処理となる。即ち、中央演算部51は、MIDIデータを短い単位で解析し、表示データ生成部53とオーディオ生成部101とのそれぞれに生成指令を出す。次に、中央演算部51は、表示データ生成部53とオーディオ生成部101との両方から生成完了の通知が来たところで、表示データ生成部53とオーディオ生成部101とのそれぞれにデータ出力指令を出す。すると、表示データ生成部53とオーディオ生成部101とのそれぞれは、このデータ出力指令を受けて、表示部54とオーディオ出力部102とのそれぞれに対応するデータを出力する。その結果、表示データ生成部53の出力データに対応するグラフィック画像(3DCG画像等)が表示部54に表示され、かつ、オーディオデータ生成部101の出力データに対応する音がオーディオ出力部102から出力される。以上の一連の処理が非常に短い単位毎に実行されるため、グラフィックとオーディオの同期が実現されるのである。   Note that the processing of step S103 by the central processing unit 51 and the processing of the display data generation unit 53 and the audio generation unit 101 related to the processing are more precisely the following series of processes, for example. That is, the central processing unit 51 analyzes the MIDI data in short units and issues a generation command to each of the display data generation unit 53 and the audio generation unit 101. Next, the central processing unit 51 issues a data output command to each of the display data generation unit 53 and the audio generation unit 101 when notification of generation completion is received from both the display data generation unit 53 and the audio generation unit 101. put out. Then, each of the display data generation unit 53 and the audio generation unit 101 receives this data output command and outputs data corresponding to each of the display unit 54 and the audio output unit 102. As a result, a graphic image (3DCG image or the like) corresponding to the output data of the display data generation unit 53 is displayed on the display unit 54, and sound corresponding to the output data of the audio data generation unit 101 is output from the audio output unit 102. Is done. Since the series of processes described above are executed for each very short unit, synchronization between the graphic and the audio is realized.

ステップS104において、中央演算部51は、MIDIデータの解析が終了したか否かを判定する。   In step S104, the central processing unit 51 determines whether or not the analysis of the MIDI data is finished.

MIDIデータの解析がまだ終了していない場合には、ステップS104においてNOであると判定されて、処理はステップS102に戻され、それ以降の処理が繰り返し実行される。   If the analysis of the MIDI data has not been completed yet, it is determined NO in step S104, the process returns to step S102, and the subsequent processes are repeatedly executed.

そして、MIDIデータの解析が終了すると、ステップS104においてYESであると判定されて、グラフィックとオーディオの同期処理は終了となる。   When the analysis of the MIDI data ends, it is determined as YES in step S104, and the graphic and audio synchronization processing ends.

以上説明したように、ステップS102の解析結果、即ち、音階情報、何の楽器が使われているか、どれくらいの強さで再生すればよいかなどの情報を、表示データ生成部53が生成するグラフィックデータに反映させることで、グラフィックとオーディオの同期出力が容易に可能になる。   As described above, the graphic data generated by the display data generation unit 53 includes the analysis result of step S102, that is, the scale information, information about what musical instrument is used, and how much strength it should be played back. By reflecting the data, it is possible to easily output graphics and audio synchronously.

このときの反映のさせ方は、画像音同期プログラムとして、どのような制御プログラムを中央演算部51のプログラム格納部62(図6)に格納させておくのかによって、如何様にでもなる。以下、2つの異なる反映のさせ方を行う画像音同期プログラムの2つの例についてそれぞれ説明する。   The way of reflection at this time depends on what kind of control program is stored in the program storage unit 62 (FIG. 6) of the central processing unit 51 as the image sound synchronization program. Hereinafter, two examples of the image / sound synchronization program for performing two different reflection methods will be described.

1つ目の例は、ピアノのグラフィック画像と、そのピアノの鍵盤の音とを同期出力するための画像音同期プログラムの例である。   The first example is an example of an image sound synchronization program for synchronously outputting a piano graphic image and the sound of the piano keyboard.

1つ目の例では、例えば、ピアノのグラフィックデータを用意し、音程とCGピアノの鍵盤とを連動させるとする。具体的には例えば、ピアノの鍵盤のそれぞれの鍵に対し、押されている状態と押されていない状態のグラフィックデータがそれぞれ予め用意されているとする。   In the first example, for example, it is assumed that piano graphic data is prepared and a pitch and a CG piano keyboard are linked. Specifically, for example, it is assumed that graphic data of a pressed state and a non-pressed state are prepared in advance for each key of a piano keyboard.

この場合、ステップS102の処理で、画像音同期プログラム(中央演算部51)は、MIDIデータのうちの、とある長さの分のデータだけを解析することで、各時点でそれぞれの音がONであるのかOFFであるのかを示す情報(以下、ピアノの鍵盤情報と称する)を得る。   In this case, in the process of step S102, the image sound synchronization program (central processing unit 51) analyzes only the data for a certain length of the MIDI data, so that each sound is turned on at each time point. Or information indicating whether it is OFF (hereinafter referred to as piano keyboard information).

次に、ステップS103の処理で、画像音同期プログラムは、MIDIデータの音階に関する情報と使用する楽器(音色)の指定とをオーディオ生成指令として、サウンドエンジン部111(図13)に送り、また、ピアノの鍵盤情報を画像生成指令として、3Dグラフィックスエンジン部71(図7)に送る。   Next, in the process of step S103, the image / sound synchronization program sends the information about the scale of the MIDI data and the designation of the musical instrument (tone) to be used to the sound engine unit 111 (FIG. 13) as an audio generation command. The piano keyboard information is sent as an image generation command to the 3D graphics engine unit 71 (FIG. 7).

サウンドエンジン部111は、オーディオ生成指令に基づいて、オーディオデータを生成し、DA変換部112(図13)を介して、オーディオ出力部102(図12)に出力する。すると、オーディオ出力部102は、そのオーディオデータに対応する音、即ち、ピアノの鍵盤の音を出力する。   The sound engine unit 111 generates audio data based on the audio generation command and outputs the audio data to the audio output unit 102 (FIG. 12) via the DA conversion unit 112 (FIG. 13). Then, the audio output unit 102 outputs a sound corresponding to the audio data, that is, a piano keyboard sound.

このときほぼ同時に、3Dグラフィックスエンジン部71は、画像生成指令に基づいて、グラフィックデータを生成し、LCDコントロール部72(図7)を介して表示部54(図12)に出力する。すると、表示部54は、グラフィックデータに対応するグラフィック画像、即ち、ピアノの鍵盤のそれぞれの鍵が、出力されている音に応じて押されている状態または押されていない状態となっているグラフィック画像を表示する。   At substantially the same time, the 3D graphics engine unit 71 generates graphic data based on the image generation command, and outputs it to the display unit 54 (FIG. 12) via the LCD control unit 72 (FIG. 7). Then, the display unit 54 displays a graphic image corresponding to the graphic data, that is, a graphic in which each key of the piano keyboard is pressed or not pressed according to the output sound. Display an image.

以上の一連の処理が、MIDIデータの最後まで、また、プログラムの終了条件を満たすまで繰り返し実行される。   The above series of processing is repeatedly executed until the end of the MIDI data and until the end condition of the program is satisfied.

これにより、自動演奏ピアノのように、曲と連動して鍵盤を動かすグラフィック画像を表示することが可能になる。また、MIDIデータから曲の始まりと終わりのタイミングを取得し、曲が始まる前に鍵盤のふたを開けたり、曲が終わった後に鍵盤のふたを閉じたりするような表示も可能である。   This makes it possible to display a graphic image that moves the keyboard in conjunction with the music like an automatic performance piano. It is also possible to obtain the timing of the beginning and end of the song from the MIDI data, and display the keyboard lid before the song starts, or close the keyboard lid after the song ends.

このような1つ目の例に対して、2つ目の例は、音の強さとグラフィック画像を同期させることが可能な画像音同期プログラムの例である。   In contrast to the first example, the second example is an example of an image / sound synchronization program that can synchronize sound intensity with a graphic image.

2つ目の例では、楽隊キャラクタを用意し、MIDIデータと連動してキャラクタの動きを制御するとする。具体的には例えば、使用する楽隊キャラクタのグラフィックデータが予め用意されているとする。また、画像音同期プログラム内で、キャラクタとトラック(どの楽器か)の対応付けがなされているとする。また、MIDIデータの各トラックのステイタスバイトには、楽器に対応してそれぞれの音の強さの情報が書かれているとする。   In the second example, a band character is prepared and the movement of the character is controlled in conjunction with the MIDI data. Specifically, for example, it is assumed that graphic data of a band character to be used is prepared in advance. Further, it is assumed that the character and the track (which instrument) are associated in the image / sound synchronization program. In addition, it is assumed that information on the intensity of each sound is written in the status byte of each track of the MIDI data corresponding to the musical instrument.

この場合、ステップS102の処理で、画像音同期プログラム(中央演算部51)は、MIDIデータを解析することで、各時点での音の強さの情報(以下、音強情報と称する)を得る。   In this case, in the process of step S102, the image sound synchronization program (central processing unit 51) obtains sound intensity information at each time point (hereinafter referred to as sound intensity information) by analyzing the MIDI data. .

次に、ステップS103の処理で、画像音同期プログラムは、オーディオ生成指令をサウンドエンジン部111(図13)に送り、また、音強情報を画像生成指令として3Dグラフィックスエンジン部71(図7)に送る。   Next, in the process of step S103, the image sound synchronization program sends an audio generation command to the sound engine unit 111 (FIG. 13), and uses the sound intensity information as an image generation command to generate the 3D graphics engine unit 71 (FIG. 7). Send to.

サウンドエンジン部111は、オーディオ生成指令に基づいてオーディオデータを生成し、DA変換部112(図13)を介してオーディオ出力部102(図12)に出力する。すると、オーディオ出力部102は、そのオーディオデータに対応する音、即ち、楽隊キャラクタが演奏している音楽を出力する。   The sound engine unit 111 generates audio data based on the audio generation command and outputs the audio data to the audio output unit 102 (FIG. 12) via the DA conversion unit 112 (FIG. 13). Then, the audio output unit 102 outputs a sound corresponding to the audio data, that is, music played by the band character.

このときほぼ同時に、3Dグラフィックスエンジン部71は、画像生成指令に基づいてグラフィックデータを生成し、LCDコントロール部72(図7)を介して表示部54(図12)に出力する。すると、表示部54は、グラフィックデータに対応するグラフィック画像、即ち、音の強さに応じた動作をしている楽隊キャラクタのグラフィック画像を表示する。   At substantially the same time, the 3D graphics engine unit 71 generates graphic data based on the image generation command, and outputs it to the display unit 54 (FIG. 12) via the LCD control unit 72 (FIG. 7). Then, the display unit 54 displays a graphic image corresponding to the graphic data, that is, a graphic image of the band character performing the operation according to the sound intensity.

以上の一連の処理が、MIDIデータの最後まで、また、プログラムの終了条件を満たすまで繰り返し実行される。   The above series of processing is repeatedly executed until the end of the MIDI data and until the end condition of the program is satisfied.

これにより、あたかも楽隊キャラクタが音楽を演奏しているかの様に、MIDIデータ(楽隊キャラクタが演奏している音楽)と同期した楽隊キャラクタのアクションを伴うグラフィック画像、具体的には例えば、体や楽器をふったり、体を回転させたり、マイクを掴んだりなどのアクションを伴うグラフィック画像の表示が可能になる。   As a result, as if the band character is playing music, a graphic image accompanied by the action of the band character synchronized with the MIDI data (music played by the band character), specifically, for example, a body or instrument It is possible to display graphic images with actions such as touching the screen, rotating the body, and holding the microphone.

このようにして、グラフィック出力(3DCG画像の表示)とオーディオ出力とを連動させる(同期させる)ことにより、より一段とエンタテインメント性の高いMIDIプレーヤを実現したり、音と連動してグラフィック画像が動くアラーム機能を実現したりすることが容易に可能になる。   In this way, the graphic output (3DCG image display) and the audio output are linked (synchronized) to realize a more highly entertaining MIDI player, or an alarm that moves the graphic image in conjunction with sound. It is possible to easily realize functions.

ところで、上述した図12の機能的構成を有する腕時計1に対して、音声合成プログラムを追加することで、グラフィック画像と合成音声とを同期させて出力することが可能になる。   By the way, by adding a speech synthesis program to the wristwatch 1 having the functional configuration shown in FIG. 12, the graphic image and the synthesized speech can be output in synchronization.

即ち、表示用のグラフィックデータの生成処理を実行するための上述した制御プログラム(3DCGプログラム)や、上述したオーディオ出力用プログラムに加えてさらに(或いは何れかの一部の追加機能として)、音声合成プログラムをプログラム格納部62(図6)に格納させることで、グラフィック画像と合成音声とを同期させて出力することが可能になる。   That is, in addition to the above-described control program (3DCG program) for executing processing for generating graphic data for display and the above-described audio output program (or as some additional functions), speech synthesis By storing the program in the program storage unit 62 (FIG. 6), it is possible to output the graphic image and the synthesized sound in synchronization.

ここで、音声合成プログラムについて説明する。   Here, the speech synthesis program will be described.

音声合成プログラムとは、音声合成処理を実現させるプログラムである。音声合成処理とは、任意の入力テキスト(テキストデータ)に対し、リアルタイムで音声波形を合成する処理を言い、一般的には、図16に示されるように、テキスト解析処理Sa、韻律生成処理Sb、および、波形生成処理Scの3つの処理に大別される。即ち、図16は、音声合成処理を説明する図である。   The speech synthesis program is a program that realizes speech synthesis processing. The speech synthesis process is a process for synthesizing a speech waveform in real time with respect to an arbitrary input text (text data). Generally, as shown in FIG. 16, a text analysis process Sa and a prosody generation process Sb are performed. And the waveform generation process Sc. That is, FIG. 16 is a diagram for explaining speech synthesis processing.

テキスト解析処理Saとは、入力されたテキストデータを解析し、音声化に必要な「読み」の情報を生成する処理を言う。具体的には、テキストデータに含まれるテキストを、文法や単語辞書に基づいて1以上の単語に分割し、1以上の単語のそれぞれについて、発音、アクセントの位置、アクセントのパターン、品詞などの各種情報を取得し、それらの各種情報から、文としてのイントネーションやポーズ位置(フレーズ区切り)を決定する処理が、テキスト解析処理Saである。   The text analysis process Sa is a process of analyzing input text data and generating “reading” information necessary for voice conversion. Specifically, the text included in the text data is divided into one or more words based on the grammar and word dictionary, and for each of the one or more words, various pronunciations, accent positions, accent patterns, parts of speech, etc. The text analysis process Sa is a process for acquiring information and determining intonation and pause positions (phrase breaks) as sentences from the various information.

通常、テキスト解析処理Saの結果は、発音記号と制御記号の並びによって表現される。この発音記号と制御記号の並びは、音声記号列や読み記号などと称されている。本明細書では、図16の記載に併せて、音声記号列という名称を使用する。   Usually, the result of the text analysis process Sa is expressed by a sequence of phonetic symbols and control symbols. This arrangement of phonetic symbols and control symbols is called a phonetic symbol string or a reading symbol. In this specification, the name of a phonetic symbol string is used in conjunction with the description of FIG.

音声記号列のうちの、発音記号の例としては、IPA(International Phonetic Alphabet)やSAMPAなどが、また、制御記号の例としては、ToBI(Tone and Break Indeces)などが、それぞれよく知られている。   Of phonetic symbol strings, IPA (International Phonetic Alphabet) and SAMPA are well known examples of phonetic symbols, and ToBI (Tone and Break Indeces) are well known examples of control symbols. .

具体的には例えば、図17に示されるテキストデータが入力された場合には、テキスト解析処理Saにより、図18に示される音声記号列が生成される。   Specifically, for example, when the text data shown in FIG. 17 is input, the phonetic symbol string shown in FIG. 18 is generated by the text analysis processing Sa.

韻律生成処理Sbとは、テキスト解析処理Saの結果である音声記号列に基づいて、それぞれの音素(phone)の継続時間長、基本周波数(ピッチ)、強さ等を決定し、その決定結果に基づいて、プロソディデータ(Prosody Data:ただし、以下においては、図16の記載に併せて韻律データと称する)を生成する処理のことを言う。具体的には例えば、韻律生成処理Sbにより、図18に示される音声記号列に基づいて、韻律データ(そのうちの一部が図19に示されている)が生成される。韻律生成処理Sbは、統計的なデータを用いて行われることも、所定のルールを用いて行われることも、また、それらの組み合わせによって行われることもある。   The prosody generation process Sb determines the duration, basic frequency (pitch), strength, etc. of each phoneme (phone) based on the phonetic symbol string that is the result of the text analysis process Sa. Based on this, it means a process of generating Prosody Data (hereinafter referred to as prosodic data together with the description of FIG. 16). Specifically, for example, prosody data (a part of which is shown in FIG. 19) is generated by the prosody generation process Sb based on the phonetic symbol string shown in FIG. The prosody generation process Sb may be performed using statistical data, may be performed using a predetermined rule, or may be performed by a combination thereof.

韻律生成処理Sbは、通常1種類の「ニュートラル」なイントネーションを生成するが、音声記号列に加え、韻律の生成係数を変更するような指定をすることで、異なる韻律を生成することもできる。それにより、感情や「キャラクタ」性を表現することも可能になる。   The prosody generation process Sb normally generates one type of “neutral” intonation, but it is also possible to generate different prosody by specifying the prosody generation coefficient to be changed in addition to the phonetic symbol string. This makes it possible to express emotions and “character” characteristics.

波形生成処理Scとは、韻律データに基づいて、実際の音声波形を生成する処理を言う。波形生成処理Scを実現するための手法としては、予め用意されている波形データベースの中から、音素の並びや強さなどに基づいて適切な波形データを選択し、選択した波形データを韻律データで指定された継続時間長やピッチに従ってつないでき、波形を生成する波形重畳手法や、波形データの代わりに波形を合成するためのパラメータを保持しておき、パラメータを設定することで、音声波形を合成するパラメータ合成手法(フォルマント合成手法と称される場合もある)等、様々な手法が存在する。   The waveform generation process Sc is a process for generating an actual speech waveform based on the prosodic data. As a method for realizing the waveform generation process Sc, appropriate waveform data is selected from a waveform database prepared in advance based on the arrangement and strength of phonemes, and the selected waveform data is converted into prosodic data. It can be connected according to the specified duration and pitch, holds the waveform superposition method for generating the waveform and the parameters for synthesizing the waveform instead of the waveform data, and synthesizes the audio waveform by setting the parameter There are various methods such as a parameter synthesis method (sometimes referred to as a formant synthesis method).

さらに、パラメータ合成手法の場合、合成用パラメータを変化させることにより、異なる声色を生成可能であるので、音声記号列とは別に合成用パラメータを指定することで合成音の声色を変えることも可能となる。   Furthermore, in the case of the parameter synthesis method, it is possible to generate different voice colors by changing the parameters for synthesis, so it is possible to change the voice color of the synthesized sound by specifying the parameters for synthesis separately from the speech symbol string Become.

また、声色を指定する合成用パラメータと韻律データに変更を加える情報とを1つにまとめて、ボイスキャラクタなどのデータとして表現することもできる。   Also, the synthesis parameters for specifying the voice color and the information for changing the prosody data can be combined into one and expressed as data such as a voice character.

以上説明したように、音声合成処理は、テキスト解析処理Sa、韻律生成処理Sb、および波形生成処理Scといった3つの処理からなる。ただし、その用途、利用可能なメモリリソース、プロセッサの処理能力等の前提事項によって、3つの処理全てを使用する場合がある他、外のツールなどを用いて音声記号列や韻律データを予め用意しておき、韻律生成処理Sbと波形生成処理Scとを使用する場合や、波形生成処理Scのみを使用する場合もある。   As described above, the speech synthesis process includes three processes, the text analysis process Sa, the prosody generation process Sb, and the waveform generation process Sc. However, depending on assumptions such as its use, available memory resources, and processing power of the processor, all three processes may be used, and phonetic symbol strings and prosodic data are prepared in advance using other tools. In some cases, the prosody generation process Sb and the waveform generation process Sc are used, or only the waveform generation process Sc is used.

ここでは、韻律生成処理Sbと波形生成処理Scを使用する場合おける音声合成プログラムが、プログラム格納部62(図6)に格納されている例について説明する。この例では、韻律生成処理Sbにとっての入力データとなる各種音声記号列も、プログラム格納部62に予め格納されているとする。   Here, an example will be described in which the speech synthesis program when using the prosody generation processing Sb and the waveform generation processing Sc is stored in the program storage unit 62 (FIG. 6). In this example, it is assumed that various phonetic symbol strings serving as input data for the prosody generation processing Sb are also stored in the program storage unit 62 in advance.

図20は、このような音声合成プログラムにより実現される、韻律生成処理Sbと波形生成処理Scを使用する場合の音声合成処理の一例を示すフローチャートである。   FIG. 20 is a flowchart showing an example of a speech synthesis process when using the prosody generation process Sb and the waveform generation process Sc, realized by such a speech synthesis program.

即ち、この音声合成プログラムが、上述した図10のステップ45の処理で実行プログラムとして選択されて、ステップS46の処理で転送されると、ステップS47の処理として、この図20の音声合成処理が実行されることになる。   That is, when this speech synthesis program is selected as an execution program in the process of step 45 of FIG. 10 described above and transferred in the process of step S46, the speech synthesis process of FIG. 20 is executed as the process of step S47. Will be.

ステップS121において、中央演算部51は、初期化を行う。   In step S121, the central processing unit 51 performs initialization.

ステップS122において、中央演算部51は、プログラム格納部62に格納されている所定の音声記号列を入力する。   In step S122, the central processing unit 51 inputs a predetermined phonetic symbol string stored in the program storage unit 62.

ステップS123において、中央演算部51は、ステップS122の処理で入力された音声記号列についての韻律生成処理Sb(図16)を実行する。このステップS123の韻律生成処理Sbにより韻律データが生成されると、処理はステップS124に進む。   In step S123, the central processing unit 51 executes a prosody generation process Sb (FIG. 16) for the phonetic symbol string input in the process of step S122. When the prosody data is generated by the prosody generation process Sb in step S123, the process proceeds to step S124.

ステップS124において、中央演算部51は、ステップS123の韻律生成処理Sbの結果として生成された韻律データに対して波形生成処理Sc(図16)を施す。なお、波形生成処理Scの詳細例については図21を参照して後述する。   In step S124, the central processing unit 51 performs a waveform generation process Sc (FIG. 16) on the prosody data generated as a result of the prosody generation process Sb in step S123. A detailed example of the waveform generation process Sc will be described later with reference to FIG.

このステップS124の波形生成処理Scにより生成された音声波形(デジタルデータ)がオーディオ生成部101(図12)に供給されると、音声合成処理は終了となる。   When the voice waveform (digital data) generated by the waveform generation process Sc in step S124 is supplied to the audio generation unit 101 (FIG. 12), the voice synthesis process ends.

この音声波形は、サウンドエンジン部111(図13)を介して(或いは介さずに直接)DA変換部112に供給される。DA変換部112は、サウンドエンジン部111によって生成(合成)される通常のオーディオデータと同様に、音声波形(デジタルデータ)に対してDA変換処理を施し、その結果得られるアナログデータ(音声信号)をオーディオ出力部102に提供する。これにより、音声波形に対応する合成音声がオーディオ出力部102から出力される。   This sound waveform is supplied to the DA converter 112 via the sound engine unit 111 (FIG. 13) (or directly without it). The DA conversion unit 112 performs DA conversion processing on a voice waveform (digital data) in the same manner as normal audio data generated (synthesized) by the sound engine unit 111, and analog data (voice signal) obtained as a result thereof. Is provided to the audio output unit 102. As a result, synthesized speech corresponding to the speech waveform is output from the audio output unit 102.

具体的には例えば、次のような音声合成処理を実行することで、時刻データを表示するのみならず、時刻データを合成音声で出力する(読み上げる)ことが可能になる。   Specifically, for example, by executing the following speech synthesis process, it is possible not only to display time data but also to output (read out) the time data as synthesized speech.

この場合、読み上げるタイミングは、ユーザからのインタラクションをトリガにしても良いし、毎時0分やアラーム時刻など指定された時刻をトリガにしても良い。前者のトリガが採用された場合には、上述した図10のステップS42の処理でYESであると判定され、ステップS44とS45の処理の後、処理はステップS46に進む。これに対して、後者のトリガが採用された場合には、ステップS43の処理でYESであると判定され、ステップS45の処理の後、処理はステップS46に進む。   In this case, the read-out timing may be triggered by an interaction from the user, or may be triggered by a designated time such as 0 minutes per hour or an alarm time. When the former trigger is adopted, it is determined as YES in the process of step S42 of FIG. 10 described above, and after the processes of steps S44 and S45, the process proceeds to step S46. On the other hand, when the latter trigger is adopted, it is determined as YES in the process of step S43, and after the process of step S45, the process proceeds to step S46.

このようにして何れのトリガが採用された場合であっても、上述した音声合成プログラムが、ステップ45の処理で実行プログラムとして選択されて、ステップS46の処理で転送されると、ステップS47の処理として、上述した図20の音声合成処理が実行されることになる。   Regardless of which trigger is employed in this way, when the above-described speech synthesis program is selected as the execution program in the process of step 45 and transferred in the process of step S46, the process of step S47 is performed. As described above, the speech synthesis process of FIG. 20 described above is executed.

なお、ここでは、上述したトリガが与えられた時点で、中央演算部51は、時刻情報提供リクエストを時間管理部52(図5)に対して発行するとする。この場合、上述したように、時間管理部52は、この時刻情報提供リクエストを受けて(図9のステップS25YES)、時刻情報を中央演算部51に出力してくる(ステップS26)。そこで、中央演算部51は、その時刻情報を作業用データ記憶部63(図6)に記憶させる。即ち、ここでは、音声合成処理の開始時点で、時刻情報が作業用データ記憶部63に予め記憶されているとする。   Here, it is assumed that the central processing unit 51 issues a time information provision request to the time management unit 52 (FIG. 5) when the above-described trigger is given. In this case, as described above, the time management unit 52 receives this time information provision request (YES in step S25 in FIG. 9), and outputs the time information to the central processing unit 51 (step S26). Therefore, the central processing unit 51 stores the time information in the work data storage unit 63 (FIG. 6). That is, here, it is assumed that time information is stored in advance in the work data storage unit 63 at the start of the speech synthesis process.

この場合、ステップS121の処理の後、ステップS122の処理では、その時刻情報で特定される時刻に対応する音声記号列が入力される。   In this case, after the process of step S121, in the process of step S122, a phonetic symbol string corresponding to the time specified by the time information is input.

なお、ここで使用される音声記号列は、全ての時刻に対応する音声記号列をあらかじめ腕時計1の外部で生成し、中央演算部51のプログラム格納部62に格納しておき、その中から特定された時刻に対応する音声記号列を選択して用いても良いし、0時から23時、00分から59分、00秒から59秒に対応する部分的な音声記号列とそれぞれを組み合わせるための制御情報をあらかじめ腕時計1の外部で生成、準備し、中央演算部51のプログラム格納部62に格納しておき、特定された時刻になるように部分的な音声記号列を組み合わせ、特定された時刻に対応する音声記号列を作成し、使用するようにしても良い。   Note that the phonetic symbol strings used here are generated in advance outside the wristwatch 1 and corresponding to all times, stored in the program storage unit 62 of the central processing unit 51, and specified from among them. A phonetic symbol string corresponding to the selected time may be selected and used, or a partial phonetic symbol string corresponding to 0 to 23 hours, 00 minutes to 59 minutes, and 00 seconds to 59 seconds may be combined. Control information is generated and prepared in advance outside the wristwatch 1, stored in the program storage unit 62 of the central processing unit 51, combined with partial phonetic symbol strings so that the specified time is reached, and the specified time A phonetic symbol string corresponding to can be created and used.

どのような状態で時刻に対応する音声記号列を保持しておくかは、腕時計1にどれだけの容量のプログラム格納部62を具備するか、またどれだけの処理能力のCPU(図2の例ではCPU21)を具備するか、どういった方針でシステムを構築するかなど、個々の腕時計1の設計に依存するものである。なお、ここでは、必要な音声記号列が全てプログラム格納部62に格納されているとする。   The state in which the phonetic symbol string corresponding to the time is retained depends on how much capacity the program storage unit 62 is provided in the wristwatch 1 and how much processing capacity the CPU (example of FIG. 2). Then, it depends on the design of each wristwatch 1 such as whether the CPU 21) is provided or what kind of policy is used to construct the system. Here, it is assumed that all necessary phonetic symbol strings are stored in the program storage unit 62.

ステップS123とステップS124の処理では、入力された音声記号列に従って音声波形(合成音声)が生成される。   In the processes of steps S123 and S124, a speech waveform (synthesized speech) is generated according to the input speech symbol string.

すると、その音声波形に対応する合成音声がオーディオ出力部102から出力される。即ち、トリガが与えられた時点の時刻が合成音声で出力される。   Then, the synthesized speech corresponding to the speech waveform is output from the audio output unit 102. That is, the time when the trigger is given is output as synthesized speech.

ここで、図21を参照して、ステップS124の波形生成処理Scの詳細例について説明する。   Here, with reference to FIG. 21, a detailed example of the waveform generation process Sc in step S124 will be described.

ステップS141において、中央演算部51は、韻律データを解析する。   In step S141, the central processing unit 51 analyzes the prosodic data.

ステップS142において、中央演算部51は、ステップS141の処理結果に基づいて、即ち、韻律データの解析結果に基づいて、パラメータを生成する。   In step S142, the central processing unit 51 generates a parameter based on the processing result of step S141, that is, based on the analysis result of the prosodic data.

ステップS143において、中央演算部51は、ステップS142の処理で生成されたパラメータに基づいて、音声波形の組み立てを行う。   In step S143, the central processing unit 51 assembles a speech waveform based on the parameters generated in the process of step S142.

このステップS143の処理結果である音声波形がオーディオ生成部101(図12)に供給されると、波形生成処理は終了となる。即ち、図20のステップS124が終了し、音声合成処理自体も終了となる。   When the speech waveform that is the processing result of step S143 is supplied to the audio generation unit 101 (FIG. 12), the waveform generation processing ends. That is, step S124 in FIG. 20 ends, and the speech synthesis process itself ends.

ところで、腕時計1は、図12の機能的構成例を有することで、即ち、表示データ生成部53とオーディオ生成部101とをあわせ持つことにより、上述したグラフィックとオーディオの同期出力と全く同様に、MIDIデータに基づく音以外の所定の音声についても、グラフィック画像と連動させて出力すること、即ち、その所定の音声とグラフィックとの同期出力も可能になる。   By the way, the wristwatch 1 has the functional configuration example of FIG. 12, that is, by having both the display data generation unit 53 and the audio generation unit 101, in exactly the same manner as the graphic and audio synchronous output described above. Predetermined audio other than the sound based on the MIDI data can also be output in conjunction with the graphic image, that is, the predetermined audio and the graphic can be synchronously output.

この場合、所定の音声として、例えば予め録音された音声を使用することができる。ただし、予め録音された音声を使用するときには、予め録音された各音声のそれぞれにあわせて、グラフィック画像の遷移を細かくプログラムしておく必要がある。そのため、例えばグラフィック画像にキャラクタ等が含まれており、そのキャラクタ等の口の動きと、予め録音された音声との同期を取る必要がある場合、異なるいくつもの音声に対応させるためには、それぞれの音声について、対応する口の動きの遷移を行う一連のグラフィックデータ(プログラム)を用意しなければならなない。さらに、音声の内容を変更するたびにグラフィックデータ(プログラム)も作り直す必要がある。その結果、予め録音された音声を使用すると、非常に手間がかかることになる。   In this case, for example, a pre-recorded voice can be used as the predetermined voice. However, when using pre-recorded sound, it is necessary to program the transition of the graphic image in detail in accordance with each pre-recorded sound. Therefore, for example, when a graphic image includes a character or the like, and it is necessary to synchronize the movement of the mouth of the character or the like with a pre-recorded sound, A series of graphic data (programs) for performing transition of the corresponding mouth movement must be prepared. Furthermore, it is necessary to recreate graphic data (program) every time the audio content is changed. As a result, using pre-recorded audio is very time consuming.

そこで、所定の音声として、音声合成処理によって生成される合成音声を使用することで、韻律データとグラフィックデータとの同期を容易に取ることができ、その結果、このような手間を省くことが可能になる。   Therefore, synthesizing prosodic data and graphic data can be easily achieved by using synthesized speech generated by speech synthesis processing as the predetermined speech, and as a result, it is possible to save such trouble. become.

ただし、この場合、音声合成処理によって生成される合成音声と、グラフィックとの同期出力を行うための制御プログラム、即ち、画像音同期プログラムが、中央演算部51のプログラム格納部62(図6)に格納されている必要がある。   However, in this case, a control program for performing synchronized output between the synthesized speech generated by the speech synthesis processing and the graphic, that is, the image sound synchronization program is stored in the program storage unit 62 (FIG. 6) of the central processing unit 51. Must be stored.

なお、ここでは、この画像音同期プログラムは、波形生成処理Scだけを使用する音声合成処理を行い、波形生成処理Scにとっての入力データとなる各種韻律データも、プログラム格納部62に予め格納されているとする。   Here, this image sound synchronization program performs a speech synthesis process using only the waveform generation process Sc, and various prosodic data serving as input data for the waveform generation process Sc are also stored in the program storage unit 62 in advance. Suppose that

図22は、この画像音同期プログラムにより実現される中央演算部51の処理(以下、グラフィックと合成音声の同期処理と称する)の一例を示すフローチャートである。即ち、この画像音同期プログラムが、上述した図10のステップ45の処理で実行プログラムとして選択されて、ステップS46の処理で転送されると、ステップS47の処理として、この図22のグラフィックと合成音声の同期処理が実行されることになる。   FIG. 22 is a flowchart showing an example of processing of the central processing unit 51 (hereinafter referred to as graphic and synthesized sound synchronization processing) realized by the image sound synchronization program. That is, when this image sound synchronization program is selected as an execution program in the process of step 45 of FIG. 10 described above and transferred in the process of step S46, the graphic of FIG. The synchronization process is executed.

ステップS161において、中央演算部51は、初期化を行う。   In step S161, the central processing unit 51 performs initialization.

ステップS162において、中央演算部51は、韻律データを解析する。   In step S162, the central processing unit 51 analyzes the prosodic data.

ステップS163において、中央演算部51は、ステップS162の処理結果、即ち、韻律データの解析結果に基づいて画像生成指令を生成し、表示データ生成部53に発行する。   In step S163, the central processing unit 51 generates an image generation command based on the processing result of step S162, that is, the analysis result of the prosodic data, and issues it to the display data generation unit 53.

ステップS164において、中央演算部51は、ステップS162の処理結果、即ち、韻律データの解析結果に基づいて、パラメータを生成する。   In step S164, the central processing unit 51 generates a parameter based on the processing result of step S162, that is, the analysis result of the prosodic data.

なお、後述するボイスキャラクタパラメータを用いて、声色を変更する場合、このステップS164の処理過程で次のような処理が必要となる。即ち、中央演算部51は、パラメータ変更制御指令が記載されたボイスキャラクタパラメータを読み込み、ボイスキャラクタパラメータの指定に従って音声波形組み立て用のパラメータを生成するといった処理が、ステップS164の処理過程で必要となる。   Note that when the voice color is changed using a voice character parameter, which will be described later, the following process is required in the process of step S164. That is, the central processing unit 51 needs to perform a process of reading a voice character parameter in which a parameter change control command is described and generating a speech waveform assembling parameter in accordance with the designation of the voice character parameter in the process of step S164. .

ステップS165において、中央演算部51は、ステップS164の処理で生成されたパラメータに基づいて、音声波形の組み立てを行う。   In step S165, the central processing unit 51 assembles a speech waveform based on the parameters generated in the process of step S164.

このステップS165の処理により生成された音声波形(デジタルデータ)は、サウンドエンジン部111(図13)を介して(或いは介さずに直接)DA変換部112に供給される。DA変換部112は、上述したように、音声波形(デジタルデータ)に対してDA変換処理を施し、その結果得られるアナログデータ(音声信号)をオーディオ出力部102に提供する。これにより、音声波形に対応する合成音声がオーディオ出力部102から出力される。   The audio waveform (digital data) generated by the process of step S165 is supplied to the DA converter 112 via the sound engine unit 111 (FIG. 13) (or not directly). As described above, the DA conversion unit 112 performs DA conversion processing on the audio waveform (digital data), and provides analog data (audio signal) obtained as a result to the audio output unit 102. As a result, synthesized speech corresponding to the speech waveform is output from the audio output unit 102.

このときほぼ同時に、表示データ生成部53は、ステップS163の処理で発行された画像生成指令に基づいて、上述したように、オーディオ出力部102から出力される合成音声に対応するグラフィック画像(3DCG画像等)を表示部54に表示させる。   At substantially the same time, the display data generation unit 53, based on the image generation command issued in step S163, as described above, the graphic image (3DCG image) corresponding to the synthesized sound output from the audio output unit 102. Etc.) are displayed on the display unit 54.

このようにして、グラフィックと合成音声との同期が実現される。   In this way, synchronization between the graphic and the synthesized sound is realized.

なお、図22のグラフィックと合成音声の同期処理においても、図15のグラフィックと合成音声の同期処理のステップS103の説明後になお書きで説明したのと同様に、より正確には、中央演算部51から、先ず、グラフィックと合成音声のそれぞれの処理に対して生成要求が出され、その後、それぞれの処理から終了通知があった時点で、出力要求が出されることで、グラフィックと合成音声との同期が実現されることになる。   In the graphic and synthesized speech synchronization processing of FIG. 22 as well, the central processing unit 51 is more precisely the same as described in the description after step S103 of the graphic and synthetic speech synchronization processing of FIG. First, a generation request is issued for each processing of the graphic and the synthesized speech, and then an output request is issued when an end notification is issued from each processing, thereby synchronizing the graphics and the synthesized speech. Will be realized.

ステップS166において、中央演算部51は、韻律データの解析を終了したか否かを判定する。   In step S166, the central processing unit 51 determines whether or not the analysis of the prosodic data is finished.

ステップS166において、韻律データの解析がまだ終了していないと判定された場合には、処理はステップS162に戻され、それ以降の処理が繰り返し実行される。   If it is determined in step S166 that the prosodic data analysis has not been completed yet, the process returns to step S162, and the subsequent processes are repeatedly executed.

その後、ステップS166において、韻律データの解析が終了したと判定された場合には、グラフィックと合成音声の同期処理は終了となる。   Thereafter, if it is determined in step S166 that the analysis of prosodic data has been completed, the synchronization processing between the graphic and the synthesized speech is completed.

具体的には例えば、いわゆる口パク(キャラクタ等の口の動きと音声の同期)を実現する場合には、次のようなグラフィックと合成音声の同期処理が実行される。   Specifically, for example, in the case of realizing a so-called mouth pack (synchronization of the movement of the mouth of a character or the like and sound), the following graphic and synthetic sound synchronization processing is executed.

ただし、この場合には、韻律データで使われるすべての音素に対し、顔(特に口の周辺の形)のグラフィック画像に対応するグラフィックデータが予め用意されているとする。   However, in this case, it is assumed that graphic data corresponding to the graphic image of the face (particularly the shape around the mouth) is prepared in advance for all phonemes used in the prosodic data.

ステップS161の処理で初期化が行われた後、ステップS162の処理では、キャラクタ等がこれから発声する音声に対応する韻律データが解析される。例えば、解析対象の韻律データについては、その継続時間長をもとに、動作開始から何秒後にどの音素を発声するか等のタイミングが演算(解析)される。   After initialization is performed in step S161, in step S162, prosodic data corresponding to the voice to be uttered by the character or the like is analyzed. For example, for the prosodic data to be analyzed, the timing of how many phonemes are to be uttered after the start of the operation is calculated (analyzed) based on the duration time.

ステップS162の処理で、各音素の発声タイミングのそれぞれに、その音素に対応する顔のグラフィック画像を表示させることを指示する画像生成指令が生成され、表示データ生成部53に発行される。   In the process of step S162, an image generation command for instructing to display a graphic image of a face corresponding to each phoneme is generated at each utterance timing of each phoneme and issued to the display data generation unit 53.

また、ステップS164とS165の処理で、ステップS162の処理で解析された各タイミングのそれぞれに対応する音素が発声されるように、適宜必要な音声波形が生成される。   In addition, in the processes in steps S164 and S165, necessary speech waveforms are generated as appropriate so that phonemes corresponding to the respective timings analyzed in the process in step S162 are uttered.

これにより、ステップS162の処理で解析された各タイミングのそれぞれに対応する音素がオーディオ出力部102から順次出力される。また、各音素の発声タイミングのそれぞれにおいては、対応する顔のグラフィック画像が表示部54に表示され、その間においては、上述したモーフィングにより、キャラクタの顔(特に口)が徐々に変形していくようなグラフィック画像(動画像)が表示部54に表示される。   Thus, phonemes corresponding to the respective timings analyzed in the process of step S162 are sequentially output from the audio output unit 102. In addition, at each utterance timing of each phoneme, a graphic image of the corresponding face is displayed on the display unit 54, and during that time, the character's face (especially mouth) is gradually deformed by the morphing described above. A graphic image (moving image) is displayed on the display unit 54.

このようにして、合成音声(合成処理により生成された音声)と、グラフィックとの同期を実現することが可能になる。   In this way, it is possible to realize synchronization between the synthesized speech (sound generated by the synthesis process) and the graphic.

従って、このようなグラフィックと合成音声の同期処理を実行することで、上述した時刻の音声出力と所定のグラフィック画像(3DCG画像等)とを同期させること、換言すると、グラフィックと連動させて、時刻を音声出力することも容易に可能になる。具体的には例えば、腕時計1の中のキャラクタ(バーチャル秘書など)があたかも時刻を読み上げているように見せることが容易に可能になる。   Accordingly, by executing such a graphic and synthetic audio synchronization process, the audio output at the above-described time is synchronized with a predetermined graphic image (3DCG image or the like), in other words, in synchronization with the graphic, Can be easily output as a voice. Specifically, for example, it is possible to easily make a character (such as a virtual secretary) in the wristwatch 1 seem to read the time.

同様にして、音声出力の内容を時刻情報(時刻)によって変えるのではなく、予めメニューの項目に対応する音声記号列または韻律データを用意しておくことで、メニューを読み上げたり、アプリケーションによって異なる内容を読み上げたりすることも容易に可能になる。   Similarly, the contents of audio output are not changed according to the time information (time), but by preparing a phonetic symbol string or prosodic data corresponding to the menu items in advance, the menu is read out, or the contents differ depending on the application. Can be read aloud easily.

さらに、アプリケーションや読み上げる内容に応じて、異なるボイスキャラクタを指定し、異なる声色や感情、ボイスキャラクタで読み上げることも容易に可能になる。   Furthermore, it is possible to easily specify different voice characters according to the application and contents to be read out and read out with different voice colors, emotions, and voice characters.

なお、グラフィックと合成音声の同期処理は、図22の例に限定されず、様々な処理を適用することが可能である。例えば、画像音声同期プログラムの処理の最初に韻律生成処理Sbを備え、入力として音声記号列を受け、画像音声同期プログラムの中で韻律データを生成したのち、図22のS162以降の一連の処理を行うことによっても、グラフィックと合成音声の同期処理は実現可能である。   Note that the graphic and synthetic audio synchronization processing is not limited to the example of FIG. 22, and various processing can be applied. For example, the prosody generation process Sb is provided at the beginning of the process of the video / audio synchronization program, and after receiving a speech symbol string as input, the prosody data is generated in the video / audio synchronization program, and then a series of processes after S162 in FIG. By doing so, it is possible to realize synchronization processing of graphics and synthesized speech.

ただし、このように韻律生成処理Scを備えた画像音声同期プログラムを利用して、ボイスキャラクタを実現する場合には、次のような注意が必要である。即ち、ボイスキャラクタパラメータは、正確には、声色を決定するパラメータ(音声波形の組み立てに影響を与えるもの)と韻律を決定するパラメータ(韻律生成に影響を与えるもの)とがあり、韻律生成の前にボイスキャラクタパラメータを指定しなければならない、という注意が必要である。これは、韻律を決定するパラメータは韻律生成で使用され、声色を決定するパラメータは、音声波形組み立て前のパラメータ生成で使用されるからである。   However, when a voice character is realized by using the video / audio synchronization program including the prosody generation processing Sc as described above, the following cautions are necessary. In other words, the voice character parameters are precisely parameters that determine the voice color (which affects the assembly of the speech waveform) and parameters that determine the prosody (those that affect the prosody generation). Note that the voice character parameter must be specified. This is because the parameters that determine the prosody are used in prosody generation, and the parameters that determine the voice color are used in parameter generation prior to speech waveform assembly.

以上説明したように、本発明が適用された腕時計1では、表現力豊かで高精細な3DCGを利用することが可能になり、腕時計1における時間表現に多くのバリエーションを持たせることが可能になる。例えば、数字を用いて時刻を表示する場合であっても、従来のような静的かつ単調な数字を用いて単に時刻を表すだけでなく、さらに、数字があたかも液体や気体(煙など)によって形作られているように表現したり、それらの数字を徐々に変形させながら別の数字へと変えたりする、といった様々な表現が容易に可能になる。   As described above, in the wristwatch 1 to which the present invention is applied, it is possible to use expressive and high-definition 3DCG, and it is possible to have many variations in the time representation in the wristwatch 1. . For example, even if the time is displayed using numbers, not only the static and monotonous numbers as in the past are used to represent the time, but also the numbers are represented by liquid or gas (such as smoke). Various expressions can be easily made, such as expressing the figure as it is formed, or changing the numbers to other numbers while gradually transforming them.

このように、本発明が適用された腕時計1では、デジタル時刻表示に芸術性や遊び心を容易に持たせることができるので、ユーザが利用していて楽しいと思える時刻表示が可能になる。   As described above, in the wristwatch 1 to which the present invention is applied, the digital time display can easily have artistic feeling and playfulness, so that it is possible to display the time that seems to be enjoyed by the user.

また、本発明が適用された腕時計1では、3DCGを用いているので、ユーザがボタン操作(図1や図2の例ではタクトスイッチ11の押下操作)などにより、時間表現されたグラフィック画像を回転させて異なる視点から眺めたり、曲面アーキテクチャの特長を生かして滑らかにオブジェクトを拡大/縮小させたりすることも可能である。その結果、ユーザにとっては、腕時計1に表示される時刻表示をただ単に眺めるだけでなく、より一段と積極的に腕時計1に関与することが可能になる。   Since the wristwatch 1 to which the present invention is applied uses 3DCG, the user can rotate the graphic image expressed in time by a button operation (pressing the tact switch 11 in the examples of FIGS. 1 and 2). It is also possible to view from different viewpoints and to smoothly enlarge / reduce objects by taking advantage of the curved surface architecture. As a result, it becomes possible for the user to be more actively involved in the wristwatch 1 than simply looking at the time display displayed on the wristwatch 1.

さらに、本発明が適用された腕時計1では、高精細な3DCGとあわせて、シンセサイザや音声合成プログラムを持つことができるので、楽曲等の音(MIDIデータによるシンセサイザ音)や合成音声と、グラフィック画像との連動が容易に可能になる。   Furthermore, since the wristwatch 1 to which the present invention is applied can have a synthesizer and a voice synthesis program in addition to the high-definition 3DCG, a sound such as music (synthesizer sound based on MIDI data), a synthesized voice, and a graphic image Can be easily linked.

ところで、上述した一連の処理は、上述したようにソフトウエアで実行されてもよいし、ハードウエアで実行されてもよい。   By the way, the series of processes described above may be executed by software as described above, or may be executed by hardware.

上述した一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ(腕時計1含む)に、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる場合もある。   When the above-described series of processing is executed by software, a program constituting the software is installed in a computer (including the wristwatch 1) incorporated in dedicated hardware or various programs are installed. The computer may be installed from a network or a recording medium on a computer capable of executing various functions, for example, a general-purpose personal computer.

この記録媒体は、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory))、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブル記録媒体により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されている図2のFlash Memory16や、図示せぬハードディスクなどで構成される。   This recording medium is distributed to provide a program to the user separately from the main body of the apparatus, and includes a magnetic disk (including a floppy disk) on which the program is recorded, an optical disk (CD-ROM (Compact Disk-Read Only Memory) )), A program provided not only to a magneto-optical disk (including MD (Mini-Disk)) or a removable recording medium such as a semiconductor memory but also provided to the user in a state of being pre-installed in the apparatus main body. 2 is recorded, a hard disk (not shown), or the like.

また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的または個別に実行される処理をも含むものである。   Further, in the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

本発明が適用される腕時計の外観の構成例を示す図である。It is a figure which shows the structural example of the external appearance of the wristwatch to which this invention is applied. 図1の腕時計のハードウエア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the wristwatch of FIG. 図1の腕時計に表示されるグラフィック画像の例を示す図である。It is a figure which shows the example of the graphic image displayed on the wristwatch of FIG. モーフィングを説明する図である。It is a figure explaining morphing. 図1の腕時計の機能的構成例を示す機能ブロック図である。It is a functional block diagram which shows the functional structural example of the wristwatch of FIG. 図5の腕時計の中央演算部の詳細な機能的構成例を示す機能ブロック図である。FIG. 6 is a functional block diagram illustrating a detailed functional configuration example of a central processing unit of the wristwatch of FIG. 5. 図5の腕時計の表示データ生成部の詳細な機能的構成例を示す機能ブロック図である。FIG. 6 is a functional block diagram illustrating a detailed functional configuration example of a display data generation unit of the wristwatch of FIG. 5. 図5の腕時計の電力供給部の処理例を説明するフローチャートである。It is a flowchart explaining the example of a process of the electric power supply part of the wristwatch of FIG. 図5の腕時計の時間管理部の処理例を説明するフローチャートである。It is a flowchart explaining the example of a process of the time management part of the wristwatch of FIG. 図5の腕時計の中央演算部の処理例を説明するフローチャートである。It is a flowchart explaining the example of a process of the central processing part of the wristwatch of FIG. 図5の腕時計の表示データ生成部の処理例を説明するフローチャートである。It is a flowchart explaining the example of a process of the display data generation part of the wristwatch of FIG. 本発明が適用される腕時計の機能的構成例であって、図5とは異なる例を示す機能ブロック図である。FIG. 6 is a functional block diagram showing an example of a functional configuration of a wristwatch to which the present invention is applied, and showing an example different from FIG. 5. 図12の腕時計のオーディオ生成部の詳細な機能的構成例を示す機能ブロック図である。It is a functional block diagram which shows the detailed functional structural example of the audio production | generation part of the wristwatch of FIG. 図12の腕時計のオーディオ生成部の処理例を説明するフローチャートである。It is a flowchart explaining the example of a process of the audio production | generation part of the wristwatch of FIG. 図12の腕時計の中央演算部によるグラフィックとオーディオの同期処理例を説明するフローチャートである。13 is a flowchart for explaining an example of graphic and audio synchronization processing by the central processing unit of the wristwatch of FIG. 12. 音声合成処理を説明する図である。It is a figure explaining a voice synthesis process. 図16の音声合成処理のうちのテキスト解析処理の入力データとなるテキストデータの一例を示す図である。It is a figure which shows an example of the text data used as the input data of the text analysis process among the speech synthesis processes of FIG. 図16の音声合成処理のうちの、テキスト解析処理の結果得られるデータであって、韻律生成処理の入力データとなる音声記号列の一例を示す図である。FIG. 17 is a diagram illustrating an example of a speech symbol string that is data obtained as a result of text analysis processing in the speech synthesis processing of FIG. 16 and serves as input data for prosody generation processing. 図16の音声合成処理のうちの、韻律生成処理の結果得られるデータであって、波形生成処理の入力データとなる韻律データの一例を示す図である。FIG. 17 is a diagram illustrating an example of prosody data that is data obtained as a result of the prosody generation process in the speech synthesis process of FIG. 16 and serves as input data for the waveform generation process. 図12の腕時計の中央演算部による音声合成処理の一例であって、図16の音声合成処理のうちの韻律生成処理と波形生成処理とが実行される音声合成処理の例を説明するフローチャートである。FIG. 17 is a flowchart illustrating an example of a speech synthesis process performed by the central processing unit of the wristwatch of FIG. 12 in which the prosody generation process and the waveform generation process of the speech synthesis process of FIG. 16 are executed. . 図20の波形生成処理の詳細例を説明するフローチャートである。It is a flowchart explaining the detailed example of the waveform generation process of FIG. 図12の腕時計の中央演算部によるグラフィックと音声の同期処理例を説明するフローチャートである。13 is a flowchart for explaining an example of graphic and audio synchronization processing by the central processing unit of the wristwatch of FIG. 12.

符号の説明Explanation of symbols

1 腕時計, 11 タクトスイッチ, 12 LCD, 13 システムIC, 14 マイクロコンピュータ, 15 SD−RAM, 16 Flash Memory, 17 電源部, 21 CPU, 22 3DCGエンジン, 23 LCDコントローラ, 51 中央演算部, 52 時間管理部, 53 表示データ生成部, 54 表示部, 55 ユーザ入力部, 56 電力供給部, 61 主制御部, 62 プログラム格納部, 63 作業用データ記憶部, 71 3Dグラフィックスエンジン部, 72 LCDコントロール部, 101 オーディオ生成部, 102 オーディオ出力部, 111 サウンドエンジン部, 112 DA変換部   1 Wrist Watch, 11 Tact Switch, 12 LCD, 13 System IC, 14 Microcomputer, 15 SD-RAM, 16 Flash Memory, 17 Power Supply Unit, 21 CPU, 22 3DCG Engine, 23 LCD Controller, 51 Central Processing Unit, 52 Time Management Unit, 53 display data generation unit, 54 display unit, 55 user input unit, 56 power supply unit, 61 main control unit, 62 program storage unit, 63 work data storage unit, 71 3D graphics engine unit, 72 LCD control unit , 101 audio generation unit, 102 audio output unit, 111 sound engine unit, 112 DA conversion unit

Claims (6)

時刻表示用の画像を表示する表示手段を備える腕時計であって、
曲面アーキテクチャ手法が適用されたコンピュータグラフィック機能を用いて、時刻表示用の画像データを生成し、前記画像データに対応するコンピュータグラフィック画像を前記表示手段に表示させることを制御する画像生成手段
を備えている腕時計。
A wristwatch including display means for displaying an image for time display,
Image generation means for controlling generation of image data for time display using a computer graphic function to which a curved surface architecture technique is applied, and displaying the computer graphic image corresponding to the image data on the display means Watch.
前記画像生成手段は、さらに、第1のコンピュータグラフィック画像に対応する第1の画像データと、第2のコンピュータグラフィック画像に対応する第2の画像データとを生成し、前記表示手段に表示させる画像を、前記第1のコンピュータグラフィック画像から前記第2のコンピュータグラフィック画像に更新するとき、モーフィングを用いた表示の制御を行う
請求項1に記載の腕時計。
The image generation means further generates first image data corresponding to the first computer graphic image and second image data corresponding to the second computer graphic image, and displays the image on the display means. The wristwatch according to claim 1, wherein display is controlled using morphing when updating the first computer graphic image from the first computer graphic image to the second computer graphic image.
前記画像生成手段は、さらに、前記コンピュータグラフィック機能を用いて、前記時刻表示用の画像データに対応する前記コンピュータグラフィック画像を拡大または縮小させる制御を行う
請求項1に記載の腕時計。
2. The wristwatch according to claim 1, wherein the image generation unit further performs control for enlarging or reducing the computer graphic image corresponding to the image data for time display using the computer graphic function.
音を出力する音出力手段と、
オーディオデータを生成し、そのオーディオデータに対応する音を前記音出力手段から出力させることを制御するオーディオ生成手段と、
前記オーディオ生成手段の制御により前記音出力手段から出力される音と、前記画像生成手段の制御により前記表示手段に表示される前記コンピュータグラフィック画像との同期制御を行う同期手段と
をさらに備える請求項1に記載の腕時計。
Sound output means for outputting sound;
Audio generating means for generating audio data and controlling output of sound corresponding to the audio data from the sound output means;
The synchronization means for performing synchronous control of the sound output from the sound output means by the control of the audio generation means and the computer graphic image displayed on the display means by the control of the image generation means. The wristwatch according to 1.
時刻表示用の画像を表示する表示手段を備える腕時計の表示方法であって、
曲面アーキテクチャ手法が適用されたコンピュータグラフィック機能を用いて、時刻表示用の画像データを生成し、前記画像データに対応するコンピュータグラフィック画像を前記表示手段に表示させることを制御する画像生成ステップ
を含む腕時計の表示方法。
A display method for a wristwatch comprising a display means for displaying an image for time display,
A wristwatch including an image generation step of controlling generation of image data for time display using a computer graphic function to which a curved surface architecture method is applied, and displaying the computer graphic image corresponding to the image data on the display means How to display.
時刻表示用の画像を表示する表示手段を備える腕時計の画像表示を制御するコンピュータに実行させるプログラムであって、
曲面アーキテクチャ手法が適用されたコンピュータグラフィック機能を用いて、時刻表示用の画像データを生成し、前記画像データに対応するコンピュータグラフィック画像を前記表示手段に表示させることを制御する画像生成ステップ
を含むプログラム。
A program to be executed by a computer that controls image display of a wristwatch provided with display means for displaying an image for time display,
A program including an image generation step of controlling generation of image data for time display using a computer graphic function to which a curved surface architecture method is applied, and displaying the computer graphic image corresponding to the image data on the display means .
JP2005216094A 2005-07-26 2005-07-26 Wrist watch, display method of wrist watch, and program Withdrawn JP2007033200A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005216094A JP2007033200A (en) 2005-07-26 2005-07-26 Wrist watch, display method of wrist watch, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005216094A JP2007033200A (en) 2005-07-26 2005-07-26 Wrist watch, display method of wrist watch, and program

Publications (1)

Publication Number Publication Date
JP2007033200A true JP2007033200A (en) 2007-02-08

Family

ID=37792650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005216094A Withdrawn JP2007033200A (en) 2005-07-26 2005-07-26 Wrist watch, display method of wrist watch, and program

Country Status (1)

Country Link
JP (1) JP2007033200A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014120194A1 (en) * 2013-01-31 2014-08-07 Leia Inc. Multiview 3d wrist watch
US9128226B2 (en) 2013-07-30 2015-09-08 Leia Inc. Multibeam diffraction grating-based backlighting
US9201270B2 (en) 2012-06-01 2015-12-01 Leia Inc. Directional backlight with a modulation layer
US9298168B2 (en) 2013-01-31 2016-03-29 Leia Inc. Multiview 3D wrist watch
US9389415B2 (en) 2012-04-27 2016-07-12 Leia Inc. Directional pixel for use in a display screen
US9459461B2 (en) 2012-05-31 2016-10-04 Leia Inc. Directional backlight
US9557466B2 (en) 2014-07-30 2017-01-31 Leia, Inc Multibeam diffraction grating-based color backlighting

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9389415B2 (en) 2012-04-27 2016-07-12 Leia Inc. Directional pixel for use in a display screen
US9459461B2 (en) 2012-05-31 2016-10-04 Leia Inc. Directional backlight
US9201270B2 (en) 2012-06-01 2015-12-01 Leia Inc. Directional backlight with a modulation layer
US10082613B2 (en) 2012-06-01 2018-09-25 Leia Inc. Directional backlight with a modulation layer
WO2014120194A1 (en) * 2013-01-31 2014-08-07 Leia Inc. Multiview 3d wrist watch
CN104272199A (en) * 2013-01-31 2015-01-07 镭亚股份有限公司 Multiview 3d wrist watch
US9298168B2 (en) 2013-01-31 2016-03-29 Leia Inc. Multiview 3D wrist watch
US9785119B2 (en) 2013-01-31 2017-10-10 Leia Inc. Multiview display screen and multiview mobile device using same
US9128226B2 (en) 2013-07-30 2015-09-08 Leia Inc. Multibeam diffraction grating-based backlighting
US9557466B2 (en) 2014-07-30 2017-01-31 Leia, Inc Multibeam diffraction grating-based color backlighting
US10345505B2 (en) 2014-07-30 2019-07-09 Leia, Inc. Multibeam diffraction grating-based color backlighting

Similar Documents

Publication Publication Date Title
US10354627B2 (en) Singing voice edit assistant method and singing voice edit assistant device
JP2007033200A (en) Wrist watch, display method of wrist watch, and program
JP6665446B2 (en) Information processing apparatus, program, and speech synthesis method
CN111899706A (en) Audio production method, device, equipment and storage medium
EP3462443B1 (en) Singing voice edit assistant method and singing voice edit assistant device
JP2014178512A (en) Voice synthesizer
CN104412320A (en) Automated performance technology using audio waveform data
US9711123B2 (en) Voice synthesis device, voice synthesis method, and recording medium having a voice synthesis program recorded thereon
US20220076651A1 (en) Electronic musical instrument, method, and storage medium
US20220076658A1 (en) Electronic musical instrument, method, and storage medium
CN116504218A (en) Voice synthesis method and voice synthesis system
KR100591378B1 (en) Music reproducing apparatus and method and cellular terminal apparatus
JP2012022121A (en) Speech synthesizer
JP4561636B2 (en) Musical sound synthesizer and program
JPH11242751A (en) Animation controller and method therefor and sentence reading device
JP5531654B2 (en) Control information generating apparatus and shape control apparatus
JP6474518B1 (en) Simple operation voice quality conversion system
JP2001282276A (en) Method and device for voice synthesis and storage medium
US11437016B2 (en) Information processing method, information processing device, and program
JP5157922B2 (en) Speech synthesizer and program
JP4720974B2 (en) Audio generator and computer program therefor
JP2001042879A (en) Karaoke device
JP5106437B2 (en) Karaoke apparatus, control method therefor, and control program therefor
JPH1166345A (en) Image acoustic processor and recording medium
JP2002221978A (en) Vocal data forming device, vocal data forming method and singing tone synthesizer

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20081007