JP2012108899A - 電子機器、ネットワークシステム、およびコンテンツ編集方法 - Google Patents

電子機器、ネットワークシステム、およびコンテンツ編集方法 Download PDF

Info

Publication number
JP2012108899A
JP2012108899A JP2011234801A JP2011234801A JP2012108899A JP 2012108899 A JP2012108899 A JP 2012108899A JP 2011234801 A JP2011234801 A JP 2011234801A JP 2011234801 A JP2011234801 A JP 2011234801A JP 2012108899 A JP2012108899 A JP 2012108899A
Authority
JP
Japan
Prior art keywords
content
cpu
related information
display
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011234801A
Other languages
English (en)
Inventor
Junji Suetsugu
純二 末次
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011234801A priority Critical patent/JP2012108899A/ja
Publication of JP2012108899A publication Critical patent/JP2012108899A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Document Processing Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】テキスト、画像または音声などを含むコンテンツに自動でオブジェクトを説明するための関連情報を紐付けしてくれる電子機器を提供する。
【解決手段】電子機器100は、複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベース121と、取得したコンテンツから少なくとも1つのオブジェクトを抽出し、データベースから少なくとも1つのオブジェクトに対応する関連情報を読み出し、少なくとも1つのオブジェクトと関連情報とを紐付けすることによってコンテンツを編集し、編集されたコンテンツを出力するためのプロセッサ110とを含む。
【選択図】図2

Description

本発明は、テキスト、画像、または音声などのコンテンツを編集するための電子機器、ネットワークシステム、およびコンテンツ編集方法に関する。
ユーザがテキストなどのコンテンツに含まれる単語を選択すると、当該単語の説明を表示するシステムが知れられている。
たとえば、特開2003−16088号公報(特許文献1)には、プレゼンテーション中に表示される文章の不明語に基づく理解不足を解消するための電子会議システムが開示されている。特開2003−16088号公報(特許文献1)によると、会議用共通ディスプレイと、主処理装置と、副処理装置、端末用ディスプレイ、端末用デジタイザ、操作ペンからなる複数の手元端末により構成される電子会議システムによるプレゼンテーションにおいて、聴衆者が理解できないキーワード(不明語)を指示することにより、主処理装置内のデータベースを検索し、キーワードに対応した説明文を手元端末に表示する。
特開2003−16088号公報
しかしながら、当該システムにおいては、管理者やユーザが予めテキストに含まれる単語に当該単語を説明するための情報のURLや当該情報自体を紐付けしておく必要があった。つまり、管理者やユーザは、新たなテキストを作成するたびに、当該テキストに含まれる単語に当該単語を説明するための情報のURLや当該情報自体を紐付けする必要がある。
本発明は、かかる問題を解決するためになされたものであり、その目的は、テキスト、画像または音声などを含むコンテンツに自動でオブジェクトを説明するための関連情報を紐付けしてくれる電子機器、ネットワークシステム、およびコンテンツ編集方法を提供することである。
この発明のある局面に従うと、複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースと、取得したコンテンツから少なくとも1つのオブジェクトを抽出し、データベースから少なくとも1つのオブジェクトに対応する関連情報を読み出し、少なくとも1つのオブジェクトと関連情報とを紐付けすることによってコンテンツを編集し、編集されたコンテンツを出力するためのプロセッサとを備える、電子機器が提供される。
好ましくは、電子機器は、外部の端末からコンテンツを受信するための通信インターフェイスをさらに備える。プロセッサは、通信インターフェイスを介して、編集されたコンテンツを端末に送信する。
好ましくは、電子機器は、ディスプレイをさらに備える。プロセッサは、編集されたコンテンツをディスプレイに表示させる。
好ましくは、電子機器は、コンテンツから関連情報が紐付けられた第1のオブジェクトを選択するための命令を受け付けるための入力デバイスをさらに備える。プロセッサは、選択された第1のオブジェクトに紐付けされた関連情報に基づいて、第1のオブジェクトを説明するための第1の情報をディスプレイに表示する。
好ましくは、入力デバイスは、コンテンツから関連情報が紐付けられていない第2のオブジェクトを選択するための命令を受け付ける。プロセッサは、選択された第2のオブジェクトを説明するための第2の情報の入力を受け付けて、第2のオブジェクトと第2の情報とを対応付けてデータベースに登録する。
好ましくは、関連情報は、オブジェクトを説明する情報の格納場所を示すアドレスを含む。
好ましくは、関連情報は、オブジェクトを説明する情報を含む。
好ましくは、コンテンツは、テキストを含む。オブジェクトは、テキストに含まれる単語である。
好ましくは、コンテンツは、画像を含む。オブジェクトは、画像の一部である。
好ましくは、コンテンツは、音声を含む。オブジェクトは、音声の一部である。
この発明の別の局面に従うと、電子機器と端末とを備えるネットワークシステムが提供される。電子機器は、複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースと、端末からコンテンツを受信するための第1の通信インターフェイスと、コンテンツから少なくとも1つのオブジェクトを抽出し、データベースから少なくとも1つのオブジェクトに対応する関連情報を読み出し、少なくとも1つのオブジェクトと関連情報とを紐付けすることによってコンテンツを編集し、編集されたコンテンツを出力するための第1のプロセッサとを含む。端末は、ディスプレイと、コンテンツを電子機器へ送信し、編集されたコンテンツを電子機器から受信するための第2の通信インターフェイスと、編集されたコンテンツをディスプレイに表示させるための第2のプロセッサとを含む。
好ましくは、端末は、コンテンツから、関連情報が紐付けされた第1のオブジェクトを選択するための命令を受け付けるための入力デバイスをさらに備える。第2のプロセッサは、選択された第1のオブジェクトに紐付けされた関連情報に基づいて、第1のオブジェクトを説明するための第1の情報をディスプレイに表示する。
好ましくは、入力デバイスは、コンテンツから関連情報が紐付けられていない第2のオブジェクトを選択するための命令を受け付ける。第2のプロセッサは、選択された第2のオブジェクトを説明するための第2の情報の入力を受け付けて、第2の通信インターフェイスを介して第2のオブジェクトと第2の情報とを電子機器へ送信する。第1のプロセッサは、第2のオブジェクトと第2の情報とを対応付けてデータベースに登録する。
この発明の別の局面に従うと、複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースとプロセッサとを含む電子機器におけるコンテンツ編集方法が提供される。コンテンツ編集方法は、プロセッサが、コンテンツを取得するステップと、プロセッサが、コンテンツから少なくとも1つのオブジェクトを抽出するステップと、プロセッサが、データベースから少なくとも1つのオブジェクトに対応する関連情報を読み出すステップと、プロセッサが、少なくとも1つのオブジェクトと関連情報とを紐付けすることによってコンテンツを編集するステップと、プロセッサが、編集されたコンテンツを出力するステップとを備える。
この発明の別の局面に従うと、複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースを有する電子機器と端末とを含むネットワークシステムにおけるコンテンツ編集方法が提供される。コンテンツ編集方法は、端末が、コンテンツを電子機器に送信するステップと、電子機器が、コンテンツから少なくとも1つのオブジェクトを抽出するステップと、電子機器が、データベースから少なくとも1つのオブジェクトに対応する関連情報を読み出すステップと、電子機器が、少なくとも1つのオブジェクトと関連情報とを紐付けすることによってコンテンツを編集するステップと、電子機器が、編集されたコンテンツを出力するステップと備える。
以上のように、本発明によって、テキスト、画像または音声などを含むコンテンツに自動でオブジェクトを説明するための関連情報を紐付けしてくれる電子機器、ネットワークシステム、およびコンテンツ編集方法が提供される。
本実施の形態に係るネットワークシステム1の全体構成と動作概要とを示すイメージ図である。 本実施の形態に係るサーバ100のハードウェア構成を表わすブロック図である。 本実施の形態に係る携帯電話200のハードウェア構成を表わすブロック図である。 本実施の形態に係るサーバ100におけるテキストデータを含むコンテンツの編集処理の処理手順を示すフローチャートである。 本実施の形態に係るネットワークシステム1における説明取得処理の動作概要を示すフローチャートである。 本実施の形態に係るサーバ100におけるテキストデータを含むコンテンツの編集処理の変形例の処理手順を示すフローチャートである。 本実施の形態に係るネットワークシステム1における関連情報登録処理の動作概要を示すフローチャートである。 本実施の形態に係るデータベース121が更新された後のネットワークシステム1の動作概要とを示すイメージ図である。 本実施の形態に係るサーバ100における第1の画像データを含むコンテンツの編集処理の処理手順を示すフローチャートである。 本実施の形態に係るサーバ100における第2の画像データを含むコンテンツの編集処理の処理手順を示すフローチャートである。 本実施の形態に係るサーバ100における音声データを含むコンテンツの編集処理の処理手順を示すフローチャートである。 本実施の形態に係る携帯電話200が編集パラメータをサーバ100に送信する場合における、ネットワークシステム1の動作概要を説明するための図である。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<ネットワークシステム1の動作概要>
まず、本実施の形態に係るネットワークシステム1の動作概要について説明する。図1は、本実施の形態に係るネットワークシステム1の全体構成と動作概要とを示すイメージ図である。以下では、サーバ100を「電子機器」の代表例として説明する。携帯電話200を「端末」の代表例として説明する。
図1を参照して、本実施の形態に係るネットワークシステム1は、サーバ100と、携帯電話200とを含む。サーバ100と、携帯電話200とは、インターネットなどのネットワーク300を介して接続可能である。
まず、携帯電話200が、コンテンツの入力を受け付ける(ステップS002)。コンテンツは、テキストデータ、画像データ、および/または音声データを含む。携帯電話200は、外部の装置あるいは記録媒体からコンテンツを受信してもよいし、ユーザからコンテンツの入力を受け付けてもよい。携帯電話200は、取得したコンテンツをディスプレイ230に表示する。
携帯電話200は、ユーザからの命令(検索命令あるいは紐付け命令)に基づいて、ネットワーク300を介して当該コンテンツをサーバ100に送信する(ステップS004)。ただし、携帯電話200は、コンテンツを取得した際に自動的にサーバ100に送信しても良い。
サーバ100は、受信したコンテンツに基づいて、コンテンツを解析する(ステップS006)。たとえば、コンテンツがテキストデータである場合、サーバ100は、テキストを形態素解析することによって、テキストに含まれる単語(オブジェクト)を抽出する。コンテンツが画像データである場合、サーバ100は、エッジ検出によって画像から所定の条件を満たすエリア(オブジェクト)を抽出する。コンテンツが音声データである場合、サーバ100は、音声の特徴的な部分(オブジェクト)を切り出す。
サーバ100は、データベース121を参照して、当該オブジェクトを検索する(ステップS008)。より詳細には、サーバ100は、データベース121から、当該オブジェクトに対応する関連情報を読み出す。
サーバ100は、コンテンツを編集する(ステップS010)。より詳細には、受信したコンテンツのオブジェクトに、当該関連情報を紐付ける。たとえば、サーバ100は、オブジェクトとしての、単語、画像、画像の一部または音声に、当該単語の説明文を取得できるURLや当該単語の説明文自体を関連情報として紐付ける。
サーバ100は、オブジェクトに関連情報が紐付けされたコンテンツ(編集されたコンテンツ)を携帯電話200に送信する(ステップS012)。
携帯電話200は、受信したコンテンツをディスプレイ230に表示する(ステップS014)。携帯電話200は、関連情報が紐付けられたオブジェクト(「アクセスポイント」という単語)を、他のオブジェクトとは異なる形態で表示する。たとえば、携帯電話200は、関連情報が紐付けられた単語の色を他の文字と異ならせたり、当該単語に下線を付したりする。これによって、ユーザは、どのオブジェクトが関連情報を閲覧することができるのかを認識することができる。
携帯電話200は、ユーザから、コンテンツに含まれるオブジェクトの選択命令を受け付ける。(ステップS016)。携帯電話200は、選択されたオブジェクトを説明する文章や画像を表示する(ステップS018)。たとえば、携帯電話200は、関連情報(URL)に基づいて、他のサーバから、オブジェクトを説明する文章や画像を受信する。あるいは、携帯電話200は、関連情報に含まれる選択されたオブジェクトを説明する文章や画像に基づいて、選択されたオブジェクトを説明する文章や画像を表示する。
本実施の形態に係るネットワークシステム1は、上記のように構成されているため、サーバ100は、自動で、コンテンツに含まれるテキスト、画像および/または音声に、当該テキスト、画像および/または音声を説明するための情報のURLや当該情報自体を紐付けしてくれる。以下、本実施の形態に係るネットワークシステム1の具体的な構成について詳述する。
<サーバ100のハードウェア構成>
本実施の形態に係るサーバ100のハードウェア構成の一態様について説明する。図2は、本実施の形態に係るサーバ100のハードウェア構成を表わすブロック図である。
サーバ100は、CPU(Central Processing Unit)110と、メモリ120と、ディスプレイ130と、入力デバイス140、メモリインターフェイス160、通信インターフェイス170と、スピーカ190とを含む。
メモリ120は、各種のRAM(Random Access Memory)、ROM(Read-Only Memory)および/またはハードディスクなどによって実現される。メモリ120は、CPU110によって実行される制御プログラムと、データベース121とを記憶する。
データベース121は、オブジェクトと当該オブジェクトを説明する情報のURL(関連情報)とを対応付けて格納する。あるいは、データベース121は、オブジェクトと当該オブジェクトを説明する情報自体(関連情報)を格納する。たとえば、データベースは、複数の単語の各々を単語の説明文に対応付けて記憶する。あるいは、データベースは、複数の画像とその画像の説明文に対応付けて記憶する。あるいは、データベースは、音声とその音声の説明文とを対応付けて記憶する。
入力デバイス140は、タブレットやキーボードやマウスなどによって実現される。入力デバイスは、管理者(ユーザ)からの命令をCPU110に入力する。たとえば、CPU110は、入力デバイス140を介して、ユーザから、コンテンツに含まれるオブジェクトの選択と、オブジェクトを説明する情報とを受け付ける。
ディスプレイ130は、CPU110に制御されることによって、様々な情報を表示する。たとえば、CPU110は、コンテンツをディスプレイ130に表示させる。なお、ディスプレイ130と入力デバイス140としてのタブレットとがタッチパネルを構成してもよい。
メモリインターフェイス160は、外部の記憶媒体161から情報を読み出す。換言すれば、CPU110は、メモリインターフェイス160を介して外部の記憶媒体161に格納されているデータを読み出して、当該データをメモリ120に格納する。逆に、CPU110は、メモリ120からデータを読み出して、メモリインターフェイス160を介して当該データを外部の記憶媒体161に格納する。
なお、記憶媒体161としては、CD−ROM(Compact Disc - Read Only Memory)、DVD−ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。
通信インターフェイス170は、ネットワーク300を介して携帯電話200とデータを送受信する。たとえば、通信インターフェイス170は、携帯電話200から、編集対象のコンテンツを受信する。通信インターフェイス170は、CPU110からの命令に基づいて、携帯電話200に編集されたコンテンツを送信する。通信インターフェイス170は、携帯電話200から、選択されたオブジェクトおよび当該オブジェクトの説明文を受信する。
スピーカ190は、CPU110からの命令に基づいて、音声を出力する。たとえば、CPU110は、音声データに基づいて、スピーカ190に音声を出力させる。
CPU110は、メモリ120に記憶されている各種のプログラムを実行する。サーバ100における機能および処理(図6,9,10,11などを参照。)は、各ハードウェアおよびCPU110により実行されるソフトウェアによって実現される。このようなソフトウェアは、メモリ120に予め記憶されている場合がある。また、ソフトウェアは、上述した記憶媒体に格納されて、プログラム製品として流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。
<携帯電話200のハードウェア構成>
本実施の形態に係る携帯電話200のハードウェア構成の一態様について説明する。図3は、本実施の形態に係る携帯電話200のハードウェア構成を表わすブロック図である。
携帯電話200は、CPU210と、メモリ220と、ディスプレイ230と、入力デバイス240、メモリインターフェイス260、通信インターフェイス270と、スピーカ290とを含む。
メモリ220は、各種のRAM(Random Access Memory)、ROM(Read-Only Memory)および/またはハードディスクなどによって実現される。メモリ220は、CPU210によって実行される制御プログラムと、コンテンツとを記憶する。
ディスプレイ230は、CPU210に制御されることによって、様々な情報を表示する。たとえば、CPU210は、コンテンツをディスプレイ230に表示させる。
入力デバイス240は、タブレットやキーボードやマウスなどによって実現される。入力デバイスは、ユーザからの命令を受け付けて、CPU210に入力する。たとえば、CPU210は、入力デバイス240を介して、ユーザから、コンテンツに含まれるオブジェクトの選択と、オブジェクトを説明する情報とを受け付ける。
本実施の形態においては、ディスプレイ230の表面にタブレット(入力デバイス240)が敷設されている。すなわち、本実施の形態においては、ディスプレイ230とタブレットとがタッチパネル250を構成する。ただし、携帯電話200は、タブレットを有していなくとも良い。
メモリインターフェイス260は、外部の記憶媒体261から情報を読み出す。CPU210は、メモリインターフェイス260を介して外部の記憶媒体261に格納されているデータを読み出して、当該データをメモリ220に格納する。逆に、CPU210は、メモリ220からデータを読み出して、メモリインターフェイス260を介して当該データを外部の記憶媒体261に格納する。
なお、記憶媒体261としては、CD−ROM(Compact Disc - Read Only Memory)、DVD−ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。
通信インターフェイス270は、ネットワーク300を介してサーバ100とデータを送受信する。たとえば、通信インターフェイス270は、CPU210からの命令に基づいて、サーバ100に、コンテンツを送信する。通信インターフェイス270は、CPU210からの命令に基づいて、サーバ100に、選択されたオブジェクトおよび当該オブジェクトの説明文を送信する。通信インターフェイス270は、サーバ100からの編集されたコンテンツをCPU210に入力する。
スピーカ290は、CPU210からの命令に基づいて、音声を出力する。たとえば、CPU210は、音声データに基づいて、スピーカ290に音声を出力させる。
CPU210は、メモリ220に記憶されている各種のプログラムを実行する。携帯電話200における機能および処理は、各ハードウェアおよびCPU210により実行されるソフトウェアによって実現される。このようなソフトウェアは、メモリ220に予め記憶されている場合がある。また、ソフトウェアは、上述した記憶媒体に格納されて、プログラム製品として流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。
<サーバ100におけるテキストデータを含むコンテンツの編集処理>
次に、本実施の形態に係るサーバ100におけるコンテンツ編集処理について説明する。ここでは、テキストデータを含むコンテンツの編集処理について説明する。図4は、本実施の形態に係るサーバ100におけるテキストデータを含むコンテンツの編集処理の処理手順を示すフローチャートである。ここでは、CPU110が、データベース121を参照することによって、テキストに含まれる単語に、当該単語を説明する情報の格納場所を示すURLを紐付ける。
図4を参照して、CPU110は、通信インターフェイス170を介して携帯電話200からコンテンツを受信する(ステップS102)。たとえば、CPU110は、受信したデータからテキストデータD102を取得する。
CPU110は、テキストデータD102の解析処理を実行する(ステップS104)。たとえば、CPU110は、テキストの形態素解析を行う。CPU110は、形態素(単語)に分割されたテキストデータD104を取得する。
CPU110は、各単語をデータベース121で検索する(ステップS106)。CPU110は、単語(たとえば、「アクセスポイント」という単語)に、当該単語に対応する関連情報(アクセスポイントの説明文を取得するためのURL)を紐付けることによって、コンテンツを編集する。
CPU110は、テキストデータD106を含む、編集されたコンテンツを携帯電話200に送信する(ステップS108)。
これによって、携帯電話200のCPU210は、ディスプレイ230に編集されたコンテンツを表示する。携帯電話200のCPU210は、関連情報に紐付けされた単語のフォントが他の単語のフォントを異なる状態で、ディスプレイ230にコンテンツを表示する。たとえば、携帯電話200のCPU210は、関連情報に紐付けされた単語の色を青に設定し、他の単語の色を黒に設定する。あるいは、携帯電話200のCPU210は、関連情報に紐付けされた単語に下線を付し、他の単語には下線を付さない。
なお、サーバ100が、単体で処理を完結してもよい。すなわち、サーバ100が、編集されたコンテンツを表示してもよい。より詳細には、ステップS102において、CPU110が、外部の装置あるいは記録媒体からコンテンツを受信する。あるいは、CPU110が、入力デバイス140を介して、ユーザからコンテンツを受け付ける。そして、ステップS108において、CPU110が、編集されたコンテンツをディスプレイ130に表示させる。
<ネットワークシステム1における説明取得処理の動作概要>
次に、本実施の形態に係るネットワークシステム1における説明取得処理の動作概要について説明する。図5は、本実施の形態に係るネットワークシステム1における説明取得処理の動作概要を示すフローチャートである。
図5を参照して、携帯電話200のCPU210は、ユーザから、関連情報が紐付けされた単語(第1のオブジェクト)の選択命令を受け付ける。たとえば、ユーザが、タッチパネル250に表示されているアクセスポイントという単語にタッチする。
CPU210は、選択された単語に紐付けられているURLに基づいて、通信インターフェイス270を介して、サーバ100に当該単語を説明するための情報を要求する。選択された単語に紐付けられているURLが他のサーバ400に属するものであってもいよい。
CPU210は、通信インターフェイス270を介して、サーバ100から、選択された単語を説明する情報を受信する。CPU210は、選択された単語を説明する情報をディスプレイ230に表示する。たとえば、CPU210は、アクセスポイントという単語を説明するテキストと画像とをディスプレイ230に表示させる。
なお、サーバ100で処理が完結する場合には、サーバ100のCPU110は、入力デバイス140を介して、管理者(ユーザ)から、関連情報が紐付けされた単語(第1のオブジェクト)の選択命令を受け付ける。CPU110は、選択された単語に紐付けられているURLに基づいて、当該単語を説明するための情報を取得する。CPU110は、選択された単語を説明する情報をディスプレイ130に表示する。たとえば、CPU110は、アクセスポイントという単語を説明するテキストと画像とをディスプレイ130に表示させる。
<サーバ100におけるテキストデータを含むコンテンツの編集処理の変形例>
次に、テキストデータを含むコンテンツの編集処理の変形例について説明する。図6は、本実施の形態に係るサーバ100におけるテキストデータを含むコンテンツの編集処理の変形例の処理手順を示すフローチャートである。ここでは、CPU110が、データベース121を参照することによって、テキストに含まれる単語に、当該単語を説明する情報を格納するファイルの識別情報と紐付けし、コンテンツに当該ファイルを追加する。あるいは、CPU110が、データベース121を参照することによって、テキストに含まれる単語に、当該単語の説明文自体を紐付ける。
図6を参照して、CPU110は、通信インターフェイス170を介して携帯電話200からコンテンツを受信する(ステップS102)。たとえば、CPU110は、受信したデータからテキストデータD102を取得する。
CPU110は、テキストデータD102の解析処理を実行する(ステップS104)。たとえば、CPU110は、テキストの形態素解析を行う。CPU110は、形態素(単語)に分割されたテキストデータD104を取得する。
CPU110は、各単語をデータベース121で検索する(ステップS116)。CPU110は、単語(たとえば、「アクセスポイント」という単語)に、当該単語に対応する関連情報(アクセスポイントの説明文を格納するファイルの識別情報)を紐付けて、当該ファイルをコンテンツに追加することによって、コンテンツを編集する。あるいは、CPU110は、単語に、当該単語に対応する関連情報(説明文自体)を紐付けることによって、コンテンツを編集する。
CPU110は、テキストデータD116を含む、編集されたコンテンツを携帯電話200に送信する(ステップS118)。
これによって、携帯電話200のCPU210は、ディスプレイ230に編集されたコンテンツを表示する。携帯電話200のCPU210は、関連情報に紐付けされた単語のフォントが他の単語のフォントを異なる状態で、ディスプレイ230にコンテンツを表示する。たとえば、携帯電話200のCPU210は、関連情報に紐付けされた単語の色を青に設定し、他の単語の色を黒に設定する。あるいは、携帯電話200のCPU210は、関連情報に紐付けされた単語に下線を付し、他の単語には下線を付さない。
携帯電話200のCPU210は、ユーザから、単語の選択命令を受け付ける。たとえば、ユーザが、タッチパネル250に表示されているアクセスポイントという単語にタッチする。
CPU210は、選択された単語(アクセスポイント)に紐付けられている関連情報に基づいて、選択された単語を説明する情報をディスプレイ230に表示する。たとえば、CPU210は、アクセスポイントという単語を説明するテキストと画像とをディスプレイ230に表示する。
なお、サーバ100が、単体で処理を完結してもよい。すなわち、サーバ100が、編集されたコンテンツを表示してもよい。より詳細には、ステップS102において、CPU110が、外部の装置あるいは記録媒体からコンテンツを受信する。あるいは、CPU110が、入力デバイス140を介して、ユーザからコンテンツを受け付ける。そして、ステップS118において、CPU110が、編集されたコンテンツをディスプレイ130に表示させる。
そして、サーバ100のCPU110は、入力デバイス140を介して、管理者(ユーザ)から、関連情報が紐付けされている単語(第1のオブジェクト)の選択命令を受け付ける。CPU110は、選択された単語(アクセスポイント)に紐付けられている関連情報に基づいて、選択された単語を説明する情報をディスプレイ130に表示する。たとえば、CPU110は、アクセスポイントという単語を説明するテキストと画像とをディスプレイ130に表示する。
<ネットワークシステム1における関連情報登録処理の動作概要>
次に、本実施の形態に係るネットワークシステム1における関連情報登録処理の動作概要について説明する。図7は、本実施の形態に係るネットワークシステム1における関連情報登録処理の動作概要を示すフローチャートである。
図7(A)を参照して、携帯電話200のCPU210は、ユーザから、関連情報が紐付けられていない単語(第2のオブジェクト)の選択命令を受け付ける。たとえば、ユーザが、タッチパネル250に表示されている「電子機器」という単語の上で指をスライドさせる。
図7(B)を参照して、CPU210は、入力デバイス240(タッチパネル250)を介して、ユーザから、選択された単語の説明文の入力を受け付ける。CPU210は、ユーザがOKボタンにタッチしたことを検知して、通信インターフェイス270を介して、サーバ100に当該単語と当該説明文とを送信する。
サーバ100のCPU110は、通信インターフェイス170を介して、携帯電話200から当該単語と当該説明文とを受信する。CPU110は、当該単語と当該説明文とをデータベース121に登録する。
本実施の形態においては、携帯電話200のCPU210は、ユーザがOKボタンにタッチしたことを検知して、通信インターフェイス270を介して、サーバ100に当該コンテンツも送信する。サーバ100のCPU110は、更新後のデータベースを参照して、コンテンツを編集する。CPU110は、通信インターフェイス170を介して、編集されたコンテンツを携帯電話200に送信する。
図7(C)に示すように、携帯電話200のCPU210は、ディスプレイ230に編集されたコンテンツを表示する。すなわち、CPU210は、関連情報に紐付けされた単語(「電子機器」と「アクセスポイント」)のフォントが他の単語のフォントを異なる状態で、ディスプレイ230にコンテンツを表示する。
なお、サーバ100が管理者(ユーザ)から新たな関連情報の入力を受け付けてもよい。より詳細には、サーバ100のCPU110が、入力デバイス140を介して、管理者(ユーザ)から、単語の選択命令を受け付ける。CPU110は、入力デバイス140を介して、管理者(ユーザ)から、選択された単語の説明文の入力を受け付ける。CPU110は、管理者(ユーザ)がOKボタンにタッチしたことを検知して、当該単語と当該説明文とをデータベース121に登録する。
なお、サーバ100は、関連情報に紐付けされている単語の関連情報を更新してもよいし、関連情報に紐付けされていない新たな単語の関連情報をデータベース121に登録してもよい。
CPU110は、更新後のデータベース121を参照して、ディスプレイ130に表示されているコンテンツを編集する。CPU110は、ディスプレイ130に編集されたコンテンツを表示する。すなわち、CPU110は、関連情報に紐付けされた単語(「電子機器」と「アクセスポイント」)のフォントが他の単語のフォントを異なる状態で、ディスプレイ130にコンテンツを表示する。
<更新後のネットワークシステム1の動作概要>
データベース121が更新された後のネットワークシステム1の動作概要は以下のようになる。図8は、本実施の形態に係るデータベース121が更新された後のネットワークシステム1の動作概要とを示すイメージ図である。
図8を参照して、携帯電話200が、新たなコンテンツの入力を受け付ける(ステップS002)。携帯電話200は、ユーザからの命令(検索命令あるいは紐付け命令)に基づいて、ネットワーク300を介して当該コンテンツをサーバ100に送信する(ステップS004)。
サーバ100は、受信したコンテンツに基づいて、コンテンツを解析する(ステップS006)。サーバ100は、更新後のデータベース121を参照して、当該オブジェクトを検索する(ステップS008)。より詳細には、サーバ100は、更新されたデータベース121から、当該オブジェクトに対応する関連情報を読み出す。
サーバ100は、コンテンツを編集する(ステップS010)。サーバ100は、関連情報を有するコンテンツを携帯電話200に送信する(ステップS012)。携帯電話200は、受信したコンテンツをディスプレイ230に表示する(ステップS014)。携帯電話200は、関連情報が紐付けられたオブジェクト(「アクセスポイント」と言う単語と「電子機器」という単語)を、他のオブジェクトとは異なる形態で表示する。
携帯電話200は、ユーザから、コンテンツに含まれるオブジェクトの選択命令を受け付ける。(ステップS016)。携帯電話200は、選択されたオブジェクトを説明するための情報を表示する(ステップS018)。
<サーバ100における第1の画像データを含むコンテンツの編集処理>
次に、本実施の形態に係るサーバ100における第1の画像データを含むコンテンツの編集処理について説明する。図9は、本実施の形態に係るサーバ100における第1の画像データを含むコンテンツの編集処理の処理手順を示すフローチャートである。
ここでは、画像データが、楽譜の画像を示す場合について説明する。メモリ120は、複数の音符の形状を記憶する。データベース121では、五線と音符とを含む複数の画像の各々が、当該画像に対応する音階を示す情報に対応付けられている。
図9を参照して、CPU110は、通信インターフェイス170を介して携帯電話200からコンテンツを受信する(ステップS202)。たとえば、CPU110は、受信したデータから画像データD202を取得する。
CPU110は、画像データD202の解析処理を実行する(ステップS204)。たとえば、CPU110は、画像データD202に横のフィルタを適用することによって、五線の画像を示す画像データD204を取得する。
CPU110は、画像データD202と画像データD204との差分から、五線を除いた画像(画像データD206)を抽出する(ステップS206)。
CPU110は、画像データD206に含まれる画像の各々と、メモリ120に記憶されている音符の形状とをマッチングする(ステップS208)。CPU110は、音符の形状にマッチした画像と五線の画像とを重ねた画像(画像データD208)を作成する。
CPU110は、音符と五線との画像(オブジェクト)をデータベース121で検索する(ステップS210)。CPU110は、音符と五線との画像(オブジェクト)の下方に関連情報(音階を示す情報)を付加する(紐付ける)ことによって、コンテンツを編集する。
CPU110は、画像データD210を含む、編集されたコンテンツを携帯電話200に送信する(ステップS212)。
これによって、携帯電話200のCPU210は、ディスプレイ230に編集されたコンテンツを表示する。携帯電話200のCPU210は、音符の下に音階が表示された状態で、ディスプレイ230にコンテンツを表示する。
なお、サーバ100が、単体で処理を完結してもよい。すなわち、サーバ100が、編集されたコンテンツを表示してもよい。より詳細には、ステップS202において、CPU110が、外部の装置あるいは記録媒体からコンテンツを受信する。あるいは、CPU110が、入力デバイス140を介して、ユーザからコンテンツを受け付ける。そして、ステップS212において、CPU110が、編集されたコンテンツをディスプレイ130に表示させる。
<サーバ100における第2の画像データを含むコンテンツの編集処理>
次に、本実施の形態に係るサーバ100における第2の画像データを含むコンテンツの編集処理について説明する。図10は、本実施の形態に係るサーバ100における第2の画像データを含むコンテンツの編集処理の処理手順を示すフローチャートである。
ここでは、画像データが、人物の画像を表わす場合について説明する。データベース121では、人物の画像の各々が、当該人物を説明する情報を示す関連情報に対応付けられている。
図10を参照して、CPU110は、通信インターフェイス170を介して携帯電話200からコンテンツを受信する(ステップS302)。たとえば、CPU110は、受信したデータから画像データD302を取得する。
CPU110は、画像データD302の解析処理を実行する(ステップS304)。たとえば、CPU110は、画像からエッジを検出することによって、画像データD302から顔画像(オブジェクト)毎に顔画像データD304を抽出する。
CPU110は、顔画像データD304をデータベース121で検索する(ステップS306)。CPU110は、顔画像に対応する関連情報(人物の説明文を示す情報)をコンテンツのマッピング情報D306として作成する。
CPU110は、画像データD302とマッピング情報D306とをアーカイブすることによって、コンテンツを編集する(ステップS308)。
CPU110は、編集されたコンテンツデータD308を携帯電話200に送信する(ステップS310)。
これによって、携帯電話200のCPU210は、ディスプレイ230に編集されたコンテンツを表示する。携帯電話200のCPU210は、画像と、関連情報に紐付けされた顔画像を示すマーカ230Aとを、ディスプレイ230に表示する。ユーザがタッチパネル250の人物にタッチすると、すなわちCPU210が入力デバイス240を介して人物の選択命令を受け付けると、CPU210は、マッピング情報に基づいて当該人物の説明文をディスプレイ230に表示させる。
なお、サーバ100が、単体で処理を完結してもよい。すなわち、サーバ100が、編集されたコンテンツを表示してもよい。より詳細には、ステップS302において、CPU110が、外部の装置あるいは記録媒体からコンテンツを受信する。あるいは、CPU110が、入力デバイス140を介して、ユーザからコンテンツを受け付ける。そして、ステップS310において、CPU110が、編集されたコンテンツをディスプレイ130に表示させる。
サーバ100のCPU110は、画像と、関連情報に紐付けされた顔画像を示すマーカとを、ディスプレイ130に表示する。CPU110は、入力デバイス140を介して、ユーザによる人物の選択命令を受け付けると、マッピング情報に基づいて当該人物の説明文をディスプレイ130に表示させる。
<サーバ100における音声データを含むコンテンツの編集処理>
次に、音声データを含むコンテンツの編集処理について説明する。図11は、本実施の形態に係るサーバ100における音声データを含むコンテンツの編集処理の処理手順を示すフローチャートである。ここでは、CPU110が、データベース121を参照することによって、音声データに、当該音声を説明する情報の格納場所を示すURLを関連付ける(紐付ける)。
図11を参照して、CPU110は、通信インターフェイス170を介して携帯電話200からコンテンツを受信する(ステップS402)。たとえば、CPU110は、index.htmlと音声データとを含むコンテンツD402を取得する。
CPU110は、コンテンツD402の解析処理を実行する(ステップS404)。CPU110は、音声データをデータベース121で検索する(ステップS404)。
CPU110は、index.fileに音声データの関連情報(音声データの説明文を取得するためのURL)を追加して(紐付けして)、関連情報を表示するためのアイコンの画像データをコンテンツに追加することによって、コンテンツを編集する(ステップS406)。
CPU110は、編集されたコンテンツデータD406を携帯電話200に送信する(ステップS408)。
これによって、携帯電話200のCPU210は、ディスプレイ230に編集されたコンテンツを表示する。携帯電話200のCPU210は、index.htmlに基づいてテキストや画像を表示した状態で、音声データに基づいてスピーカ290から音声を出力し、関連情報を取得するためのアイコン230Bをディスプレイ230に表示する。ユーザがタッチパネル250のアイコン230Bにタッチすると、すなわちCPU210が入力デバイス240を介してユーザからアイコン230Bの選択命令を受け付けると、CPU210は当該音声の説明文をディスプレイ230に表示させる。
なお、サーバ100が、単体で処理を完結してもよい。すなわち、サーバ100が、編集されたコンテンツを表示してもよい。より詳細には、ステップS402において、CPU110が、外部の装置あるいは記録媒体からコンテンツを受信する。あるいは、CPU110が、入力デバイス140を介して、ユーザからコンテンツを受け付ける。そして、ステップS408において、CPU110が、編集されたコンテンツをディスプレイ130に表示させる。
サーバ100のCPU110は、index.htmlに基づいてテキストや画像を表示した状態で、音声データに基づいてスピーカ190から音声を出力し、関連情報を取得するためのアイコンをディスプレイ130に表示する。CPU110は、入力デバイス140を介してアイコンの選択命令を受け付けると、当該音声の説明文をディスプレイ130に表示させる。
<編集パラメータの利用>
次に、クライアントである携帯電話200が、コンテンツとともに編集パラメータをサーバ100に送信する構成について説明する。図12は、携帯電話200が編集パラメータをサーバ100に送信する場合における、ネットワークシステム1の動作概要を説明するための図である。
図12を参照して、携帯電話200は、編集パラメータを予め記憶している。携帯電話200は、コンテンツの入力を受け付ける(ステップS002)。上述したように、携帯電話200は、外部の装置あるいは記録媒体からコンテンツを受信してもよいし、ユーザからコンテンツの入力を受け付けてもよい。携帯電話200は、取得したコンテンツをディスプレイ230に表示する。
携帯電話200は、ユーザからの命令に基づいて、ネットワーク300を介して当該コンテンツおよび当該編集パラメータをサーバ100に送信する(ステップS004)。ただし、携帯電話200は、コンテンツを取得した際に自動的にサーバ100に送信しても良い。
サーバ100は、受信したコンテンツに基づいて、コンテンツを解析する(ステップS006)。次いで、サーバ100は、データベース121を参照して、当該オブジェクトを検索する(ステップS008)。サーバ100は、受信した編集パラメータに基づいて、コンテンツを編集する(ステップS010)。つまり、サーバ100は、編集パラメータに応じてコンテンツの編集内容を変える。サーバ100は、編集されたコンテンツを携帯電話200に送信する(ステップS012)。携帯電話200は、受信したコンテンツをディスプレイ230に表示する(ステップS014)。その他の処理(S016、S018等)は、図1等で説明した内容と同じであるので、ここでは説明を繰り返えさない。
編集パラメータとしては、たとえば、以下のような3つの例が挙げられる。
(第1の例)
編集パラメータは、画面サイズなどの端末固有の情報である。携帯電話かタブレット端末かで、表示パネルのサイズが異なる。そこで、編集パラメータに表示パネルのサイズの情報を含めることにより、端末が携帯電話であれば文字だけの解説を端末に表示させ、端末が携帯電話よりも表示パネルのサイズが大きいタブレット端末であれば文字と画像との解説を端末に表示させるように、サーバ100における編集内容を変えることが可能となる。
(第2の例)
編集パラメータは、ユーザが設定した情報である。なお、この場合、クライアント側の端末に編集パラメータを入力する手段が必要となる。
初心者(たとえば、端末の各種設定処理に慣れていない者)と、上級者(端末の各種設定処理に習熟している者)とでは、解説の必要性や解説すべき事項が異なる。このため、たとえば、編集パラメータにユーザのレベルを示した情報を含めることにより、ユーザのレベルに応じた解説を端末に表示させることができる。また、たとえば、編集パラメータに管理者か一般社員かを示した情報を含めることにより、ユーザの地位(権限)に応じた表示内容を端末に表示させることができる。以上のように、編集パラメータを利用することによって、解説の詳細度合を調整可能となる。
(第3の例)
編集パラメータは、ユーザの操作情報を元に端末が決定した情報である。なお、この場合、クライアント側である端末に編集パラメータを自動的に作成する手段が必要となる。
ユーザによって興味がある事柄(嗜好)は異なる。そこで、編集パラメータにユーザの嗜好を示した情報を含めることにより、当該嗜好にあった解説を端末に表示させることが可能となる。
<その他の実施の形態>
本発明は、ホームコントローラや家電や携帯電話にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、本発明の効果を享受することが可能となる。
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 ネットワークシステム、100 サーバ、110 CPU、120 メモリ、121 データベース、130 ディスプレイ、140 入力デバイス、160 メモリインターフェイス、161 記憶媒体、170 通信インターフェイス、190 スピーカ、200 携帯電話、210 CPU、220 メモリ、230 ディスプレイ、230B アイコン、240 入力デバイス、250 タッチパネル、260 メモリインターフェイス、261 記憶媒体、270 通信インターフェイス、300 ネットワーク、400 サーバ。

Claims (7)

  1. 複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースと、
    取得したコンテンツから少なくとも1つのオブジェクトを抽出し、前記データベースから前記少なくとも1つのオブジェクトに対応する関連情報を読み出し、前記少なくとも1つのオブジェクトと前記関連情報とを紐付けすることによって前記コンテンツを編集し、編集された前記コンテンツを出力するためのプロセッサとを備える、電子機器。
  2. ディスプレイをさらに備え、
    前記プロセッサは、編集された前記コンテンツを前記ディスプレイに表示させる、請求項1に記載の電子機器。
  3. 前記コンテンツから前記関連情報が紐付けられた第1のオブジェクトを選択するための命令を受け付けるための入力デバイスをさらに備え、
    前記プロセッサは、選択された前記第1のオブジェクトに紐付けされた前記関連情報に基づいて、前記第1のオブジェクトを説明するための第1の情報を前記ディスプレイに表示する、請求項2に記載の電子機器。
  4. 前記プロセッサは、前記コンテンツを編集するためのパラメータをさらに取得し、当該パラメータに基づいて前記コンテンツを編集する、請求項1から3のいずれか1項に記載の電子機器。
  5. 電子機器と端末とを備えるネットワークシステムであって、
    前記電子機器は、
    複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースと、
    前記端末からコンテンツを受信するための第1の通信インターフェイスと、
    前記コンテンツから少なくとも1つのオブジェクトを抽出し、前記データベースから前記少なくとも1つのオブジェクトに対応する関連情報を読み出し、前記少なくとも1つのオブジェクトと前記関連情報とを紐付けすることによって前記コンテンツを編集し、編集された前記コンテンツを出力するための第1のプロセッサとを含み、
    前記端末は、
    ディスプレイと、
    前記コンテンツを前記電子機器へ送信し、編集された前記コンテンツを前記電子機器から受信するための第2の通信インターフェイスと、
    編集された前記コンテンツを前記ディスプレイに表示させるための第2のプロセッサとを含む、ネットワークシステム。
  6. 複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースとプロセッサとを含む電子機器におけるコンテンツ編集方法であって、
    前記プロセッサが、コンテンツを取得するステップと、
    前記プロセッサが、前記コンテンツから少なくとも1つのオブジェクトを抽出するステップと、
    前記プロセッサが、前記データベースから前記少なくとも1つのオブジェクトに対応する関連情報を読み出すステップと、
    前記プロセッサが、前記少なくとも1つのオブジェクトと前記関連情報とを紐付けすることによって前記コンテンツを編集するステップと、
    前記プロセッサが、編集された前記コンテンツを出力するステップとを備えるコンテンツ編集方法。
  7. 複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースを有する電子機器と端末とを含むネットワークシステムにおけるコンテンツ編集方法であって、
    前記端末が、コンテンツを前記電子機器に送信するステップと、
    前記電子機器が、前記コンテンツから少なくとも1つのオブジェクトを抽出するステップと、
    前記電子機器が、前記データベースから前記少なくとも1つのオブジェクトに対応する関連情報を読み出すステップと、
    前記電子機器が、前記少なくとも1つのオブジェクトと前記関連情報とを紐付けすることによって前記コンテンツを編集するステップと、
    前記電子機器が、編集された前記コンテンツを出力するステップと備える、コンテンツ編集方法。
JP2011234801A 2010-10-28 2011-10-26 電子機器、ネットワークシステム、およびコンテンツ編集方法 Pending JP2012108899A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011234801A JP2012108899A (ja) 2010-10-28 2011-10-26 電子機器、ネットワークシステム、およびコンテンツ編集方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010241935 2010-10-28
JP2010241935 2010-10-28
JP2011234801A JP2012108899A (ja) 2010-10-28 2011-10-26 電子機器、ネットワークシステム、およびコンテンツ編集方法

Publications (1)

Publication Number Publication Date
JP2012108899A true JP2012108899A (ja) 2012-06-07

Family

ID=46494403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011234801A Pending JP2012108899A (ja) 2010-10-28 2011-10-26 電子機器、ネットワークシステム、およびコンテンツ編集方法

Country Status (1)

Country Link
JP (1) JP2012108899A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014029684A (ja) * 2012-06-28 2014-02-13 Canon Marketing Japan Inc 電子書籍端末、情報処理方法、プログラム
CN111753814A (zh) * 2019-03-26 2020-10-09 杭州海康威视数字技术股份有限公司 样本生成方法、装置及设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175299A (ja) * 2000-09-29 2002-06-21 Ricoh Co Ltd 情報提供方法、情報提供装置及び情報提供プログラムを格納する記憶媒体
JP2003208384A (ja) * 2002-01-11 2003-07-25 Ricoh Co Ltd 情報提供方法及び情報提供装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175299A (ja) * 2000-09-29 2002-06-21 Ricoh Co Ltd 情報提供方法、情報提供装置及び情報提供プログラムを格納する記憶媒体
JP2003208384A (ja) * 2002-01-11 2003-07-25 Ricoh Co Ltd 情報提供方法及び情報提供装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015047587; Microsoft▲R▼ Word 98 for Windows▲R▼ 活用ガイド 初版第5刷, 19980530, 317頁, マイクロソフト株式会社 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014029684A (ja) * 2012-06-28 2014-02-13 Canon Marketing Japan Inc 電子書籍端末、情報処理方法、プログラム
CN111753814A (zh) * 2019-03-26 2020-10-09 杭州海康威视数字技术股份有限公司 样本生成方法、装置及设备
CN111753814B (zh) * 2019-03-26 2023-07-25 杭州海康威视数字技术股份有限公司 样本生成方法、装置及设备

Similar Documents

Publication Publication Date Title
JP5257330B2 (ja) 発言記録装置、発言記録方法、プログラム及び記録媒体
CN101998107B (zh) 信息处理装置、会议***和信息处理方法
JP4935658B2 (ja) ブラウザプログラムおよび情報処理装置
JP2005174026A (ja) 情報処理装置及びその制御方法、プログラム
JP2009146041A (ja) コミュニケーション支援方法、システムおよびサーバ装置
JP5437340B2 (ja) ビューワ装置、サーバ装置、表示制御方法、電子コミック編集方法及びプログラム
JP6206202B2 (ja) 情報処理装置及び情報処理プログラム
JP5002283B2 (ja) 情報処理装置および情報処理方法
KR100874289B1 (ko) 전자 펜-컴퓨터 멀티미디어 대화형 시스템
CN110782899B (zh) 信息处理装置、存储介质及信息处理方法
JP2012108899A (ja) 電子機器、ネットワークシステム、およびコンテンツ編集方法
JP2017102939A (ja) オーサリング装置、オーサリング方法、およびプログラム
JP2019101739A (ja) 情報処理装置、情報処理システムおよびプログラム
CN115061580A (zh) 输入方法、装置、电子设备及可读存储介质
JP5008248B2 (ja) 表示処理装置、表示処理方法、表示処理プログラム、および記録媒体
JP5612975B2 (ja) セリフデータ生成装置、セリフデータ生成方法、及びプログラム
JP6458358B2 (ja) 画像処理装置及びプログラム
US20190318192A1 (en) Information processing apparatus, and non-transitory computer readable medium
JP6580927B2 (ja) カラオケ用制御装置及びプログラム
JP6168422B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2000194532A (ja) オブジェクト選択処理装置、及び記憶媒体
JP2007004429A (ja) 文書処理装置
JP5843235B2 (ja) Web情報処理装置、web情報処理方法、およびプログラム
JP2019053461A (ja) 画像処理装置、プログラム及び画像データ
JP2002278874A (ja) 電子伝言板システムおよび伝言板プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150804

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151201