JP6089828B2 - 情報処理システムおよび情報処理方法 - Google Patents

情報処理システムおよび情報処理方法 Download PDF

Info

Publication number
JP6089828B2
JP6089828B2 JP2013054416A JP2013054416A JP6089828B2 JP 6089828 B2 JP6089828 B2 JP 6089828B2 JP 2013054416 A JP2013054416 A JP 2013054416A JP 2013054416 A JP2013054416 A JP 2013054416A JP 6089828 B2 JP6089828 B2 JP 6089828B2
Authority
JP
Japan
Prior art keywords
image
information
service
identification information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013054416A
Other languages
English (en)
Other versions
JP2014182406A (ja
Inventor
伊藤 篤
篤 伊藤
村田 淳
淳 村田
宣之 岸
宣之 岸
酒寄 哲也
哲也 酒寄
國枝 孝之
孝之 國枝
高信 田中
高信 田中
紘史 山口
紘史 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013054416A priority Critical patent/JP6089828B2/ja
Priority to US14/193,922 priority patent/US9514718B2/en
Priority to CN201410088421.4A priority patent/CN104052786B/zh
Publication of JP2014182406A publication Critical patent/JP2014182406A/ja
Application granted granted Critical
Publication of JP6089828B2 publication Critical patent/JP6089828B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/53Network services using third party service providers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06316Sequencing of tasks or work
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Quality & Reliability (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、複数のサービスに係る情報を処理する情報処理システムおよび情報処理方法に関する。
近年、通信ネットワークの普及により、ネットワークを介して様々なサービスが提供されている。特許文献1には、各ユーザが描画したキャラクタを用いてネットワークを介して対戦を行う対戦ゲームが開示されている。
また、近年では、ネットワーククラウドを用いてサービスを提供するシステムが増加している。ネットワーククラウドは、互いにネットワークで接続される複数のコンピュータを含み、外部からは、その内部が隠蔽されたブラックボックスとして入出力のみが示されるネットワーク・グループである。例えばネットワーククラウドにて複数のサービスが提供される場合、ユーザは、サービスの所在を意識すること無く、複数のサービスから所望のサービスを選択して利用することができる。
従来では、ネットワーククラウドにより提供される複数のサービスそれぞれに対して専用のアプリケーションが用意されていた。したがって、ユーザは、複数のサービスそれぞれに対応する複数のアプリケーションを一々端末装置にインストールしなくてはならず、煩わしかった。
また、複数のサービスからサービスを選択して利用する1のアプリケーションを用意することも可能である。しかしながら、この場合であっても、ユーザは、複数のサービスから所望のサービスを選択する動作が必要であり、煩わしいと共に、誤操作を誘発するおそれもあった。
本発明は、上記を鑑みてなされたものであって、ネットワークを介して提供される複数のサービスを容易に利用可能とすることを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、端末装置と情報処理装置とを備える情報処理システムであって、端末装置は、ユーザにサービスを提供する際に用いられる機器または用紙から、サービスを識別するサービス識別情報を取得する第1取得部と、サービス識別情報が機器から取得された場合に機器を識別する機器識別情報を取得し、サービス識別情報が用紙から取得された場合に端末装置を識別する識別情報を機器識別情報として取得する第2取得部と、サービス識別情報と機器識別情報と画像とを送信する送信部とを有し、情報処理装置は、サービスを構成する処理を指定する情報をそれぞれ含む複数のワークフロー情報を保持する保持部と、端末装置から送信されたサービス識別情報と機器識別情報と画像とを受信する受信部と、サービス識別情報と機器識別情報とに応じたワークフロー情報を、ワークフロー情報から選択する選択部と、選択部で選択されたワークフロー情報に従い、画像を動画を含む画像に加工するサービスを実行する実行部とを有することを特徴とする。
本発明によれば、ネットワークを介して提供される複数のサービスを容易に利用可能となるという効果を奏する。
図1は、実施形態による情報処理システムの概要を説明するための図である。 図2は、実施形態に係るサーバ装置およびユーザ端末の機能を説明するための機能ブロック図である。 図3は、実施形態に係る、コンテンツデータとサイネージ機器とを関連付けるコンテンツテーブルの例を示す図である。 図4は、実施形態に係るワークフロー特定テーブルの例を示す図である。 図5は、実施形態に係るサーバ装置のハードウェアの一例の構成を示すブロック図である。 図6は、実施形態に係るユーザ端末のハードウェアの一例の構成を示すブロック図である。 図7−1は、実施形態に係る、制御部によるワークフロー特定テーブルの参照処理の例を示すフローチャートである。 図7−2は、実施形態に係る、制御部によるワークフロー特定テーブルの参照処理の例を示すフローチャートである。 図8は、実施形態に係るワークフロー情報の一例の構成を示す図である。 図9は、実施形態に係る情報処理システムにより提供される第1のサービス例について説明するための図である。 図10は実施形態に係る情報処理システムにより提供される第2のサービス例について説明するための図である。 図11は実施形態に係る情報処理システムにより提供される第2のサービス例について説明するための図である。 図12は、実施形態に係る、キャラクタ画像がディスプレイに映し出された様子を示す図である。 図13は、実施形態に係る情報処理システムにより提供される第3のサービス例について説明する図である。
以下に添付図面を参照して、情報処理システム、情報処理装置および情報処理方法の実施形態を詳細に説明する。
図1を用いて、実施形態による情報処理システム1の概要について説明する。情報処理システム1は、複数のサービス11A、11B、11C、…を実行する情報処理装置としてのサーバ装置10を有する。サーバ装置10は、1台のコンピュータで構成してもよいし、互いに接続される複数台のコンピュータにより分散的に構成してもよい。また、サーバ装置10は、ネットワーククラウド上に構成されていてもよい。
ユーザ端末13は、例えば多機能携帯電話または多機能PHS(Personal Handy-phone System)、あるいは、タブレット型パーソナルコンピュータといった、携帯可能、且つ、無線通信を用いてインターネットなどのネットワークを介した通信が可能とされた情報処理装置である。ユーザ端末13は、さらに、近距離無線通信機能を有すると好ましい。以下では、ユーザ端末13が近距離無線通信機能を有しているものとして説明を行う。ユーザ端末13は、さらに、少なくとも静止画像を撮影する撮影機能を有していると好ましい。ユーザ端末13には、実施形態による情報処理システムに係るアプリケーションが搭載される。実施形態による情報処理システム1を利用する際には、このアプリケーションを起動させる。
サイネージ機器12A、12B、…は、デジタルデータによる映像や情報を表示すると共に、通信機能を有する、電子看板と呼ばれる広告媒体であり、店舗や公共施設、観光地など一般ユーザの目に触れ易い場所に設置される。実施形態では、サイネージ機器12A、12B、…は、さらに、近距離無線通信に対応する。各サイネージ機器12A、12B、…は、例えば、各サービス11A、11B、…に対応する情報の表示を行うと共に、近距離無線通信により、表示する情報のサービスを識別するサービス識別情報(以下、サービスID)と、各サイネージ機器12A、12B、…を識別する機器識別情報(以下、機器ID)とを送信する。
なお、サーバ装置10および各サイネージ機器12A、12B、…は、互いにインターネットなどのネットワークにより接続され、サーバ装置10は、各サイネージ機器12A、12B、…のネットワーク上のアドレスを、機器IDに関連付けて保持しているものとする。
このような構成において、ユーザがサービス11Aを所望した場合の処理について、概略的に説明する。この場合、ユーザは、受けたいサービス11Aの情報が表示される例えばサイネージ機器12Aにユーザ端末13を接近させる。これにより、サイネージ機器12Aとユーザ端末13との間で近距離無線通信による通信が行われ、サイネージ機器12Aからユーザ端末13に対して、サイネージ機器12Aを識別する機器IDと、サイネージ機器12Aが提示するサービス11Aを識別するサービスIDとがユーザ端末13に送信される。
ユーザ端末13は、例えばユーザの操作に応じて、サーバ装置10に対して機器IDとサービスIDとを送信する。サーバ装置10は、ユーザ端末13から送信した機器IDとサービスIDとを受信する。サーバ装置10は、ユーザ端末13から受信して取得した機器IDとサービスIDとに基づき、サービス11Aを実行するためのワークフロー(WF)を選択する。ここで、ワークフローは、サービスを実行するための処理の組み合わせである。1のサービスに対し、複数のワークフローを定義することができる。
サーバ装置10は、選択したワークフローに従いサービス11Aを実行し、結果を例えばユーザ端末13に送信する。ユーザ端末13は、サービス11Aの内容に従い、受信したサービス11Aの実行結果に従った表示や、実行結果として受け取ったデータの記憶などを行う。これに限らず、サーバ装置10は、サービス11Aの実行結果をサイネージ機器12Aに送信してもよい。
また、ユーザ端末13は、予めサービスIDが含められた外部データ14を取得して、サーバ装置10に送信してもよい。一例として、ユーザ端末13が撮影機能を有している場合、画像などと共にサービスIDが印刷された用紙をユーザ端末13の撮影機能を用いて撮影し、撮影された画像データを外部データ14としてサーバ装置10に送信する。また、ユーザ端末13は、自身を識別する端末IDを機器IDとして、外部データ14と共にサーバ装置10に送信する。サーバ装置10は、送信された外部データ14に対して画像解析を施してサービスIDを抽出する。そして、抽出したサービスIDと、送信された端末IDとに基づきワークフローを特定し、特定されたワークフローに従いサービスを実行する。実行結果は、ユーザ端末13やサイネージ機器12A、12B、…などに送信される。
このように、実施形態によれば、ユーザ端末13上でサービス選択操作を行わなくても、所望のサービスを受けることができる。
図2は、実施形態に係るサーバ装置10およびユーザ端末13の機能を説明するための機能ブロック図である。なお、以下では、情報処理システム1は、提供されるサービスの一つとして、画像から動画を作成する。また、情報処理システム1は、作成した動画に基づきパラパラアニメーション(以下、パラパラアニメと記述)を作成することもできる。パラパラアニメは、例えば、動画の各フレームから所定間隔で画像(フレーム)を抜き出し、抜き出した画像を印刷して作成する。印刷した画像を、例えばフレームの時系列の逆順に重ねて下から順次捲ることで、アニメーションが再生される。
なお、図1に示したサイネージ機器12A、12B、…は、図2においては、サイネージ機器12として代表させて示している。以下、特に記載の無い限り、各サイネージ機器12A、12B、…をサイネージ機器12として説明する。
先ず、サーバ装置10について説明する。サーバ装置10は、制御部100と、通信部101と、動作設定部102と、パラパラアニメ生成部103と、ムービー生成部104と、シナリオ生成部105とを、コンテンツ記憶部106とを有する。制御部100と、通信部101と、動作設定部102と、パラパラアニメ生成部103と、ムービー生成部104と、シナリオ生成部105とは、それぞれCPU上で実行されるプログラムの各モジュールとして構成してもよいし、互いに独立したハードウェアが協働して動作するように構成しても良い。さらに、ハードウェアとプログラムによるソフトウェアとを混在させて、互いに協働するように構成してもよい。
また、サーバ装置10は、サービスを実行するためのワークフローを示すワークフロー情報(WF)110A、110B、110C、…を有する。1のサービスは、複数のワークフローを含むことができる。なお、以下では、特に記載の無い限り、複数のワークフロー情報110A、110B、110C、…を、ワークフロー情報110で代表させて説明する。ワークフロー情報110は、サービスを構成する処理の組み合わせを指定する情報である。
サーバ装置10において、通信部101は、制御部100の制御に従い、インターネットなどのネットワークを介した通信を実行する。
シナリオ生成部105は、ワークフロー情報110に従い、動画(アニメーション)表示する画像の表示順序、タイミングおよび背景画像などを定義するシナリオを生成する。例えば、シナリオ生成部105は、所定のストーリーに従い、動画表示する画像を時間軸に沿って変化させるためのシナリオを生成する。ムービー生成部104は、シナリオ生成部105で定義されたシナリオに従い動画を生成する。パラパラアニメ生成部103は、シナリオ生成部105で定義されたシナリオに従い、ムービー生成部104で生成された動画からパラパラアニメを生成する。これに限らず、パラパラアニメ生成部103は、元となる元画像から直接的にパラパラアニメを生成してもよい。
動作設定部102は、ワークフロー情報110に従い作成されたデータがユーザ端末13に送信された際に、当該データがユーザ端末13内でどのように振る舞うかを設定する。
コンテンツ記憶部106は、ワークフロー情報110に従い提示されるコンテンツのコンテンツデータが予め記憶される。コンテンツ記憶部106は、ユーザ端末13から送信されたコンテンツデータを記憶することもできる。コンテンツは、画像データを含む。コンテンツに含まれる画像データは、例えば背景画像やキャラクタ画像の画像データである。これに限らず、コンテンツ記憶部106は、上述した、シナリオ作成部105がシナリオを作成する際に用いるストーリーをコンテンツとして含むことができる。さらに、コンテンツ記憶部106は、音声データをコンテンツデータとして記憶させてもよい。コンテンツ記憶部106に記憶される各コンテンツは、コンテンツIDで識別される。
なお、背景画像は、矩形で提供される画像の全面が扱いの対象となる画像である。また、キャラクタ画像は、矩形で提供される画像の一部が扱いの対象となる画像である。
また、各コンテンツは、例えば各サイネージ機器12A、12B、…に関連付けられる。図3は、実施形態に係る、コンテンツとサイネージ機器12A、12B、…とを関連付けるコンテンツテーブルの例を示す。図3の例では、機器IDに対してコンテンツIDが関連付けられている。1の機器IDに対して複数のコンテンツIDを関連付けることができる。これにより、サイネージ12A、12B、…の設置場所および設置目的に応じて、各コンテンツを管理することができる。また、1のコンテンツIDに対して複数の機器IDを関連付けることも可能である。シナリオ生成部105は、例えば機器IDに従いこのコンテンツテーブルを参照して、適当なコンテンツを選択する。
制御部100は、ワークフロー情報110に従い上述の動作設定部102、パラパラアニメ生成部103、ムービー生成部104およびシナリオ生成部105を制御する。すなわち、制御部100は、各ワークフロー情報110A、110B、110C、…と、通信部101、動作設定部102、パラパラアニメ生成部103、ムービー生成部104およびシナリオ生成部105との間に介在するプラットフォームの役割を果たす。
例えば、制御部100は、ユーザ端末13から送信され通信部101で受信されたサービスIDおよび機器IDにより、図4を用いて後述するワークフロー特定テーブルを参照し、ワークフロー情報110を特定する。制御部100は、特定したワークフロー情報110に従いサービスを実行する実行部として機能する。例えば、制御部100は、特定されたワークフロー情報110を、例えばシナリオ生成部105に渡す。また、制御部100は、シナリオ生成部105で生成されたシナリオ情報を、ムービー生成部104やパラパラアニメ生成部103に渡す。
図4は、実施形態に係るワークフロー特定テーブルの例を示す。ワークフロー特定テーブルは、サービスIDと、機器IDと、ワークフロー情報(WF)とを関連付ける。この場合、1のサービスIDに対して複数の機器IDおよびワークフロー情報を関連付けることができる。また、1のワークフロー情報を複数の機器IDに関連付けることができる。さらに、サービスIDが異なっていれば、1の機器IDに複数のワークフロー情報を関連付けることができる。
図5は、実施形態に係るサーバ装置10のハードウェアの一例の構成を示す。サーバ装置10は、一般的なコンピュータ装置の構成を適用することができ、CPU(Central Processing Unit)501と、ROM(Read Only Memory)502と、RAM(Random Access Memory)503と、ハードディスクドライブ(HDD)と、入出力インターフェイス(I/F)505と、通信I/F506とを有する。これらCPU501、ROM502、RAM503、HDD504、入出力I/F505および通信I/F506は、バス510で互いに通信可能に接続される。
CPU501は、ROM502やHDD504に予め記憶されるプロブラムに従い、RAM503をワークメモリとして用いて動作し、このサーバ装置10全体の動作を制御する。HDD504は、CPU501を動作させるプログラムが格納される。また、HDD504は、上述したコンテンツテーブルと、ワークフロー特定テーブルと、図8を用いて後述するワークフロー情報110とが格納され、ワークフロー情報を保持する保持部として機能する。さらに、HDD504は、図2に示すコンテンツ記憶部106に対応し、画像データや音声データを含むコンテンツが格納される。
入出力I/F505は、サーバ装置10に対するデータの入出力のためのインターフェイスである。例えば、入出力I/F505は、キーボードなどのユーザ入力を受け付ける入力デバイスを接続することができる。また、入出力I/F505は、USB(Universal Serial Bus)といった他機器との間でデータ入出力を行うデータインターフェイスや、CD(Compact Disk)、DVD(Digital Versatile Disk)といった記録媒体からデータを読み出すドライブ装置を接続することができる。さらに、入出力I/F505は、CPU501により生成された表示制御信号を画像として表示する表示装置を接続することができる。
通信I/F506は、CPU501の制御に従い、インターネットなどのネットワークを介した通信を行う。通信I/F506は、インターネットに接続される無線通信によるアクセスポイントを介して、ユーザ端末13と通信を行うことができる。
上述した制御部100、通信部101、動作設定部102、パラパラアニメ生成部103、ムービー生成部104およびシナリオ生成部105は、予めHDD504に格納され、CPU501上で動作するプログラムによって実現される。当該プログラムは、例えば、通信I/F506により図示されないネットワークを介して接続されたコンピュータ上に格納し、当該ネットワーク経由でダウンロードさせることにより提供するように構成される。これに限らず、当該プログラムは、インストール可能な形式または実行可能な形式のファイルでCD、DVDなどのコンピュータで読み取り可能な記録媒体に記録して提供してもよい。
当該プログラムは、例えば、上述した各部(制御部100、通信部101、動作設定部102、パラパラアニメ生成部103、ムービー生成部104およびシナリオ生成部105)を含むモジュール構成となっており、実際のハードウェアとしては、CPU501が例えばHDD504といった記憶装置から当該プログラムを読み出して実行することにより上記各部が主記憶装置(例えばRAM503)上にロードされ、各部が主記憶装置上に生成されるようになっている。
次に、ユーザ端末13について説明する。ユーザ端末13は、通信部130と、近距離無線通信部131と、サービスID取得部132と、機器ID取得部133と、画像処理部134と、制御部135とを有する。通信部130は、インターネットなどのネットワークを介した通信を制御する。近距離無線通信部131は、近距離無線通信を制御し、する。サービスID取得部132および機器ID取得部133は、それぞれ、例えば近距離無線通信によりサイネージ機器12から送信された情報からサービスIDおよび機器IDを抽出する。
また、外部データ14が用いられる場合、サービスID取得部132は、外部データ14からサービスIDを抽出する。例えば、外部データ14が、サービスIDの記述が含まれる画像を撮影した画像データである場合には、サービスID取得部132は、当該画像データを解析して画像からサービスIDを抽出する。なお、画像データからのサービスIDの抽出は、後述するサーバ装置10の制御部100で行なってもよい。機器ID取得部133は、例えばユーザ端末13が有する、図6を用いて後述するROM403に予め記憶される自身の端末IDを機器IDとして取得する。
これら、サービスID取得部132および機器ID取得部133で取得されたサービスIDおよび機器IDは、通信部130によりサーバ装置10に対して送信される。
画像処理部134は、画像作成および加工機能と、上述した画像解析に係る画像認識機能と、アニメーション作成機能とを含む。アニメーション作成機能は、上述したサーバ装置10におけるパラパラアニメ作成部103、ムービー作成部104およびシナリオ作成部105の各機能を含む。
制御部135は、ユーザ端末13が有する通信部130、近距離無線通信部131、サービスID取得部132および機器ID取得部133の動作を、プログラムに従い制御する。
図6は、実施形態に係るユーザ端末13のハードウェアの一例の構成を示す。図6に例示されるユーザ端末13において、バス401に対してCPU402、ROM403、RAM404および表示制御部405が接続される。また、バス401に対して、ストレージ407、データI/F408、入力部409、通信部410および撮像部412が接続される。ストレージ407は、データを不揮発に記憶することが可能な記憶媒体であって、例えばフラッシュメモリなどの不揮発性の半導体メモリである。これに限らず、ストレージ407としてハードディスクドライブを用いてもよい。
CPU402は、ROM403およびストレージ407に記憶されるプログラムに従い、RAM404をワークメモリとして用いて、このユーザ端末13の全体を制御する。表示制御部405は、CPU402により生成された表示制御信号を、表示部406が表示可能な信号に変換して出力する。ROM403またはストレージ407は、このユーザ端末13を識別するための固有の端末識別子(端末ID)が予め記憶される。
ストレージ407は、上述のCPU402が実行するためのプログラムや各種データが格納される。なお、ストレージ407およびROM403は、例えば1の書き換え可能な不揮発性半導体メモリなどを共用してもよい。データI/F408は、外部機器との間でデータの入出力を行う。データI/F408としては、例えば、USBやBluetooth(登録商標)といったインタフェースを適用することができる。
入力部409は、ユーザ入力を受け付ける入力デバイスを含む。ユーザは、例えば表示部406に対する表示に応じて入力デバイスを操作することで、ユーザ端末13に対して指示を出すことができる。なお、ユーザ入力を受け付ける入力デバイスを、表示部406と一体的に構成し、押圧した位置に応じた制御信号を出力すると共に、表示部406の画像を透過するタッチパネルとして構成すると、好ましい。
通信部410は、CPU402の制御に従いインターネットといったネットワークを介した通信を行う通信I/Fを含む。さらに、通信部410は、近距離無線通信を行うための通信I/Fを含む。通信部410は、例えば、近距離無線通信による信号を検知した場合、その旨をCPU402に通知する。CPU402は、この通知を受け取ると、通信部410を制御して、近距離無線通信に対する認証処理などを行い、認証に成功した場合に当該通信によるサービスID、機器IDの受信や、画像の送信などを行う。
撮像部412は、光学系と、撮像素子と、光学系および撮像素子の制御駆動回路とを備え、撮像素子から出力される信号に所定の処理を施して画像データとして出力する。撮像部412は、入力部409に対するユーザ操作による指示に従い、撮像やズームなどの機能を実行する。撮像部412で撮像され得られた撮像画像は、例えばバス401を介して通信部410に送られ、CPU402の命令に従いネットワーク10を介してサーバ11に送信される。
上述した通信部130、近距離無線通信部131、サービスID取得部132、機器ID取得部133、画像処理部134および制御部135は、予めROM403やストレージ407に記憶され、CPU402上で動作するプログラムによって実現される。当該プログラムは、例えば、通信部410により図示されないネットワークを介して接続されたコンピュータ上に格納し、当該ネットワーク経由でダウンロードさせることにより提供するように構成される。これに限らず、当該プログラムは、インストール可能な形式または実行可能な形式のファイルでCD、DVDなどのコンピュータで読み取り可能な記録媒体に記録して提供してもよい。
当該プログラムは、例えば、上述した各部(通信部130、近距離無線通信部131、サービスID取得部132、機器ID取得部133、画像処理部134および制御部135)を含むモジュール構成となっており、実際のハードウェアとしては、CPU402が例えばROM403やストレージ407といった記憶装置から当該プログラムを読み出して実行することにより上述の各部が主記憶装置(例えばRAM404)上にロードされ、各部が主記憶装置上に生成されるようになっている。
図7−1および図7−2は、実施形態に係る、制御部100によるワークフロー特定テーブルの参照処理の例を示す。図7−1は、実施形態に係る、サービスIDを主体としてワークフロー情報を特定する場合の処理の例である。この場合、制御部100は、先ずサービスIDに従いワークフロー情報を特定する(ステップS10)。図4の例を用いると、通信部101から渡されたサービスIDが「AAA」の場合、ワークフロー情報は、「A01」、「A02」および「A03」の何れかに特定される。次に、制御部100は、機器IDに従いワークフロー情報を特定する(ステップS11)。図4の例を用いると、通信部101から渡された機器IDが「002」であれば、ステップS10で特定されたワークフロー情報「A01」、「A02」および「A03」のうち、ワークフロー情報「A02」が特定される。こうして、サービスIDおよび機器IDから、ワークフロー情報「A02」が特定される(ステップS12)。
図7−2は、実施形態に係る、機器IDを主体としてワークフロー情報を特定する場合の処理の例である。この場合、制御部100は、先ずサービスIDに従いワークフロー情報を特定する(ステップS20)。図4の例を用いると、通信部101から渡された機器IDが「002」の場合、ワークフロー情報は、「A02」および「B01」の何れかに特定される。次に、制御部100は、サービスIDに従いワークフロー情報を特定する(ステップS21)。図4の例を用いると、通信部101から渡されたサービスIDが「AAA」であれば、ステップS20で特定されたワークフロー情報「A02」および「B01」のうち、ワークフロー情報「A02」が特定される。こうして、機器IDおよびサービスIDから、ワークフロー情報「A02」が特定される(ステップS22)。
図8は、実施形態に係るワークフロー情報110の一例の構成を示す。図8の例では、ワークフロー情報は、パラメータ「Input」、「Output」、「Inputdata」および「Contents」と、プロセスパラメータとを含む。
パラメータ「Input」は、サービスに対してデータを入力する機器のカテゴリ(例えばユーザ端末13)を示す。パタメータ「Output」は、サービスによる出力が供給される機器のカテゴリ(例えばサイネージ機器12)を示す。このとき、パラメータ「Output」に対して、サイネージ機器12が設置される場所やサイネージ機器12の利用目的(例えば「○○博物館に設置されるサイネージ機器12」)をさらに加えてもよい。
プロセスパラメータは、サービスにより実行される処理を示す。例えば、「ムービー」、「パラパラアニメ」、「サイネージ機器12への画像表示のみ」、「ユーザ端末からの画像と背景画像とを合成する画像合成」などがプロセスパラメータとして記述される。
パタメータ「Inputdata」は、サービスに対してユーザ端末13から入力されるデータのカテゴリ(塗り絵画像データ、キャラクタ画像データなど)を示す。入力データ無しを指定することもできる。パラメータ「Contents」は、情報処理システム1側からコンテンツデータとして提供するコンテンツのカテゴリ(背景画像、名勝画像、機器IDに対応する画像、音声など)を示す。
サーバ装置10において、制御部100は、ユーザ端末13から送信されたサービスIDおよび機器IDから、ワークフロー情報110を特定する。そして、制御部100は、特定されたワークフロー情報110に含まれる、これらパラメータ「Input」、「Output」、「Inputdata」および「Contents」と、プロセスパラメータとに基づき動作設定部102、パラパラアニメ生成部103、ムービー生成部104およびシナリオ生成部105を制御する。それと共に、制御部100は、コンテンツ記憶部106からコンテンツを読み出して、サービス11A、11B、11C、…のうちワークフロー情報110に対応するサービスを実行する。
なお、サーバ装置10は、ハードウェア構成としては一般的なコンピュータ装置と同様の構成で実施可能であリ、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブなどの記憶装置、CD(Compact Disk)やDVD(Digital Versatile Disk)に対応するドライブ装置、表示装置、入力装置および通信インターフェイスを含む。記憶装置は、当該コンピュータ装置をサーバ装置10として動作させるためのプログラムや、コンテンツ106、ならびに、各ワークフロー情報110A、110B、110C、…などの各情報が記憶される。
サーバ装置10による制御部100と、通信部101と、動作設定部102と、パラパラアニメ生成部103と、ムービー生成部104と、シナリオ生成部105の一部または全部の機能は、CPU上で動作するプログラムによって実現される。当該プログラムは、例えば、通信インターフェイスにより図示されないネットワークを介して接続されたコンピュータ上に格納し、当該ネットワーク経由でダウンロードさせることにより提供するように構成される。これに限らず、当該プログラムは、インストール可能な形式または実行可能な形式のファイルでCD、DVDなどのコンピュータで読み取り可能な記録媒体に記録して提供してもよい。
当該プログラムは、例えば、上述した各部(制御部100と、通信部101と、動作設定部102と、パラパラアニメ生成部103と、ムービー生成部104と、シナリオ生成部105)を含むモジュール構成となっており、実際のハードウェアとしてはCPUが例えば記憶装置から当該プログラムを読み出して実行することにより上記各部が主記憶装置(例えばRAM)上にロードされ、各部が主記憶装置上に生成されるようになっている。
(第1のサービス例)
次に、実施形態に係る情報処理システム1により提供されるサービスの例について説明する。先ず、図9を用いて、実施形態に係る情報処理システム1により提供される第1のサービス例について説明する。第1のサービス例は、サーバ装置10が、ユーザ端末13から送信された背景画像とキャラクタ画像とをそれぞれ動画に加工し、動画化された背景画像およびキャラクタ画像を合成して出力する例である。このとき、サーバ装置10は、例えば、複数の背景画像を所定のシナリオに従い順番に切り替えて表示する動画を作成する。
以下では、第1のサービスが、ユーザが所定のフォーマットに従い作成した背景画像およびキャラクタ画像を動画化して合成した動画像を、テレビジョン放送局で放送し公衆に対して配信する企画に適用されるものとする。ユーザは、背景画像およびキャラクタ画像を作成するための塗り絵フォーマット画像を、例えばこの企画の企画者から取得する。背景画像およびキャラクタ画像の塗り絵フォーマット画像は、それぞれ複数が用意され、ユーザは、好みの背景画像およびキャラクタ画像を選択して塗り絵を行うことが可能とされている。
この塗り絵フォーマット画像には、予めサービスIDが印刷されている。それぞれの背景画像およびキャラクタ画像を識別するための画像識別情報をさらに印刷してもよい。サービスIDや画像識別情報は、バーコードやQRコード(登録商標)を用いて印刷してもよいし、文字列や画像でもよい。また、複数の背景画像は、予め所定のストーリーが関連付けられている。このストーリーは、コンテンツ記憶部106に記憶される。
ユーザは、取得した塗り絵フォーマット画像に対して塗り絵を行い、背景画像230A、230B、230Cおよび230Dを作成すると共に、キャラクタ画像231を作成する。この塗り絵は、ユーザ端末13の画像処理部134の機能や、ユーザ端末13搭載されている画像処理アプリケーションを利用して行なってもよいし、塗り絵フォーマット画像を一旦印刷し、印刷画像に対して塗り絵を行ってもよい。塗り絵された背景画像230A、230B、230Cおよび230D、ならびに、キャラクタ画像231は、ユーザ端末13によりサービスIDが含まれるように撮影して、塗り絵画像として取得する。
ユーザは、ユーザ端末13を用いて情報処理システム1と通信を行い、情報処理システム1に対して塗り絵画像と、ユーザ端末13自身の端末IDとを送信する(ステップS120)。
情報処理システム1において、サーバ装置10は、ユーザ端末13から受信した塗り絵画像を画像解析してサービスIDを抽出する。また、サーバ装置10は、ユーザ端末13から受信した端末IDを、機器IDとして用い、サービスIDと機器IDとに基づきワークフロー情報110を特定する。第2のサービスに対応するワークフロー情報110は、例えば、パラメータ「Input」がユーザ端末13、パラメータ「Output」が動画出力とされる。また、パラメータ「Inputdata」が背景およびキャラクタの塗り絵画像、パラメータ「Contents」は、シナリオとされる。さらに、プロセスパラメータが、動画作成および合成とされる。
サーバ装置10は、特定されたワークフロー情報110に従い、送信された塗り絵画像を登録し、コンテンツ記憶部106からストーリーを読み出す。サーバ装置10は、塗り絵画像に含まれる背景画像230A、230B、230Cおよび230Dを、当該背景画像230A、230B、230Cおよび230Dに関連付けられたストーリーに従い並べて動画を作成する。この場合、複数の背景画像230A、230B、230Cおよび230Dに対して、ストーリーに従いアニメーション動作を指定して動画処理を施す。このとき、動画処理は、複数の背景画像230A、230B、230Cおよび230Dが所定の時間毎に順次切り替わるスライドショー形式を利用することができる。さらに、各背景画像230A、230B、230Cおよび230Dが切り替わる際に、ワイプやキューブといった切り替え効果を挿入してもよい。
各背景画像230A、230B、230Cおよび230Dに対して個別にアニメーション動作を指定することもできる。例えば、図9に背景画像230Aを例にとって画像230A1、230A2および230A3として示されるように、各背景画像230A、230B、230Cおよび230Dよりも小さい画サイズを表示枠として、各背景画像230A、230B、230Cおよび230Dを表示枠内で移動させることができる。また、各背景画像230A、230B、230Cおよび230Dに対してズーム処理などのエフェクト処理を施すことも考えられる。
さらに、サーバ装置10は、塗り絵画像に含まれるキャラクタ画像231を、各背景画像230A、230B、230Cおよび230Dに対して合成する。このとき、キャラクタ画像231に対して、ストーリーに従ってアニメーション動作を指定して動画処理を施すことができる。アニメーション動作は、例えば、キャラクタ画像231の表示枠内(各背景画像230A、230B、230Cおよび230Dの範囲内)での移動、キャラクタ画像231の反転、回転、変形などが考えられる。
サーバ装置10は、それぞれ動画処理された各背景画像230A、230B、230Cおよび230Dと、キャラクタ画像231とを合成し、動画像230A’、230B’、230C’および230D’を生成する。キャラクタ画像231と各背景画像230A、230B、230Cおよび230Dとでフレームタイミングを同期させて各画像を合成することで、キャラクタ画像231と各背景画像230A、230B、230Cおよび230Dとがそれぞれアニメーション動作する動画像を得ることができる。
ユーザは、このようにして作成された動画像を、元となる背景画像230A、230B、230Cおよび230Dや、キャラクタ画像231を送信したユーザ端末13を用いてダウンロードして取得することができる(ステップS121)。このとき、サーバ装置10において、当該動画像に対応するパラパラアニメ画像を生成している場合、ユーザは、このパラパラアニメ画像も同時にダウンロードし、例えばプリンタ300で印刷出力することができる。これにより、ユーザは、自身が作成した背景画像230A、230B、230Cおよび230Dや、キャラクタ画像231がアニメーション動作するパラパラアニメを楽しむことができる。
作成された動画像は、さらに、例えばテレビジョン放送局(TV局)240により公衆に対して配信することができる(ステップS123)。
これに限らず、上述のように作成した動画像を、特定の人間が集まる環境であるイベント会場250などに配信することも可能である(ステップS124)。イベント会場250にサーバ装置251を設け、このサーバ装置251上で動画像を再生して大型プロジェクタなどのディスプレイ252に表示させる。この場合、イベント会場250内のユーザは、対応する携帯端末を所持していれば、再生されている動画像をダウンロードして取得することができる(ステップS125)。
また、サーバ装置10は、背景画像230A、230B、230Cおよび230Dと、キャラクタ画像231とを合成せず、これらの組み合わせのデータとしてパッケージ化して出力することも可能である。
この場合、例えばTV局240では、局内にサーバ装置10のムービー生成部104およびシナリオ生成部105と同等の機能を設け、TV局240内でストーリーなどを作成して背景画像230A、230B、230Cおよび230Dと、キャラクタ画像231とをそれぞれアニメーション動作させて合成して動画像を作成する。
イベント会場250においても同様に、サーバ装置251にムービー生成部104およびシナリオ生成部105と同等の機能を設け、サーバ装置251においてストーリーなどを作成して背景画像230A、230B、230Cおよび230Dと、キャラクタ画像231とをそれぞれアニメーション動作させて合成して動画像を作成する。
(第2のサービス例)
次に、図10および図11を用いて、実施形態に係る情報処理システム1により提供される第2のサービス例について説明する。第2のサービス例は、サーバ装置10が、ユーザ端末13から送信されたキャラクタ画像を動画に加工し、動画化されたキャラクタ画像と、予め動画化された背景画像とを合成した動画像を出力する例である。そして、ユーザがユーザ端末13を介してこの動画像を見た場合に、キャラクタ画像の近傍に当該キャラクタ画像に付随する情報が表示されるようにする。
なお、以下では、ユーザ端末13は、一方の面にカメラが設けられ、他方の面にディスプレイが設けられ、一方の面においてカメラに入射された像が他方の面のディスプレイに略リアルタイムで表示できるようになっているものとする。
図10において、第2のサービスを実施する主体である例えば店舗が、広告チラシなどにより所定のフォーマットの塗り絵用紙200を配布する(ステップS100)。この塗り絵用紙200は、キャラクタ画像の輪郭が予め印刷されれおり、ユーザは、このキャラクタ画像の輪郭に従い塗り絵を行うことで、ユーザの好みの色のキャラクタ画像を得ることができる。また、塗り絵用紙200は、予めサービスIDが印刷されると共に、塗り絵作者の名前など、後に背景画像と合成した際に表示させたい、キャラクタ画像の付随情報を記入する欄が印刷されている。
ユーザは、この塗り絵用紙200に対して塗り絵を実行し、さらに、付随情報を記入し、完成したキャラクタ画像および付随情報を含む画像を、ユーザ端末13に例えば撮影により取り込む(ステップS101)。このとき、サービスIDが取り込んだ画像に含まれるように、撮影を行う。ユーザ端末13において、画像処理部134は、取り込まれた画像を解析して、サービスIDを抽出する。また、画像処理部134は、付随情報の画像を解析して、当該画像を文字情報に変換してもよい。なお、付随情報は、ユーザ端末13の文字入力機能を利用して入力してもよい。
ユーザは、ユーザ端末13を第1のサービスに対応する店舗の店頭に持参する(ステップS102)。この店舗には、情報処理システム1の通信端末として機能すると共に、近距離無線通信に対応したサイネージ機器12(図示しない)が設置されている。ユーザ端末13を当該サイネージ機器12に接近させることで、ユーザ端末13は、サイネージ機器12を介して情報処理システム1と通信を行うことができる。ユーザ端末13は、この通信により、キャラクタ画像と、付随情報と、サービスIDと、当該ユーザ端末13の機器IDとを情報処理システム1に対して送信する。
情報処理システム1において、サーバ装置10は、ユーザ端末13から受信したサービスIDおよび機器IDに基づきワークフロー情報110を特定する。第1のサービスに対応するワークフロー情報110は、例えば、パラメータ「Input」がユーザ端末13、パラメータ「Output」が特定店舗のサイネージ機器12および印刷出力とされる。また、パラメータ「Inputdata」がキャラクタ画像および付随情報、パラメータ「Contents」が特定の背景画像とされる。さらに、プロセスパラメータが、表示、画像合成、動画作成およびパラパラアニメとされる。
サーバ装置10は、特定されたワークフロー情報110に従い、送信されたキャラクタ画像202Aを付随情報と関連付けて例えばコンテンツ記憶部106に登録し、コンテンツ記憶部106から背景画像を読み出して、キャラクタ画像202Aと背景画像とを合成した合成画像201を生成する(ステップS103A)。合成画像201は、サーバ装置10からサイネージ機器12に送信され、サイネージ機器12の表示部に表示される。
サーバ装置10は、キャラクタ画像202Aと背景画像とに、それぞれ異なるアニメーション動作を指定することができる。アニメーションにおける動作は、例えばワークフロー情報110のプロセスパラメータにおいて予め定義することができる。アニメーションを作成するか否かは、例えばプロセスパラメータとして予め指定しておいてもよいし、ユーザ端末13から指定するようにもできる。それぞれ動画の背景画像とキャラクタ画像202Aとの合成は、上述したように、フレームタイミングを同期させて各画像を合成することで行う。
キャラクタ画像202Aのアニメーション動作は、例えば指定された経路を動きまわる、変形させる、拡大縮小を行う、一部を動かす、などの動作が考えられる。背景画像に対するアニメーション動作は、例えば図10の例では、背景に関しては、雲が動く、花が揺れる、などの動作が考えられる。
また、サーバ装置10は、アニメーション化されたキャラクタ画像202Aと背景画像とが合成された合成画像201に基づきパラパラアニメを作成することができる。この場合、パラパラアニメの各コマ(フレーム)のデータがサーバ装置10から当該店舗に設置されたプリンタ装置に送信され、各コマの画像が印刷される(ステップS103B)。ユーザは、この各コマの画像が印刷された用紙を持ち帰ることで(ステップS104B)、ユーザが作成したキャラクタ画像202Aによるパラパラアニメを、自宅にて楽しむことができる。
パラパラアニメにおける動作は、例えばワークフロー情報110のプロセスパラメータにおいて予め定義することができる。パラパラアニメを作成するか否かは、例えばプロセスパラメータとして予め指定しておいてもよいし、ユーザ端末13から指定するようにもできる。
さらに、この例では、合成画像201において、他のユーザが作成したキャラクタ画像202B、202C、…がキャラクタ画像202Aと共に、背景画像と合成されて表示されている。サーバ装置10は、各キャラクタ画像202A、202B、202C、…に対してそれぞれ異なるアニメーション動作を指定することができる。ユーザは、ユーザ端末13を用いて、この他のユーザによるキャラクタ画像202Bやキャラクタ画像202Cを撮影することで、撮影された画像に含まれる例えばキャラクタ画像202Bを取得することができる(ステップS104A)。
ここで、ユーザ端末13を用いて合成画像201の撮影について説明する。一例として、図11に示すように、合成画像201において、異なるユーザが作成したキャラクタ画像202A、202Bおよび202Cが表示されているものとする。図11に示されるように、背景画像において、雲の画像が背景画像内で水平方向にアニメーション動作をしていると共に、花の画像が揺れるアニメーション動作をしている。また、合成画像201内の各キャラクタ画像202A、202Bおよび202Cがそれぞれ異なる動作でアニメーション動作をしている。
この合成画像201に対して、例えばキャラクタ画像202Cの画像を送信したユーザ端末13を用いてキャラクタ画像202Aを撮像する場合について考える。この場合、ユーザは、ユーザ端末13のカメラ機能をオンにして撮像面を合成画像201に向け、ユーザ側にディスプレイ136が見えるように、ユーザ端末13を構える。ディスプレイ136には、撮像部412に撮像される画像が映し出される。そして、キャラクタ画像202Aがディスプレイ136に入るように、ユーザ端末13の位置を調整する。
図12は、キャラクタ画像202Aがディスプレイ136にキャラクタ画像202A’として映し出された様子を示す。ユーザの手15が支えるユーザ端末13のディスプレイ136に、撮像範囲内の画像203が映し出され、画像203にキャラクタ画像202A’が映っている。
ここで、この合成画像201の撮像中は、例えばユーザ端末13に対する所定の操作により、ユーザ端末13とサーバ装置10との間で常に通信が行われているものとする。ユーザ端末13は、サーバ装置10に対して、撮像中の画像を常時、或いは、所定時間間隔で送信する。このとき、画像は、カラー画像ではなく2値画像に変換する処理を施してもよいし、画素の間引処理を行なってもよい。ユーザ端末13は、このように処理を施しビットレートを落とした画像を送信すると好ましい。
サーバ装置10は、この送られた画像に対して画像解析を行い、キャラクタ画像202A’を抽出する。サーバ装置10は、例えば、ユーザ端末13から送信された画像を解析し、自身が送信する動画像における背景画像と、各キャラクタ画像202A、202Bおよび202Cとに基づき、ユーザ端末13から送信された画像に含まれるキャラクタ画像202A’がキャラクタ画像202A、202Bおよび202Cのうち何れに対応するかを判定する。
サーバ装置10は、キャラクタ画像202A’とキャラクタ画像202Aとが対応関係にあると判定した場合、キャラクタ画像202Aの付随情報をコンテンツ記憶部106から読み出して、ユーザ端末13に送信する。ユーザ端末13は、受信した付随情報を、付随情報を表す付随情報画像204に変換して画像203に対して合成してディスプレイ136に表示させる。このとき、キャラクタ画像202Aの付随情報は、キャラクタ画像202Aに対応する位置、例えばキャラクタ画像202Aの近傍に配置させて合成する。
付随情報画像204が表示されている状態でユーザ端末13に対して撮像操作を行った場合、付随情報画像204が付加された画像が撮像画像として取り込まれる。これに限らず、付随情報画像204が排除された画像を撮像画像として取り込んでもよい。
なお、上述の例において、塗り絵画像として、キャラクタ画像202A、202Bおよび202Cと関連する他の画像を追加することもできる。上述の例では、キャラクタ画像202A、202Bおよび202Cは、何れも動物を表しているので、他の画像は、食物の画像を用いることが考えられる。
ユーザは、予め用意された食物の画像が塗り絵フォーマットとされた塗り絵用紙に対して塗り絵を行い、塗り絵画像をユーザ端末13からサーバ装置10に送信する。サーバ装置10は、この塗り絵画像を例えば画像203に対して合成して表示させる。また、ユーザ端末13に対して所定の操作を行い、操作の情報をサーバ装置10に送信することで、画像203に合成された食物の画像をキャラクタ画像202A、202Bおよび202Cの何れかに与えるようなアニメーション動作をさせることが可能である。このとき、サーバ装置10が食物の塗り絵画像をパラメータ化して数値化することで、当該画像が与えられた例えばキャラクタ画像202Aに対して、数値に応じた動作を行うアニメーション動作をさせることもできる。
(第3のサービス例)
次に、図13を用いて、実施形態に係る情報処理システム1により提供される第3のサービス例について説明する。第3のサービス例は、上述した第2のサービス例と同様に、ユーザが所定の塗り絵フォーマットに従い塗り絵を行い作成した1以上のキャラクタ画像を、所定の表示領域内で一方向に向けて移動させる例である。
このとき、第3のサービス例では、1のキャラクタ画像を、表示領域の一端から部分を順次出現させて、表示領域の他端に向けて移動させ、当該他端において、他端に達した部分から順次消滅させる。さらに、第3のサービス例では、表示領域内に一方向に一列に並べて同時に表示可能な、2以上の複数のキャラクタ画像について、同様の表示制御を行う。このように表示制御を行うことで、表示領域を次々と異なるキャラクタ画像が移動するような表示が得られ、ショウウィンドウのような効果が得られる。
図13は、第3のサービス例を、寿司を載せた皿をベルトコンベアに載せて回転させる、所謂回転寿司の店舗に適用した例である。例えば、空席待ちで客が待機している時間などに、所定のフォーマットの塗り絵用紙280を用意する。この塗り絵用紙280は、皿と寿司飯が描かれ、寿司ネタの部分が塗り絵部分となっており、領域281および282に枠線が引かれている。領域281は、例えば塗り絵のタイトルを記入し、領域282は、枠線により塗り絵部分を判定する。また、塗り絵用紙280は、サービスIDが予め印刷されている。この塗り絵用紙280を待ち客に渡し、寿司ネタ部分に客に好みの塗り絵をしてもらう。
塗り絵された塗り絵用紙280を、端末IDが既知のユーザ端末13にて撮像し(ステップS130)、撮像画像をサーバ装置10に送信する(ステップS131)。ユーザ端末13から撮像画像として送信される、塗り絵用紙280を撮像した撮像画像の例を、画像260A、260Bおよび260Cとして示す。それぞれ、領域282の枠内に、ユーザの好みに作成された寿司ネタの塗り絵によるキャラクタ画像261A、261Bおよび261Cが含まれている。
なお、端末IDの既知のユーザ端末13は、店舗備え付けのものであってもよいし、予め端末IDをサーバ装置10に登録したユーザ端末13であってもよい。
サーバ装置10は、塗り絵用紙250の画像情報からサービスIDを抽出し、抽出したサービスIDと、端末IDとから、ワークフローを特定する。そして、特定されたワークフローに従い、先ず、画像260A、260Bおよび260Cから、領域282の枠に基づき塗り絵画像からキャラクタ画像261A、261Bおよび261Cを抽出する。また、領域281の枠に基づきタイトル情報を抽出する。抽出したタイトル情報は、画像のままでもよいが、文字情報に変換してもよい。
また、サーバ装置10は、背景画像270を予めコンテンツ記憶部106に記憶しておく。この例では、背景画像270は、下側のベルトコンベア画像の部分が一方向に移動するようなアニメーション動作が指定された動画となっており、上側の部分は、固定画像とされている。
サーバ装置10は、キャラクタ画像261A、261Bおよび261Cに対してアニメーション動作を指定する(ステップS133)。このアニメーション動作は、背景画像270におけるベルトコンベアのアニメーション動作と同期する動作である。また、各キャラクタ画像261A、261Bおよび261Cは、水平方向の長さが背景画像270よりも長く、且つ、水平方向にループ状の仮想的な画像領域内でアニメーション動作される。この仮想的な画像領域は、背景画像270の範囲でクリップされる。すなわち、背景画像270内のある位置に表示される塗り絵画像261Aは、時間の経過に連れ移動され、背景画像270の例えば右端から順次消滅していく。そして、ループを略1周する所定時間の経過後に、背景画像270の、消滅した側と反対側の端すなわち左端から順次出現する。キャラクタ画像261A、261Bおよび261Cの出現と消滅とがそれぞれ順次に行われるため、背景画像270内には、所定数以下のキャラクタ画像261A、261Bおよび261Cが表示されることになる。
このような制御を、複数のキャラクタ画像261A、261Bおよび261Cに対して行うことで、これら複数のキャラクタ画像261A、261Bおよび261Cが背景画像270上を順次送られていくような表示が得られる(ステップS134)。
なお、図13の例において、キャラクタ画像261Aの下部には、タイトル情報が配置されている。
サーバ装置10は、このようにして、背景画像270とキャラクタ画像261A、261Bおよび261Cとを合成し、表示装置に表示させる。これにより、客の待ち時間の解消効果が期待できる。
(他の実施形態)
上述では、ユーザが作成したキャラクタ画像を動画像として背景画像などに合成させるように説明したが、これはこの例に限定されない。例えば、断面構造を積層して立体物を構成する3Dプリンタを用いて、キャラクタ画像を立体化することも可能である。この場合、サーバ装置10に対してキャラクタ画像の塗り絵フォーマットを保持させる際に、当該キャラクタ画像を3D化した3Dデータなども同時に保持させる。この3Dデータに対してキャラクタ画像になされた塗り絵を適用することで、キャラクタ画像の立体化が可能である。
また例えば、キャラクタ画像が人型などの場合、手、足に相当する部分を変形させる動画を作成することも考えられる。例えば、サーバ装置10において、手、足、の変形のアニメーションを予め作成しておくことが考えられる。変形した部分への塗り絵の適用は、画像の拡大縮小処理で可能である。この場合、動画をユーザ端末13に対する操作により制御できると、キャラクタ画像が戦っているような動画を得ることができる。また、2のキャラクタ画像を1の背景画像に同時に表示させる場合に、それぞれのキャラクタ画像を、各キャラクタ画像を送信したユーザ端末13から操作可能とすることで、2のキャラクタ画像で対戦させることが可能である。
さらに例えば、キャラクタ画像をSNS(Social Networking Service)で用いるアイコンとして加工することも考えられる。この場合、SNSにおけるユーザ同士のコミュニケーションの際に、喜怒哀楽などを表現するために用いるアイコンとして、動画像に加工されたキャラクタ画像を適用することが考えられる。
なお、上述の実施形態は、本発明の好適な実施の例ではあるがこれに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変形による実施が可能である。
1 情報処理システム
10 サーバ装置
11A,11B,11C サービス
12,12A,12B サイネージ機器
13 ユーザ端末
100,135 制御部
101,130 通信部
102 動作設定部
103 パラパラアニメ生成部
104 ムービー生成部
105 シナリオ生成部
106 コンテンツ記憶部
110A,110B,110C ワークフロー情報
131 近距離無線通信部
132 サービスID取得部
133 機器ID取得部
134 画像処理部
200,280 塗り絵用紙
201 合成画像
202A,202B,202C,231,261A,261B,261C キャラクタ画像
230A,230B,230C,230D,270 背景画像
230A’,230B’,230C’,230D’ 動画像
240 テレビジョン放送局
250 イベント会場
特開2009−000174号公報

Claims (10)

  1. 端末装置と情報処理装置とを備える情報処理システムであって、
    前記端末装置は、
    ユーザにサービスを提供する際に用いられる機器または用紙から、該サービスを識別するサービス識別情報を取得する第1取得部と、
    前記サービス識別情報が前記機器から取得された場合に該機器を識別する機器識別情報を取得し、前記サービス識別情報が前記用紙から取得された場合に前記端末装置を識別する識別情報を該機器識別情報として取得する第2取得部と
    記サービス識別情報と前記機器識別情報と画像とを送信する送信部と
    を有し、
    前記情報処理装置は、
    サービスを構成する処理を指定する情報をそれぞれ含む複数のワークフロー情報を保持する保持部と、
    前記端末装置から送信された前記サービス識別情報と前記機器識別情報と前記画像とを受信する受信部と、
    前記サービス識別情報と前記機器識別情報とに応じた前記ワークフロー情報を、前記ワークフロー情報から選択する選択部と、
    前記選択部で選択されたワークフロー情報に従い、前記画像を動画を含む画像に加工するサービスを実行する実行部と
    を有する
    ことを特徴とする情報処理システム。
  2. 前記第1取得部は、前記画像をさらに取得し、
    画像は、画像の全面が扱いの対象となる背景画像と、画像の一部が扱いの対象となるキャラクタ画像とのうち少なくとも一方であり
    前記実行部は、
    前記サービスで、前記背景画像と前記キャラクタ画像とを互いに独立して加工する
    ことを特徴とする請求項1に記載の情報処理システム。
  3. 前記実行部は、
    前記背景画像を、設定された時間軸に沿って順次切り替える動画として加工し、
    前記キャラクタ画像を、前記背景画像とは異なる動きの動画として該背景画像に対して合成する
    ことを特徴とする請求項2に記載の情報処理システム。
  4. 前記実行部は、
    前記第2取得部が、前記サービス識別情報が前記用紙から取得された場合に前記端末装置を識別する識別情報を前記機器識別情報として取得した場合に、該機器識別情報が異なる前記端末装置から受信した前記キャラクタ画像のそれぞれを、共通の前記背景画像に対して合成する
    ことを特徴とする請求項2または請求項3に記載の情報処理システム。
  5. 前記実行部は、
    前記動画を含む画像を、情報の配信を行う配信部に供給する
    ことを特徴とする請求項1乃至請求項4の何れか1項に記載の情報処理システム。
  6. 前記実行部は、
    前記動画を含む画像を、公衆に対して情報の配信を行う配信部に供給する
    ことを特徴とする請求項1乃至請求項4の何れか1項に記載の情報処理システム。
  7. 前記実行部は、
    前記動画を含む画像を、特定の集団に対して情報の配信を行う配信部に供給する
    ことを特徴とする請求項1乃至請求項4の何れか1項に記載の情報処理システム。
  8. 前記実行部は、
    前記キャラクタ画像を含む画像を表示装置に表示させ、前記端末装置から送信された、該キャラクタ画像を含む画像が表示される前記表示装置の表示画面を撮像した表示画像から、該キャラクタ画像を抽出し、該キャラクタ画像に付随する付随情報を表示する画像を、該表示画像の該キャラクタ画像に対応する位置に合成して、該端末装置に送信する
    ことを特徴とする請求項2乃至請求項4の何れか1項に記載の情報処理システム。
  9. 前記実行部は、
    前記端末装置から受信した前記キャラクタ画像のそれぞれを、共通の背景画像に対して、該背景画像に含まれる該キャラクタ画像を表示数が所定数以下になるように順次送って合成する
    ことを特徴とする請求項4に記載の情報処理システム。
  10. 端末装置と情報処理装置とを含む情報処理システムの情報処理方法であって、
    ユーザにサービスを提供する際に用いられる機器または用紙から、該サービスを識別するサービス識別情報を取得する第1取得ステップと、
    前記サービス識別情報が前記機器から取得された場合に該機器を識別する機器識別情報を取得し、前記サービス識別情報が前記用紙から取得された場合に前記端末装置を識別する識別情報を該機器識別情報として取得する第2取得ステップと、
    前記サービス識別情報と前記機器識別情報と画像とを送信する送信ステップと、
    前記送信ステップにより送信された前記サービス識別情報と前記機器識別情報と前記画像とを受信する受信ステップと、
    サービスを構成する処理を示す情報を含むワークフロー情報を、前記サービス識別情報と前記機器識別情報とに応じて複数の該ワークフロー情報から選択する選択ステップと、
    前記選択ステップにより選択されたワークフロー情報に従い、前記画像を動画を含む画像に加工して出力するサービスを実行する実行ステップと
    を有する
    ことを特徴とする情報処理方法。
JP2013054416A 2013-03-15 2013-03-15 情報処理システムおよび情報処理方法 Active JP6089828B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013054416A JP6089828B2 (ja) 2013-03-15 2013-03-15 情報処理システムおよび情報処理方法
US14/193,922 US9514718B2 (en) 2013-03-15 2014-02-28 Information processing system, information processing apparatus, and information processing method
CN201410088421.4A CN104052786B (zh) 2013-03-15 2014-03-11 信息处理***、信息处理装置和信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013054416A JP6089828B2 (ja) 2013-03-15 2013-03-15 情報処理システムおよび情報処理方法

Publications (2)

Publication Number Publication Date
JP2014182406A JP2014182406A (ja) 2014-09-29
JP6089828B2 true JP6089828B2 (ja) 2017-03-08

Family

ID=51505146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013054416A Active JP6089828B2 (ja) 2013-03-15 2013-03-15 情報処理システムおよび情報処理方法

Country Status (3)

Country Link
US (1) US9514718B2 (ja)
JP (1) JP6089828B2 (ja)
CN (1) CN104052786B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6361146B2 (ja) 2013-05-09 2018-07-25 株式会社リコー 表示制御プログラム、表示制御方法および表示制御装置、ならびに、表示システム
KR20160142772A (ko) * 2015-06-03 2016-12-13 디에스글로벌 (주) 색칠놀이를 위한 증강현실 서비스 방법 및 시스템
JP6703747B2 (ja) 2015-09-18 2020-06-03 株式会社リコー 情報表示装置、情報提供システム、移動体装置、情報表示方法及びプログラム
JP6870447B2 (ja) 2016-05-20 2021-05-12 株式会社リコー Hud装置、車両装置、情報表示方法。
JP6834537B2 (ja) 2017-01-30 2021-02-24 株式会社リコー 表示装置、移動体装置、表示装置の製造方法及び表示方法。
JP7119844B2 (ja) * 2018-03-05 2022-08-17 株式会社リコー 情報処理システム、情報処理装置、情報処理方法及びプログラム
JP7222285B2 (ja) 2019-03-20 2023-02-15 株式会社リコー 表示制御装置、表示装置、表示システム、移動体、プログラム、画像生成方法
CN113537225B (zh) * 2020-04-22 2024-06-28 华晨宝马汽车有限公司 用于字符识别的方法、电子设备和存储介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002208015A (ja) 2000-11-09 2002-07-26 Omron Corp 円抽出方法、その方法を実施するための画像処理装置、外形検査方法、および外形検査装置
JP2007102051A (ja) * 2005-10-07 2007-04-19 Sky Kk 広告表示システム
JP5292816B2 (ja) 2007-03-26 2013-09-18 株式会社リコー 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理プログラムを記録した記録媒体
US9216350B2 (en) 2007-03-26 2015-12-22 Ricoh Company, Ltd. Information processing apparatus, information processing method, information processing program, and storage medium storing information processing program
JP5157277B2 (ja) 2007-06-19 2013-03-06 株式会社リコー 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理プログラムを記録した記録媒体
US8339403B2 (en) * 2008-04-16 2012-12-25 Microsoft Corporation Multi-layered slide transitions
JP2011060210A (ja) * 2009-09-14 2011-03-24 Sony Corp 情報処理システム及び情報処理方法、並びにコンピューター・プログラム
JP2011193237A (ja) * 2010-03-15 2011-09-29 Primeworks Kk 移動体通信端末、及びその制御プログラム
US8752119B2 (en) * 2010-05-14 2014-06-10 Time Warner Cable Enterprises Llc Methods and apparatus for creating customized service related information for customer devices
JP2012124632A (ja) * 2010-12-07 2012-06-28 Nec Casio Mobile Communications Ltd 移動通信端末及び移動通信端末の画像表示方法
US20120244891A1 (en) * 2011-03-21 2012-09-27 Appleton Andrew B System and method for enabling a mobile chat session
JP5150744B2 (ja) * 2011-03-25 2013-02-27 株式会社東芝 情報配信装置、システム、及び情報表示装置
EP2692142A1 (en) * 2011-03-30 2014-02-05 Thomson Licensing Method for image playback verification
JP5953953B2 (ja) 2012-06-06 2016-07-20 株式会社リコー 画像認識装置、画像認識方法及びプログラム
US9424767B2 (en) * 2012-06-18 2016-08-23 Microsoft Technology Licensing, Llc Local rendering of text in image
JP6098193B2 (ja) 2013-01-31 2017-03-22 株式会社リコー 情報処理システムおよび情報処理方法

Also Published As

Publication number Publication date
CN104052786A (zh) 2014-09-17
JP2014182406A (ja) 2014-09-29
US20140267423A1 (en) 2014-09-18
US9514718B2 (en) 2016-12-06
CN104052786B (zh) 2018-04-17

Similar Documents

Publication Publication Date Title
JP6089828B2 (ja) 情報処理システムおよび情報処理方法
JP6098193B2 (ja) 情報処理システムおよび情報処理方法
US10068364B2 (en) Method and apparatus for making personalized dynamic emoticon
US20130212453A1 (en) Custom content display application with dynamic three dimensional augmented reality
CN106101856B (zh) 媒体文件的播放方法和装置
CN107027046B (zh) 辅助直播的音视频处理方法及装置
CN108696489B (zh) 媒体信息的播放方法和装置
WO2016150388A1 (zh) 界面处理方法、装置及***
JP2008092228A (ja) ビデオ会議システムおよびビデオ会議方法
WO2014189840A1 (en) Apparatus and method for holographic poster display
WO2017119191A1 (ja) 端末装置、情報処理方法、及び記録媒体
US20150113365A1 (en) Method for composing image and mobile terminal programmed to perform the method
JP6409890B2 (ja) 情報処理システム、情報処理装置および情報処理方法
CN106489135A (zh) 信息处理装置、信息处理***、信息处理方法以及程序
CN113453059B (zh) 云游戏数据处理方法、装置、设备以及介质
JP6760667B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP7167629B2 (ja) ガイドシステム
KR20170061836A (ko) 인터넷상에서의 사용자 맞춤형 동영상 제작서비스 시스템 및 그 방법
JP7396326B2 (ja) 情報処理システム、情報処理装置、情報処理方法およびプログラム
JP2020150289A (ja) 撮影システム、撮影装置、管理装置及び撮影方法
JP2016173670A (ja) 情報出力装置、情報出力方法、およびプログラム
JP6849851B2 (ja) 撮影システム、撮影装置及びユーザ撮影方法
JP7472681B2 (ja) 情報処理装置、プログラムおよび情報処理方法
JP2004040274A (ja) ビデオミキシング装置および方法
KR102020352B1 (ko) 3d 객체와 마커를 이용한 mr 콘텐츠 제공 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170123

R151 Written notification of patent or utility model registration

Ref document number: 6089828

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151