JP2018200721A - 生成装置、生成方法、及び生成プログラム - Google Patents

生成装置、生成方法、及び生成プログラム Download PDF

Info

Publication number
JP2018200721A
JP2018200721A JP2018159729A JP2018159729A JP2018200721A JP 2018200721 A JP2018200721 A JP 2018200721A JP 2018159729 A JP2018159729 A JP 2018159729A JP 2018159729 A JP2018159729 A JP 2018159729A JP 2018200721 A JP2018200721 A JP 2018200721A
Authority
JP
Japan
Prior art keywords
image
information
superimposed
generation
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018159729A
Other languages
English (en)
Other versions
JP7044665B2 (ja
Inventor
隼人 小林
Hayato Kobayashi
隼人 小林
幸浩 田頭
Yukihiro Tagashira
幸浩 田頭
哲矢 茂木
Tetsuya Mogi
哲矢 茂木
正樹 野口
Masaki Noguchi
正樹 野口
真吾 星野
Shingo Hoshino
真吾 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2018159729A priority Critical patent/JP7044665B2/ja
Publication of JP2018200721A publication Critical patent/JP2018200721A/ja
Application granted granted Critical
Publication of JP7044665B2 publication Critical patent/JP7044665B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像に含まれる対象物と対象物に関連する情報とを適切にユーザに認識させるコンテンツを生成すること。【解決手段】本願に係る生成装置は、取得部と、生成部とを有する。取得部は、対象物を含む画像と、画像に関連する文字情報として画像と同一のコンテンツに含まれた文字情報と、を取得する。生成部は、文字情報を用いて画像から抽出される情報であって、画像における対象物の領域に関する情報である特徴領域情報に基づいて、文字情報から生成された対象物に関連する関連情報を画像に重畳させた重畳画像を生成する。例えば、生成部は、画像における対象物の領域付近に関連情報を重畳させた重畳画像を生成する。【選択図】図3

Description

本発明は、生成装置、生成方法、及び生成プログラムに関する。
従来、画像に含まれる人等の対象物を認識する画像処理に関する技術が提供されている。例えば、人の顔が含まれる画像における両目間の距離に基づく画像処理に関する技術が提供されている。また、上記の技術を用いて、画像と画像に含まれる対象物に関連する情報(文字情報)とを含むコンテンツを生成する場合がある。
特開2005−108207号公報
しかしながら、上記の従来技術では画像に含まれる対象物と対象物に関連する情報とを適切にユーザに認識させるコンテンツを生成することができるとは限らない。例えば、画像と画像に含まれる対象物に関連する情報とを個別に表示するコンテンツでは、ユーザに画像に含まれる対象物とその対象物に関連する情報との関係を認識させることが難しい場合がある。
本願は、上記に鑑みてなされたものであって、画像に含まれる対象物と対象物に関連する情報とを適切にユーザに認識させるコンテンツを生成する生成装置、生成方法、及び生成プログラムを提供することを目的とする。
本願に係る生成装置は、対象物を含む画像と、当該画像に関連する文字情報として当該画像と同一のコンテンツに含まれた文字情報と、を取得する取得部と、前記文字情報を用いて前記画像から抽出される情報であって、前記画像における前記対象物の領域に関する情報である特徴領域情報に基づいて、前記文字情報から生成された前記対象物に関連する関連情報を前記画像に重畳させた重畳画像を生成する生成部と、を備えたことを特徴とする。
実施形態の一態様によれば、画像に含まれる対象物と対象物に関連する情報とを適切にユーザに認識させるコンテンツを生成することができるという効果を奏する。
図1は、実施形態に係る生成処理の一例を示す図である。 図2は、実施形態に係る配信システムの構成例を示す図である。 図3は、実施形態に係る生成装置の構成例を示す図である。 図4は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。 図5は、実施形態に係る端末装置の構成例を示す図である。 図6は、実施形態に係る端末装置における表示の一例を示す図である。 図7は、実施形態に係る生成処理の一例を示すフローチャートである。 図8は、実施形態に係る関連情報の指定の一例を示す図である。 図9は、実施形態に係るオブジェクト情報を用いた生成処理の一例を示す図である。 図10は、実施形態に係るオブジェクト情報を用いた生成処理の一例を示すフローチャートである。 図11は、生成装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る生成装置、生成方法、及び生成プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る生成装置、生成方法、及び生成プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
(実施形態)
〔1.生成処理〕
まず、図1を用いて、実施形態に係る生成処理の一例について説明する。図1は、実施形態に係る生成処理の一例を示す図である。図1に示す生成処理は、生成装置100(図3参照)により実行される。図1では、生成装置100は、画像に含まれる物体(オブジェクト)の位置(範囲)を示す特徴領域情報に基づいて、ユーザに注目させたい対象物に関する関連情報を画像に重畳させた重畳画像(コンテンツ)を生成する例を示す。具体的には、生成装置100は、対象物を含む画像と文字情報に基づいて画像から抽出された対象物の特徴領域情報に基づいて、文字情報から生成された対象物に関連する関連情報を画像に重畳させた重畳画像(コンテンツ)を生成する。
図1に示す例では、画像IM11と文字情報IC11とを用いて重畳画像が生成される例を示す。図1中の画像IM11は、帽子HT、腕時計WT、及びバッグBGを身に着けたモデルMDを含む。また、図1中の文字情報IC11は、画像IM11に関する文章を含む。例えば、画像IM11と文字情報IC11とは、1つの記事に含まれる画像や文字情報であり、互いに関連する情報を含む。なお、図1では、画像IM11中のバッグBGを対象物として重畳画像を生成する場合を示す。また、バッグBGは、有名ブランド○○のバッグであるものとする。
まず、生成装置100は、画像IM11における特徴情報が含まれる領域に関する特徴領域情報FR11を抽出する(ステップS11)。例えば、生成装置100は、画像IM11と文字情報IC11とに基づいて、画像IM11から対象物の領域に関する情報である特徴領域情報FR11を抽出する。なお、生成装置100は、サリエンシーディテクション(Saliency Detection)等の画像処理における種々の従来手法を適宜用いて、画像IM11における特徴領域情報FR11を抽出する。例えば、生成装置100は、R−CNN(Regions with Convolutional Neural Network)等の画像認識技術を用いた画像処理を適宜用いてもよい。また、生成装置100は、画像処理の種々の従来手法等を適宜用いて、画像におけるオブジェクト(物体)の認識による情報の抽出を行ってもよい。
図1では、生成装置100は、特徴領域情報FR11に示すように、画像IM11と文字情報IC11とに基づいて、画像IM11における特徴領域を抽出する。例えば、特徴領域情報FR11は、画像IM11における各画素の特徴量を示す。具体的には、特徴領域情報FR11の各位置は、画像IM11に重畳させた場合に画像IM11において重なる位置に対応し、特徴領域情報FR11は、画像IM11において対応する画素の特徴量を示す。なお、図1中の特徴領域情報FR11では、特徴を示す領域を色が濃い態様で示す。すなわち、特徴領域情報FR11では、特徴量が大きいほど色が濃い態様で表示される。具体的には、図1中の特徴領域情報FR11では、画像IM11において人(モデルMD)の顔が位置する領域や、画像IM11において帽子HT、腕時計WT、及びバッグBGが位置する領域が色の濃い態様で示される。すなわち、図1では、生成装置100は、対象物であるバッグが位置する領域AR11(以下、「対象領域AR11」とする場合がある)が色の濃い態様で示される。なお、対象領域AR11は画像IM11における所定の閾値以上の特徴量を含む領域であってもよい。例えば、対象領域AR11は、画像IM11における画素のうち、特徴量が所定の閾値以上の画素を含む領域に対応する。また、例えば、生成装置100は、特徴領域情報FR11に基づいて、画像IM11に含まれるオブジェクトを認識する。具体的には、生成装置100は、特徴領域情報FR11に基づいて、画像IM11に含まれる帽子や腕時計やバッグといったオブジェクトを認識する。
また、生成装置100は、対象物となるオブジェクトであるバッグBGに関連する関連情報を生成する(ステップS12)。例えば、生成装置100は、文字情報IC11から抽出したトピックに基づいて、対象物となるオブジェクトであるバッグBGに関連する関連情報を生成する。この場合、生成装置100は、トピック分析(解析)等の種々の従来手法を適宜用いて、文字情報IC11からトピックを抽出してもよい。例えば、生成装置100は、文字情報IC11を形態素解析等の自然言語処理技術を適宜用いて解析することにより、文字情報IC11から重要なキーワードをトピックとして抽出してもよい。例えば、図1では、生成装置100は、文字情報IC11がファッションに関する文字情報であると判定し、ファッションに関するキーワードをトピックとして抽出してもよい。この場合、生成装置100は、文字情報IC11から「アイテム」、「ブランド○○」、「バッグ」、「最新作」等をトピックとして抽出してもよい。
図1では、生成装置100は、対象物となるオブジェクト「○○のバッグ」、すなわちバッグBGに関連する関連情報を生成する。例えば、生成装置100は、文字列「ブランド○○の最新バッグ」を含む関連情報IR11を生成する。具体的には、生成装置100は、文字情報IC11に含まれる文字列「○○のバッグの最新作が…」等に基づいて、バッグBGがブランド○○の最新バッグであると推定し、関連情報IR11を生成する。
そして、生成装置100は、関連情報IR11を画像IM11に重畳させることにより、重畳画像IS11を生成する(ステップS13)。図1では、生成装置100は、画像IM11における対象物の領域付近に関連情報IR11を重畳させた重畳画像IS11を生成する。具体的には、生成装置100は、画像IM11における余白となる領域(以下、「余白領域」とする場合がある)に、バッグBGを指示する関連情報IR11を重畳させた重畳画像IS11を生成する。なお、ここでいう余白領域とは、画像IM11においてオブジェクトが含まれない領域であって、関連情報を重畳させても画像IM11に含まれるオブジェクトの認識に影響が小さい領域をいう。
また、生成装置100は、種々の従来技術を適宜用いて、画像IM11における余白領域を判定してもよい。例えば、生成装置100は、特徴領域情報FR11における特徴量が所定の閾値未満の領域に対応する画像IM11中の領域を余白領域と判定してもよい。また、生成装置100は、画像IM11における領域内の最大の輝度値と最小の輝度値との差が所定の閾値未満の領域を余白領域と判定してもよい。また、例えば、生成装置100は、特徴領域情報FR11における特徴量が所定の閾値未満の領域に対応する画像IM11中の領域内において、最大の輝度値と最小の輝度値との差が所定の閾値未満の領域を余白領域と判定してもよい。なお、上記は一例であって、生成装置100は、関連情報を重畳させても画像IM11に含まれるオブジェクトの認識に影響が小さい領域であれば、どのような基準に基づいて余白領域と判定してもよい。
図1では、生成装置100は、画像IM11中のモデルMDの左右両側に余白領域BS11、BS12が含まれると判定する。具体的には、生成装置100は、画像IM11中のモデルMDの左側に余白領域BS11が含まれ、画像IM11中のモデルMDの右側に余白領域BS12が含まれると判定する。
ここで、図1では、余白領域BS11に比べて余白領域BS12は、画像IM11において対象領域AR11に対応する部分に近接して位置する。そのため、生成装置100は、画像IM11中の余白領域BS12に関連情報IR11を重畳させた重畳画像IS11を生成する。具体的には、生成装置100は、画像IM11中の余白領域BS12におけるバッグBGに近接する箇所(図1では下部)に関連情報IR11を重畳させた重畳画像IS11を生成する。
上述したように、生成装置100は、画像における対象物の領域に関する情報である特徴領域情報に基づいて、対象物に関連する関連情報を画像に重畳させた重畳画像を生成する。これにより、生成装置100は、画像に含まれる対象物と対象物に関連する情報とを適切にユーザに認識させるコンテンツを生成することができる。例えば、生成装置100は、画像と画像に含まれる対象物に関連する情報とを個別に表示するコンテンツに比べて、対象物に関連する関連情報を画像に重畳させた重畳画像の場合、対象物を含む領域、すなわち画像においてユーザに注目させたい箇所をユーザに提示することができる。
なお、図1では、1つの対象物に関する1つの関連情報を画像に表示する場合を示したが、生成装置100は、画像における複数の対象物の各々に関する複数の関連情報を画像に重畳させた重畳画像を生成してもよい。例えば、生成装置100は、画像における複数の対象物の各々に関する複数の関連情報を画像に重畳させた重畳画像を生成することにより、ファッション雑誌の表紙のような画像を生成してもよい。すなわち、生成装置100は、画像における複数の対象物の各々に関する複数の関連情報を画像に重畳させた重畳画像を生成することにより、複数の対象物の位置に応じて複数の関連情報が適切に配置された重畳画像を生成してもよい。
また、生成装置100は、画像中の対象物付近に関連画像を重畳させて重畳画像を生成する。これにより、生成装置100は、関連情報と対象物との関係をユーザが認識しやすい態様で表示される重畳画像(コンテンツ)を生成することができる。このように、生成装置100は、対象物に関連する関連情報を対象物の付近に配置することにより、ユーザに注目させたい箇所をユーザに提示とともに、その対象物の内容を文字情報としてユーザに提示することができる。また、生成装置100は、対象物に関連する関連情報を、対象物を指示する表示態様で配置することにより、ユーザに注目させたい箇所をユーザに提示とともに、その対象物の内容を文字情報としてユーザに提示することができる。また、生成装置100は、画像中の余白領域を判定し、判定した余白領域に関連画像を重畳させて重畳画像を生成する。これにより、生成装置100は、画像においてオブジェクトが含まれない領域に関連画像を重畳させて重畳画像を生成することができる。したがって、生成装置100は、重畳させても画像に含まれるオブジェクトの認識率低下を抑制しつつ、関連情報を重畳させて重畳画像を生成することができる。
また、図1では、関連情報IR11が重畳画像IS11に常時表示される場合を示したが、関連情報IR11は所定の条件を満たす場合にのみ表示されてもよい。例えば、生成装置100は、関連情報が表示された状態から非表示になったり、関連情報が非表示の状態から表示状態になったりする重畳画像を生成してもよい。すなわち、生成装置100は、重畳画像として動的コンテンツを生成してもよい。例えば、生成装置100は、重畳画像中の対象物が表示された領域に所定の操作が行われた場合、その対象物に関する関連情報が表示される重畳画像を生成してもよい。ここでいう、所定の操作には、マウスカーソルを対象物の上に重ねる操作、いわゆるマウスオーバーや、対象物へのクリックやタップなど、種々の操作が含まれる。また、生成装置100は、オブジェクト(対象物や関連情報)を浮き立たせたり、オブジェクト(対象物や関連情報)の表示態様が定期的に変動したりする重畳画像を生成してもよい。これにより、生成装置100は、オブジェクト(対象物や関連情報)をユーザが気づきやすくすることができる。すなわち、生成装置100は、オブジェクト(対象物や関連情報)がユーザに認識されやすくすることができる。また、関連情報は、文字情報に限らず、画像情報や動画情報等の種々の情報であってもよい。例えば、重畳画像が表示された端末装置10(図2参照)において、対象物であるバッグがマウスオーバーされた場合、端末装置10は、関連情報と共にバッグ単体の写真をスライドショーしたり、マウスで動かせる3D(3次元)モデルを表示したりしてもよい。このように、端末装置10は、オブジェクト(対象物や関連情報)の表示態様を変動させたり、対象物に関する種々の情報を表示したりしてもよい。
また、上述した例においては、対象物を含む画像と文字情報に基づいて画像から特徴領域情報を抽出する場合を説明したが、生成装置100は、画像のみに基づいて画像から特徴領域情報を抽出してもよい。この場合、生成装置100は、外部のデータベース等の所定の記憶手段に記憶された対象物に関連する情報を関連情報として、画像に重畳させた重畳画像(コンテンツ)を生成してもよい。また、生成装置100は、関連情報として、対象物に関連する広告情報を画像に重畳させた重畳画像を生成してもよい。
図1では、例えば、生成装置100は、関連情報として、バッグBGに関する広告情報を画像に重畳させた重畳画像を生成してもよい。これにより、実施形態に係る生成装置100は、画像に含まれる対象物と対象物に関連する広告とを適切にユーザに認識させるコンテンツを生成することができる。したがって、生成装置100は、広告効果の高いコンテンツを生成することができ、広告効果を向上させることができる。
また、上述した例においては、対象物であるバッグBGを指示する関連情報IR11が吹き出しのような形状で表示される場合を示したが、関連情報IR11は、ユーザが対象物であるバッグBGを認識する確率を高めることができれば、どのような態様であってもよい。また、生成装置100は、余白領域の形状やサイズに応じて、関連情報の表示態様を変更してもよい。例えば、生成装置100は、余白領域の形状に合わせた形状で関連情報を表示してもよい。また、例えば、生成装置100は、余白領域のサイズに合わせたサイズで関連情報を表示してもよい。この場合、生成装置100は、余白領域のサイズに合わせた関連情報の各文字のフォントサイズを変更してもよい。
また、例えば、生成装置100は、余白領域の色に応じて、関連情報の表示態様を変更してもよい。例えば、生成装置100は、余白領域の色が白である場合、関連情報を白以外の色で表示してもよい。例えば、生成装置100は、余白領域の色が白である場合、関連情報の文字を黒で表示し、文字を囲む部分(図1では吹き出し部分)を黄色で表示してもよい。また、例えば、生成装置100は、余白領域の色の補色を用いて関連情報を表示してもよい。これにより、生成装置100は、関連情報をユーザが認識する確率を高めることができる。
〔2.配信システムの構成〕
図2に示すように、配信システム1は、端末装置10と、提供元端末50と、生成装置100とが含まれる。端末装置10と、提供元端末50と、生成装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。図2は、実施形態に係る配信システムの構成例を示す図である。なお、図2に示した配信システム1には、複数台の端末装置10や、複数台の提供元端末50や、複数台の生成装置100が含まれてもよい。
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、ユーザによる種々の操作を受け付ける。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。なお、上述した端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。
提供元端末50は、文字情報や画像等のコンテンツの提供元によって利用される情報処理装置である。例えば、文字情報や画像等のコンテンツの提供元は、提供元端末50により、図4に示すような文字情報や画像を生成装置100へ提供する。
生成装置100は、画像から抽出される情報であって、画像における対象物の領域に関する情報である特徴領域情報に基づいて、対象物に関連する関連情報を画像に重畳させた重畳画像を生成する情報処理装置である。また、本実施形態において生成装置100は、生成した組合せコンテンツを端末装置10へ配信するコンテンツ配信サービスを提供する。
〔3.生成装置の構成〕
次に、図3を用いて、実施形態に係る生成装置100の構成について説明する。図3は、実施形態に係る生成装置100の構成例を示す図である。図3に示すように、生成装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、生成装置100は、生成装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、端末装置10との間で情報の送受信を行う。
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図3に示すように、コンテンツ情報記憶部121を有する。
(コンテンツ情報記憶部121)
実施形態に係るコンテンツ情報記憶部121は、コンテンツに関する各種情報を記憶する。図4に、実施形態に係るコンテンツ情報記憶部121の一例を示す。図4に示すコンテンツ情報記憶部121は、「コンテンツID」、「文字情報」、「画像」、「画像ID」、「提供元ID」といった項目を有する。
「コンテンツID」は、コンテンツを識別するための識別情報を示す。「文字情報」は、対応するコンテンツに含まれる文字情報を示す。また、「画像」は、対応するコンテンツに含まれる画像を示す。図4では、説明のため画像IDにより識別される画像を図示するが、「画像」としては、画像の格納場所を示すファイルパス名などが格納されてもよい。「画像ID」は、画像を識別するための識別情報を示す。例えば、画像ID「IM11」により識別される画像は、図1の例に示した画像IM11に対応する。また、「提供元ID」は、コンテンツの提供元を識別するための識別情報を示す。
例えば、図4に示す例において、コンテンツID「AT11」により識別されるコンテンツAT11は、文字情報「20XX年、春のトレンドファッションアイテム…」と画像ID「IM11」により識別される画像IM11を含むコンテンツAT11であることを示す。また、コンテンツID「AT11」により識別されるコンテンツAT11は、提供元ID「CP11」により識別される提供元から取得したコンテンツAT11であることを示す。
また、例えば、図4に示す例において、コンテンツID「AT12」により識別されるコンテンツは、文字情報「日本代表サッカー選手××は、…」と画像ID「IM12」により識別される画像を含むコンテンツであることを示す。また、コンテンツID「AT12」により識別されるコンテンツは、提供元ID「CP12」により識別される提供元から取得したコンテンツであることを示す。
なお、コンテンツ情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、コンテンツ情報記憶部121は、コンテンツのカテゴリに関する情報を記憶してもよい。また、例えば、コンテンツ情報記憶部121は、コンテンツを取得した日時やコンテンツが作成された日時に関する情報を記憶してもよい。また、例えば、コンテンツ情報記憶部121は、コンテンツの文字情報における重要なキーワードやトピックに関する情報を記憶してもよい。また、コンテンツ情報記憶部121中の画像は、画像の提供元や画像に関する権利(著作権等)を有する第三者から、画像への加工、すなわち二次加工に関する許諾が得られていることが判断(確認)され、管理(記憶)されているものとする。
(制御部130)
図3の説明に戻って、制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、生成装置100内部の記憶装置に記憶されている各種プログラム(生成プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図3に示すように、制御部130は、取得部131と、抽出部132と、判定部133と、生成部134と、配信部135とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
(取得部131)
取得部131は、対象物を含む画像を取得する。例えば、取得部131は、コンテンツ情報記憶部121から画像を取得する。また、取得部131は、画像に関連する文字情報を取得する。例えば、取得部131は、コンテンツ情報記憶部121から文字情報を取得する。また、取得部131は、画像に関連する関連情報を取得してもよい。例えば、取得部131は、外部の情報処理装置から画像に関連する関連情報を取得してもよい。
また、取得部131は、端末装置10からコンテンツの配信要求を取得する。また、取得部131は、外部の情報処理装置からコンテンツ情報記憶部121に記憶されるコンテンツを取得する。この場合、例えば、取得部131は、提供元端末50からコンテンツを取得する。また、取得部131は、コンテンツにおけるトピックに関する情報を取得してもよい。例えば、取得部131は、コンテンツにおけるトピックに関する指定をコンテンツの提供元から取得してもよい。この場合、例えば、取得部131は、提供元端末50からコンテンツにおけるトピックに関する指定を取得する。
(抽出部132)
抽出部132は、画像における特徴情報が含まれる領域に関する特徴領域情報を抽出する。例えば、抽出部132は、画像と文字情報とに基づいて、画像から対象物の領域に関する情報である特徴領域情報を抽出する。なお、抽出部132は、サリエンシーディテクション等の画像処理における種々の従来手法を適宜用いて、画像における特徴領域情報を抽出する。例えば、抽出部132は、R−CNN等の画像認識技術を用いた画像処理を適宜用いてもよい。また、抽出部132は、画像処理等の種々の従来手法を適宜用いて、画像におけるオブジェクト(物体)の認識による情報の抽出を行ってもよい。図1では、抽出部132は、特徴領域情報FR11に示すように、画像IM11と文字情報IC11とに基づいて、画像IM11における特徴領域を抽出する。
また、抽出部132は、対象物となるオブジェクトであるバッグBGに関連する関連情報を生成する。例えば、抽出部132は、トピック分析(解析)等の種々の従来手法を適宜用いて、文字情報からトピックを抽出してもよい。例えば、抽出部132は、文字情報を形態素解析等の自然言語処理技術を適宜用いて解析することにより、文字情報から重要なキーワードをトピックとして抽出してもよい。
(判定部133)
判定部133は、種々の従来技術を適宜用いて、画像における余白領域を判定する。例えば、判定部133は、特徴領域情報における特徴量が所定の閾値未満の領域に対応する画像中の領域を余白領域と判定してもよい。また、判定部133は、画像における領域内の最大の輝度値と最小の輝度値との差が所定の閾値未満の領域を余白領域と判定してもよい。また、例えば、判定部133は、特徴領域情報における特徴量が所定の閾値未満の領域に対応する画像中の領域内において、最大の輝度値と最小の輝度値との差が所定の閾値未満の領域を余白領域と判定してもよい。なお、上記は一例であって、判定部133は、関連情報を重畳させても画像に含まれるオブジェクトの認識に影響が小さい領域であれば、どのような基準に基づいて余白領域と判定してもよい。
図1では、判定部133は、画像IM11中のモデルMDの左右両側に余白領域BS11、BS12が含まれると判定する。具体的には、判定部133は、画像IM11中のモデルMDの左側に余白領域BS11が含まれ、画像IM11中のモデルMDの右側に余白領域BS12が含まれると判定する。
また、判定部133は、種々の従来技術を適宜用いて、画像に含まれるオブジェクトを判定してもよい。例えば、判定部133は、画像処理等の種々の従来手法を適宜用いて、画像におけるオブジェクト(物体)の判定を行ってもよい。図1では、判定部133は、特徴領域情報FR11に基づいて、画像IM11にオブジェクトとしてモデルMD、帽子HT、腕時計WT、バッグBG等が含まれると判定する。
(生成部134)
生成部134は、画像から抽出される情報であって、画像における前記対象物の領域に関する情報である特徴領域情報に基づいて、対象物に関連する関連情報を画像に重畳させた重畳画像を生成する。また、生成部134は、文字情報を用いて画像から抽出された対象物の特徴領域情報に基づいて、文字情報から生成された対象物に関連する関連情報を画像に重畳させた重畳画像を生成する。
生成部134は、画像における対象物の領域付近に関連情報を重畳させた重畳画像を生成する。また、生成部134は、対象物と対象物を指示する関連情報とを含む重畳画像を生成する。また、生成部134は、画像における余白領域に関連情報を重畳させた重畳画像を生成する。生成部134は、関連情報として、対象物に関連する広告情報を画像に重畳させた重畳画像を生成する。
また、生成部134は、文字情報から抽出したトピックに基づいて、対象物となるオブジェクトに関連する関連情報を生成する。例えば、生成部134は、対象物となるオブジェクトに関連する関連情報を生成する。例えば、生成部134は、文字情報から抽出したトピックに基づいて、対象物となるオブジェクトに関連する関連情報を生成する。この場合、生成部134は、トピック分析(解析)等の種々の従来手法を適宜用いて、文字情報からトピックを抽出してもよい。例えば、生成部134は、文字情報を形態素解析等の自然言語処理技術を適宜用いて解析することにより、文字情報から重要なキーワードをトピックとして抽出してもよい。
図1では、生成部134は、対象物となるオブジェクト「○○のバッグ」、すなわちバッグBGに関連する関連情報を生成する。例えば、生成部134は、文字列「ブランド○○の最新バッグ」を含む関連情報IR11を生成する。具体的には、生成部134は、文字情報IC11に含まれる文字列「○○のバッグの最新作が…」等に基づいて、バッグBGがブランド○○の最新バッグであると推定し、関連情報IR11を生成する。
また、生成部134は、関連情報を画像に重畳させることにより、重畳画像(コンテンツ)を生成する。図1では、生成部134は、画像IM11における対象物の領域付近に関連情報IR11を重畳させた重畳画像IS11を生成する。具体的には、生成部134は、画像IM11における余白領域BS12の下部に、バッグBGを指示する関連情報IR11を重畳させた重畳画像IS11を生成する。
(配信部135)
配信部135は、生成部134により生成された重畳画像(コンテンツ)を端末装置10へ配信する。また、配信部135は、コンテンツ情報記憶部121に記憶されたコンテンツを端末装置10へ配信してもよい。
〔4.端末装置の構成〕
次に、図5を用いて、実施形態に係る端末装置10の構成について説明する。図5は、実施形態に係る端末装置10の構成例を示す図である。図5に示すように、端末装置10は、通信部11と、記憶部12と、入力部13と、出力部14と、制御部15とを有する。
(通信部11)
通信部11は、例えば、通信回路等によって実現される。そして、通信部11は、図示しない所定の通信網と有線または無線で接続され、生成装置100との間で情報の送受信を行う。
(記憶部12)
記憶部12は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部12は、例えば、端末装置10にインストールされているアプリケーションに関する情報、例えばプログラム等を記憶する。
(入力部13)
入力部13は、ユーザからの各種操作を受け付ける。例えば、入力部13は、タッチパネル機能により表示面(例えば表示部153)を介してユーザからの各種操作を受け付けてもよい。また、入力部13は、端末装置10に設けられたボタンや、端末装置10に接続されたキーボードやマウスからの各種操作を受け付けてもよい。例えば、入力部13は、ユーザによる重畳画像に含まれる関連情報の指定を受け付ける。
(出力部14)
出力部14は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現されるタブレット端末等の表示画面であり、各種情報を表示するための表示装置である。
(制御部15)
制御部15は、例えば、CPUやMPU等によって、端末装置10内部の記憶部12などの記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、インストールされているアプリケーションのプログラムが含まれる。また、制御部15は、例えば、ASICやFPGA等の集積回路により実現される。
図5に示すように、制御部15は、送信部151と、受信部152と、表示部153とを有し、以下に説明する生成処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図5に示した構成に限られず、後述する生成処理を行う構成であれば他の構成であってもよい。また、制御部15が有する各処理部の接続関係は、図5に示した接続関係に限られず、他の接続関係であってもよい。
送信部151は、各種情報を外部の情報処理装置へ送信する。送信部151は、入力部13により受け付けたユーザ操作に従って、生成装置100へコンテンツの配信要求を送信する。例えば、送信部151は、アプリからの配信要求を生成装置100へ送信する。
受信部152は、各種情報を外部の情報処理装置から受信する。受信部152は、生成装置100から配信された重畳画像を受信する。具体的には、受信部152は、生成装置100により生成された重畳画像を含むコンテンツを受信する。例えば、受信部152は、重畳画像IS11を含むウェブページW10(図6参照)を受信する。
表示部153は、受信部152により受信されたコンテンツを表示する。例えば、表示部153は、受信部152により受信された重畳画像IS11を含むウェブページW10(図6参照)を表示する。
なお、上述した制御部15による表示処理等の処理は、例えば、JavaScript(登録商標)などにより実現されてもよい。また、上述した表示処理が所定のアプリケーションにより行われる場合や表示処理が専用アプリにより行われる場合、制御部15は、例えば、所定のアプリや専用アプリを制御するアプリ制御部を有してもよい。
〔5.組合せコンテンツの表示例〕
次に、図6を用いて、実施形態に係る端末装置10における重畳画像を含むコンテンツの表示について説明する。図6は、実施形態に係る端末装置における表示の一例を示す図である。図6では、端末装置10が生成装置100から重畳画像IS11を含むウェブページW10を受信した場合を示す。図6では、端末装置10が、重畳画像IS11を含むファッションサイトAのウェブページW10を表示する例を示す。このように、生成装置100が生成した重畳画像IS11は端末装置10においてコンテンツとして表示される。すなわち、生成装置100は、画像中の対象物であるバッグ付近に関連画像IR11を重畳させて表示させる重畳画像IS11を端末装置10へ配信する。これにより、生成装置100は、関連情報と対象物との関係をユーザが認識しやすい態様で表示される重畳画像(コンテンツ)を端末装置10に表示させることができる。
〔6.生成処理フロー〕
次に、図7を用いて、実施形態に係る配信システム1におけるコンテンツの生成処理について説明する。図7は、実施形態に係る生成処理の一例を示すフローチャートである。
まず、図7に示す例において、生成装置100は、画像と画像に対応する文字情報を取得する(ステップS101)。例えば、生成装置100は、画像をコンテンツ情報記憶部121から取得する。また、例えば、生成装置100は、画像に関連する文字情報をコンテンツ情報記憶部121から取得する。
そして、生成装置100は、画像から特徴領域情報を抽出する(ステップS102)。また、生成装置100は、画像中の余白領域を判定する(ステップS103)。
その後、生成装置100は、画像に含まれるオブジェクトに関する関連情報を文字情報から生成する(ステップS104)。例えば、生成装置100は、画像に含まれる対象物であるオブジェクトに関する関連情報を文字情報から生成する。また、生成装置100は、関連情報を重畳可能な余白領域を判定する(ステップS105)。例えば、生成装置100は、関連情報を重畳可能な大きさを有する余白領域を判定する。
そして、生成装置100は、画像に関連情報を重畳した重畳画像を生成する(ステップS106)。例えば、生成装置100は、ステップS106において判定した余白領域に関連情報を重畳した重畳画像を生成する。
〔7.関連情報の指定による出力〕
生成装置100は、ユーザの指定に応じて所定の情報を出力させる関連情報を画像に重畳させた重畳画像を生成してもよい。この点について、図8を用いて説明する。図8は、実施形態に係る関連情報の指定の一例を示す図である。具体的には、図8は、重畳画像IS11に含まれる関連情報IR11がユーザにより指定された場合に、対象物「○○のバッグ」に関する音声IV11を出力する場合を示す。
図8に示す例において、端末装置10を利用するユーザは、端末装置10に表示された関連情報IR11を押下する(ステップS15)。これにより、端末装置10を利用するユーザは、指F1でタッチすることにより、関連情報IR11を指定する。
そして、ユーザによる指定を受け付けた端末装置10は、対象物「○○のバッグ」に関する音声IV11を出力する(ステップS16)。具体的には、端末装置10は、対象物「○○のバッグ」に関する情報をスピーカから音声として出力する。これにより、生成装置100は、端末装置10を利用するユーザに対象物「○○のバッグ」を認識させることができる。
なお、ユーザの指定に基づく出力は、音声による出力に限らず、端末装置10を利用するユーザの対象物を認識する確率を高めることができれば、どのような態様であってもよい。例えば、関連情報IR11がユーザにより指定された場合に、端末装置10は、対象物「○○のバッグ」に関する動画情報を出力してもよい。また、例えば、関連情報IR11がユーザにより指定された場合に、端末装置10は、対象物「○○のバッグ」の拡大画像を表示してもよい。また、例えば、関連情報IR11がユーザにより指定された場合に、端末装置10は、対象物「○○のバッグ」に関する所定のサイトを表示してもよい。
〔8.オブジェクト情報を用いた生成処理〕
上述した例においては、生成装置100が対象物を含む画像と文字情報に基づいて画像から抽出された対象物の特徴領域情報に基づいて、文字情報から生成された対象物に関連する関連情報を画像に重畳させた重畳画像(コンテンツ)を生成する場合を示した。しかしながら、生成装置100は、画像から対象物の特徴領域情報を抽出し、抽出した特徴領域情報からオブジェクトを判定してもよい。この点について、図9及び図10を用いて説明する。図9は、実施形態に係るオブジェクト情報を用いた生成処理の一例を示す図である。
図9に示す例では、画像IM11と文字情報IC11とを用いて重畳画像が生成される例を示す。図9中の画像IM11は、帽子HT、腕時計WT、及びバッグBGを身に着けたモデルMDを含む。また、図9中の文字情報IC11は、画像IM11に関する文章を含む。例えば、画像IM11と文字情報IC11とは、1つの記事に含まれる画像や文字情報であり、互いに関連する情報を含む。なお、図9では、画像IM11中の腕時計WTを対象物として重畳画像を生成する場合を示す。また、腕時計WTは、ブランド△△の腕時計であるものとする。
まず、生成装置100は、画像IM11における特徴情報が含まれる領域に関する特徴領域情報FR21を抽出する(ステップS21)。例えば、生成装置100は、画像IM11のみに基づいて、画像IM11から対象物の領域に関する情報である特徴領域情報FR21を抽出する。図9では、生成装置100は、特徴領域情報FR21に示すように、画像IM11のみに基づいて、画像IM11における特徴領域を抽出する。なお、図9中の特徴領域情報FR21では、特徴を示す領域を色が濃い態様で示す。すなわち、特徴領域情報FR21では、特徴量が大きいほど色が濃い態様で表示される。具体的には、図9中の特徴領域情報FR21では、画像IM11において人(モデルMD)の顔が位置する領域や、画像IM11において帽子HT、腕時計WT、及びバッグBGが位置する領域が色の濃い態様で示される。すなわち、図9では、生成装置100は、対象物である腕時計が位置する領域AR21(以下、「対象領域AR21」とする場合がある)が色の濃い態様で示される。なお、対象領域AR21は画像IM11における所定の閾値以上の特徴量を含む領域であってもよい。また、図9の例では、特徴領域情報FR21は、図1に示す特徴領域情報FR11と比較して、モデルMDの顔の領域が他の領域よりも特徴量が大きくなる。
そして、生成装置100は、特徴領域情報FR21に基づいて画像IM11に含まれるオブジェクトを判定する(ステップS22)。具体的には、生成装置100は、画像IM11中に人(モデルMD)、帽子HT、腕時計WT、及びバッグBGが含まれると判定する。例えば、生成装置100は、R−CNN等の画像認識技術を用いた画像処理を適宜用いてもよい。また、生成装置100は、画像処理等の種々の従来手法を適宜用いて、画像におけるオブジェクト(物体)の判定を行ってもよい。
ステップS22におけるオブジェクト判定により、生成装置100は、オブジェクト一覧OJ21に示すように、画像IM11中には、モデルMDであるオブジェクト「モデル××」や、腕時計WTであるオブジェクト「△△の腕時計」や、バッグBGであるオブジェクト「○○のバッグ」等が含まれると判定する。
そして、生成装置100は、対象物となるオブジェクトである腕時計WTに関連する関連情報を生成する(ステップS23)。この場合、生成装置100は、オブジェクト情報DB10に格納された腕時計WTに関連する情報に基づいて、腕時計WTに関連する関連情報を生成する。例えば、オブジェクト情報DB10は生成装置100外に設けられてもよい。例えば、オブジェクト情報DB10は外部の情報処理装置が有してもよい。この場合、生成装置100は、オブジェクト情報DB10を有する外部の情報処理装置に腕時計WTを指定する情報を送信することにより、外部の情報処理装置から腕時計WTに関する情報を取得してもよい。
図9に示す例においては、生成装置100は、オブジェクト情報DB10を有する外部の情報処理装置に腕時計WTを指定する情報を送信することにより、外部の情報処理装置から腕時計WTの発売日が「X月Y日」であることを示す情報を取得した場合を示す。
生成装置100は、対象物となるオブジェクト「△△の腕時計」、すなわち腕時計WTに関連する関連情報を生成する。例えば、図9では、生成装置100は、オブジェクト情報DB10を有する外部の情報処理装置から取得した腕時計WTの発売日「X月Y日」に基づいて、文字列「X月Y日発売△△の腕時計」を含む関連情報IR21を生成する。
そして、生成装置100は、関連情報IR21を画像IM11に重畳させることにより、重畳画像IS21を生成する(ステップS24)。図9では、生成装置100は、画像IM11における対象物の領域付近に関連情報IR21を重畳させた重畳画像IS21を生成する。具体的には、生成装置100は、画像IM11における余白領域に、腕時計WTを指示する関連情報IR21を重畳させた重畳画像IS21を生成する。
図9では、生成装置100は、画像IM11中のモデルMDの左右両側に余白領域BS21、BS22が含まれると判定する。具体的には、生成装置100は、画像IM11中のモデルMDの左側に余白領域BS21が含まれ、画像IM11中のモデルMDの右側に余白領域BS22が含まれると判定する。
ここで、図9では、余白領域BS22に比べて余白領域BS21は、画像IM11において対象領域AR21に対応する部分に近接して位置する。そのため、生成装置100は、画像IM11中の余白領域BS21に関連情報IR21を重畳させた重畳画像IS21を生成する。具体的には、生成装置100は、画像IM11中の余白領域BS21における腕時計WTに近接する箇所(図9では上部)に関連情報IR21を重畳させた重畳画像IS21を生成する。このように、生成装置100は、オブジェクト情報を用いて関連情報を生成することにより、ユーザに訴求効果の高い関連情報を含む重畳画像を生成することができる。
〔9.オブジェクト情報を用いた生成処理フロー〕
次に、図10を用いて、実施形態に係る配信システム1におけるオブジェクト情報を用いたコンテンツの生成処理について説明する。図10は、実施形態に係るオブジェクト情報を用いた生成処理の一例を示すフローチャートである。
まず、図10に示す例において、生成装置100は、画像と画像に対応する文字情報を取得する(ステップS201)。例えば、生成装置100は、画像をコンテンツ情報記憶部121から取得する。また、例えば、生成装置100は、画像に関連する文字情報をコンテンツ情報記憶部121から取得する。
そして、生成装置100は、画像から特徴領域情報を抽出する(ステップS202)。また、生成装置100は、画像中の余白領域を判定する(ステップS203)。そして、生成装置100は、画像と抽出した特徴領域から画像に含まれるオブジェクトを判定する(ステップS204)。
その後、生成装置100は、画像に含まれるオブジェクトに関する関連情報を文字情報から生成する(ステップS205)。例えば、生成装置100は、ステップS204において判定されたオブジェクトに関する関連情報を文字情報から生成する。また、生成装置100は、関連情報を重畳可能な余白領域を判定する(ステップS206)。例えば、生成装置100は、関連情報を重畳可能な大きさを有する余白領域を判定する。
そして、生成装置100は、画像に関連情報を重畳した重畳画像を生成する(ステップS207)。例えば、生成装置100は、ステップS207において判定した余白領域に関連情報を重畳した重畳画像を生成する。
〔10.効果〕
上述してきたように、実施形態に係る生成装置100は、取得部131と、生成部134とを有する。取得部131は、対象物を含む画像を取得する。生成部134は、画像から抽出される情報であって、画像における対象物の領域に関する情報である特徴領域情報に基づいて、対象物に関連する関連情報を画像に重畳させた重畳画像を生成する。
これにより、実施形態に係る生成装置100は、画像における対象物の領域に関する情報である特徴領域情報に基づいて、対象物に関連する関連情報を画像に重畳させた重畳画像を生成する。これにより、生成装置100は、画像に含まれる対象物と対象物に関連する情報とを適切にユーザに認識させるコンテンツを生成することができる。例えば、生成装置100は、画像と画像に含まれる対象物に関連する情報とを個別に表示するコンテンツに比べて、対象物に関連する関連情報を画像に重畳させた重畳画像の場合、対象物を含む領域、すなわち画像においてユーザに注目させたい箇所をユーザに提示することができる。
また、実施形態に係る生成装置100において、取得部131は、画像に関連する文字情報を取得する。生成部134は、文字情報を用いて画像から抽出された対象物の特徴領域情報に基づいて、文字情報から生成された対象物に関連する関連情報を画像に重畳させた重畳画像を生成する。
これにより、実施形態に係る生成装置100は、文字情報を用いて画像から抽出された対象物の特徴領域情報に基づいて、文字情報から生成された対象物に関連する関連情報を画像に重畳させることにより、より適切な位置に適切な内容の関連情報を配置することができる。したがって、生成装置100は、画像に含まれる対象物と対象物に関連する情報とを適切にユーザに認識させるコンテンツを生成することができる。
また、実施形態に係る生成装置100において、生成部134は、画像における対象物の領域付近に関連情報を重畳させた重畳画像を生成する。
これにより、実施形態に係る生成装置100は、対象物に関連する関連情報を対象物の付近に配置することにより、ユーザに注目させたい箇所をユーザに提示とともに、その対象物の内容を文字情報としてユーザに提示することができる。したがって、生成装置100は、画像に含まれる対象物と対象物に関連する情報とを適切にユーザに認識させるコンテンツを生成することができる。
また、実施形態に係る生成装置100において、生成部134は、対象物と対象物を指示する関連情報とを含む重畳画像を生成する。
これにより、実施形態に係る生成装置100は、対象物に関連する関連情報を、対象物を指示する表示態様で配置することにより、ユーザに注目させたい箇所をユーザに提示とともに、その対象物の内容を文字情報としてユーザに提示することができる。したがって、生成装置100は、画像に含まれる対象物と対象物に関連する情報とを適切にユーザに認識させるコンテンツを生成することができる。
また、実施形態に係る生成装置100において、生成部134は、画像における余白領域に関連情報を重畳させた重畳画像を生成する。
これにより、実施形態に係る生成装置100は、画像中の余白領域を判定し、判定した余白領域に関連画像を重畳させて重畳画像を生成する。これにより、生成装置100は、画像においてオブジェクトが含まれない領域に関連画像を重畳させて重畳画像を生成することができる。したがって、生成装置100は、重畳させても画像に含まれるオブジェクトの認識率低下を抑制しつつ、関連情報を重畳させて重畳画像を生成することができる。このように、生成装置100は、画像に含まれる対象物と対象物に関連する情報とを適切にユーザに認識させるコンテンツを生成することができる。
また、実施形態に係る生成装置100において、生成部134は、ユーザの指定に応じて所定の情報を出力させる関連情報を画像に重畳させた重畳画像を生成する。
これにより、実施形態に係る生成装置100は、端末装置10を利用するユーザが対象物を認識する確率を高めることができる。生成装置100は、画像に含まれる対象物と対象物に関連する情報とを適切にユーザに認識させるコンテンツを生成することができる。
また、実施形態に係る生成装置100において、生成部134は、関連情報として、対象物に関連する広告情報を画像に重畳させた重畳画像を生成する。
これにより、実施形態に係る生成装置100は、画像に含まれる対象物と対象物に関連する広告とを適切にユーザに認識させるコンテンツを生成することができる。したがって、生成装置100は、広告効果の高いコンテンツを生成することができ、広告効果を向上させることができる。
〔11.ハードウェア構成〕
上述してきた実施形態に係る生成装置100は、例えば図11に示すような構成のコンピュータ1000によって実現される。図11は、生成装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る生成装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
〔12.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上述してきた実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
1 配信システム
100 生成装置
121 コンテンツ情報記憶部
130 制御部
131 取得部
132 抽出部
133 判定部
134 生成部
135 配信部
10 端末装置
151 送信部
152 受信部
153 表示部
N ネットワーク

Claims (8)

  1. 対象物を含む画像と、当該画像に関連する文字情報として当該画像と同一のコンテンツに含まれた文字情報と、を取得する取得部と、
    前記文字情報を用いて前記画像から抽出される情報であって、前記画像における前記対象物の領域に関する情報である特徴領域情報に基づいて、前記文字情報から生成された前記対象物に関連する関連情報を前記画像に重畳させた重畳画像を生成する生成部と、
    を備えることを特徴とする生成装置。
  2. 前記生成部は、
    前記画像における前記対象物の領域付近に前記関連情報を重畳させた重畳画像を生成する
    ことを特徴とする請求項1に記載の生成装置。
  3. 前記生成部は、
    前記対象物と、前記対象物を指示する前記関連情報とを含む前記重畳画像を生成する
    ことを特徴とする請求項1または請求項2に記載の生成装置。
  4. 前記生成部は、
    前記画像における余白領域に前記関連情報を重畳させた重畳画像を生成する
    ことを特徴とする請求項1〜3のいずれか1項に記載の生成装置。
  5. 前記生成部は、
    ユーザの指定に応じて所定の情報を出力させる前記関連情報を前記画像に重畳させた重畳画像を生成する
    ことを特徴とする請求項1〜4のいずれか1項に記載の生成装置。
  6. 前記生成部は、
    前記関連情報として、前記対象物に関連する広告情報を前記画像に重畳させた重畳画像を生成する
    ことを特徴とする請求項1〜5のいずれか1項に記載の生成装置。
  7. コンピュータが実行する生成方法であって、
    対象物を含む画像と、当該画像に関連する文字情報として当該画像と同一のコンテンツに含まれた文字情報と、を取得する取得工程と、
    前記文字情報を用いて前記画像から抽出される情報であって、前記画像における前記対象物の領域に関する情報である特徴領域情報に基づいて、前記文字情報から生成された前記対象物に関連する関連情報を前記画像に重畳させた重畳画像を生成する生成工程と、
    を含むことを特徴とする生成方法。
  8. 対象物を含む画像と、当該画像に関連する文字情報として当該画像と同一のコンテンツに含まれた文字情報と、を取得する取得手順と、
    前記文字情報を用いて前記画像から抽出される情報であって、前記画像における前記対象物の領域に関する情報である特徴領域情報に基づいて、前記文字情報から生成された前記対象物に関連する関連情報を前記画像に重畳させた重畳画像を生成する生成手順と、
    をコンピュータに実行させることを特徴とする生成プログラム。
JP2018159729A 2018-08-28 2018-08-28 生成装置、生成方法、及び生成プログラム Active JP7044665B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018159729A JP7044665B2 (ja) 2018-08-28 2018-08-28 生成装置、生成方法、及び生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018159729A JP7044665B2 (ja) 2018-08-28 2018-08-28 生成装置、生成方法、及び生成プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016007646A Division JP6436922B2 (ja) 2016-01-19 2016-01-19 生成装置、生成方法、及び生成プログラム

Publications (2)

Publication Number Publication Date
JP2018200721A true JP2018200721A (ja) 2018-12-20
JP7044665B2 JP7044665B2 (ja) 2022-03-30

Family

ID=64668249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018159729A Active JP7044665B2 (ja) 2018-08-28 2018-08-28 生成装置、生成方法、及び生成プログラム

Country Status (1)

Country Link
JP (1) JP7044665B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007096816A (ja) * 2005-09-29 2007-04-12 Fujifilm Corp 画像合成装置、画像合成プログラム、および画像合成プログラム記憶媒体
JP2012128751A (ja) * 2010-12-17 2012-07-05 Hitachi Consumer Electronics Co Ltd コンテンツ表示装置およびコンテンツ表示方法
JP2012256204A (ja) * 2011-06-09 2012-12-27 Dainippon Printing Co Ltd 記事配信システム、記事配信方法、サーバ及びプログラム
JP2014035642A (ja) * 2012-08-08 2014-02-24 Canon Inc 表示装置及びその制御方法、表示システム、プログラム
JP2015090553A (ja) * 2013-11-05 2015-05-11 株式会社ソニー・コンピュータエンタテインメント 端末装置、付加情報管理装置、および付加情報管理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007096816A (ja) * 2005-09-29 2007-04-12 Fujifilm Corp 画像合成装置、画像合成プログラム、および画像合成プログラム記憶媒体
JP2012128751A (ja) * 2010-12-17 2012-07-05 Hitachi Consumer Electronics Co Ltd コンテンツ表示装置およびコンテンツ表示方法
JP2012256204A (ja) * 2011-06-09 2012-12-27 Dainippon Printing Co Ltd 記事配信システム、記事配信方法、サーバ及びプログラム
JP2014035642A (ja) * 2012-08-08 2014-02-24 Canon Inc 表示装置及びその制御方法、表示システム、プログラム
JP2015090553A (ja) * 2013-11-05 2015-05-11 株式会社ソニー・コンピュータエンタテインメント 端末装置、付加情報管理装置、および付加情報管理方法

Also Published As

Publication number Publication date
JP7044665B2 (ja) 2022-03-30

Similar Documents

Publication Publication Date Title
Miller et al. The global smartphone: Beyond a youth technology
KR102010221B1 (ko) 스마트폰 기반 방법들 및 시스템들
KR102021727B1 (ko) 공유된 관심사를 갖는 메시지들의 갤러리
US9484046B2 (en) Smartphone-based methods and systems
JP5843207B2 (ja) 直観的コンピューティング方法及びシステム
CN104346037B (zh) 信息处理设备和信息处理方法
CN113205112A (zh) 用于辨别和匹配图像中描画的对象的方法和设备
US20130268513A1 (en) Annotations based on hierarchical categories and groups
KR20130062266A (ko) 소셜 홈페이지
KR20150024526A (ko) 콘텐트를 기반으로 하는 정보 제공 방법 및 장치
US11941149B2 (en) Positioning participants of an extended reality conference
CN112136099A (zh) 来自远程设备的直接输入
JP2017135505A (ja) 生成装置、生成方法、及び生成プログラム
JP2012059162A (ja) 電子コンテンツ表示装置、サーバ装置
US20230229279A1 (en) User interfaces for managing visual content in media
JP2017028685A (ja) 情報表示装置、情報表示方法、情報表示プログラムおよび配信装置
JP5965035B1 (ja) 情報表示プログラム、情報表示方法、情報表示装置、配信装置および配信方法
US10120539B2 (en) Method and device for setting user interface
US10606462B2 (en) Graphical user interface using color spectrum to map sentiments
US11948263B1 (en) Recording the complete physical and extended reality environments of a user
JP6436922B2 (ja) 生成装置、生成方法、及び生成プログラム
KR20150123429A (ko) 전자장치 및 컨텐츠 제공 방법
JP7044665B2 (ja) 生成装置、生成方法、及び生成プログラム
US20160224317A1 (en) Audible photos & voice comments in digital social interactions
KR20140089069A (ko) 재생 가능 객체를 생성하는 사용자 단말 장치 및 그 인터렉션 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181213

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200529

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201028

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20201028

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20201106

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20201110

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20201211

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20201215

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210706

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211012

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220121

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220201

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220308

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220317

R150 Certificate of patent or registration of utility model

Ref document number: 7044665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350