JP7195430B2 - 撮影データ生成装置、撮影データ生成方法及びプログラム - Google Patents

撮影データ生成装置、撮影データ生成方法及びプログラム Download PDF

Info

Publication number
JP7195430B2
JP7195430B2 JP2021528626A JP2021528626A JP7195430B2 JP 7195430 B2 JP7195430 B2 JP 7195430B2 JP 2021528626 A JP2021528626 A JP 2021528626A JP 2021528626 A JP2021528626 A JP 2021528626A JP 7195430 B2 JP7195430 B2 JP 7195430B2
Authority
JP
Japan
Prior art keywords
image
data
photographed
environment map
important
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021528626A
Other languages
English (en)
Other versions
JPWO2020255408A1 (ja
JPWO2020255408A5 (ja
Inventor
敬之 越智
良徳 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2020255408A1 publication Critical patent/JPWO2020255408A1/ja
Publication of JPWO2020255408A5 publication Critical patent/JPWO2020255408A5/ja
Application granted granted Critical
Publication of JP7195430B2 publication Critical patent/JP7195430B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影データ生成装置、撮影データ生成方法及びプログラムに関する。
トラッカーが取得する映像、音声、位置情報などのセンシングデータを、当該トラッカーを装着しているユーザのライフログとして記録する技術が知られている。
上記のライフログの活用にあたっては、当該ライフログにセンシングデータのみならず様々な種類のデータが蓄積されることが望ましい。
本発明は上記課題に鑑みてなされたものであって、その目的の1つは、ライフログとして蓄積されるデータを充実化できる撮影データ生成装置、撮影データ生成方法及びプログラムを提供することにある。
上記課題を解決するために、本発明に係る撮影データ生成装置は、撮影画像を順次受け付ける撮影画像受付部と、複数の前記撮影画像に基づいて、環境地図を生成する環境地図生成部と、前記環境地図に関連付けられる、前記撮影画像の撮影位置又は当該撮影画像の被写体を示す撮影データを生成する撮影データ生成部と、を含む。
本発明の一態様では、前記環境地図と前記撮影データとに基づいて、複数の前記撮影画像のうちから、所定の条件を満足する一部を特定する特定部、をさらに含む。
この態様では、前記特定部は、前記環境地図と前記撮影データとに基づいて、複数の前記撮影画像のうちから、前記環境地図内の所与の位置に存在する被写体が撮影された前記撮影画像を特定してもよい。
あるいは、前記特定部は、前記撮影データに基づいて評価される、当該撮影データに対応付けられる前記撮影画像がレアなものである程度に基づいて、複数の前記撮影画像のうちから一部を特定してもよい。
この態様では、前記特定部は、前記撮影画像が撮影された位置の密度に基づいて、複数の前記撮影画像のうちから一部を特定してもよい。
また、前記撮影データは、前記環境地図における前記撮影画像の撮影位置及び撮影方向を示すデータ、又は、前記環境地図における被写体の位置を示すデータであってもよい。
また、前記撮影データ生成部は、さらに、特定される一部の前記撮影画像について、当該撮影画像よりも高品質な新たな画像を生成してもよい。
また、本発明に係る撮影データ生成方法は、撮影画像を順次受け付けるステップと、複数の前記撮影画像に基づいて、環境地図を生成するステップと、前記環境地図に関連付けられる、前記撮影画像の撮影位置又は当該撮影画像の被写体を示す撮影データを生成するステップと、を含む。
また、本発明に係るプログラムは、撮影画像を順次受け付ける手順、複数の前記撮影画像に基づいて、環境地図を生成する手順、前記環境地図に関連付けられる、前記撮影画像の撮影位置又は当該撮影画像の被写体を示す撮影データを生成する手順、をコンピュータに実行させる。
本発明の一実施形態に係るライフログ管理システムの一例を示す構成図である。 本発明の一実施形態に係るサーバの一例を示す構成図である。 本発明の一実施形態に係るトラッカーの一例を示す構成図である。 本発明の一実施形態に係るライフログ管理システムで実装される機能の一例を示す機能ブロック図である。 ライフログデータのデータ構造の一例を示す図である。 個別データのデータ構造の一例を示す図である。 本発明の一実施形態に係るサーバで行われる処理の流れの一例を示すフロー図である。
以下、本発明の一実施形態について図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係るライフログ管理システム1の一例を示す構成図である。図1に示すように、本実施形態に係るライフログ管理システム1には、サーバ10とトラッカー12とが含まれる。
サーバ10、トラッカー12は、インターネット等のコンピュータネットワーク14に接続されている。そして本実施形態では、サーバ10とトラッカー12とは、互いに通信可能となっている。
本実施形態に係るサーバ10は、例えば、ライフログ管理システム1のユーザが利用するサーバコンピュータである。
図2Aに示すように、本実施形態に係るサーバ10には、プロセッサ20、記憶部22、及び、通信部24、が含まれる。プロセッサ20は、例えばサーバ10にインストールされているプログラムに従って動作するCPU等のプログラム制御デバイスである。記憶部22は、例えばROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部22には、プロセッサ20によって実行されるプログラムなどが記憶される。通信部24は、ネットワークボードや無線LANモジュールなどといった通信インタフェースである。
本実施形態に係るトラッカー12は、当該トラッカー12を装着したユーザの位置や向きを追跡する装置である。
図2Bに示すように、本実施形態に係るトラッカー12には、プロセッサ30、記憶部32、通信部34、表示部36、センサ部38、が含まれる。
プロセッサ30は、例えばトラッカー12にインストールされるプログラムに従って動作するマイクロプロセッサ等のプログラム制御デバイスである。記憶部32は、例えばメモリ等の記憶素子などである。記憶部32には、プロセッサ30によって実行されるプログラムなどが記憶される。通信部34は、例えば無線LANモジュールなどの通信インタフェースである。
表示部36は、トラッカー12の前側に配置されている、例えば液晶ディスプレイや有機ELディスプレイ等のディスプレイである。本実施形態に係る表示部36は、例えば左目用の画像と右目用の画像を表示することによって三次元画像を表示させることができるようになっている。なお表示部36は三次元画像の表示ができず二次元画像の表示のみができるものであっても構わない。
センサ部38は、例えばカメラ、マイク、慣性センサ(IMU)、地磁気センサ(方位センサ)、GPS(Global Positioning System)モジュール、デプスセンサなどといったセンサである。センサ部38に含まれるカメラは、例えば所定のサンプリングレートで画像を撮影する。また、センサ部38に含まれるマイクは、例えば所定のサンプリングレートで、入力される音声に基づいて音声データを生成する。またセンサ部38に含まれる慣性センサは、トラッカー12の加速度、回転量、移動量などを示すデータを、所定のサンプリングレートで、プロセッサ30に出力する。またセンサ部38に含まれる地磁気センサは、トラッカー12が向く方位を示すデータを、所定のサンプリングレートで、プロセッサ30に出力する。またセンサ部38に含まれるGPSモジュールは、トラッカー12の緯度及び経度を示すデータを、所定のサンプリングレートで、プロセッサ30に出力する。
センサ部38に含まれるデプスセンサは、例えば、ToF(Time of Flight)、Patterned stereo、Structured Lightなどの技術を用いたデプスセンサである。当該デプスセンサは、トラッカー12からの距離を示すデータを、所定のサンプリングレートで、プロセッサ30に出力する。
また、センサ部38に、RFセンサ、超音波センサ、イベントドリブンセンサ、脈拍センサ、心拍センサ、体温センサなどの他のセンサが含まれていてもよい。
なお本実施形態に係るトラッカー12が、例えばHDMI(登録商標)(High-Definition Multimedia Interface)ポート、USBポート、AUXポートなどの入出力ポート、ヘッドホン、スピーカなどを含んでいてもよい。
本実施形態では、トラッカー12のセンサ部38に含まれる上述の各種のセンサが出力するセンシングデータを、トラッカー12がサーバ10に送信する。
また、本実施形態では、センシングデータに基づいて、自己位置推定、及び、環境地図生成を含むSLAM(Simultaneous Localization and Mapping)処理が実行される。当該自己位置推定においては、例えば、トラッカー12の位置及び向きの少なくとも一方が推定される。ここでトラッカー12のグローバルな位置や向きが推定されてもよい。
また、本実施形態では、SLAM処理によって、トラッカー12が取得するセンシングデータに基づく環境地図が生成される。環境地図とは、本実施形態では例えば、SLAM処理によってセンシングデータに基づいて生成される、ポイントクラウド、3Dメッシュ、テクスチャなどのオブジェクトを示すデータである。
そして本実施形態では、上述のセンシングデータや環境地図や、センシングデータ及び環境地図から生成される各種のデータが、ライフログとしてサーバ10に蓄積される。
このようにして本実施形態では、蓄積されるライフログデータが充実化される。
以下、本実施形態に係るサーバ10及びトラッカー12の機能、及び、サーバ10で行われる処理についてさらに説明する。
図3は、本実施形態に係るサーバ10及びトラッカー12で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係るサーバ10及びトラッカー12で、図3に示す機能のすべてが実装される必要はなく、また、図3に示す機能以外の機能が実装されていても構わない。
図3に示すように、サーバ10には、機能的には例えば、センシングデータ受信部40、ライフログデータ生成部42、ライフログデータ記憶部44、が含まれる。センシングデータ受信部40は、通信部24を主として実装する。ライフログデータ生成部42は、プロセッサ20を主として実装される。ライフログデータ記憶部44は、記憶部22を主として実装する。
以上の機能は、コンピュータであるサーバ10にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ20で実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してサーバ10に供給されてもよい。
また、図3に示すように、トラッカー12には、機能的には例えば、センシングデータ取得部46、センシングデータ送信部48、が含まれる。センシングデータ取得部46は、プロセッサ30及びセンサ部38を主として実装される。センシングデータ送信部48は、通信部34を主として実装される。
以上の機能は、コンピュータであるトラッカー12にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ30で実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してトラッカー12に供給されてもよい。
センシングデータ取得部46は、本実施形態では例えば、トラッカー12のセンサ部38により生成されるセンシングデータを順次取得する。
また、センシングデータ取得部46が取得するセンシングデータには、例えば、センサ部38に含まれるカメラにより撮影される撮影画像が含まれていてもよい。ここで、当該カメラが動画像を撮影してもよい。そして、センシングデータ取得部46が取得するセンシングデータには、例えば、当該カメラにより撮影される動画像のフレームである撮影画像が含まれていてもよい。また、トラッカー12が取得するセンシングデータに、センサ部38に含まれるマイクにより生成される音声データが含まれていてもよい。トラッカー12のセンサ部38に含まれるカメラやデプスセンサにより計測されるデプスデータが含まれていてもよい。
また、トラッカー12が取得するセンシングデータには、トラッカー12のセンサ部38に含まれる地磁気センサにより計測される、トラッカー12の方位を示すデータが含まれていてもよい。また、トラッカー12が取得するセンシングデータには、センサ部38に含まれる慣性センサにより計測される、トラッカー12の加速度、回転量、移動量などを示すデータが含まれていてもよい。
また、トラッカー12が取得するセンシングデータには、センサ部38に含まれるGPSモジュールにより計測される、トラッカー12の緯度及び経度を示すデータが含まれていてもよい。また、トラッカー12が取得するセンシングデータに、特徴点群(キーフレーム)が含まれていてもよい。
また、トラッカー12が取得するセンシングデータには、脈拍、心拍、体温などを示すヘルスケアデータが含まれていてもよい。
センシングデータ送信部48は、本実施形態では例えば、センシングデータ取得部46が取得するセンシングデータをサーバ10に順次送信する。本実施形態では例えば、トラッカー12によるセンシングが行われた時点を示すセンシング時点データが関連付けられたセンシングデータが送信される。
本実施形態では例えば、トラッカー12におけるセンシングデータの取得及び送信は、繰り返し実行される。ここでトラッカー12におけるセンシングデータの取得及び送信が、所定の時間間隔で繰り返し実行されてもよい。
センシングデータ受信部40は、本実施形態では例えば、トラッカー12のセンシングデータ送信部48から送信されるセンシングデータを順次受信する。
ライフログデータ生成部42は、本実施形態では例えば、センシングデータ受信部40が受信するセンシングデータに基づいて、ライフログデータを生成する。そして、ライフログデータ生成部42は、本実施形態では例えば、生成されたライフログデータをライフログデータ記憶部44に記憶させる。
ライフログデータ記憶部44は、本実施形態では例えば、上述のライフログデータを記憶する。
図4は、ライフログデータ記憶部44に記憶されるライフログデータのデータ構造の一例を示す図である。図4に示すように、ライフログデータには、例えば、環境地図と、複数の個別データと、が含まれる。
ライフログデータ生成部42は、例えば、センシングデータ受信部40が受信する複数のセンシングデータに基づいて、トラッカー12の位置又は向きの推定を含むSLAM処理を実行する。ここでトラッカー12のグローバルな位置や向きが推定されてもよい。ここで例えば、ライフログデータ生成部42が、リロカライズ処理、ループクロージング処理、3Dメッシュ化処理、物体認識処理などを含むSLAM処理を実行してもよい。
ここで当該SLAM処理に、平面検出/3Dメッシュのセグメンテーション処理が含まれていてもよい。平面検出/3Dメッシュのセグメンテーション処理とは、地面、壁などといった連続した平面を検出して、全体の3Dメッシュを、地面、建物、木、などといった個々の3Dメッシュに分割する処理を指す。また、当該SLAM処理に、3Dメッシュの最適化処理が含まれていてもよい。3Dメッシュの最適化処理とは、3Dメッシュから、移動体と推定される部分や、ノイズなどによるゴミを除去したり、ポリゴン数を減らしたり、メッシュの表面を滑らかにしたりする処理を指す。また、当該SLAM処理に、テクスチャ生成処理が含まれていてもよい。テクスチャ生成処理とは、メッシュの頂点の色に基づいて3Dメッシュに対するテクスチャイメージを生成する処理を指す。
また例えば、ライフログデータ生成部42が、時系列のセンシングデータを用いてSLAM処理を実行してもよい。
ライフログデータ生成部42が実行する上述のSLAM処理によって、環境地図が生成される。ここで、ライフログデータ生成部42は、指定された時点における三次元環境地図が特定可能な、三次元空間と時間とを次元に含む四次元の環境地図を生成してもよい。このようにして生成される環境地図は、ライフログデータの一部としてライフログデータ記憶部44に記憶される。
また、ライフログデータ生成部42は、本実施形態では例えば、センシングデータ受信部40が受信するセンシングデータ、及び、当該センシングデータに関連付けられているセンシング時点データを含む個別データを生成する。
図5は、個別データのデータ構造の一例を示す図である。IDは、個別データの識別情報である。そして上述のように、個別データには、センシングデータ受信部40が受信する、撮影画像を含むセンシングデータ、及び、当該センシングデータに関連付けられているセンシング時点データが含まれる。
また、本実施形態では例えば、ライフログデータ生成部42は、環境地図、及び、センシングデータのうちの少なくとも一方に基づいて、生成ライフログデータを生成する。このようにして生成される生成ライフログデータは、当該センシングデータを含む個別データに追加される。
ここで例えば、ライフログデータ生成部42が、センシングデータに含まれる撮影画像と環境地図とに基づいて、当該環境地図に関連付けられる、当該撮影画像の撮影位置又は当該撮影画像の被写体を示す撮影データを生成する。そして、ライフログデータ生成部42は、このようにして生成される撮影データを含む生成ライフログデータを個別データに追加してもよい。
撮影データは、撮影画像の撮影位置及び当該撮影画像の撮影方向を示すデータであってもよい。ここで当該撮影位置及び撮影方向は、環境地図内における位置及び方向によって表現される。
また、撮影データは、撮影画像の撮影位置及び当該撮影画像の被写体の位置である被写***置を示すデータであってもよい。ここで、当該撮影位置及び被写***置は、環境地図内における位置によって表現される。
また、生成ライフログデータに、トラッカー12を装着するユーザの全身の姿勢を示す姿勢データ、撮影画像から抽出される人物を示すデータ、撮影画像や音声データから抽出されるテキスト、などが含まれていてもよい。
また本実施形態では、ライフログデータに含まれる撮影画像の削除や高画質化などといった、再編成処理が実行される。
ここで、本実施形態に係るサーバ10で行われる再編成処理の流れの一例を、図6に例示するフロー図を参照しながら説明する。
まず、ライフログデータ生成部42が、前処理を実行する(S101)。S101に示す前処理では、ライフログデータ生成部42は、例えば、ライフログデータに含まれる一連の撮影画像のなかから、悪い画像であることを示す所定の条件を満足する撮影画像を削除する。例えば、ボケやブレが発生している、真っ白や真っ黒である、などといった条件を満足する撮影画像が削除される。また、S101に示す前処理では、ライフログデータ生成部42は、建物などの特定の被写体が一部にしか写っていない撮影画像を特定する。そして、ライフログデータ生成部42は、特定された撮影画像を、他のフレームの撮影画像と結合することによって、被写体全体が写っている撮影画像に変更する。
そして、ライフログデータ生成部42は、ライフログデータ記憶部44に記憶されている撮影画像のうちから、複数の代表画像を特定する(S102)。S102に示す処理では、例えば、ライフログデータ生成部42は、互いに類似する複数の撮影画像を特定し、当該複数の撮影画像のうちのいずれかを当該複数の撮影画像に対応する代表画像に特定する。
そして、ライフログデータ生成部42は、それぞれの代表画像について、当該代表画像の重要度を特定する(S103)。ここでは例えば、重要度が高いものほど大きな値の重要度が特定されることとする。
S103に示す処理では、例えば、写っている人物が所定の人物(例えば、予め定められた、ユーザにとって重要な人物)である代表画像は、そうでない代表画像よりも高い重要度が特定されてもよい。
また例えば、代表画像に対応する音声データにおいて、重要なキーワードや上述の所定の人物の名前を表す音声が示されている場合は、当該代表画像はそうでないものよりも高い重要度が特定されてもよい。
また例えば、ユーザが注視している被写体が写っている代表画像はそうでないものよりも高い重要度が特定されてもよい。また、ユーザが注視している所定時間よりも長い被写体が写っている代表画像はそうでないものよりも高い重要度が特定されてもよい。ここでユーザの注視位置は、例えば、センシングデータに基づいて特定されるトラッカー12の姿勢に基づいて特定されてもよい。あるいはセンサ部38にアイトラッカーが含まれる場合は、アイトラッカーによる視線の検出結果に基づいて注視位置が特定されてもよい。
また例えば、当該ユーザや他のユーザによってお気に入りの場所として登録されている場所や所定のイベントの代表画像、訪問頻度が所定回数より多い場所や当該場所で発生したイベントの代表画像については、そうでないものよりも高い重要度が特定されてもよい。また、過去に特定された重要度の値が所定値よりも大きな代表画像に類似する代表画像については、そうでないものよりも高い重要度が特定されてもよい。
また、代表画像に対応する音声データや代表画像に写っている人物の表情を解析することで、当該代表画像に表れている状況が盛り上がっている程度が特定されてもよい。そして盛り上がっている程度が高い代表画像については、そうでないものよりも高い重要度が特定されてもよい。
また例えば、有名なランドマークなどといった所定の被写体が写っている代表画像については、そうでないものよりも高い重要度が特定されてもよい。ここで例えば、環境地図と、代表画像に対応する撮影データに基づいて、当該代表画像が所定の場所の被写体が写っているものであるか否かが判定されてもよい。例えば、環境地図と、撮影位置及び撮影方向と、に基づいて、代表画像が所定の場所の被写体が写っているものであるか否かが判定されてもよい。また例えば、環境地図と、撮影データが示す被写***置と、に基づいて、代表画像が所定の場所の被写体が写っているものであるか否かが判定されてもよい。
また例えば、ディープラーニングなどの機械学習モデルや構図解析を用いて、代表画像がよいシーンを表すものであるか否かが判定されてもよい。例えば、有名な絵画や映画の1シーンに近いものがよいシーンを表すものと判定されてもよい。そしてよいシーンであると判定されるものは、そうでないものよりも高い重要度が特定されてもよい。
そして、ライフログデータ生成部42は、複数の代表画像を、それぞれイベントに対応付けられる画像群に分類する分類処理を実行する(S104)。
ここで上述のS103に示す処理における重要度の特定に用いられた情報を用いて、分類処理が実行されてもよい。ここで例えば、ライフログデータ生成部42は、環境地図と、複数の代表画像のそれぞれに対応付けられる撮影データと、に基づいて、当該複数の代表画像のうちから、所定の条件を満足する一部を、1つのイベントに対応付けられる画像群に特定してもよい。
例えば、ライフログデータ生成部42は、環境地図と、代表画像に対応付けられる撮影データとに基づいて、複数の代表画像のうちから、当該環境地図内の所与の位置に存在する被写体が撮影された一部を特定してもよい。そして、ライフログデータ生成部42は、このようにして特定された一部を、当該位置の被写体についてのイベントに対応付けられる画像群に分類してもよい。
例えば、環境地図と、代表画像に対応付けられる撮影データに基づいて、当該代表画像が所定の場所の被写体が写っているものであるか否かが判定されてもよい。例えば、環境地図と、代表画像に対応付けられる撮影データが示す撮影位置及び撮影方向と、に基づいて、当該代表画像が所定の場所の被写体が写っているものであるか否かが判定されてもよい。また例えば、環境地図と、代表画像に対応付けられる撮影データが示す被写***置と、に基づいて、当該代表画像が所定の場所の被写体が写っているものであるか否かが判定されてもよい。そして所定の場所の被写体が写っているものと判定される代表画像が、当該被写体についてのイベントに対応付けられる画像群に分類されてもよい。
本実施形態では上述のように、環境地図と、撮影画像に対応付けられる撮影データと、に基づいて、環境地図内における当該撮影画像の被写体の位置が容易に特定可能である。そのため、本実施形態によれば、被写体をキーにした撮影画像の特定を容易に行うことができる。
また例えば、代表画像に対応付けられる撮影データが示す撮影位置についてクラスタリング処理を実行することで、それぞれ撮影位置が互いに離れた代表画像群に分類する分類処理が実行されてもよい。
また例えば、代表画像に対応付けられる撮影データが示す撮影位置の間の距離に対応する移動量の大きさに基づいて、分類処理が実行されてもよい。例えば、撮影時点(センシング時点)が連続する2つの代表画像のそれぞれに対応付けられる撮影データが示す撮影位置の間の距離が所定の距離より長い場合は、当該2つの代表画像の間で画像群が分割されるようにしてもよい。また同様に、加速度の変化が大きい2つの代表画像の間で画像群が分割されるようにしてもよい。
また例えば、2つの代表画像の変化が所定の変化よりも大きな変化である場合は、当該2つの代表画像の間で画像群が分割されるようにしてもよい。
そして、ライフログデータ生成部42は、それぞれのイベントについて、少なくとも1つの重要画像を特定する(S105)。
S105に示す処理では、それぞれのイベントに対応する重要度が特定される。ここでは例えばイベントに対応する代表画像の重要度の合計値や平均値などの代表値が当該イベントに対応する重要度の値として特定されてもよい。そして、重要度が高いイベントであるほど多くの数の重要画像が特定されてもよい。ここで1つのイベントに対応付けられる複数の代表画像のうちから、重要度の高いものから順に、当該イベントに対応する数の代表画像が重要画像に特定されてもよい。
また例えば、イベントの重要度の値と代表画像の重要度の値との積が大きいものから順に、所定数の重要画像が特定されてもよい。
また例えば、ライフログデータ生成部42は、代表画像に対応付けられる撮影データに基づいて、当該代表画像がレアなものである程度を評価してもよい。そしてライフログデータ生成部42は、このようにして評価されるレアなものである程度に基づいて、複数の代表画像のうちの一部を重要画像に特定してもよい。
例えば、ライフログデータ生成部42は、代表画像を含む複数の撮影画像が撮影された位置の密度に基づいて、複数の代表画像のうちから一部を重要画像に特定してもよい。例えば、ライフログデータ生成部42は、代表画像が撮影された位置を中心にした所定の大きさの領域内において撮影された撮影画像の数を特定してもよい。そして特定された数が小さい代表画像が優先的に重要画像に特定されてもよい。例えば特定された数が所定数より小さい代表画像が重要画像に特定されてもよい。
以上のように、撮影位置ができるだけ分散するよう重要画像が特定されてもよい。また同様にして、構図や撮影時点(センシング時点)ができるだけ分散するよう重要画像が特定されてもよい。
また例えば、脈拍、心拍、体温などといったヘルスケアデータに基づいて、重要画像が特定されてもよい。例えば、脈拍が大きな、心拍が大きな、あるいは、体温が高いヘルスケアデータに対応付けられる代表画像が重要画像に特定されてもよい。
そして、ライフログデータ生成部42は、S105に示す処理で特定された重要画像について後処理を実行する(S106)。
S106に示す処理では、ライフログデータ生成部42は、重要画像について、当該重要画像よりも高品質な新たな画像を生成してもよい。
例えば、重要画像に対応付けられる撮影データに基づいて、環境地図内における撮影位置、及び、撮影方向が特定されてもよい。ここで撮影データが示す撮影位置から撮影データが示す被写***置に向かう方向が撮影方向に特定されてもよい。そして、当該撮影位置から当該撮影方向に向かって環境地図を見た様子を表す画像が生成されてもよい。そして、ライフログデータ生成部42が、このようにして生成される画像を、当該重要画像を含む個別データに追加してもよい。
また例えば、重要画像の前後所定数フレームについての、撮影画像、奥行き情報、撮影方向を用いて、当該重要画像を高画質化した画像が生成されてもよい。ここで奥行き情報は、例えば、センシングデータに含まれるデプスデータに基づいて生成されてもよい。また、奥行き情報は、環境地図と撮影データとに基づいて生成されてもよい。また、撮影方向は、撮影データに基づいて特定されてもよい。また、撮影方向は、センシングデータに基づいて、特定されてもよい。そして、ライフログデータ生成部42が、このようにして生成される画像を、当該重要画像を含む個別データに追加してもよい。
また例えば、重要画像については、複数のフレームにまたがって写っている被写体を連結するなどの、高画角化処理が実行されてもよい。また、重要画像についてはフレーム加算によるHDR化が行われてもよい。そして、ライフログデータ生成部42が、このようにして生成される画像を、当該重要画像を含む個別データに追加してもよい。
また例えば、重要画像について、前後のフレームだけではなく、異なる日の同じ時刻付近の撮影画像や、異なる日の同じ場所を撮影した撮影画像や、同じ人物が写っている撮影画像が合成されるようにしてもよい。
また例えば、複数のフレームについて重要画像が連続する場合は、これらの重要画像を含む動画像が重要動画像として特定されてもよい。そして、S106に示す処理で、重要動画像について手ブレ補正などの安定化処理が実行されてもよい。そして、ライフログデータ生成部42が、安定化処理が実行された重要動画像を、当該複数のフレームのうちの少なくとも1つのフレームに対応付けられる個別データに追加してもよい。
S101~S106に示す処理は、例えば、所定の時間間隔で実行されてもよい。
以上のようにすることで、例えば、高品質な画像を別途撮影しなくても、撮影画像に基づいて、重要なシーンについては高画質な画像が得られることとなる。
本実施形態に係るライフログは、例えば、議事録の生成、テキストに基づくライフログの検索、バーチャルリアリティ(VR)による過去の追体験、特定の時期の子供のころからの三次元空間の復元、音声合成による会話、などに活用可能である。
また、本実施形態に係るライフログは、例えば、定点観測による特定の地点の変化の再現、特定の時間に一緒にいた人物が誰であるかの特定、過去に旅行に行った場所、訪問してよかった場所、過去の周期的な行動の抽出、などに活用可能である。
本実施形態においては例えば、ユーザがトラッカー12を常時身に着ける運用が行われる。そして、ユーザが特段意識することなく、常時身に着けたトラッカー12が撮影した動画像に対して、上述した、前処理、重要画像の特定、及び、重要画像に対する後処理(高画質化など)が実行される。そして、このようにして生成された高画質な静止画像がユーザに提示される。このようにすれば、ユーザが意識して写真を撮らなくても、ユーザが過ごした日々における高画質な写真がユーザに提示されることとなる。
なお、本発明は上述の実施形態に限定されるものではない。

Claims (7)

  1. 撮影画像を順次受け付ける撮影画像受付部と、
    複数の前記撮影画像に基づいて、環境地図を生成する環境地図生成部と、
    前記環境地図に関連付けられる、前記撮影画像の撮影位置又は当該撮影画像の被写体を示す撮影データを生成する撮影データ生成部と、
    前記環境地図と前記撮影データとに基づいて、複数の前記撮影画像のうちから、所定の条件を満足する一部である重要画像を特定する重要画像特定部と、
    前記重要画像の前後の複数のフレームについての、前記撮影画像、前記環境地図及び当該撮影画像に基づいて生成される奥行き情報、並びに、撮影方向に基づいて、当該重要画像を高画質化した画像を生成する画像生成部と、
    を含むことを特徴とする撮影データ生成装置。
  2. 前記重要画像に対応付けられる前記撮影データに基づいて、当該重要画像についての前記環境地図内における撮影位置及び撮影方向を特定する撮影位置特定部、をさらに含み、
    前記画像生成部は、前記重要画像について特定される前記撮影位置から当該重要画像について特定される前記撮影方向に向かって前記環境地図を見た様子を表す新たな画像を生成する、
    ことを特徴とする請求項1に記載の撮影データ生成装置。
  3. 前記重要画像特定部は、前記撮影データに基づいて評価される、当該撮影データに対応付けられる前記撮影画像がレアなものである程度に基づいて、前記重要画像を特定する、
    ことを特徴とする請求項1又は2に記載の撮影データ生成装置。
  4. 前記重要画像特定部は、前記撮影画像が撮影された位置の密度に基づいて、前記重要画像を特定する、
    ことを特徴とする請求項に記載の撮影データ生成装置。
  5. 前記撮影データは、前記環境地図における前記撮影画像の撮影位置及び撮影方向を示すデータ、又は、前記環境地図における被写体の位置を示すデータである、
    ことを特徴とする請求項1から4のいずれか一項に記載の撮影データ生成装置。
  6. 撮影画像を順次受け付けるステップと、
    複数の前記撮影画像に基づいて、環境地図を生成するステップと、
    前記環境地図に関連付けられる、前記撮影画像の撮影位置又は当該撮影画像の被写体を示す撮影データを生成するステップと、
    前記環境地図と前記撮影データとに基づいて、複数の前記撮影画像のうちから、所定の条件を満足する一部である重要画像を特定するステップと、
    前記重要画像の前後の複数のフレームについての、前記撮影画像、前記環境地図及び当該撮影画像に基づいて生成される奥行き情報、並びに、撮影方向に基づいて、当該重要画像を高画質化した画像を生成するステップと、
    を含むことを特徴とする撮影データ生成方法。
  7. 撮影画像を順次受け付ける手順、
    複数の前記撮影画像に基づいて、環境地図を生成する手順、
    前記環境地図に関連付けられる、前記撮影画像の撮影位置又は当該撮影画像の被写体を示す撮影データを生成する手順、
    前記環境地図と前記撮影データとに基づいて、複数の前記撮影画像のうちから、所定の条件を満足する一部である重要画像を特定する手順、
    前記重要画像の前後の複数のフレームについての、前記撮影画像、前記環境地図及び当該撮影画像に基づいて生成される奥行き情報、並びに、撮影方向に基づいて、当該重要画像を高画質化した画像を生成する手順、
    をコンピュータに実行させることを特徴とするプログラム。
JP2021528626A 2019-06-21 2019-06-21 撮影データ生成装置、撮影データ生成方法及びプログラム Active JP7195430B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/024816 WO2020255408A1 (ja) 2019-06-21 2019-06-21 撮影データ生成装置、撮影データ生成方法及びプログラム

Publications (3)

Publication Number Publication Date
JPWO2020255408A1 JPWO2020255408A1 (ja) 2020-12-24
JPWO2020255408A5 JPWO2020255408A5 (ja) 2022-01-20
JP7195430B2 true JP7195430B2 (ja) 2022-12-23

Family

ID=74040467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021528626A Active JP7195430B2 (ja) 2019-06-21 2019-06-21 撮影データ生成装置、撮影データ生成方法及びプログラム

Country Status (3)

Country Link
US (1) US12033383B2 (ja)
JP (1) JP7195430B2 (ja)
WO (1) WO2020255408A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248832A (ja) 2010-05-31 2011-12-08 Denso It Laboratory Inc 画像収集システム、携帯端末、画像収集装置、及び画像収集方法
JP2013232064A (ja) 2012-04-27 2013-11-14 Toshiba Corp 画像処理装置、画像処理方法およびプログラム
JP2018128314A (ja) 2017-02-07 2018-08-16 富士通株式会社 移動***置推定システム、移動***置推定端末装置、情報格納装置、及び移動***置推定方法
JP2018205950A (ja) 2017-06-01 2018-12-27 株式会社豊田中央研究所 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7627148B2 (en) * 2004-07-06 2009-12-01 Fujifilm Corporation Image data processing apparatus and method, and image data processing program
JP4287465B2 (ja) * 2006-12-18 2009-07-01 シャープ株式会社 画像処理装置
JP4655238B2 (ja) * 2008-09-19 2011-03-23 ソニー株式会社 画像処理装置および方法、並びにプログラム
US9152700B2 (en) * 2011-09-30 2015-10-06 Google Inc. Applying query based image relevance models
US10311096B2 (en) * 2012-03-08 2019-06-04 Google Llc Online image analysis
KR20150103723A (ko) * 2013-01-03 2015-09-11 메타 컴퍼니 가상 또는 증강매개된 비전을 위한 엑스트라미시브 공간 이미징 디지털 아이 글래스
US20150242405A1 (en) * 2014-02-26 2015-08-27 Sony Corporation Methods, devices and systems for context-sensitive organization of media files
JP6149015B2 (ja) * 2014-09-10 2017-06-14 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
CN105912667A (zh) * 2016-04-12 2016-08-31 玉环看知信息科技有限公司 一种信息推荐方法、装置及移动终端
US10929461B2 (en) * 2016-07-25 2021-02-23 Evernote Corporation Automatic detection and transfer of relevant image data to content collections
US10140675B2 (en) * 2016-11-28 2018-11-27 Google Llc Image grid with selectively prominent images
JP2018110637A (ja) * 2017-01-10 2018-07-19 コニカミノルタ株式会社 動態画像処理装置
US11170269B2 (en) * 2018-12-12 2021-11-09 International Business Machines Corporation Selective image compression of an image stored on a device based on user preferences

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248832A (ja) 2010-05-31 2011-12-08 Denso It Laboratory Inc 画像収集システム、携帯端末、画像収集装置、及び画像収集方法
JP2013232064A (ja) 2012-04-27 2013-11-14 Toshiba Corp 画像処理装置、画像処理方法およびプログラム
JP2018128314A (ja) 2017-02-07 2018-08-16 富士通株式会社 移動***置推定システム、移動***置推定端末装置、情報格納装置、及び移動***置推定方法
JP2018205950A (ja) 2017-06-01 2018-12-27 株式会社豊田中央研究所 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム

Also Published As

Publication number Publication date
WO2020255408A1 (ja) 2020-12-24
JPWO2020255408A1 (ja) 2020-12-24
US12033383B2 (en) 2024-07-09
US20220230435A1 (en) 2022-07-21

Similar Documents

Publication Publication Date Title
US11238606B2 (en) Method and system for performing simultaneous localization and mapping using convolutional image transformation
US11776222B2 (en) Method for detecting objects and localizing a mobile computing device within an augmented reality experience
US11321385B2 (en) Visualization of image themes based on image content
CN109891189B (zh) 策划的摄影测量
US20220012495A1 (en) Visual feature tagging in multi-view interactive digital media representations
JP2023175052A (ja) 3次元空間内の姿勢推定
US20140267904A1 (en) Method and apparatus to generate haptic feedback from video content analysis
JP7490784B2 (ja) 拡張現実マップキュレーション
JP2011130204A (ja) 映像情報処理方法及びその装置
WO2019083509A1 (en) PEOPLE SEGMENTATIONS FOR BACKGROUND REPLACEMENTS
US20220036565A1 (en) Methods and systems for restoration of lost image features for visual odometry applications
CN112417977A (zh) 一种目标对象查找方法和终端
US20140198177A1 (en) Realtime photo retouching of live video
JP7195430B2 (ja) 撮影データ生成装置、撮影データ生成方法及びプログラム
US20230103650A1 (en) System and method for providing scene information
JP6544970B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2015139001A (ja) 情報処理装置、情報処理方法及びプログラム
WO2014186392A2 (en) Summarizing a photo album
JP2013114236A (ja) 画像編集装置、画像編集方法および画像編集プログラム
JP2019185349A (ja) 検索装置、検索方法及びプログラム
JP2024100835A (ja) 拡張現実マップキュレーション
CN117671538A (zh) 一种第一人称视角无人机视频显著性预测方法及***
CN117119287A (zh) 一种无人机拍摄角度的确定方法、装置及介质
Taylor et al. Automatic video editing for sensor-rich videos
WO2019003040A1 (en) PULSATORY IMAGE

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211013

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221213

R150 Certificate of patent or registration of utility model

Ref document number: 7195430

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150