JP5843751B2 - 情報処理装置、情報処理システム、および情報処理方法 - Google Patents

情報処理装置、情報処理システム、および情報処理方法 Download PDF

Info

Publication number
JP5843751B2
JP5843751B2 JP2012285597A JP2012285597A JP5843751B2 JP 5843751 B2 JP5843751 B2 JP 5843751B2 JP 2012285597 A JP2012285597 A JP 2012285597A JP 2012285597 A JP2012285597 A JP 2012285597A JP 5843751 B2 JP5843751 B2 JP 5843751B2
Authority
JP
Japan
Prior art keywords
image
images
camera
data
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012285597A
Other languages
English (en)
Other versions
JP2014127151A5 (ja
JP2014127151A (ja
Inventor
大場 章男
章男 大場
博之 勢川
博之 勢川
稲田 徹悟
徹悟 稲田
英彦 小笠原
英彦 小笠原
寛史 岡本
寛史 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2012285597A priority Critical patent/JP5843751B2/ja
Priority to EP13869255.3A priority patent/EP2940658B1/en
Priority to US14/652,536 priority patent/US9619868B2/en
Priority to CN201380067337.8A priority patent/CN104885125B/zh
Priority to PCT/JP2013/004436 priority patent/WO2014103094A1/ja
Publication of JP2014127151A publication Critical patent/JP2014127151A/ja
Publication of JP2014127151A5 publication Critical patent/JP2014127151A5/ja
Application granted granted Critical
Publication of JP5843751B2 publication Critical patent/JP5843751B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、撮影した画像に基づき出力画像を生成する情報処理装置、情報処理システム、および当該装置やシステムにおける情報処理方法に関する。
近年、パーソナルコンピュータやゲーム機などにカメラを搭載し、ユーザの姿を撮像して様々な形で利用することが一般的に行われるようになってきた。例えばテレビ電話、ビデオチャットなど、ユーザの画像を、ネットワークを介してそのまま相手に伝送するものや、画像解析によってユーザの動きを認識してゲームや情報処理の入力情報とするものなどが実用化されている(例えば特許文献1参照)。
WO 2007/050885 A2公報
撮影画像を利用して様々な処理を応答性よく高精度に実現するためには、その処理内容に応じた撮影条件が求められる。しかしながら製造コスト、画像の伝送帯域、撮影から出力までの応答性などの点から、単にカメラの性能や画質を上げることのみによって情報処理装置の機能を充実化させるのは困難な状況にある。
本発明はこのような課題に鑑みてなされたものであり、その目的は、安価かつ効率的に、撮影画像を利用した情報処理装置の機能を充実化させることのできる技術を提供することにある。
本発明のある態様は情報処理装置に関する。この情報処理装置は、被写体を撮影した画像データを取得して出力画像のデータを生成する情報処理装置であって、接続されたカメラから取得した2つの画像のデータのうち少なくともいずれかの画像の画素値を、2つの画像の画素値の分布を近似させるための補正規則に従い補正したうえ、当該2つの画像の比較に基づき被写体の情報を取得する画像解析部と、画像解析部が取得した被写体の情報に基づき出力画像のデータを生成して出力する出力画像生成部と、を備えたことを特徴とする。
ここで「被写体」は、撮影対象として明確に位置づけられた人などに限らず、カメラの視野に入る部屋、人、物、動物などを含む。したがって「被写体に関する個別の情報」とは、同一の個体に関する個別の情報に限らず、被写体に含まれる複数の個体のいずれかに関する情報でよく、別の個体に関する個別の情報でもよい。
本発明の別の態様は情報処理システムに関する。この情報処理システムは、被写体を撮影し、その画像データを利用して出力画像のデータを生成する情報処理システムであって、被写体を撮影するカメラと、カメラから取得した2つの画像のデータのうち少なくともいずれかの画像の画素値を、2つの画像の画素値の分布を近似させるための補正規則に従い補正したうえ、当該2つの画像の比較に基づき被写体の情報を取得する画像解析部と、画像解析部が取得した情報に基づき出力画像のデータを生成して出力する出力画像生成部と、を備えた情報処理装置と、を備えたことを特徴とする。
本発明のさらに別の態様は情報処理方法に関する。この情報処理方法は、情報処理装置が、被写体を撮影した画像データを取得して出力画像のデータを生成する情報処理方法であって、接続されたカメラから、撮影された2つの画像のデータを取得するステップと、2つの画像のデータのうち少なくともいずれかの画像の画素値を、2つの画像の画素値の分布を近似させるための補正規則に従い補正したうえ、当該2つの画像の比較に基づき被写体の情報を取得するステップと、被写体の情報に基づき出力画像のデータを生成して表示装置に出力するステップと、を含むことを特徴とする。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によると、撮影画像を利用した様々な機能を安価に実現できる。
本実施の形態を適用できる情報処理システムの構成例を示す図である。 本実施の形態の撮像装置および情報処理装置の構成を詳細に示す図である。 本実施の形態で想定する撮影状況例を説明するための図である。 本実施の形態の、画角の大きさと解像度を異ならせる態様において、撮像装置が撮影した画像と、それを利用して得られる出力画像の例を示す図である。 本実施の形態の、露光時間/絞り値を異ならせる態様において、撮像装置が撮影した画像と、それを利用して得られる出力画像の例を示す図である。 露光時間の異なる2つの画像から対応する特徴点を抽出する際の問題点を説明するための図である。 本実施の形態における撮像装置と、被写体の3次元空間での位置情報を取得する機能を有する情報処理装置の画像解析部の構成を詳細に示す図である。 本実施の形態において補正部が補正することによる輝度値の変化例を示す図である。 本実施の形態における補正テーブル管理部が、一対の画像を解析して補正テーブルを生成する手法を説明するための図である。 情報処理装置が撮影画像から出力画像を生成する処理のうち、主に奥行き画像を正確に生成するための処理手順を示すフローチャートである。
図1は本実施の形態を適用できる情報処理システムの構成例を示す。情報処理システム10は、ユーザ1a、1bなどの被写体を撮影する2つのカメラを搭載した撮像装置12、撮影した画像に基づき、ユーザの要求に応じた情報処理を行う情報処理装置14、情報処理装置14が処理した結果得られた画像データを出力する表示装置16を含む。また情報処理装置14はインターネットなどのネットワーク18と接続可能とする。
情報処理装置14と、撮像装置12、表示装置16、ネットワーク18とは、有線ケーブルで接続されてよく、また無線LAN(Local Area Network)などにより無線接続されてもよい。撮像装置12、情報処理装置14、表示装置16のうちいずれか2つ、または全てが組み合わされて一体的に装備されていてもよい。また、撮像装置12は必ずしも表示装置16の上に設置されていなくてもよい。さらにユーザ1a、1bは人でなくてもよく、その数も限定されない。
撮像装置12は、一対のカメラで同一空間に存在する被写体を撮影する。撮像装置12として、被写体の奥行き情報を取得するために実用化されているステレオカメラなどを利用してもよい。すなわち並べて設置することによりほぼ同一の視野を得ることのできる、それぞれにレンズを有するカメラの対であってよい。一方、カメラの間隔が既知であり、視差を補正することにより、少なくとも視野の一部の対応関係が導出できれば、2つのカメラの間隔や相対位置は限定されない。
2つのカメラの少なくとも一方に電子ズーム、電子パンチルタを備え、情報処理装置14の制御によって視野を独立に変化させることができるようにしてもよい。また撮影条件、例えばホワイトバランス、フレームレート、露光時間、絞り値の少なくともいずれかは、情報処理装置14によって2つのカメラでそれぞれ独立に制御可能とする。
撮像装置12は情報処理装置14が指定した撮影条件で、ユーザ1a、1bなどを含む画像のデータを動画または静止画として取得する。取得した画像データは情報処理装置14に入力される。情報処理装置14は、撮像装置12から取得した画像データに基づき、ユーザが指定した機能に応じた情報処理を行い、出力する画像データを生成する。生成した画像データは表示装置16に出力するか、ネットワーク18を介して接続した別の情報処理装置へ送信する。表示装置16は画像を出力するディスプレイおよび音声を出力するスピーカを有するテレビであってよい。
図2は撮像装置12および情報処理装置14の構成を詳細に示している。情報処理装置14は、ユーザからの指示入力を受け付ける入力情報取得部22、ユーザの指示または撮影された画像の解析結果に基づき決定した撮影条件で撮影を開始させる撮影条件制御部24、目的とする機能と撮影条件とを対応づけた撮影条件テーブルを記憶する撮影条件記憶部26、撮像装置12に搭載された第1カメラ28、第2カメラ30が撮影した画像を取得して必要な画像解析を行う画像解析部34、および、処理の結果として出力する画像のデータを生成する出力画像生成部38を含む。
図2および後述する図7において、様々な処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、CPU、メモリ、その他のLSIで構成することができ、ソフトウェア的には、画像処理を行うプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
入力情報取得部22は、ユーザが情報処理装置14に対し行う指示入力を受け付けるインターフェースであり、ポインティングデバイス、マウス、キーボード、タッチパネル、ゲームコントローラ、ボタンなど一般的な入力装置で実現できる。入力情報取得部22は情報処理装置14本体と別の筐体を有する、無線又は有線で接続した装置としてもよい。
ユーザによる指示入力は、情報処理装置14が実行可能な機能のいずれかを選択する入力、表示装置16に表示されたカーソルや枠を移動させたり選択したりする入力を含む。入力情報取得部22が取得した情報は、撮影条件制御部24、画像解析部34、出力画像生成部38に適宜通知される。情報処理装置14が実行可能な機能の例については後述する。
撮影条件制御部24は、ユーザが入力情報取得部22に入力した指示入力に従い、撮像装置12の第1カメラ28および第2カメラ30における撮影条件を決定し、当該2台のカメラの少なくともいずれかに撮影要求信号を送信することにより、決定した条件での撮影を開始させる。撮影条件の初期値は、ユーザが指示する機能に基づき、撮影条件記憶部26に格納された撮影条件テーブルを参照することによって得られる。また撮影条件制御部24は、第1カメラ28、第2カメラ30の少なくともいずれかが撮影した画像を解析した結果に基づき、さらに撮影条件を決定し、少なくともいずれかのカメラに当該条件にて撮影を開始させてもよい。
画像解析部34は、第1カメラ28、第2カメラ30がそれぞれ撮影した画像を取得し、ユーザが選択した機能に応じた画像解析を行う。ただしユーザが選択した機能によっては画像解析を必要としない場合もあり、その場合は画像データをそのまま出力画像生成部38へ送出してよい。そのため画像解析部34は、入力情報取得部22から、ユーザが選択した機能についての情報を取得したうえ、それに基づいて処理を実行する。画像解析部34による解析結果は、必要な画像データとともに出力画像生成部38へ送信される。当該解析結果を撮影条件制御部24へ送信し、さらなる撮影条件の決定に利用してもよい。
出力画像生成部38は、画像解析部34から送信された、解析結果および必要な画像データを用いて出力画像のデータを生成し、表示装置16またはネットワーク18へ出力する。どのような出力画像を生成するかはユーザが選択した機能によって異なる。そのため出力画像生成部38は、入力情報取得部22から、ユーザが選択した機能についての情報を取得したうえ、それに基づいて処理を実行する。
次に情報処理システム10が実現する機能の具体例について説明する。図3は本実施の形態で想定する撮影状況例を説明するための図である。同図の例では二人のユーザ1a、1bがテーブルについて会話などしている状況を第1カメラ28、第2カメラ30で撮影している。撮影対象はユーザ1a、1bなど人に限らず、ユーザが保持するフリップ2などの物でもよい。撮影した画像は例えば、逐次、ネットワーク18を介して別の情報処理システムに送信することにより、当該別の情報処理システムの表示装置に表示されるようにする。
これにより、遠隔地でユーザ1a、1bの会話の様子を見ることができる。また2つの情報処理システム10相互に同様の処理を実行することにより、ビデオチャットやテレビ電話の機能を実現することができる。なおこのような機能を発揮させるためのネットワークの確立やデータ伝送のための手続きなどについては一般的な技術を採用してよく、ここでは説明を省略する。またネットワークを介して画像データを送信するばかりでなく、撮影対象であるユーザ1a、1bが見ている表示装置16に、処理結果である画像を表示することにより、ユーザ1a、1bがゲームを楽しむ、といった態様でもよい。
このような状況において本実施の形態における情報処理システム10は、2台のカメラで同一の空間を異なる条件で撮影することにより、撮影画像に付加価値をつけて出力情報とする。図3の例では、第1カメラ28は空間全体の領域40を広角で撮影し、第2カメラ30はユーザ1bの顔の領域42のみを狭角で撮影している。このとき第2カメラ30が撮影する画像は第1カメラ28が撮影する画像と同じ画素サイズとする。
結果として第2カメラ30で撮影した画像は第1カメラ28で撮影した画像より高解像度となる。これにより第1カメラ28で撮影した画像は通常の解像度で広角、第2カメラ30で撮影した画像は高解像度で狭角、と互いに異なる性質の画像を取得できる。本実施の形態ではこのように、同一の被写体、空間を、条件を異ならせて同時に撮影し、それぞれが有する情報を統合することによって様々な処理を可能にする。
以下、情報処理システム10が実現する機能の例について具体的に説明する。なおこれらの機能は例示であり、情報処理システム10はこれらの機能のうちのいずれか1つまたはいずれか2つ以上の組み合わせを実現可能とすればよい。すなわち全ての機能を備える趣旨ではない。
(1)画角の大きさと解像度を異ならせる態様
本態様は図3で説明したように、2つのカメラが撮影する画角を異ならせる。このとき上述のように、2つのカメラが同じ画素サイズで撮影すると、画角が小さいほど解像度が上がる。そしてこれらの画像を合成して出力することにより、人の顔など注目領域のみを詳細に表した画像を表示できる。
図4は本態様において、第1カメラ28および第2カメラ30が撮影した画像と、それを利用して得られる出力画像の例を示している。同図において第1カメラ28が撮影する画像は図3における領域40の広角画像44である。第2カメラ30が撮影する画像は図3における領域42の狭角画像46である。
狭角画像46の領域面積が広角画像44の領域面積の縦横1/3倍である場合、画素サイズを等しくすると、解像度は狭角画像46が広角画像44の縦横3倍となる。なおこのように画素サイズや画像の縦横比率を厳密に同一とする必要はなく、まず処理能力などを考慮して画像データのサイズに許容範囲を定めておき、その範囲内で画角と解像度との関係を適宜決定すればよい。
狭角画像46の視野を決定するためには、まず第1カメラ28が広角画像44を撮影し、画像解析部34が顔認識処理を行うことにより、狭角で撮影するターゲットとなり得る領域を検出する。そして出力画像生成部38が、当該広角画像44上に、ターゲット候補の領域を表した画像を生成し、表示装置16に表示させる。そして入力情報取得部22が、ユーザによる領域選択を受け付ける。このとき広角画像44中、選択されたターゲットの領域の位置を記憶しておく。
これに応じて撮影条件制御部24が、選択されたターゲットの領域を第2カメラ30に撮影させることにより、第1カメラ28および第2カメラ30による広角画像、狭角画像の同時撮影が開始される。そして出力画像生成部38は、各カメラが撮影した画像のデータを取得し、広角画像44上の対応する領域に狭角画像46を合成して出力する。その結果、広角画像44のうちユーザが選択したターゲットの領域50のみ解像度が高い合成画像48を表示できる。
このとき高解像度となるのは全体画像の一部であるため、画像データのサイズ増大により伝送帯域を圧迫することなく、見たい領域を詳細に見る、という要求を満たすことができる。また、カメラ自体は一般的な性能を有すればよいため、製造コストが増大することがない。
なお、ユーザが持つフリップを狭角画像として撮影し、その拡大画像を広角画像44と合成してもよい。この場合、例えばフリップにはその四隅のうち対角上にある二隅などに、所定の色、形状を有するマーカーをつけておく。そして画像解析部34が、パターンマッチングなどによりマーカーを検出し、それによってフリップの領域をターゲット候補として検出する。フリップを拡大する場合は、広角画像における本来のフリップの領域より合成後に示されるフリップの面積が広がるが、それにより、フリップに記載された文字などを見やすくすることができる。
また、第1カメラ28および第2カメラ30の双方でユーザ1aの顔、ユーザ1bの顔などターゲットの領域の狭角画像をそれぞれ撮影し、その前に撮影された広角画像の静止画上にそれらの狭角画像を合成するようにしてもよい。この場合、合成画像のうち、2つのターゲットの領域のみ、解像度が高く動きを有し、その他の領域は静止画の画像を表示できる。このようにすると、詳細に見たい領域が限定的であり、その他の領域の動きがあまり重要でない状況において、ターゲットの数をカメラの数だけ増やすことができる。
なお合成画像として、2つの狭角画像のみを、表示装置16の画面の大きさに応じて拡大し、並べて表示してもよい。また、ターゲットが大きく動くような場合は、第1カメラ28に広角画像を撮影させ、画像解析部34が既存の技術によりターゲットをトラッキングしてもよい。この場合、撮影条件制御部24が電子パンチルタを用いて各カメラの視野を調整することにより、狭角画像内に常にターゲットが含まれるようにしてもよい。
(2)露光時間/絞り値を異ならせる態様
本態様は撮影時の露光時間、絞り値のどちらか一方、または両方を、2つのカメラで異ならせる。近年、発光体などのマーカーをユーザに持たせたり体に装着させたりして、それを撮影することによってユーザの動きを検出し、ゲームなどへの入力情報とする技術が提案されている。この技術は、特定の大きさ、色、形状、輝度などを有するマーカーを、画像として捉えた部屋や人、物などの中から常に検出できる、という前提のもとに成り立つ。しかしながら人間による目視と異なり、画像内でのマーカーの写り具合は、周囲の明るさや物の有無、周囲の色などの撮影環境や、露光時間や焦点深度などの撮影条件によって大きく変化する。
ユーザや部屋を含む広角画像を撮影する場合、一般的にはその撮影環境に合わせてホワイトバランスや露光時間などの撮影条件が自動で調整され、それによって、全体としてバランスのとれた画像を取得する。しかしながらその画像中でマーカーを検出する場合、このように環境に応じて撮影条件を変化させると、マーカーの写り具合、すなわち像の色、大きさ、形状、輝度などが変化し、検出処理に支障をきたすことがあり得る。
例えば発光するマーカーを用いる場合、部屋の明るさに応じて決定した露光時間が長すぎると、マーカーの発光部分のRGB値が飽和してしまい、発光体の色に関わらず真っ白かつ輪郭のぼやけた画像となってしまうことが考えられる。またマーカーが比較的高速で動いていると、その像がぶれてしまうことが考えられる。そのため、マーカーの色が認識しづらくなったり、マーカ自体の検出ができなくなる場合がある。
そこで本態様では、一方のカメラは全体画像を標準的な露光時間、絞り値で撮影し、他方のカメラは露光時間、絞り値のいずれかまたは双方を、マーカーに対して最適な値で撮影する。これにより、最終的に表示するための画像として鑑賞に堪えるバランスのとれた画像を確保しつつ、どのような撮影環境であってもマーカー検出を精度よく行うことができる。
なお表示に用いるための標準的な露光時間および絞り値と、マーカー検出に適した露光時間および絞り値、という組み合わせは一例に過ぎず、各カメラで撮影する画像の用途を限定する主旨ではない。例えば一方のカメラの撮影条件を、マーカー検出に適した条件とする代わりに、顔認識、動き検出、エッジ抽出など、必要な情報を得るための画像解析に適した露光時間、絞り値としてもよい。表示に用いるための撮影画像が必要なければ、両カメラの露光時間を標準的な値から異ならせてもよい。
図5は、本態様において第1カメラ28および第2カメラ30が撮影する画像とそれを利用して得られる出力画像の例を示している。同図において第1カメラ28が撮影する画像は、先端の球体が発光するマーカー92を把持するユーザを、画像全体に対し最適な露光時間、絞り値で撮影した一般画像90である。この画像では上述のように、マーカー92の発光体は実際の色に関わらず白く写っている可能性もある。なおマーカーの形状は同図に示す物に限らず、色、形状、大きさ、輝度などが既知であり、検出対象となり得るものであればよい。また発光体でなくてもよい。
一方、第2カメラ30が撮影する画像は、マーカー92の発光体に対して最適な露光時間、絞り値で撮影した撮影条件調整画像94である。この画像は例えば、一般画像90と比較し、露光時間が短く、焦点がマーカー92に合っている焦点深度の浅い(絞り値が小さい)画像である。露光時間は電子シャッターのシャッタースピードによって調整する。シャッタースピードを高速とすることにより露光時間が短くなる。
このような調整によって撮影条件調整画像94は、全体的に暗かったり、他の物がぼやけていたりする代わりに、マーカー92の発光体部分については、色、形状、大きさ、輝度が実際に近い画像となる。なお撮影条件調整画像94は、マーカーの部分のみを撮影した狭角画像でもよい。このとき、マーカー検出に求められる精度や情報処理装置の処理能力などに応じて態様(1)と組み合わせ、マーカー92の位置検出やトラッキングを行ってもよい。
各カメラの撮影条件は、ユーザがこの機能を選択した時点で、撮影条件制御部24が撮影条件記憶部26より読み出して指定する。なお第1カメラ28の撮影条件は、通常のキャリブレーション手法によってその場の環境に応じて設定してよい。また第2カメラ30の画像を狭角画像とする場合は、(1)の態様と同様、マーカーのおよその位置を広角画像によって検出することにより、狭角画像の視野を決定するようにしてもよい。
画像解析部34は、撮影条件調整画像94を用いてマーカの位置を取得し、ユーザの動きを認識する。そして出力画像生成部38が、動きに応じた加工を一般画像90に施すことによって出力画像98を生成する。図5の例では、ユーザがマーカー92を振り下ろしたことを認識し、それに応じて出力画像中の仮想世界でユーザが持つ刀100の長さが伸びたような表示を行っている。
これまで述べた態様(1)、(2)はともに、2つのカメラの撮影条件が異なるため、同じ被写体を同時に撮影してもその画像特性が異なることが考えられる。特に態様(2)では故意に露光時間に差をつけることにより、当然、画素値の分布範囲が大きく異なることになる。また視野角を変化させる(1)の態様であっても、それぞれの視野角に適した撮影条件に自動調整する場合は、露光時間や絞り値が個別に調整された結果、画素値の分布範囲が異なる可能性がある。
一方、これらの画像は、撮影条件が異なるものの、既知の視差を有する2つのカメラで同時に撮影した画像であるため、本実施の形態ではこの特性を利用し、両者でステレオマッチングを行うことにより、被写体の3次元空間での位置をさらに特定する。このようにすると、態様(1)、(2)で得られる情報にさらに情報を加えることができ、ひいては情報処理装置14が実現できる機能の種類を多様化させたり、処理の精度を向上させたりすることができる。
例えば図5の出力画像98において、マーカと独立に動くユーザの頭部などの位置をさらに特定できるため、それに応じて頭部に別のアイテムを乗せたり、頭部の動きに応じて当該アイテムが反応したりする機能を実現できる。マーカーの動きと頭部の動きを組み合わせて何らかの反応をする出力画像を生成してもよい。あるいは図4の狭角画像46を得るために、被写体の奥行き方向の位置によってターゲット候補を絞り込んだり、視野角を適正化したりすることができる。
一般に被写体のカメラからの距離は、ステレオカメラが撮影したステレオ画像において対応する特徴点を抽出し、画像上での当該特徴点の位置のずれに基づき、三角測量の原理で求めることができる。この処理においては、ステレオ画像から対応する特徴点を正確に抽出することが特に重要となる。しかし前述したようにステレオ画像の特性が互いに異なると、当該抽出精度が保たれず、ひいては正確な位置情報が得られないことが考えられる。
図6は露光時間の異なる2つの画像から対応する特徴点を抽出する際の問題点を説明するための図である。同図において画像150、152は、撮像装置12の第1カメラ28、第2カメラ30がそれぞれ撮影し、撮像装置12から情報処理装置14へ送信される画像の例である。この例では、第2カメラ30の露光時間を短くするなどしたため、画像152の輝度が画像150と比較して全体的に低く、ダイナミックレンジが小さい。
このような画像のデータを情報処理装置14の画像解析部34で取得し、特徴点としてエッジを抽出してステレオマッチングを行うことを考える。エッジは、画像のうち輝度などの画素値が急激に変化している箇所であり、抽出処理には一般的なエッジ抽出フィルタを利用できる。同図において2つの画像150、152のうち、水平線154の位置でのそれぞれの輝度分布が、下段の輝度分布156、158である。
原理的には、例えば画像150に対し矢印A、Bの位置が、画像152に対し矢印A’、B’の位置が、エッジとして抽出される。そして矢印AとA’が対応していることをエッジ画像のマッチング処理により求めれば、両者の画像上の位置のずれから、例えば画像に写っている人の頭部の3次元空間での位置が算出できる。矢印BとB’との対応も同様であり、これにより例えば人の手の位置が算出できる。
しかしながら画像150と画像152で輝度の分布範囲が異なると、同じ被写体のエッジであってもエッジ画像での表れ方が異なり、マッチング精度が維持できないことが考えられる。例えばダイナミックレンジが小さい画像152の輝度分布158では、輝度のピークが急峻とならなかったりノイズが影響したりして、画像150と比較し抽出されるエッジが少なくなる可能性がある。また、露光時間が長い画像150の輝度が飽和し、この場合は、明るい部分で抽出されるエッジが少なくなる可能性がある。
したがって撮像装置12から送信された画像データをそのまま用いてエッジ抽出およびマッチング処理を行うと、2つのカメラの撮影条件が異なるほど、特に、露光時間が異なるほど、正しい位置情報が得られない可能性が高くなる。そこで、同条件で撮影されたような画像の状態を人工的に作り出すことにより、マッチング精度を維持する。基本的には、輝度の分布範囲を揃える補正を行ったうえでステレオマッチングを行う。例えば分布範囲が小さい画像152を、画像150の分布範囲に揃えるように、輝度値の補正を行う。このとき最も単純には、画像152の輝度の最大値に対する、画像150の輝度の最大値の比率を求め、前者の全ての輝度値に当該比率を乗算することが考えられる。
この処理は、撮像装置12内でガンマ補正が行われていない場合、あるいは全ての画素値を定数倍するような線形補正がなされている場合には有効である。ガンマ補正は、カメラの撮像素子にて取得した画素値を、ディスプレイでの良好な表示バランスにするための補正であり、通常、カメラ内部で実施される。補正前の画素値をPin、補正後の画素値をPoutとすると、ガンマ補正は次の補正式によって実行される。
ここでγは想定するディスプレイの特性などに基づき決定される値である。図6の最下段では、この補正式を、グラフ160a、160bの曲線で示している。当然、両者は同じ曲線である。ここで画素値を輝度値とすると、撮像素子が取得した輝度値Pinを用いて求めた、補正後の輝度値Poutが、情報処理装置14が取得する画像150、152の輝度値である。ここで各グラフに表した網掛けの領域は、対応する画像を生成するために用いた補正式の範囲を示している。
画像150の場合、補正前の輝度値Pinの範囲Ra、補正後の輝度値Poutの範囲R’aはいずれも広範囲におよぶ。一方、画像152の場合、補正前の輝度値Pinの範囲Rb、補正後の輝度値Poutの範囲R’bはいずれも、画像150の対応する範囲より小さい。しかし補正後の輝度値Poutの範囲の比率R’b/R’aは、補正前の輝度値Pinの範囲の比率Rb/Raと比較して大きい。これは補正式が非線形であるため、元の輝度値Pinの範囲によって補正による変化率が異なるためである。このことは範囲内の個々の輝度値についても同様である。
したがって上記のように画像152の全画素の輝度値に同じ比率を乗算しても、画像150と同等の画像にならないことになる。すなわち下記の式で示すように、本来は、画像152の元の輝度値Pinを、画像150と同じダイナミックレンジに揃えてからガンマ補正を行えば得られるべき輝度P’outとは異なる輝度P’’outが得られてしまう。
ここでkは、画像152の元の輝度Pinのダイナミックレンジを、画像150のガンマ補正前の画像に揃えるための係数、kは、撮像装置12から入力された、ガンマ補正後の画像152の輝度Poutのダイナミックレンジを、画像150に揃えるための係数であり、上記の例では画像150、152の輝度の最大値の比率である。図6のように画像150の輝度が飽和している場合は、輝度の最大値が本来の値と異なるため、さらに係数kも正確な算出が困難になる。
そこで画像解析部34は、撮像装置12の出力値である上式の輝度Poutが、本来求めるべき輝度P’outにおよそ補正されるように、補正前後の輝度の対応関係を記述しておき、輝度Poutを個別に補正する。これにより、輝度の分布範囲のみならず分布自体を2つの画像で揃えることができる。なお画素値が表す色空間は、輝度のほか、RGB値などでも同様であるが、以下では特に輝度として説明する。
図7は撮像装置12と、被写体の3次元空間での位置情報を取得する機能を有する情報処理装置14の画像解析部34の構成を詳細に示している。撮像装置12は上記の通り第1カメラ28および第2カメラ30を含む。第1カメラ28、第2カメラ30はそれぞれ、複数の撮像素子を備えた撮像部112a、112b、撮像素子が取得した画素値の配列である画像にガンマ補正を行うガンマ補正部114a、114b、ガンマ補正後の画像のデータを出力する出力部116a、116bを含む。
なお撮像装置12または各カメラには、画素値となる色成分を抽出したり補間したりする機能、情報処理装置14の画像解析部34に画像のデータを送信するための機能などがさらに含まれていてよいが、一般的な機能でよいため、図7では実施の形態に係る機能ブロックのみを図示している。
画像解析部34は、撮像装置12から撮影画像のデータを取得する撮影画像データ取得部118、第1カメラ28、第2カメラ30が同時に撮影した画像の少なくともいずれかに上述のような補正を行う補正部124、補正前後の輝度値の対応関係を示した補正テーブルを記憶した補正テーブル記憶部122、情報処理装置14が実現する機能に応じて使用する補正テーブルを切り替えたり生成したりする補正テーブル管理部120、2つの画像を用いてステレオマッチングを行い奥行き画像を生成する奥行き画像生成部126を含む。奥行き画像は、ステレオマッチングによって得られた、被写体のカメラからの距離を、画像平面上に画素値として表した画像であり、3次元空間での被写体の位置を表すデータである。
なお図7に示す画像解析部34には、奥行き画像を精度よく作成するための処理に係る機能ブロックのみを示しているが、上述の態様(1)、(2)を実現するための各種機能がさらに含まれていてよい。撮影画像データ取得部118は、奥行き画像を生成するタイミングで、第1カメラ28、第2カメラ30が同時に撮影した一対の画像のデータを取得する。このタイミングは、表示画像の生成処理や、トラッキングなどその他の画像解析の処理と同期させてもよいし、より長い周期でもよい。また、表示画像の生成処理や、その他の画像解析で用いる画像データと共有してもよい。
補正テーブル管理部120は、情報処理装置14が実現する機能や、それに基づき決定された撮影条件に応じて、奥行き画像の生成に有利となる補正テーブルを選択する。また、そのような補正テーブルを必要に応じて作成する。補正テーブルの作成にあたり、補正テーブル管理部120は、補正対象の画像自体に対し画像解析を行う。補正テーブルは、補正前の画素値に基づき補正後の画素値が一意に決定できればその形式は限定されず、補正前の輝度値の離散的な値と補正後の輝度値とを対応づけたルックアップテーブルでも、補正式でもよい。
補正テーブル管理部120は例えば、2つの画像の輝度のヒストグラムを作成する。そして動的計画法によるDPマッチングを適用し、輝度の軸を伸縮させながらヒストグラムの形状が最も合致するときの輝度の変化量を、離散的な複数の輝度値に対して求める。これは概念的には、上式の輝度値P’’outを、本来求めるべき輝度値P’outにするための係数kを個々の輝度値ごとに求めることに対応する。ただしここではより直接的に、元の輝度の離散的な値と、ヒストグラムの形状が合致するときの各輝度の行き先とを対応づけたルックアップテーブルを生成する。これにより補正前の輝度値Poutが、本来求めるべき輝度値P’outに近似的に対応づけられる。生成したテーブルは補正テーブルとして補正テーブル記憶部122に格納する。
なお、補正テーブル記憶部122には、上記のように補正テーブル管理部120が対象の画像を直接解析して作成した補正テーブルを格納してもよいし、あらかじめ何らかの推定式を格納しておいてもよい。例えば撮像装置12でガンマ補正に用いられるγと露光時間の比率から上式kを推定すれば、求めたい輝度P’outが、取得した画像の輝度Poutから推定できる。したがってそれを表す式やルックアップテーブルを前もって格納しておいてもよい。
また補正テーブル記憶部122には、情報処理装置14が実現できる機能ごと、各カメラの撮影条件ごとなど、諸条件ごとに、異なる補正テーブルを格納してもよい。例えば上述の説明のように、一方の画像のみを補整して他方の画像の輝度の分布に合わせる場合の補正テーブルと、両方の画像を別に準備した標準画像の輝度の分布に合わせる場合の補正テーブルとを格納する。これにより、2つの画像のいずれも、標準的でない露光時間で撮影した場合などでも、エッジ画像が得られやすい画像に揃えることができ、奥行き画像の精度を維持することができる。
このとき、補正テーブル管理部120で行う処理も条件ごとに異なるため、補正テーブル管理部120内部にも、各条件に対応づけて補正テーブルの選択規則、作成規則を設定しておく。補正部124は、補正テーブル管理部120が指定する補正テーブルを補正テーブル記憶部122から読み出し、それを補正対象の画像に適用することにより補正を実施する。これにより、輝度の分布が揃えられた一対の画像が生成できる。
奥行き画像生成部126は、補正部124による補正後の画像を含む一対の画像に対しステレオマッチングを行い、奥行き画像を生成する。ステレオマッチングには既存の技術を適用できる。例えば上記のようにエッジなどの特徴点を抽出し、当該特徴点同士のマッチングを行ってもよいし、画像を領域分割して領域同士でマッチングを行うなどでもよい。いずれの手法においても、輝度の分布を正確に揃えることにより、撮影条件が異なる画像であってもマッチング精度を維持できる。
生成した奥行き画像のデータは、被写体の3次元空間における位置情報として出力画像生成部38に供給することにより、当該情報に応じた出力画像の生成に用いる。あるいは撮影条件制御部24に供給することにより、被写体に視野や焦点を合わせて撮影するように撮像装置12のカメラを制御する。また、画像解析部34内の図示しない他の機能ブロックに供給し、顔検出、顔認識、トラッキングなどの処理に利用してもよい。
図8は、補正部124が補正することによる輝度値の変化例を示している。画像150とその輝度分布156、画像152とその輝度分布158は、図6で示した例と同じであり、画像解析部34による補正前のデータである。一方、補正テーブル記憶部122には、各画像に対する補正テーブル162、164が格納されている。上述の通り、補正テーブル管理部120が画像150、152を解析することにより、各補正テーブルをその場で作成してもよいし、あらかじめ推定して定めておいてもよい。例えば同じ撮影条件で撮影したテスト画像を用いて補正テーブルを作成しておいてもよい。
補正部124は、各補正テーブル162、164を補正テーブル記憶部122から読み出し、画像150、152にそれぞれ適用することにより、全ての画素の輝度値の、補正後の値を決定する。同図において補正テーブル162、164は、補正前の輝度値をpin、補正後の輝度値をpoutとしてグラフで示しているが、実際には上述のとおりルックアップテーブルでもよい。なお補正前の輝度値pinは、カメラにおけるガンマ補正後の輝度値Poutに対応する。またルックアップテーブルを用いる場合、記述されている輝度値は離散的であるため、それらの中間値については適宜、補間することにより補正後の輝度値を求める。
図8の場合、全体的に輝度が低い画像152の輝度の分布を、標準的な画像150に合わせることを目的としている。そのため、画像150は補正の必要がないが、pin=poutとする補正テーブル162を準備することにより、補正の要否に関わらず同じ処理で最終的な画像を得ることができる。補正テーブル162、164の上には、各補正テーブルによる補正の意味を図示している。グラフ165、166のそれぞれにおいて、左側のグラフは、各カメラの撮像素子にて取得した輝度値Pinに対する、カメラでのガンマ補正後の輝度値Poutの関係を表している。右側のグラフは、当該撮像素子にて取得した輝度値Pinに対する、情報処理装置14における補正後の輝度値poutの関係を表している。
補正テーブル162を用いた場合、上記の通りpin=poutとしているため、元の輝度値Pinに対する情報処理装置14での補正後の輝度値poutの関係は、カメラによるガンマ補正後の輝度値Poutの関係と同じである。一方、補正テーブル164を用いた場合、カメラにおけるガンマ補正後の輝度値Poutの分布範囲を、画像150の輝度値の分布範囲に広げている(図の矢印)。また補正テーブル164が線形でないことから明かなように、輝度値によってその変化率を変化させる。これにより、ガンマ補正前の輝度値の分布範囲を先に揃えてから(上式の輝度値kin)、ガンマ補正を行ったときと同等の補正の関係が得られる。
結果として、画像150については補正前と同じ輝度分布156、ひいては同じ画像150が得られ、画像152については、画像150と同等の範囲を有する輝度分布168、ひいては画像150と同等の画像170が得られる。奥行き画像生成部126は、補正後の画像150、170を用いてエッジ抽出などを経てステレオマッチングを行うことにより、奥行き画像172を精度よく生成できる。
図9は補正テーブル管理部120が、一対の画像を解析して補正テーブルを生成する手法を説明するための図である。これまでの例と同様、輝度の低い画像152を標準的な輝度の画像150に合わせるように補正をする場合を考える。このとき補正テーブル管理部120は、それぞれの画像の輝度ヒストグラムを生成する。
画像150の輝度ヒストグラム180は、輝度の範囲が広域にわたっている。輝度階調の最大値を超えてオーバーフローしていることもあり得る。一方、画像152の輝度ヒストグラム182は、輝度値の範囲が狭く小さい値に偏っている。しかし両者は同じ空間を同時に撮影した画像であるため、各輝度範囲に対するヒストグラムの相対的な形状はおよそ同じはずである。ただし上述のとおりガンマ補正がなされているため、単純に輝度の軸(横軸)を同じ比率で拡大するのみでは同じ形状とはならない。そこで、動的計画法によるマッチング(DPマッチング)をこれらのヒストグラムに対して行う。なおDPマッチング自体は、様々な分野で利用される既存技術である。
まず、輝度ヒストグラム182の輝度範囲内に複数の輝度値をサンプル値として離散的に設定する。そして当該輝度ヒストグラム182の輝度の軸を伸縮させながら輝度ヒストグラム180との形状を照合していき、最も形状が合致するときの輝度の変化量を輝度のサンプル値ごとに取得する。輝度の軸の伸縮率はサンプル値ごとに非線形で行われるため、画像152の輝度ヒストグラム182をDPマッチングにより伸張すれば、画像150の輝度ヒストグラム180と同じ形状を有する輝度ヒストグラム184を得ることができる。このときの、元の輝度のサンプル値と、それに変化量を加算した伸張後の輝度値との対応をテーブルとして記述することにより、補正テーブル164を生成できる。
画像150の輝度が上述のようにオーバーフローしていて、画像150のデータが有する輝度の最大値が、実際に撮影された輝度の最大値を反映していなかった場合、輝度がオーバーフローしていない画像152の輝度の最大値との対応づけができなくなる。この場合、単純に画像152の輝度に同じ倍率(上式のk)を乗算しようとしても、当該倍率自体が正確に決定できない可能性がある。輝度ヒストグラムを用いて画像全体の情報に基づき補正テーブルを求めることにより、中間範囲の輝度を適正に変化させられるのに加え、図8で示したように、補正後の画像170において、オーバーフローするべき画素については画像150と同様にオーバーフローさせることができる。
なお図9は画像152を画像150に合わせる例であったが、別途準備した、基準となる画像のヒストグラムを利用して、画像150、152の双方を、基準となる画像に合わせるようにしてもよい。この場合、画像150、152のそれぞれについて基準画像のヒストグラムとのDPマッチングを行うことにより、補正テーブルが画像ごとに生成される。
次にこれまで述べた構成によって実現される情報処理装置の動作について説明する。図10は情報処理装置14が撮影画像から出力画像を生成する処理のうち、主に奥行き画像を正確に生成するための処理手順を示すフローチャートである。まずユーザが、ゲーム、各種情報処理、通信など情報処理装置14が行えるの機能のいずれかを選択する入力を行うと(S10)、撮影条件制御部24は、選択された機能に対応する撮影条件を撮影条件記憶部26から読み出し、それに基づき撮像装置12に対し撮影条件を設定する(S12)。
それに応じて撮像装置12の第1カメラ28、第2カメラ30がそれぞれの撮影条件で撮影を開始すると、画像解析部34の撮影画像データ取得部118は、同じタイミングで撮影された2つの画像のデータを取得する(S14)。このデータにはガンマ補正がなされている。一方、画像解析部34の補正テーブル管理部120は、ユーザがS10で選択した機能に応じて補正テーブルを選択する(S16)。このとき上述のように、輝度分布を揃える基準となる画像を決定し、それに応じて各画像に適用する補正テーブルを選択する。基準となる画像はS14で取得した画像のいずれかでもよいし、あらかじめ用意した画像でもよい。さらに、顔領域や手の領域など、奥行き画像を高精度に求めたい特定の領域がある場合は、各画像から当該領域を切り出す設定としてもよい。
このように切り出しを行う場合、切り出した領域に対してのみ補正を行い、当該領域についてのみ奥行き画像を生成する場合と、切り出した領域における輝度ヒストグラムに対しDPマッチングを行って補正テーブルを作成し、補正処理自体は画像全体に対して行う場合と、をユーザが選択した機能によって切り替えてもよい。切り出す領域は、ユーザが選択した機能に応じて画像解析部34が別途行う顔検出処理、トラッキング処理、マッチング処理などの結果を利用してよい。一方の撮影画像自体が狭角画像である場合は、広角画像を狭角画像と同じ領域で切り出す。
そして補正テーブル管理部120は、決定した補正テーブルが補正テーブル記憶部122に記憶されているか否かを確認する(S18)。補正テーブルが記憶されておらず新たに作成する必要がある場合は(S18のY)、図9で説明した手法によって補正テーブルを作成し、補正テーブル記憶部122に格納する(S20)。一旦、補正テーブルを作成したら、同じ撮影条件で撮影している間は同じ補正テーブルを用いて補正することができる(S18のN)。あるいは上述のように、その場で作成せずに、あらかじめ適切な補正テーブルや補正式を推定し、補正テーブル記憶部122に格納しておいてもよい。
補正テーブル管理部120は、S16で選択した、各画像に適用する補正テーブルの識別情報を補正部124に通知する。必要に応じて、領域の切り出し情報についても通知する。補正部124は、指定された補正テーブルを補正テーブル記憶部122から読み出し、撮影画像データ取得部118から取得した一対の画像を、各補正テーブルを用いて補正する(S22)。特定の領域のみの奥行き画像を生成する場合は、補正前に当該領域を切り出しておく。そして奥行き画像生成部126は、補正後の一対の画像に対しステレオマッチングを行うことにより奥行き画像を生成する(S24)。
一方、画像解析部34は、例えば露光時間が小さい方の画像からユーザが保持するマーカーを検出してその位置を取得する(S26)。そして出力画像生成部38は、奥行き画像から得られるユーザの位置、およびマーカー検出結果から得られるマーカーの位置に基づき、標準的な露光時間で撮影した画像上にグラフィックスを描画したり一部の領域に加工を行ったりして出力画像のデータを生成し、表示装置16などに出力する(S28)。
なおS26で奥行き画像生成処理とは別に行う処理は、上記態様(1)や(2)で説明したように様々な処理へ置き換えが可能である。したがってS28で出力画像を生成する処理も、上述した例に限らない。動画像を撮影する場合は、S12からS28の処理を所定のレートで繰り返す。S12で設定する撮影条件は同じでもよいし、奥行き画像や顔検出、トラッキングなどの結果に応じて視野や焦点を変更するなどしてもよい。また、S22で画像を補正したうえS24で奥行き画像を生成する処理のレートと、S26でマーカーを検出するレート、S28で出力画像を生成、出力するレートは、それぞれ独立に決定してもよい。
以上述べた本実施の形態によれば、同じ空間を2つのカメラを用いて異なる条件で撮影することにより、それぞれに特化した情報を相補完的に取得するとともに、それらの画像をステレオマッチングすることにより被写体の3次元空間での位置も取得する。これにより、一対の画像を利用して取得できる情報の量を格段に増やすことができ、組み合わせによって様々な機能を発揮することができる。
撮影条件が異なる画像は、ステレオマッチングを行う前に画素値の補正を行い、画像特性が異なることによるマッチング精度の劣化を防止する。具体的には画素値の分布を揃える補正を行う。このとき、カメラ内部で行われるガンマ補正を考慮した補正量となるように、補正前の画素値と補正後の画素値とを対応づけたテーブルを作成する。当該テーブルは、各画像の画素値のヒストグラムをDPマッチングすることにより作成する。これにより、カメラ側のガンマ補正で用いるガンマ値が未知であったり変動したりしても、実際の画像に基づいた正確な補正が実施でき、ひいてはステレオマッチングの精度を維持できる。
補正によりどのような画素値の分布に揃えるか、また、画像全体を補正するか特定の領域のみを補正するか、といった補正条件を、ユーザが要求する機能、得られる情報の用途などに応じて切り替える。これにより、撮影条件や用途に対し最適の条件で補正が行え、最終的に出力する画像や情報の精度を高めることができる。特に顔検出処理やトラッキングなど特定の対象物を検出する処理と組み合わせ、その領域についてのみ補正テーブルを作成したり分布の合わせ込みを行うことにより、ノイズに影響されやすい暗い領域や、画素値が飽和しやすい明るい背景、窓などの領域の影響を排除することができる。結果として、特定の対象物の位置検出精度をさらに向上させることができる。
以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
例えば本実施の形態では2つのカメラで同時に撮影したステレオ画像の画素値の分布範囲を揃えたが、その対象はステレオ画像に限らず、一つの動画像を構成する複数のフレームなど異なるタイミングで撮影された画像でもよい。例えば対象物のトラッキングなどを目的にフレーム間で特徴点をマッチングしたり変化量を取得したりする場合、あるタイミングにおいて何らかの理由で露光時間などの撮影条件が変化すると、図6で説明したのと同様の問題が、変化前後に撮影されたフレーム間で発生する。
通常、マッチング対象となるフレームの撮影時間差は微少であるため、その構図にはほとんど差がないと考えられる。そこで本実施の形態と同様に補正テーブルを作成したり補正を行ったりすることにより画素値の分布範囲を揃えれば、特徴点の抽出を両フレームで同等に行え、マッチング精度が向上し、結果として対象物の動きや形状変化を精度よく追跡できる。
10 情報処理システム、 12 撮像装置、 14 情報処理装置、 16 表示装置、 18 ネットワーク、 22 入力情報取得部、 24 撮影条件制御部、 26 撮影条件記憶部、 28 第1カメラ、 30 第2カメラ、 34 画像解析部、 38 出力画像生成部、 118 撮影画像データ取得部、 120 補正テーブル管理部、 122 補正テーブル記憶部、 124 補正部、 126 奥行き画像生成部。

Claims (11)

  1. 被写体を撮影した画像データを取得して出力画像のデータを生成する情報処理装置であって、
    接続された第1のカメラおよび第2のカメラからなる一対のカメラから、同じ被写体に関する個別の情報を得るためにそれぞれ設定された異なる撮影条件にて同時に撮影された2つの画像のデータを取得し、当該2つの画像のデータから前記個別の情報を取得するとともに、前記2つの画像のデータのうち少なくともいずれかの画像の画素値を、前記2つの画像の画素値の分布を近似させるために両画像の画素値のヒストグラムの形状に基づき決定した補正規則に従い補正したうえ、当該2つの画像に対しステレオマッチングを行うことにより、被写体の3次元空間での位置情報を取得する画像解析部と、
    前記画像解析部が取得した前記個別の情報および前記位置情報に基づき出力画像のデータを生成して出力する出力画像生成部と、
    を備えたことを特徴とする情報処理装置。
  2. 被写体を撮影した画像データを取得して出力画像のデータを生成する情報処理装置であって、
    接続された第1のカメラおよび第2のカメラからなる一対のカメラから、同じ被写体に関する個別の情報を得るためにそれぞれ設定された異なる撮影条件にて同時に撮影された2つの画像のデータを取得し、当該2つの画像のデータから前記個別の情報を取得するとともに、前記2つの画像のデータのうち少なくともいずれかの画像の画素値を、前記2つの画像の画素値の分布を近似させるための補正規則に従い補正したうえ、当該2つの画像に対しステレオマッチングを行うことにより、被写体の3次元空間での位置情報を取得する画像解析部と、
    前記画像解析部が取得した前記個別の情報および前記位置情報に基づき出力画像のデータを生成して出力する出力画像生成部と、
    を備え、
    前記画像解析部は、前記2つの画像の画素値のヒストグラムを生成し、動的計画法を用いたマッチングにより、画素値の軸を非線形に伸縮させながら2つのヒストグラムの形状が合致するときの画素値の変化量を離散的な画素値に対して求め、変化前後の画素値を対応づけたテーブルを前記補正規則として作成することを特徴とする情報処理装置。
  3. 被写体を撮影した画像データを取得して出力画像のデータを生成する情報処理装置であって、
    接続された第1のカメラおよび第2のカメラからなる一対のカメラから、同じ被写体に関する個別の情報を得るためにそれぞれ設定された異なる撮影条件にて同時に撮影された2つの画像のデータを取得し、当該2つの画像のデータから前記個別の情報を取得するとともに、前記2つの画像のデータのうち少なくともいずれかの画像の画素値を、前記2つの画像の画素値の分布を近似させるための補正規則に従い補正したうえ、当該2つの画像に対しステレオマッチングを行うことにより、被写体の3次元空間での位置情報を取得する画像解析部と、
    前記画像解析部が取得した前記個別の情報および前記位置情報に基づき出力画像のデータを生成して出力する出力画像生成部と、
    を備え、
    前記画像解析部は、前記2つの画像の画素値のヒストグラムを生成し、動的計画法を用いたマッチングにより、画素値の軸を非線形に伸縮させながら、あらかじめ準備した基準画像のヒストグラムに、生成した2つのヒストグラムのそれぞれの形状が合致するときの画素値の変化量を離散的な画素値に対して求めることにより、前記2つの画像それぞれに対し、変化前後の画素値を対応づけたテーブルを前記補正規則として作成することを特徴とする情報処理装置。
  4. ユーザが選択した前記情報処理装置の機能に応じて各カメラの撮影条件を決定し、前記一対のカメラを、当該撮影条件にて撮影を行うように制御する撮影条件制御部をさらに備え、
    前記画像解析部は、前記補正規則を、ユーザが選択した前記情報処理装置の機能によって切り替えることを特徴とする請求項1から3のいずれかに記載の情報処理装置。
  5. 前記画像解析部は、補正前の画素値と補正後の画素値の関係が非線形となる補正規則で画素値を補正することを特徴とする請求項1から4のいずれかに記載の情報処理装置。
  6. 前記第2のカメラが撮影した画像は、被写体に含まれるターゲットが装備するマーカーの位置を検出するために撮影時の露光時間が、前記第2のカメラが撮影した画像の撮影時の露光時間より短く、
    前記画像解析部は、前記第2のカメラが撮影した画像から前記マーカーの位置を検出するとともに、前記ステレオマッチングにより前記マーカーと異なるターゲットの位置情報を取得し、
    前記出力画像生成部は、前記第1のカメラが撮影した画像に、前記マーカーの位置と前記ターゲットの位置とに対応して設定された加工を施した画像のデータを、前記出力画像のデータとして生成することを特徴とする請求項1から5のいずれかに記載の情報処理装置。
  7. 前記撮影条件制御部は、前記画像解析部がステレオマッチングにより取得した位置情報に基づき、前記一対のカメラの少なくともいずれかのカメラの撮影条件を変化させることを特徴とする請求項に記載の情報処理装置。
  8. 被写体を撮影し、その画像データを利用して出力画像のデータを生成する情報処理システムであって、
    同じ被写体に関する個別の情報を得るためにそれぞれ設定された異なる撮影条件にて被写体を同時に撮影する第1のカメラおよび第2のカメラからなる一対のカメラと、
    前記一対のカメラから取得した2つの画像のデータから前記個別の情報を取得するとともに、前記2つの画像のデータのうち少なくともいずれかの画像の画素値を、前記2つの画像の画素値の分布を近似させるために両画像の画素値のヒストグラムの形状に基づき決定した補正規則に従い補正したうえ、当該2つの画像に対しステレオマッチングを行うことにより、被写体の3次元空間での位置情報を取得する画像解析部と、
    前記画像解析部が取得した前記個別の情報および前記位置情報に基づき出力画像のデータを生成して出力する出力画像生成部と、
    を備えた情報処理装置と、
    を備えたことを特徴とする情報処理システム。
  9. 情報処理装置が、被写体を撮影した画像データを取得して出力画像のデータを生成する情報処理方法であって、
    接続された第1のカメラおよび第2のカメラからなる一対のカメラから、同じ被写体に関する個別の情報を得るためにそれぞれ設定された異なる撮影条件にて同時に撮影された2つの画像のデータを取得するステップと、
    当該2つの画像のデータから前記個別の情報を取得するとともに、前記2つの画像のデータのうち少なくともいずれかの画像の画素値を、前記2つの画像の画素値の分布を近似させるために両画像の画素値のヒストグラムの形状に基づき決定した補正規則に従い補正したうえ、当該2つの画像に対しステレオマッチングを行うことにより、被写体の3次元空間での位置情報を取得するステップと、
    前記個別の情報および前記位置情報に基づき出力画像のデータを生成して表示装置に出力するステップと、
    を含むことを特徴とする情報処理方法。
  10. コンピュータに、被写体を撮影した画像データを取得して出力画像のデータを生成する機能を実現させるコンピュータプログラムであって、
    前記コンピュータに接続された第1のカメラおよび第2のカメラからなる一対のカメラから、同じ被写体に関する個別の情報を得るためにそれぞれ設定された異なる撮影条件にて同時に撮影された2つの画像のデータを取得する機能と、
    当該2つの画像のデータから前個別の情報を取得するとともに、前記2つの画像のデータのうち少なくともいずれかの画像の画素値を、前記2つの画像の画素値の分布を近似させるために両画像の画素値のヒストグラムの形状に基づき決定した補正規則に従い補正したうえ、当該2つの画像に対しステレオマッチングを行うことにより、被写体の3次元空間での位置情報を取得する機能と、
    前記個別の情報および前記位置情報に基づき出力画像のデータを生成して表示装置に出力する機能と、
    をコンピュータに実現させることを特徴とするコンピュータプログラム。
  11. コンピュータに、被写体を撮影した画像データを取得して出力画像のデータを生成する機能を実現させるコンピュータプログラムを記録した記録媒体であって、
    前記コンピュータに接続された第1のカメラおよび第2のカメラからなる一対のカメラから、同じ被写体に関する個別の情報を得るためにそれぞれ設定された異なる撮影条件にて同時に撮影された2つの画像のデータを取得する機能と、
    当該2つの画像のデータから前記個別の情報を取得するとともに、前記2つの画像のデータのうち少なくともいずれかの画像の画素値を、前記2つの画像の画素値の分布を近似させるために両画像の画素値のヒストグラムの形状に基づき決定した補正規則に従い補正したうえ、当該2つの画像に対しステレオマッチングを行うことにより、被写体の3次元空間での位置情報を取得する機能と、
    前記個別の情報および前記位置情報に基づき出力画像のデータを生成して表示装置に出力する機能と、
    をコンピュータに実現させるコンピュータプログラムを記録したことを特徴とする、コンピュータにて読み取り可能な記録媒体。
JP2012285597A 2012-12-27 2012-12-27 情報処理装置、情報処理システム、および情報処理方法 Active JP5843751B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012285597A JP5843751B2 (ja) 2012-12-27 2012-12-27 情報処理装置、情報処理システム、および情報処理方法
EP13869255.3A EP2940658B1 (en) 2012-12-27 2013-07-22 Information processing device, information processing system, and information processing method
US14/652,536 US9619868B2 (en) 2012-12-27 2013-07-22 Information processing device, information processing system, and information processing method
CN201380067337.8A CN104885125B (zh) 2012-12-27 2013-07-22 信息处理设备、信息处理***和信息处理方法
PCT/JP2013/004436 WO2014103094A1 (ja) 2012-12-27 2013-07-22 情報処理装置、情報処理システム、および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012285597A JP5843751B2 (ja) 2012-12-27 2012-12-27 情報処理装置、情報処理システム、および情報処理方法

Publications (3)

Publication Number Publication Date
JP2014127151A JP2014127151A (ja) 2014-07-07
JP2014127151A5 JP2014127151A5 (ja) 2015-02-19
JP5843751B2 true JP5843751B2 (ja) 2016-01-13

Family

ID=51020237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012285597A Active JP5843751B2 (ja) 2012-12-27 2012-12-27 情報処理装置、情報処理システム、および情報処理方法

Country Status (5)

Country Link
US (1) US9619868B2 (ja)
EP (1) EP2940658B1 (ja)
JP (1) JP5843751B2 (ja)
CN (1) CN104885125B (ja)
WO (1) WO2014103094A1 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9262801B2 (en) 2014-04-01 2016-02-16 Gopro, Inc. Image taping in a multi-camera array
GB2528044B (en) 2014-07-04 2018-08-22 Arc Devices Ni Ltd Non-touch optical detection of vital signs
WO2016037014A1 (en) * 2014-09-03 2016-03-10 Nextvr Inc. Methods and apparatus for capturing, streaming and/or playing back content
CN105530502B (zh) * 2014-09-28 2018-05-22 株式会社理光 根据立体相机拍摄的图像帧生成视差图的方法和装置
US9854973B2 (en) 2014-10-25 2018-01-02 ARC Devices, Ltd Hand-held medical-data capture-device interoperation with electronic medical record systems
US10187623B2 (en) * 2014-12-26 2019-01-22 Korea Electronics Technology Institute Stereo vision SoC and processing method thereof
KR20170026705A (ko) * 2015-08-26 2017-03-09 삼성디스플레이 주식회사 표시 장치 및 그 구동 방법
CN108390816B (zh) * 2015-09-23 2021-05-14 腾讯科技(深圳)有限公司 网络通话方法和装置
JP6596309B2 (ja) * 2015-11-11 2019-10-23 株式会社東芝 分析装置および分析方法
CN106817575A (zh) * 2015-11-30 2017-06-09 聚晶半导体股份有限公司 影像捕获设备及其产生深度信息的方法与自动更正的方法
US10403019B2 (en) * 2015-12-16 2019-09-03 Lucasfilm Entertainment Company Multi-channel tracking pattern
CN105718887A (zh) * 2016-01-21 2016-06-29 惠州Tcl移动通信有限公司 基于移动终端摄像头实现动态捕捉人脸摄像的方法及***
WO2017169891A1 (ja) * 2016-03-31 2017-10-05 ソニー株式会社 情報処理装置および方法
US10432847B2 (en) 2016-04-13 2019-10-01 Sony Corporation Signal processing apparatus and imaging apparatus
WO2017208991A1 (ja) * 2016-06-01 2017-12-07 シャープ株式会社 撮像処理装置、電子機器、撮像処理方法、撮像処理装置制御プログラム
CN109937568B (zh) * 2016-11-17 2021-03-09 索尼公司 图像处理装置和图像处理方法
JP6805858B2 (ja) * 2017-02-07 2020-12-23 富士通株式会社 送信制御プログラム、送信制御方法および送信制御装置
US10506926B2 (en) 2017-02-18 2019-12-17 Arc Devices Limited Multi-vital sign detector in an electronic medical records system
US10492684B2 (en) 2017-02-21 2019-12-03 Arc Devices Limited Multi-vital-sign smartphone system in an electronic medical records system
US11176657B2 (en) 2017-03-29 2021-11-16 Fuji Corporation Information processing device, mounting device, and information processing method
WO2018186255A1 (ja) * 2017-04-06 2018-10-11 新日鉄住金ソリューションズ株式会社 情報処理装置、情報処理方法、プログラム、及び、記録媒体
KR102328539B1 (ko) * 2017-07-27 2021-11-18 삼성전자 주식회사 복수의 카메라를 이용하여 영상을 획득하기 위한 전자 장치 및 이를 이용한 영상 처리 방법
US10602987B2 (en) 2017-08-10 2020-03-31 Arc Devices Limited Multi-vital-sign smartphone system in an electronic medical records system
KR102318013B1 (ko) 2017-10-13 2021-10-27 삼성전자 주식회사 복수의 이미지들을 합성하는 전자장치 및 방법
JP7027844B2 (ja) * 2017-11-29 2022-03-02 株式会社デンソー カメラモジュール
US10306152B1 (en) * 2018-02-14 2019-05-28 Himax Technologies Limited Auto-exposure controller, auto-exposure control method and system based on structured light
CN108447456B (zh) * 2018-02-28 2019-11-05 北京德为智慧科技有限公司 一种影像显示校正方法及装置
US10485431B1 (en) 2018-05-21 2019-11-26 ARC Devices Ltd. Glucose multi-vital-sign system in an electronic medical records system
CN109064415A (zh) * 2018-07-09 2018-12-21 奇酷互联网络科技(深圳)有限公司 图像处理方法、***、可读存储介质及终端
JP7180566B2 (ja) * 2019-07-25 2022-11-30 株式会社島津製作所 X線イメージング装置およびx線イメージング方法
CN110493526B (zh) * 2019-09-10 2020-11-20 北京小米移动软件有限公司 基于多摄像模块的图像处理方法、装置、设备及介质
JP7259732B2 (ja) * 2019-12-23 2023-04-18 横河電機株式会社 配信サーバ、方法およびプログラム
WO2021247300A1 (en) 2020-06-01 2021-12-09 Arc Devices Limited Apparatus and methods for measuring blood pressure and other vital signs via a finger
CN112911264B (zh) * 2021-01-27 2022-11-29 广东未来科技有限公司 3d拍摄方法、装置、存储介质及移动终端
JP7464851B2 (ja) 2021-03-26 2024-04-10 株式会社デンソーウェーブ コード読取装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11258654A (ja) * 1998-03-12 1999-09-24 Fuji Heavy Ind Ltd カメラのシャッタ速度制御装置
JP2000003448A (ja) * 1998-06-16 2000-01-07 Sony Corp 輝度値補正回路及び方法並びに距離画像生成装置
US6704042B2 (en) 1998-12-10 2004-03-09 Canon Kabushiki Kaisha Video processing apparatus, control method therefor, and storage medium
JP4018273B2 (ja) * 1998-12-10 2007-12-05 キヤノン株式会社 映像処理装置及びその制御方法及び記憶媒体
JP3587506B2 (ja) * 1999-08-30 2004-11-10 富士重工業株式会社 ステレオカメラの調整装置
US7162074B2 (en) * 2001-11-20 2007-01-09 Fuji Jukogyo Kabushiki Kaisha Adjusting apparatus for stereoscopic camera
JP3983573B2 (ja) * 2002-03-06 2007-09-26 富士重工業株式会社 ステレオ画像特性検査システム
CN100375500C (zh) * 2004-05-17 2008-03-12 精工爱普生株式会社 图像处理方法及图像处理装置
EP1967942A1 (en) 2005-10-26 2008-09-10 Sony Computer Entertainment America, Inc. System and method for interfacing and computer program
JP4708192B2 (ja) * 2006-01-10 2011-06-22 パナソニック株式会社 動的なカメラ色補正装置およびそれを用いた映像検索装置
DE102006050379A1 (de) * 2006-10-25 2008-05-08 Norbert Prof. Dr. Link Verfahren und Vorrichtung zur Überwachung eines Raumvolumens sowie Kalibrierverfahren
US8328653B2 (en) * 2007-09-21 2012-12-11 Playdata, Llc Object location and movement detection system and method
JP2011229054A (ja) * 2010-04-22 2011-11-10 Konica Minolta Opto Inc 画像処理装置およびプログラム
JP5395956B2 (ja) 2010-07-02 2014-01-22 株式会社ソニー・コンピュータエンタテインメント 情報処理システムおよび情報処理方法
TWI426779B (zh) * 2010-08-13 2014-02-11 Inst Information Industry Object color correction method, system and its computer program products
GB2483433A (en) 2010-08-31 2012-03-14 Sony Corp 3D image adjustment based on differences in colour properties between stereo pair
JP5875382B2 (ja) * 2011-02-15 2016-03-02 キヤノン株式会社 力覚センサ、ロボット装置、ロボットハンド及び検出装置
US9113145B2 (en) * 2011-03-25 2015-08-18 Semiconductor Components Industries, Llc Contrast matching for stereo image
CN102236785B (zh) * 2011-06-29 2012-12-19 中山大学 一种非重叠摄像机视点之间的行人匹配方法

Also Published As

Publication number Publication date
EP2940658B1 (en) 2018-06-06
EP2940658A4 (en) 2016-08-03
US20150339805A1 (en) 2015-11-26
WO2014103094A1 (ja) 2014-07-03
JP2014127151A (ja) 2014-07-07
CN104885125A (zh) 2015-09-02
EP2940658A1 (en) 2015-11-04
CN104885125B (zh) 2017-05-31
US9619868B2 (en) 2017-04-11

Similar Documents

Publication Publication Date Title
JP5843751B2 (ja) 情報処理装置、情報処理システム、および情報処理方法
JP5395956B2 (ja) 情報処理システムおよび情報処理方法
JP5108093B2 (ja) 撮像装置及び撮像方法
CN105141841B (zh) 摄像设备及其方法
US20090284609A1 (en) Image capture apparatus and program
WO2014083721A1 (ja) 情報処理装置および情報処理方法
KR20200023651A (ko) 미리보기 사진 블러링 방법 및 장치 및 저장 매체
CN110677557B (zh) 图像处理方法、装置、存储介质及电子设备
JP2019101996A (ja) 複数の撮像画像を合成することによりノイズを低減する画像処理装置及び画像処理方法
JP6768933B2 (ja) 情報処理装置、情報処理システム、および画像処理方法
JP6937603B2 (ja) 画像処理装置およびその制御方法、プログラム、並びに記憶媒体
JP2010154306A (ja) 撮像制御装置、撮像制御プログラム及び撮像制御方法
JP2019101997A (ja) 複数の撮像画像を合成することによりノイズを低減する画像処理装置及び画像処理方法
JP2018182700A (ja) 画像処理装置およびその制御方法、プログラム、並びに記憶媒体
JP2017138927A (ja) 画像処理装置、撮像装置およびそれらの制御方法、それらのプログラム
JP6921606B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6740109B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6004978B2 (ja) 被写体画像抽出装置および被写体画像抽出・合成装置
JP2005142765A (ja) 撮像装置及び方法
CN116208851A (zh) 图像处理方法及相关装置
JP5924833B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び撮像装置
JP2014011639A (ja) 撮像装置
JP6930011B2 (ja) 情報処理装置、情報処理システム、および画像処理方法
JP7458769B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP2007020071A (ja) 撮像装置、撮像方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151117

R150 Certificate of patent or registration of utility model

Ref document number: 5843751

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250