JP3614898B2 - PHOTOGRAPHIC APPARATUS, IMAGE PROCESSING APPARATUS, AND STEREOGRAPHIC CREATION METHOD - Google Patents
PHOTOGRAPHIC APPARATUS, IMAGE PROCESSING APPARATUS, AND STEREOGRAPHIC CREATION METHOD Download PDFInfo
- Publication number
- JP3614898B2 JP3614898B2 JP27346594A JP27346594A JP3614898B2 JP 3614898 B2 JP3614898 B2 JP 3614898B2 JP 27346594 A JP27346594 A JP 27346594A JP 27346594 A JP27346594 A JP 27346594A JP 3614898 B2 JP3614898 B2 JP 3614898B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- shooting
- image
- pixel
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Focusing (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Automatic Focus Adjustment (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
【0001】
【産業上の利用分野】
本発明は、通常の平面写真を撮影すると共に、記録媒体に距離値等を記録することによって、立体写真作成用の記録媒体を提供できる写真撮影装置及び距離値等が記録された記録媒体の画像からディジタル画像処理を行うことにより立体写真を作成する画像処理装置又は立体写真作成方法に関する。
【0002】
【従来の技術】
従来の立体視用ネガフィルムでは、立体視のためのプリント作成のために以下のような手段を講じていた。
【0003】
カメラに装着する立体写真専用のアダプタ(鏡を複数枚組み合わせた構造)をレンズの全面に装着し、光路を2分して撮影することによって、ネガ上に1コマにつき左右の目の対応する画像2コマ分を記録するようにしていた。
【0004】
また、立体写真専用のカメラ機構(被写体を3方向から捉える)を必要とし、ネガ上には、1コマにつき3コマ分を記録するようにしていた。
【0005】
【発明が解決しようとする課題】
しかしながら、上記従来の技術は、特殊なアダプターや3つのレンズを備えたカメラを必要とするので、携帯性に乏しく、不経済であるという問題点が生じる。一方、立体写真として撮影したシーンを後に通常の平面写真のプリントとして作成するためには、却って特殊なプリント工程を必要とし、コスト、労力の点で不利である。
【0006】
本発明は上記事実を考慮し、通常の撮影が可能なカメラにおいて、特殊なアダプターや特殊な装置を用いることなく、簡単な切替え操作のみによって、通常の平面写真を撮影すると共に立体写真作成を容易に得ることができる写真撮影装置、画像処理装置及び立体写真作成方法を得ることが目的である。
【0007】
【課題を解決するための手段】
請求項1に記載の発明は、記録媒体に画像を記録する写真撮影装置において、
複数に分割された撮影領域における分割領域の各々について、撮影地点から前記分割領域の範囲内にある撮影対象までの距離値を測定する測距手段と、
前記測距手段によって測定された前記分割領域毎の距離値を前記画像と共に前記記録媒体に記録する記録手段と、
を有することが特徴である。
請求項2に記載の発明は、前記請求項1に記載の発明において、通常の平面写真を撮影すると共に前記測距手段及び前記記録手段を作動させる立体写真撮影モードと、単に通常の平面写真のみを撮影するモードとを選択する選択手段と、
をさらに有することが特徴である。
請求項3に記載の発明は、前記請求項1又は請求項2に記載の写真撮影装置によって記録された画像を処理する画像処理装置であって、
前記記録手段によって前記画像と共に前記記録媒体に記録された前記分割領域毎の距離値に基づいて立体写真を作成する立体写真作成手段を備えたことが特徴である。
【0008】
請求項4に記載の発明は、記録媒体に記録された画像に基づいてディジタル原画像を作成し、作成された該原画像に基づいてディジタル処理を行う画像処理装置において、
前記記録媒体に記録された画像が表現される撮影画面を複数に分割する分割領域毎の距離値を読み取る読取手段と、
前記撮影画面を撮影した際における撮影地点よりレンズ光軸に対して垂直平面内に撮影画面の正立状態を基準として右側及び左側に所定の距離離れた各地点から前記分割領域の範囲内にあった撮影対象までを結ぶ直線が、前記撮影地点から所定距離離れたレンズ光軸に対して垂直な平面である投影面と交わる点をそれぞれ投影点とし、前記撮影地点と前記撮影対象とを結ぶ直線と平行に前記各地点から延長した直線が前記投影面と交わる点をそれぞれ交点とした場合において、前記投影点と前記投影点に対応する交点との距離値であるシフト量を、前記分割領域に対応する画素の各々について算出するシフト量算出手段と、
前記ディジタル原画像を構成する各画素を、当該画素が属する前記分割領域において前記シフト量算出手段により得られた前記シフト量だけ各々移動させることによって、前記各地点から仮想的に撮影した場合に得られる画像を各々作成する仮想画像作成手段と、
前記仮想画像作成手段によって得られた前記画像の各々から、画素値の与えられていない画素から構成される空き領域を抽出すると共に、前記空き領域の周囲の画素における画素値に基づいて前記空き領域の画素値を推定し、前記空き領域の画素全てに画素値を与える補間手段と、
前記補間手段によって最終的に完成された画像の各々を出力する出力手段と、
を有することが特徴である。
【0009】
請求項5に記載の発明は、撮影画面を複数に分割する分割領域毎に、撮影地点から前記分割領域の範囲内にある撮影対象までの距離値を測定し、前記分割領域毎の距離値を記録媒体に記録する機能を備えた写真撮影装置で撮影すると共に、当該撮影後、前記記録媒体に記録された画像に基づいてディジタル原画像を作成し、
前記記録媒体から前記分割領域毎の距離値を読取り、
前記撮影画面を撮影した際における撮影地点よりレンズ光軸に対して垂直平面内に撮影画面の正立状態を基準として右側及び左側に所定の距離離れた各地点から前記分割領域の範囲内にあった撮影対象までを結ぶ直線が、前記撮影地点から所定距離離れたレンズ光軸に対して垂直な平面である投影面と交わる点をそれぞれ投影点とし、前記撮影地点と前記撮影対象とを結ぶ直線と平行に前記各地点から延長した直線が前記投影面と交わる点をそれぞれ交点とした場合において、前記投影点と前記投影点に対応する交点との距離値であるシフト量を、前記分割領域に対応する画素の各々について算出し、
前記ディジタル原画像を構成する各画素を、当該画素が属する前記分割領域において前記シフト量算出手段により得られた前記シフト量だけ各々移動させることによって、前記各地点から仮想的に撮影した場合に得られる画像を各々作成し、
さらに前記画像の各々から、画素値の与えられていない空き領域を抽出し、前記空き領域の周囲の画素における画素値に基づいて前記空き領域の画素値を推定し、
前記空き領域の画素全てに画素値を与え、最終的に得られた画像の各々を出力する立体写真作成方法であることが特徴である。
【0010】
【作用】
請求項1に記載の発明によれば、例えば比較的近距離の人物等及び遠距離の背景から成るシーンを撮影した場合において、撮影画面を複数に分割する分割領域の各々に対して、測距手段により当該分割領域の範囲内にある撮影対象までの距離値が与えられる。当該シーンの場合には、撮影画面上における人物等が、その範囲に存在する分割領域で検出される距離は比較的小さい値を示す一方、背景等に係る分割領域で検出される距離は大きい値を示す。同時に各分割領域毎に検出された距離値は記録媒体に記録される。なお、この記録方法として、磁気層が塗布された写真フィルムに磁気的に記録する方法などがある。
【0011】
従って、複数のレンズを装備したり、立体写真専用のカメラを用意する必要もなくなり通常の写真撮影装置と同様の装置により立体写真作成のための情報を記録した記録媒体を提供でき、携帯性の優れた写真撮影装置が実現できる。また、平面写真と同様に1つの記録媒体に全シーンを撮影するので、かかる立体写真を作成するための撮影をした場合でも通常の平面写真を1つの記録媒体から従来と同様に容易に作成できる。
請求項2に記載の発明によれば、選択手段によって通常の平面写真の撮影モードを選択すれば、全ての分割領域の測距等に時間を取られるおそれも無くなり、1台で平面写真、立体写真の撮り分けが可能となる。
請求項3に記載の発明によれば、立体写真作成手段によって、記録された前記距離値に基づいて立体写真を作成することができる。
【0012】
請求項4に記載の発明によれば、先ず記録媒体に記録された画像に基づいてディジタル原画像が作成される。ここで、このディジタル原画像は通常の平面写真に相当するが、後述する処理によって、この画像に基づいて立体画像が作成される。
【0013】
そして、記録媒体から、読取手段によって各分割領域毎の距離値が読み取られ、当該情報はメモリに格納される。
【0014】
次に、当該撮影画面を撮影した際における撮影地点よりレンズ光軸に対して垂直平面内に撮影画面の正立状態を基準として右側及び左側に所定の距離離れた各地点(右地点及び左地点)が設定される。ここで、立体写真の仕上がり精度を高めるために、撮影地点として前記撮影画面の中心位置が設定されることが好ましい。また、前記右地点及び前記左地点から前記分割領域の範囲内にあった撮影対象までを結ぶ直線と、前記撮影地点から所定距離離れたレンズ光軸に対して垂直な平面である投影面と、の交わる点が、それぞれ右投影点及び左投影点として設定される。さらに、前記撮影地点と前記撮影対象とを結ぶ直線と平行に前記右地点及び左地点から延長した直線と、前記投影面と、の交わる点がそれぞれ右交点及び左交点として設定される。また、前記右投影点と前記右交点との距離値であるシフト量(右シフト量)及び前記左投影点と前記左交点との距離値であるシフト量(左シフト量)が、前記分割領域に対応する画素の各々について算出される。
【0015】
そして、仮想画像作成手段によって、前記ディジタル原画像を構成する各画素が、当該画素が属する前記分割領域において前記シフト量算出手段により得られた前記右シフト量及び左シフト量だけそれぞれ移動されることによって、前記右地点及び左地点から仮想的に撮影した場合に得られる画像(右目画像及び左目画像)が作成される。
【0016】
次に補間手段によって、先ず原画像と右目画像及び左目画像とが比較され、右目画像及び左目画像において画素値の与えられていない空き領域が抽出される。そして、さらに補間手段により、この空き領域の周囲の画素の画素値に基づいて空き領域の画素値が推定され、画像(右目画像及び左目画像)が完成される。
【0017】
右目画像及び左目画像が完成されると、出力部により、例えば右目画像及び左目画像が並んだ状態で1枚にプリント出力される。オペレータが、左右の画像を拡大して2眼でステレオ画像を見せる立体視ビュワー等を用いることによって、当該プリントを観察すると、左右各々の距離に応じた微妙なずれを伴った画像が一度に視覚されるため、立体写真を得ることができる。
【0018】
請求項5に記載の発明によれば、例えば比較的近距離の人物、中距離の建物及び遠距離の自然風景から成るシーンを写真撮影装置により撮影すると、撮影画面を複数に分割する分割領域の各々について測距が行われ、各分割領域毎の距離値が検出される。そして、前記各分割領域毎の距離値は、記録媒体に記録される。即ち、当該シーンでは、人物に係る微小領域には小さい距離値、建物に係る微小領域には中程度の距離値そして自然風景に係る微小領域には大きい距離値が与えられる。
【0019】
次に、撮影が終了すると、記録媒体に記録された画像に基づいてディジタル原画像が作成された後、ディジタル原画像データはメモリに格納される。また当該記憶媒体に記録されている前記各分割領域毎の距離値も読み取られ、メモリに格納される。
【0020】
次に、当該撮影画面を撮影した際における撮影地点よりレンズ光軸に対して垂直平面内に撮影画面の正立状態を基準として右側及び左側に所定の距離離れた各地点(右地点及び左地点)が設定される。ここで、立体写真の仕上がり精度を高めるために、撮影地点として前記撮影画面の中心位置が設定されることが好ましい。また、前記右地点及び前記左地点から前記分割領域の範囲内にあった撮影対象までを結ぶ直線と、前記撮影地点から所定距離離れたレンズ光軸に対して垂直な平面である投影面と、の交わる点が、それぞれ右投影点及び左投影点として設定される。さらに、前記撮影地点と前記撮影対象とを結ぶ直線と平行に前記右地点及び左地点から延長した直線と、前記投影面と、の交わる点がそれぞれ右交点及び左交点として設定される。また、前記右投影点と前記右交点との距離値であるシフト量(右シフト量)及び前記左投影点と前記左交点との距離値であるシフト量(左シフト量)が、前記分割領域に対応する画素の各々について算出される。
【0021】
そして、ディジタル原画像の画素を前記左右のシフト量だけ移動させることによって画像(左目画像及び右目画像)が作成される。従って、近距離の人物は、右目画像では左に左目画像では右に大きくシフトされ、中距離にある建物は、右目画像では左に左目画像では右に人物よりも小さくシフトされる。そして遠距離の自然風景は、左右の画像ともほとんどシフトされない。
【0022】
左右の画像が作成されると、上記シフトに伴い、左右の画像において画素値の与えられていない空き領域が存在する場合がある。そこで、右目画像及び左目画像の中から前記空き領域がサーチされ、前記空き領域が存在する場合には、当該領域が抽出され、存在しない場合には、出力ステップに移行する。
【0023】
空き領域が抽出された場合には、当該空き領域の周囲の画素値が読み取られ、前記周囲の画素値に基づいて、当該空き領域の画素値が推定され、画像(右目画像及び左目画像)が完成される。
【0024】
右目画像及び左目画像が完成すると、これらに基づき立体画像が出力される。例えば前記右目画像及び左目画像を1コマとしてプリントアウトし、立体視ビュワー等でプリントされた2つの画像を同時に観測すると、距離に応じたずれを伴う画像が知覚され立体感覚を得ることができる。また、立体ホログラフィー等により出力する方法などもある。
【0025】
以上の方法により、従来のように立体写真を得るために光路を2分し2コマを撮影するためのアダプターをレンズ前面に装着させて撮影したり、3つのレンズを有する特殊な立体写真専用のカメラで撮影する必要は無くなり、1台のカメラで通常の写真を撮影すると同時に立体写真を得ることが可能となる。
【0026】
【実施例】
(カメラ)
図1は、本実施例に係るカメラの構成の概要を示すブロック図である。
【0027】
図1において、マイクロコンピュータ(以下「マイコン100」という)は、自動カメラを制御するための中央処理装置であって、測距センサー102及び測距データ記録部106が接続されている。測距センサー102は、マイコン100からの指令があると、撮影画面上を構成する多数の微小領域における被写体までの焦点を検出し、当該焦点に関する情報は、マイコン100に伝達される。ここで、焦点に関する情報とは、例えば位相差検出法では位相差に相当する。そして、当該情報がマイコン100に伝達されると、マイコン100では、当該情報に基づいて距離値が算出される。
【0028】
この距離値の算出は、例えば次のようにして行われる。即ち、レンズの回転部には、光学式エンコーダが取り付けられており、レンズの回転位置が検出できるようになっている。そして、当該レンズには、当該レンズにおいて焦点を合わせた場合における被写体までの距離値と回転位置との関数情報がレンズ内ICに予めインプットされており、当該関数情報は、レンズを装着した際にマイコン100に伝達される。そして、マイコン100は、伝達された位相差等のデータ及び当該関数情報に基づいて、被写体までの距離値を算出する。算出された距離値は、測距データとして測距データメモリ104に送られ、そこで一時的に格納される。但し、被写体までの距離値が撮影画面を構成する多数の微小領域毎に求められる方法であれば測距の方法は問わず、上記のものには限られない。
【0029】
また、マイコン100及び測距データメモリ104には、測距データ記録部106が接続されている。そして、測距データメモリ104に格納されている測距データは、マイコン100の指令により、測距データ記録部106によって読み取られ、磁気層が塗布されたネガフィルム上に記録される。このため、測距データ記録部106は、図示しないネガフィルム面に近接することのできる位置、例えば裏蓋のフィルム圧着板やフィルム巻き取り部付近に設けられている。
【0030】
図2は、本実施例に係るカメラのより詳細な構成を示すブロック図である。なお、図1と同様の構成要件については同一の番号を付して説明を省略する。
【0031】
図2において、カメラ118の撮影画面108は図示の如く多数の微小領域に分割されている。例えば撮影画面108において黒く塗りつぶした領域110が撮影画面108を構成する一つの微小領域であり、このような微小領域の一つ一つに対して測距センサー102による測距が行われる。即ち、各々の微小領域は一種のフォーカスエリアに相当している。この微小領域毎に測距する手段として、微小領域毎に一個ずつ測距センサー102を設ける方法の他、例えば、1又は2以上の測距センサー102を画面上で走査して、全画面領域を測距するようにしてもよい。
【0032】
また、上述のように測距データ記録部106によって、カメラ118に装填されたフィルム116に測距データ等が記録されるわけであるが、測距データは例えば図3に示されるようなフィルム面上の位置に記録される。図3によれば、フィルム116における1撮影コマ150における記録データは、撮影コマ150を挟む上下の領域に塗布された磁気層157及び158に記録されるようになっている。例えば図2の微小領域110、111a、111bにおいて検出された測距データは、例えば図3の磁気層157における黒く塗られた位置152、154、156のように各微小領域の撮影画面上の位置と対応がとれた領域にそれぞれ磁気的に記録される。但し、記録位置は、これに限るものではなく当該撮影画面108上のどの微小領域の測距データであるかが識別できる限り、どの位置に記録されてもよい。
【0033】
また、図2におけるカメラ118に装着されたレンズ117には、図示しない当該レンズの焦点距離を記憶したICが内蔵されており、レンズ117をカメラ118のボディに装着する時又はズーミングして焦点距離を変化させると、当該焦点距離の情報は、マイコン100に伝達されるようになっている。なお、レンズを交換しない固定焦点のレンズを備えたカメラの場合には、マイコン100に当該焦点距離を予め格納しておくようにしてもよい。
【0034】
また、マイコン100には、レンズ焦点距離記録部112も接続されており、マイコン100の指令により動作するようになっている。レンズ焦点距離記録部112は、撮影と同時又は撮影後次のコマがセットされる前までに、レンズの焦点距離情報をフィルム116に記録することができる。例えば、図3において撮影コマ150の画面枠外側に塗布された磁気層158の右すみの位置160に記録される。
【0035】
さらにカメラ118には、立体写真モード変換スイッチ114が用意されている。この立体写真モードスイッチ114は、マイコン100と接続されており、このスイッチをオン操作することにより、通常の平面写真撮影のための処理と共に立体写真作成のための処理が実行されるようになっている。また、この立体写真モード変換スイッチ114をオフ操作することによって、立体写真モードは解除され、通常の平面写真撮影のみが可能となる。
【0036】
次に本実施例に係るカメラの作用について図2に従い説明する。
先ず、撮影者が立体写真作成モードスイッチ114を操作すると、その旨がマイコン100に伝達され、立体写真作成のための準備が整う。
【0037】
この場合において、例えば比較的近距離の人物等及び遠距離の背景から成るシーンを撮影したとする。すると、前記微小領域の各々に対して、測距センサー102による測距が行われ、微小領域の各々について被写体までの距離値が得られる。そして、微小領域毎の距離値は、検出されると順次測距データメモリ104に格納されていく。ここで、撮影画面上における人物等に係る微小領域で検出される距離は比較的小さく、背景等に係る微小領域で検出される距離は大きい値を示し、微小領域毎に様々な値を示す。
【0038】
撮影画面108の全微小領域の測距データが検出され、全て測距データメモリ104に格納されると、マイコン100は、次のコマに巻き上げる前に測距データ記録部106を作動させ、測距データメモリ104内の測距データを、磁気層が塗布されたフィルム116の所定の位置に記録させる。
【0039】
また、レンズ117を交換すると、レンズ装着と同時に、レンズ内ICに記録された焦点距離の情報がマイコン100に伝達される。一方、レンズ117がズームレンズの場合には、ズーミングと同時にその時点における焦点距離がマイコン100に伝達され、マイコン100のバッファには、常に最新のレンズの焦点距離が格納されている。しかし、立体写真作成モードで撮影すると、撮影時点の焦点距離が固定され、マイコン100は、レンズ焦点距離記録部112を作動させ、フィルム116の所定の位置に当該焦点距離の情報を記録させる。
【0040】
なお、立体写真モード変換スイッチ114を操作しない場合には、上記処理は実行されず、通常の平面写真の撮影のみとなるが、カメラ118がオートフォーカスカメラである場合には、測距センサー102による測距が行われるようにしてもよい。但し、全画面に渡る測距ではなく、従来のオートフォーカスカメラのようにいくつかの微小領域における測距だけであってもよい。
【0041】
以上により、複数のレンズを装備したり、立体写真専用のカメラを用意する必要もなくなり通常の写真撮影装置と同様の装置により立体写真作成のための情報を記録したフィルムを提供でき、携帯性の優れた写真撮影装置が実現できる。また、平面写真と同様に1枚のネガに全シーンを撮影するので、かかる立体写真を作成するための撮影をした場合でも通常の平面写真を1枚のネガから従来と同様に容易に作成できる。さらに、選択手段によって通常の平面写真の撮影モードを選択すれば、微小領域毎の測距等に時間を取られるおそれも無くなり、1台で平面写真、立体写真の撮り分けが可能となる。
【0042】
なお、写真フィルムに情報を記録する方法として、磁気層が塗布された写真フィルムに磁気的に記録する方法を例として挙げたが、磁気記録のみに限定されるものではない。例えば、光学的に記録する方法であってもよい。
(画像処理装置)
図4は、本実施例に係る画像処理装置の構成を示すブロック図である。
【0043】
図4において、画像データ読取部120は、現像定着されたネガフィルムから画像を読み取って、ディジタル画像に変換する機能を有する。例えば、光線を順次ネガフィルム上に走査し、その透過光の濃度を予め定められた画素毎に量子化するスキャナ等がこれに該当する。そして、変換されたディジタル原画像データは、ディジタル原画像データメモリ122に蓄えられる。
【0044】
一方、ネガフィルム面には、測距データ読取部124が近接しており、磁気層を塗布したネガフィルムに磁気的に記録された測距データを読み取ることができるようになっている。この測距データ読取部124は、磁気ヘッド等から構成され、フィルム面の測距データの記録位置にアクセスするように設定されている。また、測距データ読取部124には、測距データメモリ126が接続されており、読み取られた測距データが一時的に蓄えられるようになっている。なお、この測距データは、撮影画面を多数に分割する微小領域毎の測距データである。
【0045】
また、ネガフィルム面には、焦点距離読取部128も近接しており、ネガフィルムに記録された撮影レンズの焦点距離を読み取ることができるようになっている。この焦点距離読取部128は、焦点距離メモリ130と接続されており、読み取られた焦点距離情報が格納されるようになっている。なお、測距データ読取部124と焦点距離読取部128とは、同一の磁気ヘッド等であってもよい。
【0046】
測距データメモリ126及び焦点距離メモリ130とは、シフト量計算部132に接続され、測距データ及び焦点距離情報を伝達できるようになっている。
【0047】
シフト量計算部132では、撮影画面を撮影した際における撮影画面の中心位置である撮影地点よりレンズ光軸に対して垂直平面内に撮影画面の正立状態を基準として右側及び左側に所定の距離離れた右地点及び左地点から前記分割領域の範囲内にあった撮影対象までを結ぶ直線が、前記撮影地点から前記焦点距離離れたレンズ光軸に対して垂直な平面である投影面と交わる点をそれぞれ右投影点及び左投影点とし、前記撮影地点と前記撮影対象とを結ぶ直線と平行に前記右地点及び左地点から延長した直線が前記投影面と交わる点をそれぞれ右交点及び左交点とした場合において、前記右投影点と前記右交点との距離値である右シフト量及び前記左投影点と前記左交点との距離値である左シフト量が、各微小領域に対応する画素の各々について算出される。
【0048】
このシフト量計算部132には、シフト量メモリ133が接続されており、計算結果である全微小領域の右シフト量及び左シフト量は、ここに格納される。
【0049】
そして、ディジタル原画像メモリ122とシフト量メモリ133には、画像変換部134が接続されており、ここで立体画像のためのデータが作成される。具体的には、ディジタル原画像を構成する画素の各々について、当該画素が属する微小領域におけるシフト量だけ画素の位置をシフトした画像が右位置から見た右目画像及び左位置から見た左目画像の各々について作成され、それぞれ右目画像メモリ136及び左目画像メモリ138に格納される。
【0050】
右目画像メモリ136及び左目画像メモリ138には、空き領域検出部140が接続され、ここで、画素のシフトに伴う画素値の与えられていない空き領域の検出が行われる。
【0051】
右目画像メモリ136、左目画像メモリ138及び空き領域検出部140には、補間部142が接続され、ここで空き領域の周囲の画素に基づく補間処理が行われる。
【0052】
そして、補間部142、右目画像メモリ136及び左目画像メモリ138には、立体画像データメモリ144が接続され、最終的に得られた立体画像データがここに格納される。
【0053】
立体画像データメモリ144に格納されている立体画像データは、立体画像出力部146に送られ、立体画像として出力される。例えば、プリント用紙に2コマ又は3コマ分の平面画像が出力され、その画像を基にユーザが複眼ステレオ立体視用のビュワー等を用いて立体画像を得る。また、他にレンチキュラー画像、ホログラフィックステレオ画像、投写型立体画像等を出力する方法等がある。
【0054】
次に、立体画像データをディジタル原画像から作成する処理について説明するが、立体画像データを原画像から作成する処理には、上述したように画像変換部134による右目画像と左目画像の作成及び補間部142による補間処理の二つのプロセスから構成される。以下に、各々別個に分けて説明する。
【0055】
先ず、図5は右目画像と左目画像の作成プロセスを表すフローチャートである。ステップ220では、処理を開始するための画素番号iに1を代入して初期化する。即ち、画素番号1の画素から以下の処理を開始する。なお、画素番号iの画素を次から画素iと略す。
【0056】
ステップ222では、当該コマを撮影したレンズの焦点距離fを読み取る。この焦点距離fの情報も磁気層を塗布したネガフィルム上に記録されている。
【0057】
次のステップ224では、画素iの画素値が読み取られる。この画素値は、例えば、ネガ上の原画像を8ビットで量子化した場合には、256段階の番号で表されている。なお、カラーネガフィルムの場合は、RGB各色毎に画素値が与えられており、以下の処理についても全く同様である。
【0058】
ステップ226では、画素iにおける測距データがネガフィルムから読み取られる。ここで、測距データが画素iに係る対象物までの距離値di そのものである場合は、当該値がそのまま用いられるが、距離値でない形式で表されている場合には、距離値di に変換される。なお、ここで画素iに係る距離値をdi とした。
【0059】
以上のステップにより、画素iにおける画素値及び距離値di が求められたこととなる。そして以下のステップによって、当該値に基づいて右目画像及び左目画像が作成される。
【0060】
ステップ228では、仮想的に右目及び左目で見た場合における画素iの位置ずれ量が次のような原理に基づき計算される。
【0061】
図6(a)は、仮想的に設定された右目位置より被写体を見た場合における被写体の位置ずれ量を説明するための図である。図6(a)において、カメラの撮影地点をC点とし、レンズ光軸をCC’とする。ここで、着目する被写体をQ点、被写体Q点を含み、レンズ光軸CC’に垂直な平面を被写体面312として設定する。このとき、被写体面とカメラC点との距離は被写体距離dである。また、レンズ光軸CC’に垂直であり、カメラC点より距離がf(レンズの焦点距離)となる平面を、投影面310として設定する。
【0062】
カメラC点を含み、レンズ光軸CC’に垂直な平面308を設定し、この平面308上にカメラC点から撮影画面の正立状態を基準にして右側に距離Lの位置に右目R点を取る。ここでいう撮影画面の正立状態とは、カメラそのものの正立状態ではなく、実際の画面に映る物体の正立状態をいう。従って、カメラの構えが縦横のいずれであっても、撮影画面の正立状態を基準にして右側及び左側に右目及び左目を基準にする。なお、Lは人の両目の感覚の1/2に相当する。ここで、線分CR方向にX軸を設定する。
【0063】
カメラC点で撮影した撮影画像は、投影面上の画像で表現でき、例えば、図6(b)に示されたようになる。撮影画像の中心点O点は、レンズ光軸CC’と投影面310との交点である。また、被写体Q点は、投影面310上ではP点となり、撮影画像上では図6(b)のP点に示された位置になる。
【0064】
一方、右目に映る画像も投影面310上の右目画像で表現でき、例えば、図6(c)に示されたようになる。ここで、右目R点を通り、レンズ光軸CC’に平行な右目光軸RR’を設定し、この右目光軸RR’と投影面310との交点をOr 点とすると、Or 点が右目画像の中心点となる。このとき、被写体Q点は投影面310上ではPr 点(右投影点)となり、右目画像上では図6(c)のPr 点に示された位置になる。
【0065】
カメラ撮影画像を、右目画像の位置に平行移動したと想定した場合、Pr ’点(右交点)がP点に相当する。三角形CC’Qと三角形RR’Q’とは、平行移動した関係だからである。
【0066】
即ち、カメラ撮影画像でP点の位置にある被写体Q点は、右目画像ではPr 点の位置となるから、視点の位置ずれにより発生する画像上の位置ずれ量Δxは、Pr 点とPr ’点との距離となる(図6(a)、図6(c)参照)。この位置ずれ量Δxは、以下のように求められる。
【0067】
被写体面312と投影面310とは平行であるので、三角形RQQ’と三角形RPr Pr ’とは、相似関係である。同様に、三角形RR’Q’と三角形ROr Pr とは、相似関係である。従って、次式が成立する。
【0068】
Δx/L=|RPr ’|/|RQ’|=|ROr |/|RR’| ・・▲1▼
ここで、線分ROr の長さはレンズ焦点距離f、線分RR’の長さは、距離dであるから、▲1▼式に代入すると、▲2▼式が求まる。
【0069】
Δx = L×f/d ・・・ ▲2▼
▲2▼式から分かるように、位置ずれ量Δxは、距離dが小さい程、大きくなる。また、被写体Q点の被写体面上の位置に依存しない。即ち、カメラ撮影画面上の位置にかかわらず、右目画像上の位置ずれ量は、被写体距離d、レンズ焦点距離f及び右目とカメラとの想定距離Lで求まる。なお、Y軸(X軸に垂直)方向に関しては、カメラ画像と右目画像との間に位置ずれは発生しない。
【0070】
左目画像についても、全く同様に計算できる。但し、位置ずれの方向は、右目画像については左方向にずれ、左目画像については右方向にずれる。
【0071】
以上より、画像各点毎に測距データが存在するので、各点毎にずれ量を計算し、左右の目に対応する仮想画像を作成できる。そこで、以下に右目画像における各点毎の位置ずれ量を右シフト量Δxr 、左目画像における各点毎の位置ずれ量を左シフト量Δxl として説明する。
【0072】
次のステップ230では、右シフト量Δxr 及び左シフト量Δxl に基づいて右目画像及び左目画像における画素iの位置が各々求められる。即ち、画素iの原画像における座標を(x,y)とすれば、右目画像における画素iの座標は(x−Δxr ,y)、左目画像における画素iの座標は(x+Δxl ,y)となる。但し、ここでは画像に向かって右方向を正の方向としている。
【0073】
次のステップ232では、画素iにおける右目画像及び左目画像をメモリ上に実際に追加する作業を行う。即ち、右目画像メモリの座標(x−Δxr ,y)及び左目画像メモリの座標(x+Δxl ,y)に画素値Li を代入する。なお、この処理において、例えば背景と手前の物体とが重なり合い座標値が一致する場合がある。かかる場合には、距離値の小さい画素、即ち、手前にある物体の画素値を優先的に代入する。また、計算された座標値が右目画像及び左目画像の範囲を越えることとなる場合には、その越える部分は、画像領域外としてメモリ上に追加しないようにする。
【0074】
また、ここで距離値による遠近差を強調する処理(小さい距離をさらに小さくする処理等)により、実際よりもさらに立体感を強調した立体用画像を作成する等、特殊処理を施してもよい。
【0075】
次のステップ234では、画素iが最後のものであるか否かの判定を行い、否定判定の場合、即ち、まだ変換すべき画素が残っている場合には、次のステップ236で画素番号iを1つ更新して、再びステップ224に戻って同様の処理を繰り返す。また、肯定判定の場合、即ち、ディジタル原画像の画素全てについて上記変換が終了した場合には、処理を終了させる。
【0076】
以上の右目画像及び左目画像への変換処理が終了すると、次の処理として補間処理を行う。この補間処理を行う理由として次のことが挙げられる。
先ず、一つの例として図7で示された状況を考える。図7では、原画像400に示される撮影シーンは、手前にある人物402及び2つの山々、空等からなる背景404から構成される。ここで、右目画像410において、人物402はカメラとの距離が小さいため、より大きく左へシフトするが、背景404は、距離が大きいため、ほとんどシフトしない。従って、人物402の右側部分には、原画像400において見えなかった部分が空き領域412の如く存在する。全く同様に、左目画像420では、人物402はカメラとの距離が小さいため、より大きく右へシフトするが、背景404は距離が大きいため、ほとんどシフトしない。従って、この場合には人物402の左側部分に空き領域422が存在する。なお、これらの空き領域は、右目画像メモリ及び左目画像メモリにおいてLi が代入されなかったアドレス領域として存在する。
【0077】
これらの空き領域に対して何らかの妥当な画素値を与えない限り、画像中に濃度の無い領域ができることとなり好ましくない。そこで、図8のフローチャートに示されるような補間処理を行って画素の埋め合わせを行う。以下、図8のフローチャートに沿って説明する。
【0078】
先ず、ステップ250では、空き領域の抽出を行う。即ち、図5の変換処理によって作成された右目画像及び左目画像をサーチし、画素値の代入されていない領域を全て抽出する。
【0079】
次のステップ252では、抽出した空き領域に隣接する背景領域を抽出する。そして、ステップ254では、当該背景領域の画素に基づき、空き領域の画素を埋める補間処理を行う。当該補間処理について、具体的に図9に沿って説明する。
【0080】
図9に示された如く、抽出された空き領域450は、右側境界画素列452及び左側境界画素列454によって左右を囲まれている。ここで、右側境界画素列452は、右画素1(X1 ,Y1 ;B1 )〜右画素n(Xn ,Yn ;Bn )から構成される。なお、ここでは前記括弧内の表示のように、右画素kのX座標値をXk 、Y座標値をYk 、画素値をBk と表すこととする。また同様に、左側境界画素列454は、左画素1(X1 −ΔX1 ,Y1 ;B1 ’)〜左画素n(Xn −ΔXn ,Yn ;Bn ’)から構成される。なお、今度は、左画素kのX座標値は右画素kのX座標よりも左にシフトしているのでXk −ΔXk と表し、Y座標値は同じであるためYk とするが、画素値は異なるため、Bk ’と表している。
【0081】
以上のような設定の下に、右目画像の場合には、右側画素列452が背景領域であり、左側画素列454が手前の物体、例えば人物領域である。ここで、本来、空き領域450を埋めるべきものは、背景領域であるから右画素1から左画素1にかけてのY座標値が同じ空き領域の部分には、右画素1の画素値B1 を代入する。同様な処理を右画素nから左画素nに至る空き領域の部分まで適用する。
【0082】
一方、左目画像の場合には、逆に左側境界画素列454が背景領域となり、右側境界画素列452が手前の物体、例えば人物領域となる。従って、今度は空き領域450は左画素の画素値B1 ’〜Bn ’で埋め尽くすこととなる。
【0083】
以上の考え方は、いわゆる最近傍法に則っている。最近傍法とは、最も近い観測画素上の画素値を推定画素の画素値とする推定方法をいう。この方法により、右目画像及び左目画像の空き領域は、埋め尽くされることとなる。
【0084】
さて、次のステップ256では、ステップ250において抽出された空き領域が全て補間処理されたか否かの判定を行い、まだ空き領域が残っている場合には、ステップ252に戻って同様の補間処理を繰り返し、残っていない場合には、当該補間処理を終了させる。
【0085】
なお、上記ステップによって作成された右目画像及び左目画像に対して、さらに画質を向上させるための画像処理(平滑化処理等)を行うようにしてもよい。
【0086】
以上の処理によって、通常の平面プリントを得ると共に、立体視のための画像を容易に得ることができる。
【0087】
【発明の効果】
以上説明した如く本発明によれば、写真撮影装置において、記録媒体に距離値を記録し、後に画像処理装置において当該記録媒体に記録された画像をディジタル画像処理するだけで、立体写真を得る装置を提供できるので、複数のレンズを装備した立体写真専用の写真撮影装置を用意する必要は無くなり、1台でもって通常の平面写真と立体写真を選択して撮影できるという優れた効果を有する。これにより、携帯性、コストの点で優れた立体写真を作成するための写真撮影装置を提供できる。
【0088】
また、全画面分の距離データを持っているため、縦横変更や、仮想的に視点移動した場合の立体用画像を作成することもできる。
【0089】
さらに、距離データによる遠近差を強調する処理(小さい距離値をさらに小さくする処理等)により、実際よりもさらに立体感を強調した立体用画像を作成する等、特殊効果も実現できる。
【図面の簡単な説明】
【図1】本実施例に係るカメラの構成の概要を示すブロック図である。
【図2】本実施例に係るカメラの構成の詳細を示すブロック図である。
【図3】本実施例に係る発明によって記録される情報のフィルム上の位置を示す図である。
【図4】本実施例に係る画像処理装置の構成を示すブロック図である。
【図5】ディジタル原画像から立体画像を得るための処理を表すフローチャートである。
【図6】(a)は被写体までの距離値及びレンズの焦点距離に基づいて位置のシフト量を計算する原理を説明するための参考図、(b)は撮影画像における被写体の位置を示す図、(c)は右目画像における被写体の位置のずれを説明するための図である。
【図7】空き領域が存在する理由を説明するための図である。
【図8】補間処理を表すフローチャートである。
【図9】補間方法を説明するための参考図である。
【符号の説明】
102 測距センサー
106 測距データ記録部
112 レンズ焦点距離記録部
120 画像データ読取部
124 測距データ読取部
128 焦点距離読取部
134 画像変換部
142 補間部
146 立体画像出力部[0001]
[Industrial application fields]
The present invention takes a normal plane photograph, recoding media By recording the distance value etc. on the recoding media Can provide Photo Recording device and distance values were recorded Image of recording medium The present invention relates to an image processing apparatus or a stereoscopic photo creation method for creating a stereoscopic photograph by performing digital image processing from the above.
[0002]
[Prior art]
In the conventional negative film for stereoscopic vision, the following means have been taken for creating a print for stereoscopic vision.
[0003]
By attaching a 3D photo adapter (a combination of multiple mirrors) attached to the camera to the entire surface of the lens and taking a picture with the optical path divided into two, images corresponding to the left and right eyes per frame on the negative Two frames were recorded.
[0004]
In addition, a camera mechanism dedicated to stereoscopic photography (capturing the subject from three directions) is required, and three frames are recorded for each frame on the negative.
[0005]
[Problems to be solved by the invention]
However, the above conventional technique requires a camera equipped with a special adapter and three lenses, so that there is a problem that it is not portable and uneconomical. On the other hand, in order to create a scene photographed as a three-dimensional photograph later as a normal plane photograph print, a special printing process is required instead, which is disadvantageous in terms of cost and labor.
[0006]
In consideration of the above facts, the present invention can easily capture a normal plane photograph and easily create a stereoscopic photograph by a simple switching operation without using a special adapter or a special device in a camera capable of normal photographing. Can get into Photo It is an object to obtain a photographing apparatus, an image processing apparatus, and a stereoscopic photograph creation method.
[0007]
[Means for Solving the Problems]
The invention described in
Distance measuring means for measuring a distance value from a shooting point to a shooting target within the range of the divided area for each of the divided areas in the divided shooting area;
The distance value for each of the divided areas measured by the distance measuring means Along with the image on the recording medium Recording means for recording;
It is the characteristic to have.
The invention according to claim 2 is the invention according to
It is the characteristic that it has further.
The invention according to claim 3 is the invention according to
By the recording means Along with the image on the recording medium A feature is that a stereoscopic photograph creating means for creating a stereoscopic photograph based on the recorded distance value for each divided region is provided.
[0008]
The invention according to claim 4 Based on images recorded on recording media In an image processing apparatus that creates a digital original image and performs digital processing based on the created original image,
An image recorded on the recording medium is represented. Reading means for reading a distance value for each divided area for dividing the photographing screen into a plurality of areas;
It is within the range of the divided area from each point separated by a predetermined distance on the right side and the left side in the plane perpendicular to the lens optical axis from the shooting point when shooting the shooting screen, with reference to the upright state of the shooting screen. A straight line connecting the shooting point and the shooting target is a point where a straight line connecting to the shooting target intersects with a projection plane that is a plane perpendicular to the lens optical axis at a predetermined distance from the shooting point. When a straight line extending from each point in parallel with the projection plane intersects the projection plane, a shift amount that is a distance value between the projection point and the intersection corresponding to the projection point is set in the divided region. Shift amount calculating means for calculating each of the corresponding pixels;
Obtained when each pixel constituting the digital original image is virtually photographed from each point by moving each pixel by the shift amount obtained by the shift amount calculation means in the divided region to which the pixel belongs. Virtual image creation means for creating each of the images to be created,
From each of the images obtained by the virtual image creation means , Painting Extracting a vacant area composed of pixels to which no prime value is given, estimating a pixel value of the vacant area based on pixel values in pixels around the vacant area, and adding pixels to all the pixels in the vacant area An interpolation means for giving a value;
Output means for outputting each of the images finally completed by the interpolation means;
It is the characteristic to have.
[0009]
In the invention according to claim 5, for each divided area for dividing the shooting screen into a plurality of areas, Shooting point To measure the distance value from the object to be imaged within the area of the divided area, and determine the distance value for each divided area. recoding media Take a picture with a photo shooter equipped with the function to record in Based on the image recorded on the recording medium To create a digital original image,
Above recoding media Read the distance value for each of the divided areas from,
It is within the range of the divided area from each point separated by a predetermined distance on the right side and the left side in the plane perpendicular to the lens optical axis from the shooting point when shooting the shooting screen, with reference to the upright state of the shooting screen. A straight line connecting the shooting point and the shooting target is a point where a straight line connecting to the shooting target intersects a projection plane that is a plane perpendicular to the lens optical axis at a predetermined distance from the shooting point. When a straight line extending from each point in parallel with the projection plane intersects the projection plane, a shift amount that is a distance value between the projection point and the intersection corresponding to the projection point is set in the divided region. Calculate for each corresponding pixel,
Obtained when each pixel constituting the digital original image is virtually photographed from each point by moving each pixel by the shift amount obtained by the shift amount calculation means in the divided region to which the pixel belongs. Each created image,
Further, from each of the images, a free area where no pixel value is given is extracted, and the pixel value of the free area is estimated based on the pixel values in the pixels around the free area,
It is a feature of a stereoscopic photo creation method in which pixel values are given to all the pixels in the empty area and each of the finally obtained images is output.
[0010]
[Action]
According to the first aspect of the present invention, for example, when a scene composed of a relatively close-up person or the like and a long-distance background is photographed, distance measurement is performed for each of the divided areas into which the photographing screen is divided into a plurality of areas. The distance value to the photographing object within the range of the divided area is given by the means. In the case of the scene, the distance detected in the divided area existing in the range of the person on the shooting screen shows a relatively small value, while the distance detected in the divided area related to the background is a large value. Indicates. At the same time, the distance value detected for each divided area is recoding media To be recorded. As this recording method, there is a method of magnetically recording on a photographic film coated with a magnetic layer.
[0011]
Therefore, there is no need to equip multiple lenses or to prepare a dedicated camera for stereo photography. Photo Recorded information for creating a 3D photo using the same device as the camera recoding media Can provide and excellent portability Photo An imaging device can be realized. Also, 1 One of recoding media Since all scenes are shot in this way, even when shooting to create such a stereoscopic photo, a normal plane photo is taken. One of recoding media Can be created easily as before.
According to the second aspect of the present invention, if a normal plane photo shooting mode is selected by the selection means, there is no risk of taking time for ranging and the like of all the divided areas, and a single plane photo, 3D You can take photos separately.
According to the third aspect of the present invention, a stereoscopic photograph can be created by the stereoscopic photograph creating means based on the recorded distance value.
[0012]
According to the invention described in claim 4, first, Based on images recorded on recording media Thus, a digital original image is created. Here, although this digital original image corresponds to a normal plane photograph, a stereoscopic image is created based on this image by processing to be described later.
[0013]
And recoding media Then, the distance value for each divided region is read by the reading means, and the information is stored in the memory.
[0014]
Next, each point (the right point and the left point) separated by a predetermined distance on the right side and the left side on the basis of the upright state of the shooting screen within the plane perpendicular to the lens optical axis from the shooting point at the time of shooting the shooting screen ) Is set. Here, it is preferable that the center position of the photographing screen is set as the photographing point in order to improve the accuracy of the finish of the stereoscopic photograph. Further, a straight line connecting the right point and the left point to the shooting target within the range of the divided area, and the shooting point Predetermined The points where the projection plane, which is a plane perpendicular to the optical axis of the lens separated from the distance, intersects are set as the right projection point and the left projection point, respectively. Furthermore, the points where the straight line extending from the right point and the left point in parallel with the straight line connecting the shooting point and the shooting target and the projection plane intersect are set as the right intersection and the left intersection, respectively. Further, a shift amount (right shift amount) that is a distance value between the right projection point and the right intersection point and a shift amount (left shift amount) that is a distance value between the left projection point and the left intersection point are the divided regions. Is calculated for each of the pixels corresponding to.
[0015]
Then, each pixel constituting the digital original image is moved by the virtual image creating means by the right shift amount and the left shift amount obtained by the shift amount calculating means in the divided region to which the pixel belongs. Can be obtained when shooting virtually from the right and left points. image( Right eye image and left eye image ) Is created.
[0016]
Next, the interpolating means first compares the original image with the right eye image and the left eye image, and extracts an empty area to which no pixel value is given in the right eye image and the left eye image. Further, the interpolation unit estimates the pixel value of the empty area based on the pixel values of the pixels around the empty area, image( Right eye image and left eye image ) Is completed.
[0017]
When the right eye image and the left eye image are completed, the output unit prints out, for example, one sheet with the right eye image and the left eye image arranged side by side. When an operator observes the print by using a stereoscopic viewer that enlarges the left and right images and shows a stereo image with two eyes, an image with a subtle shift according to the distance between the left and right is visible at a time. Therefore, a three-dimensional photograph can be obtained.
[0018]
According to the invention described in claim 5, for example, a scene composed of a relatively short-distance person, a medium-distance building, and a long-distance natural landscape is obtained. Photo When the image is taken by the photographing apparatus, the distance is measured for each of the divided areas that divide the photographing screen into a plurality of areas, and the distance value for each divided area is detected. The distance value for each of the divided areas is recoding media To be recorded. That is, in the scene, a small distance value is given to the minute area related to the person, a medium distance value is given to the minute area related to the building, and a large distance value is given to the minute area related to the natural scenery.
[0019]
Next, shooting is over Finish Then Based on images recorded on recording media Digital original image Created After that, the digital original image data is stored in the memory. Also Storage medium The distance value for each of the divided areas recorded in the table is also read and stored in the memory.
[0020]
Next, each point (the right point and the left point) separated by a predetermined distance on the right side and the left side on the basis of the upright state of the shooting screen within the plane perpendicular to the lens optical axis from the shooting point at the time of shooting the shooting screen ) Is set. Here, it is preferable that the center position of the photographing screen is set as the photographing point in order to improve the accuracy of the finish of the stereoscopic photograph. Further, a straight line connecting the right point and the left point to the shooting target within the range of the divided area, and the shooting point Predetermined The points where the projection plane, which is a plane perpendicular to the optical axis of the lens separated from the distance, intersects are set as the right projection point and the left projection point, respectively. Furthermore, the points where the straight line extending from the right point and the left point in parallel with the straight line connecting the shooting point and the shooting target and the projection plane intersect are set as the right intersection and the left intersection, respectively. Further, a shift amount (right shift amount) that is a distance value between the right projection point and the right intersection and a shift amount (left shift amount) that is a distance value between the left projection point and the left intersection are the divided regions. Is calculated for each of the pixels corresponding to.
[0021]
Then, by moving the pixels of the digital original image by the left and right shift amounts, image( Left eye image and right eye image ) Is created. Accordingly, a person at a short distance is greatly shifted to the left in the right-eye image and to the right in the left-eye image, and a building at a medium distance is shifted to the left in the right-eye image and to the right in the left-eye image smaller than the person. In the long-distance natural scenery, the left and right images are hardly shifted.
[0022]
When the left and right images are created, there may be an empty area where no pixel value is given in the left and right images due to the shift. Therefore, the empty area is searched from the right-eye image and the left-eye image. If the empty area exists, the empty area is extracted. If not, the process proceeds to an output step.
[0023]
When the empty area is extracted, the pixel values around the empty area are read, and based on the surrounding pixel values, the pixel values of the empty area are estimated, image( Right eye image and left eye image ) Is completed.
[0024]
When the right eye image and the left eye image are completed, a stereoscopic image is output based on these. For example, when the right-eye image and the left-eye image are printed out as one frame and two images printed by a stereoscopic viewer or the like are observed at the same time, an image with a shift according to the distance is perceived and a stereoscopic feeling can be obtained. There is also a method of outputting by three-dimensional holography or the like.
[0025]
By using the above method, you can divide the optical path in half to obtain a stereoscopic picture and attach an adapter for taking two frames in front of the lens. There is no need to take a picture with a camera, and it is possible to obtain a stereoscopic picture at the same time as taking a normal picture with one camera.
[0026]
【Example】
(camera)
FIG. 1 is a block diagram illustrating an outline of the configuration of the camera according to the present embodiment.
[0027]
In FIG. 1, a microcomputer (hereinafter referred to as “
[0028]
The distance value is calculated as follows, for example. That is, an optical encoder is attached to the rotating portion of the lens so that the rotational position of the lens can be detected. Then, the function information of the distance value to the subject and the rotation position when the lens is focused is input to the in-lens IC in advance, and the function information is obtained when the lens is mounted. It is transmitted to the
[0029]
A distance measurement
[0030]
FIG. 2 is a block diagram illustrating a more detailed configuration of the camera according to the present embodiment. The same constituent elements as those in FIG. 1 are denoted by the same reference numerals and description thereof is omitted.
[0031]
In FIG. 2, the photographing
[0032]
In addition, as described above, the distance measurement
[0033]
The
[0034]
In addition, a lens focal
[0035]
Furthermore, the
[0036]
Next, the operation of the camera according to the present embodiment will be described with reference to FIG.
First, when the photographer operates the 3D photo
[0037]
In this case, for example, it is assumed that a scene composed of a relatively close person and a long distance background is photographed. Then, distance measurement by the
[0038]
When the distance measurement data of the entire minute area of the photographing
[0039]
When the
[0040]
If the stereoscopic photograph
[0041]
As described above, it is not necessary to equip a plurality of lenses or to prepare a camera dedicated to stereoscopic photography, and it is possible to provide a film on which information for creating a stereoscopic photograph is recorded by a device similar to a normal photography apparatus, and to be portable. An excellent photography device can be realized. Also, since all scenes are shot on a single negative as with a flat photo, even when shooting for creating such a stereoscopic photo, a normal flat photo can be easily created from a single negative as before. . Furthermore, if a normal planar photo shooting mode is selected by the selection means, there is no possibility of taking time for ranging or the like for each minute area, and it is possible to separately take a planar photo and a stereoscopic photo with one unit.
[0042]
As a method for recording information on a photographic film, a method for magnetically recording on a photographic film coated with a magnetic layer has been described as an example, but the method is not limited to magnetic recording. For example, an optical recording method may be used.
(Image processing device)
FIG. 4 is a block diagram illustrating the configuration of the image processing apparatus according to the present embodiment.
[0043]
In FIG. 4, an image data reading unit 120 has a function of reading an image from a negative film that has been developed and fixed, and converting it into a digital image. For example, a scanner that sequentially scans light rays on a negative film and quantizes the density of the transmitted light for each predetermined pixel corresponds to this. The converted digital original image data is stored in the digital original
[0044]
On the other hand, a distance measurement
[0045]
Further, the focal
[0046]
The distance
[0047]
In the shift
[0048]
A
[0049]
The digital
[0050]
The right-
[0051]
An
[0052]
The
[0053]
The stereoscopic image data stored in the stereoscopic image data memory 144 is sent to the stereoscopic image output unit 146 and output as a stereoscopic image. For example, a plane image for two frames or three frames is output on a print sheet, and a user obtains a stereoscopic image using a viewer for compound-eye stereo stereoscopic viewing based on the image. In addition, there are methods for outputting a lenticular image, a holographic stereo image, a projection stereoscopic image, and the like.
[0054]
Next, a process of creating stereoscopic image data from a digital original image will be described. In the process of creating stereoscopic image data from an original image, as described above, creation and interpolation of a right eye image and a left eye image by the
[0055]
First, FIG. 5 is a flowchart showing a creation process of a right eye image and a left eye image. In step 220, initialization is performed by substituting 1 into the pixel number i for starting the processing. That is, the following processing is started from the pixel with
[0056]
In
[0057]
In the next step 224, the pixel value of pixel i is read. For example, when the original image on the negative is quantized with 8 bits, the pixel value is represented by a 256-level number. In the case of a color negative film, a pixel value is given for each color of RGB, and the following processing is exactly the same.
[0058]
In
[0059]
With the above steps, the pixel value and distance value d in pixel i i Is required. Then, by the following steps, a right eye image and a left eye image are created based on the value.
[0060]
In
[0061]
FIG. 6A is a diagram for explaining the positional deviation amount of the subject when the subject is viewed from the virtually set right eye position. In FIG. 6A, the photographing point of the camera is point C, and the lens optical axis is CC ′. Here, the subject of interest is set as a subject plane 312 including a Q point, a subject Q point, and a plane perpendicular to the lens optical axis CC ′. At this time, the distance between the subject surface and the camera C point is the subject distance d. A plane perpendicular to the lens optical axis CC ′ and having a distance f (lens focal length) from the camera C point is set as the projection plane 310.
[0062]
A
[0063]
A photographed image photographed by the camera C can be expressed as an image on the projection plane, for example, as shown in FIG. The center point O of the captured image is the intersection of the lens optical axis CC ′ and the projection plane 310. The subject Q point is a point P on the projection plane 310, and is a position indicated by a point P in FIG.
[0064]
On the other hand, the image shown in the right eye can also be expressed by the right eye image on the projection surface 310, for example, as shown in FIG. Here, a right-eye optical axis RR ′ passing through the right-eye R point and parallel to the lens optical axis CC ′ is set, and an intersection between the right-eye optical axis RR ′ and the projection plane 310 is set to O. r If it is a point, O r The point becomes the center point of the right eye image. At this time, the subject Q point is P on the projection plane 310. r Point (right projection point), and on the right-eye image, P in FIG. r It becomes the position indicated by the point.
[0065]
Assuming that the camera shot image is translated to the position of the right eye image, P r 'Point (right intersection) corresponds to P point. This is because the triangle CC′Q and the triangle RR′Q ′ have a parallel movement relationship.
[0066]
That is, the subject Q point at the position of the point P in the camera image is P in the right eye image. r Since this is the position of the point, the positional deviation amount Δx on the image caused by the positional deviation of the viewpoint r Point and P r 'This is the distance to the point (see FIGS. 6A and 6C). This positional deviation amount Δx is obtained as follows.
[0067]
Since the object plane 312 and the projection plane 310 are parallel, the triangle RQQ ′ and the triangle RP r P r 'Is a similar relationship. Similarly, triangle RR'Q 'and triangle RO r P r Is a similar relationship. Therefore, the following equation is established.
[0068]
Δx / L = | RP r '| / | RQ' | = | RO r | / | RR '| ・ ・ ▲ 1 ▼
Where line segment RO r Is the lens focal length f, and the length of the line segment RR ′ is the distance d. Therefore, substituting into the equation (1) yields the equation (2).
[0069]
Δx = L × f / d (2)
As can be seen from the equation (2), the positional deviation amount Δx increases as the distance d decreases. Further, it does not depend on the position of the subject Q point on the subject surface. That is, regardless of the position on the camera shooting screen, the amount of displacement on the right-eye image can be obtained from the subject distance d, the lens focal length f, and the assumed distance L between the right eye and the camera. Note that no displacement occurs between the camera image and the right-eye image in the Y-axis (perpendicular to the X-axis) direction.
[0070]
The same calculation can be performed for the left-eye image. However, the direction of the position shift is shifted to the left for the right eye image and shifted to the right for the left eye image.
[0071]
As described above, since distance measurement data exists for each point of the image, a deviation amount is calculated for each point, and a virtual image corresponding to the left and right eyes can be created. Therefore, the positional shift amount for each point in the right eye image is expressed as the right shift amount Δx below. r , The amount of positional deviation for each point in the left eye image is represented by the left shift amount Δx l Will be described.
[0072]
In the
[0073]
In the next step 232, an operation of actually adding the right eye image and the left eye image at the pixel i to the memory is performed. That is, the coordinates of the right eye image memory (x−Δx r , Y) and the coordinates of the left eye image memory (x + Δx l , Y) to the pixel value L i Is assigned. In this process, for example, the background and the object in front may overlap and the coordinate values may match. In such a case, a pixel having a small distance value, that is, a pixel value of an object in front is preferentially substituted. Further, when the calculated coordinate value exceeds the range of the right eye image and the left eye image, the exceeding portion is not added to the memory as being outside the image area.
[0074]
In addition, special processing such as creating a stereoscopic image in which the stereoscopic effect is further emphasized more than actual may be performed by processing for enhancing the perspective difference based on the distance value (processing for further reducing the small distance, etc.).
[0075]
In the
[0076]
When the conversion processing to the right eye image and the left eye image is completed, interpolation processing is performed as the next processing. The reason why this interpolation processing is performed is as follows.
First, consider the situation shown in FIG. 7 as an example. In FIG. 7, the shooting scene shown in the
[0077]
Unless any appropriate pixel value is given to these empty areas, an area having no density is formed in the image, which is not preferable. Therefore, interpolation processing as shown in the flowchart of FIG. 8 is performed to make up for pixels. Hereinafter, a description will be given along the flowchart of FIG.
[0078]
First, in
[0079]
In the
[0080]
As shown in FIG. 9, the extracted empty area 450 is surrounded on the left and right by the right
[0081]
Under the above settings, in the case of a right-eye image, the
[0082]
On the other hand, in the case of the left eye image, the left boundary pixel column 454 is a background region, and the right
[0083]
The above concept is based on the so-called nearest neighbor method. The nearest neighbor method is an estimation method in which the pixel value on the closest observed pixel is the pixel value of the estimated pixel. By this method, the empty areas of the right eye image and the left eye image are filled up.
[0084]
In the
[0085]
Note that image processing (smoothing processing or the like) for further improving image quality may be performed on the right-eye image and left-eye image created in the above steps.
[0086]
Through the above processing, an ordinary flat print can be obtained and an image for stereoscopic viewing can be easily obtained.
[0087]
【The invention's effect】
As explained above, according to the present invention, Photo In the shooting device, recoding media The distance value is recorded on the Images recorded on a recording medium Because it can provide a device that can obtain a 3D photograph simply by digital image processing, it can be used only for 3D photography equipped with multiple lenses. Photo There is no need to prepare a photographing apparatus, and it has an excellent effect that a single plane photograph and stereoscopic photograph can be selected and photographed with one apparatus. This makes it possible to create 3D photographs that are superior in terms of portability and cost. Photo An imaging device can be provided.
[0088]
In addition, since the distance data for the entire screen is stored, it is possible to create a stereoscopic image when the aspect is changed vertically or when the viewpoint is virtually moved.
[0089]
Furthermore, special effects such as creating a stereoscopic image with a more enhanced stereoscopic effect than actual can be realized by a process of enhancing the perspective difference based on the distance data (a process of further reducing a small distance value, etc.).
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an outline of a configuration of a camera according to an embodiment.
FIG. 2 is a block diagram illustrating details of the configuration of the camera according to the present embodiment.
FIG. 3 is a diagram showing positions on the film of information recorded by the invention according to the present embodiment.
FIG. 4 is a block diagram illustrating a configuration of an image processing apparatus according to the present embodiment.
FIG. 5 is a flowchart showing a process for obtaining a stereoscopic image from a digital original image.
6A is a reference diagram for explaining the principle of calculating a position shift amount based on a distance value to a subject and a focal length of a lens, and FIG. 6B is a diagram showing a position of the subject in a captured image; (C) is a figure for demonstrating the shift | offset | difference of the position of the to-be-photographed object in a right eye image.
FIG. 7 is a diagram for explaining the reason why a free area exists.
FIG. 8 is a flowchart showing an interpolation process.
FIG. 9 is a reference diagram for explaining an interpolation method;
[Explanation of symbols]
102 Ranging sensor
106 Ranging data recording unit
112 Lens focal length recording unit
120 Image data reading unit
124 Distance data reader
128 Focal length reading unit
134 Image converter
142 Interpolator
146 Stereoscopic image output unit
Claims (5)
複数に分割された撮影領域における分割領域の各々について、撮影地点から前記分割領域の範囲内にある撮影対象までの距離値を測定する測距手段と、
前記測距手段によって測定された前記分割領域毎の距離値を前記画像と共に前記記録媒体に記録する記録手段と、
を有することを特徴とする写真撮影装置。 In a photography apparatus for recording an image on a recording medium ,
Distance measuring means for measuring a distance value from a shooting point to a shooting target within the range of the divided area for each of the divided areas in the divided shooting area;
Recording means for recording the distance value for each of the divided areas measured by the distance measuring means together with the image on the recording medium ;
Photographing apparatus characterized by having a.
をさらに有することを特徴とする請求項1記載の写真撮影装置。Selection means for selecting a stereoscopic photo shooting mode for taking a normal plane photograph and operating the distance measuring means and the recording means, and a mode for simply taking only a normal plane photograph;
Photography apparatus according to claim 1, further comprising a.
前記記録手段によって前記画像と共に前記記録媒体に記録された前記分割領域毎の距離値に基づいて立体写真を作成する立体写真作成手段を備えたことを特徴とする画像処理装置。An image processing apparatus for processing the recorded image by the photographing apparatus according to claim 1 or claim 2,
An image processing apparatus comprising: a three-dimensional photograph creating means for creating a three-dimensional photograph based on a distance value for each of the divided areas recorded on the recording medium together with the image by the recording means.
写真フィルムに記録されている撮影画面を複数に分割する分割領域毎の距離値を読み取る読取手段と、
前記撮影画面を撮影した際における撮影地点よりレンズ光軸に対して垂直平面内に撮影画面の正立状態を基準として右側及び左側に所定の距離離れた各地点から前記分割領域の範囲内にあった撮影対象までを結ぶ直線が、前記撮影地点から所定距離離れたレンズ光軸に対して垂直な平面である投影面と交わる点をそれぞれ投影点とし、前記撮影地点と前記撮影対象とを結ぶ直線と平行に前記各地点から延長した直線が前記投影面と交わる点をそれぞれ交点とした場合において、前記投影点と前記投影点に対応する交点との距離値であるシフト量を、前記分割領域に対応する画素の各々について算出するシフト量算出手段と、
前記ディジタル原画像を構成する各画素を、当該画素が属する前記分割領域において前記シフト量算出手段により得られた前記シフト量だけ各々移動させることによって、前記各地点から仮想的に撮影した場合に得られる画像を各々作成する仮想画像作成手段と、
前記仮想画像作成手段によって得られた前記画像の各々から、反射光量又は透過光量の量子化された値である画素値の与えられていない画素から構成される空き領域を抽出すると共に、前記空き領域の周囲の画素における画素値に基づいて前記空き領域の画素値を推定し、前記空き領域の画素全てに画素値を与える補間手段と、
前記補間手段によって最終的に完成された画像の各々を出力する出力手段と、
を有することを特徴とする画像処理装置。Light is applied to the shooting screen of the developed photographic film, the amount of reflected or transmitted light is quantized for each predetermined pixel to create a digital original image, and digital processing is performed based on the generated original image In the image processing apparatus that performs
A reading means for reading a distance value for each divided area for dividing the photographing screen recorded on the photographic film into a plurality of areas;
It is within the range of the divided area from each point separated by a predetermined distance on the right side and the left side in the plane perpendicular to the lens optical axis from the shooting point when shooting the shooting screen, with reference to the upright state of the shooting screen. A straight line connecting the shooting point and the shooting target is a point where a straight line connecting to the shooting target intersects with a projection plane that is a plane perpendicular to the lens optical axis at a predetermined distance from the shooting point. When a straight line extending from each point in parallel with the projection plane intersects the projection plane, a shift amount that is a distance value between the projection point and the intersection corresponding to the projection point is set in the divided region. Shift amount calculating means for calculating each of the corresponding pixels;
Obtained when each pixel constituting the digital original image is virtually taken from each point by moving each pixel by the shift amount obtained by the shift amount calculation means in the divided region to which the pixel belongs. Virtual image creation means for creating each of the images to be created,
From each of the images obtained by the virtual image creating means, a free area composed of pixels to which a pixel value that is a quantized value of the reflected light quantity or transmitted light quantity is not given is extracted, and the empty area Interpolating means for estimating the pixel value of the empty area based on the pixel values in the surrounding pixels, and giving pixel values to all the pixels of the empty area;
Output means for outputting each of the images finally completed by the interpolation means;
An image processing apparatus comprising:
当該撮影後、かつ現像済の前記写真フィルムに光を照射し、その反射光又は透過光の光量を予め定められた画素毎に量子化してディジタル原画像を作成し、
前記写真フィルムから前記分割領域毎の距離値を読取り、
前記撮影画面を撮影した際における撮影地点よりレンズ光軸に対して垂直平面内に撮影画面の正立状態を基準として右側及び左側に所定の距離離れた各地点から前記分割領域の範囲内にあった撮影対象までを結ぶ直線が、前記撮影地点から所定距離離れたレンズ光軸に対して垂直な平面である投影面と交わる点をそれぞれ投影点とし、前記撮影地点と前記撮影対象とを結ぶ直線と平行に前記各地点から延長した直線が前記投影面と交わる点をそれぞれ交点とした場合において、前記投影点と前記投影点に対応する交点との距離値であるシフト量を、前記分割領域に対応する画素の各々について算出し、
前記ディジタル原画像を構成する各画素を、当該画素が属する前記分割領域において前記シフト量算出手段により得られた前記シフト量だけ各々移動させることによって、前記各地点から仮想的に撮影した場合に得られる画像を各々作成し、
さらに前記画像の各々から、画素値の与えられていない空き領域を抽出し、前記空き領域の周囲の画素における画素値に基づいて前記空き領域の画素値を推定し、
前記空き領域の画素全てに画素値を与え、最終的に得られた画像の各々を出力する
ことを特徴とする立体写真作成方法。For each divided area that divides the shooting screen into a plurality of areas, the distance value from the photographic film surface to the shooting target within the range of the divided area is measured, and the distance value for each divided area is recorded on the photographic film. Taking a picture with a photo shoot device,
After the shooting, the developed photographic film is irradiated with light, the amount of reflected light or transmitted light is quantized for each predetermined pixel to create a digital original image,
Read the distance value for each of the divided areas from the photographic film,
It is within the range of the divided area from each point separated by a predetermined distance on the right side and the left side in the plane perpendicular to the lens optical axis from the shooting point when shooting the shooting screen, with reference to the upright state of the shooting screen. A straight line connecting the shooting point and the shooting target is a point where a straight line connecting to the shooting target intersects a projection plane that is a plane perpendicular to the lens optical axis at a predetermined distance from the shooting point. When a straight line extending from each point in parallel with the projection plane intersects the projection plane, a shift amount that is a distance value between the projection point and the intersection corresponding to the projection point is set in the divided region. Calculate for each corresponding pixel,
Obtained when each pixel constituting the digital original image is virtually photographed from each point by moving each pixel by the shift amount obtained by the shift amount calculation means in the divided region to which the pixel belongs. Each created image,
Further, from each of the images, a free area where no pixel value is given is extracted, and the pixel value of the free area is estimated based on the pixel values in the pixels around the free area,
A method for creating a stereoscopic photograph, wherein pixel values are given to all the pixels in the empty area, and each finally obtained image is output.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27346594A JP3614898B2 (en) | 1994-11-08 | 1994-11-08 | PHOTOGRAPHIC APPARATUS, IMAGE PROCESSING APPARATUS, AND STEREOGRAPHIC CREATION METHOD |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27346594A JP3614898B2 (en) | 1994-11-08 | 1994-11-08 | PHOTOGRAPHIC APPARATUS, IMAGE PROCESSING APPARATUS, AND STEREOGRAPHIC CREATION METHOD |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08140116A JPH08140116A (en) | 1996-05-31 |
JP3614898B2 true JP3614898B2 (en) | 2005-01-26 |
Family
ID=17528307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27346594A Expired - Fee Related JP3614898B2 (en) | 1994-11-08 | 1994-11-08 | PHOTOGRAPHIC APPARATUS, IMAGE PROCESSING APPARATUS, AND STEREOGRAPHIC CREATION METHOD |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3614898B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4747611B2 (en) * | 2005-03-01 | 2011-08-17 | パナソニック電工株式会社 | Entrance / exit management device |
JP2009060154A (en) * | 2005-12-22 | 2009-03-19 | Panasonic Corp | Video content recording method, video content recording apparatus, video content reproducing method, and video content reproducing apparatus |
JP4720785B2 (en) | 2007-05-21 | 2011-07-13 | 富士フイルム株式会社 | Imaging apparatus, image reproducing apparatus, imaging method, and program |
JP5670481B2 (en) * | 2010-02-19 | 2015-02-18 | デュアル・アパーチャー・インコーポレーテッド | Multi-aperture image data processing |
JP5728673B2 (en) * | 2010-02-19 | 2015-06-03 | デュアル・アパーチャー・インターナショナル・カンパニー・リミテッド | Multi-aperture image data processing |
WO2013005365A1 (en) * | 2011-07-01 | 2013-01-10 | パナソニック株式会社 | Image processing apparatus, image processing method, program, and integrated circuit |
JP5943693B2 (en) * | 2012-04-24 | 2016-07-05 | キヤノン株式会社 | Imaging device, control method thereof, and control program |
US20160255323A1 (en) | 2015-02-26 | 2016-09-01 | Dual Aperture International Co. Ltd. | Multi-Aperture Depth Map Using Blur Kernels and Down-Sampling |
-
1994
- 1994-11-08 JP JP27346594A patent/JP3614898B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH08140116A (en) | 1996-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4065488B2 (en) | 3D image generation apparatus, 3D image generation method, and storage medium | |
JP5969992B2 (en) | Stereoscopic (3D) panorama generation on portable devices | |
US5455689A (en) | Electronically interpolated integral photography system | |
KR100942055B1 (en) | Image processing apparatus and method, printed matter production apparatus and method, and printed matter production system | |
US20120019614A1 (en) | Variable Stereo Base for (3D) Panorama Creation on Handheld Device | |
US20120019613A1 (en) | Dynamically Variable Stereo Base for (3D) Panorama Creation on Handheld Device | |
TWI433530B (en) | Camera system and image-shooting method with guide for taking stereo photo and method for automatically adjusting stereo photo | |
US20110025830A1 (en) | Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation | |
JP2001346226A (en) | Image processor, stereoscopic photograph print system, image processing method, stereoscopic photograph print method, and medium recorded with processing program | |
CN105530431A (en) | Reflective panoramic imaging system and method | |
JPH09181913A (en) | Camera system | |
JP2001142166A (en) | 3d camera | |
JPH06194758A (en) | Method and apparatus for formation of depth image | |
JP2005050035A (en) | Image photographing device and image processing method | |
JP2011060216A (en) | Device and method of processing image | |
JPH0879797A (en) | Method and equipment for creating depth picture through extrapolation and interpolation of intermediate picture obtained from paired stereo pictures by use of unbalanced vector field | |
JP6257285B2 (en) | Compound eye imaging device | |
JP3907008B2 (en) | Method and means for increasing the depth of field for a photograph | |
WO2011014421A2 (en) | Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation | |
JP3614898B2 (en) | PHOTOGRAPHIC APPARATUS, IMAGE PROCESSING APPARATUS, AND STEREOGRAPHIC CREATION METHOD | |
JP4193292B2 (en) | Multi-view data input device | |
JP2006211386A (en) | Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method | |
JP2009258005A (en) | Three-dimensional measuring device and three-dimensional measuring method | |
JP3939127B2 (en) | Imaging device | |
JP3700530B2 (en) | Image conversion apparatus, image conversion display apparatus, stereoscopic image display system, and readable recording medium on which image conversion program is recorded |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040928 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041028 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071112 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081112 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091112 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |