JP2019068429A - Imaging condition estimation apparatus and method, terminal device, computer program, and recording medium - Google Patents
Imaging condition estimation apparatus and method, terminal device, computer program, and recording medium Download PDFInfo
- Publication number
- JP2019068429A JP2019068429A JP2018210520A JP2018210520A JP2019068429A JP 2019068429 A JP2019068429 A JP 2019068429A JP 2018210520 A JP2018210520 A JP 2018210520A JP 2018210520 A JP2018210520 A JP 2018210520A JP 2019068429 A JP2019068429 A JP 2019068429A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- photographing
- imaging
- absolute position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、撮影画像の、例えば撮影位置、撮影方向、焦点距離等の撮影条件を推定する撮影条件推定装置及び方法、端末装置、コンピュータプログラム、並びに、該コンピュータプログラムが記録された記録媒体の技術分野に関する。 The present invention relates to a photographing condition estimation apparatus and method for estimating photographing conditions such as photographing position, photographing direction, focal distance, etc. of photographed image, terminal device, computer program, and technology of recording medium in which the computer program is recorded. About the field.
例えば非特許文献1乃至3に挙げたウェブページのように、ある地点から撮影された過去の画像と現在の画像とを比較しながら観賞したいというニーズがある。或いは、例えば非特許文献4等の映像作品で採り上げられた風景、又は雑誌や本に掲載された写真の風景を撮影したいというニーズがある。この際、特に、著名なカメラマンにより撮影された写真に写っている場所を、該写真の撮影条件(例えば撮影位置、撮影方向、焦点距離等)と同じ条件で撮影したいというニーズがある。
For example, as in the web pages listed in Non-Patent
上記ニーズに応えるものとして、例えば、カメラの現在位置、方位及び姿勢を計測すると共に現在のレンズの焦点距離を検出し、該計測又は検出された情報と、過去に撮影された画像について記録された撮影位置情報、撮影方位情報、撮影姿勢情報及び焦点距離情報とを比較して、両者の差を表示する装置が提案されている(特許文献1参照)。 In order to meet the above needs, for example, the current position, orientation, and attitude of the camera are measured, and the focal length of the current lens is detected, and the measured or detected information and the image captured in the past are recorded. There has been proposed an apparatus for comparing the photographing position information, the photographing direction information, the photographing posture information and the focal distance information and displaying the difference between the two (see Patent Document 1).
しかしながら、上述の特許文献1に記載の技術では、過去に撮影された画像についての撮影条件が既知である必要がある。すると、撮影条件が不明な場合、ユーザが、過去に撮影された画像を見ながら、おおよその撮影位置及び撮影方向を推定し、更に、該画像と同様の画角となるように焦点距離を調整しなければならない、という技術的問題点がある。
However, in the technology described in
本発明は、例えば上記問題点に鑑みてなされたものであり、過去に撮影された画像についての撮影条件を推定することができる撮影条件推定装置及び方法、端末装置、コンピュータプログラム並びに記録媒体を提供することを課題とする。 The present invention has been made in view of, for example, the above problems, and provides a photographing condition estimation apparatus and method, a terminal device, a computer program, and a recording medium capable of estimating photographing conditions for an image photographed in the past. To be a task.
本発明の請求項1に記載の撮影条件推定装置は、上記課題を解決するために、第1画像に係る情報である第1画像情報を取得する第1画像取得手段と、前記第1画像に含まれる対象物を撮影した第2画像に係る情報である第2画像情報を取得する第2画像取得手段と、一の撮影装置により前記対象物が撮影され前記第2画像情報が生成された時の前記一の撮影装置の絶対位置に係る情報である絶対位置情報を取得する位置情報取得手段と、前記取得された第1画像情報、前記取得された第2画像情報及び前記取得された絶対位置情報に基づいて、前記一の撮影装置又は前記一の撮影装置とは異なる他の撮影装置により前記対象物が撮影され前記第1画像の元となる情報が生成された時の前記一の撮影装置又は前記他の撮影装置の絶対位置を少なくとも推定する推定手段と、を備える。 According to a first aspect of the present invention, there is provided a photographing condition estimation device comprising: first image acquisition means for acquiring first image information, which is information related to a first image, in order to solve the problem; A second image acquisition unit for acquiring second image information which is information related to a second image obtained by photographing the contained object; and a case where the object is photographed by one photographing device and the second image information is generated Position information acquiring means for acquiring absolute position information that is information relating to the absolute position of the one photographing apparatus, and the acquired first image information, the acquired second image information, and the acquired absolute position The one photographing device when the object is photographed by the one photographing device or another photographing device different from the one photographing device based on the information and the information which is the source of the first image is generated Or the absolute position of the other imaging device Comprising an estimating means for Kutomo estimate, the.
本発明の請求項6に記載の端末装置は、上記課題を解決するために、第1画像に係る情報である第1画像情報を取得する第1画像取得手段と、前記第1画像に含まれる対象物を撮影した第2画像に係る情報である第2画像情報を取得する第2画像取得手段と、一の撮影装置により前記対象物が撮影され前記第2画像情報が生成された時の前記一の撮影装置の絶対位置に係る情報である第1絶対位置情報を取得する位置情報取得手段と、前記取得された第1画像情報、前記取得された第2画像情報及び前記取得された第1絶対位置情報を、外部装置へ送信する送信手段と、前記送信手段により送信された第1画像情報、第2画像情報及び第1絶対位置情報に基づいて、前記外部装置により推定された、前記一の撮影装置又は前記一の撮影装置とは異なる他の撮影装置により前記対象物が撮影され前記第1画像の元となる情報が生成された時の前記一の撮影装置又は前記他の撮影装置の絶対位置に係る情報である第2絶対位置情報を前記外部装置から取得する推定結果取得手段と、前記取得された第2絶対位置情報を提示する提示手段と、を備える。 According to a sixth aspect of the present invention, there is provided a terminal device comprising: first image acquisition means for acquiring first image information, which is information related to a first image, in order to solve the above problem; A second image acquisition unit for acquiring second image information that is information related to a second image obtained by imaging the object; and the imaging device when the object is imaged by the one imaging device and the second image information is generated Position information acquiring means for acquiring first absolute position information which is information relating to the absolute position of the first photographing device, the acquired first image information, the acquired second image information, and the acquired first The transmitting means for transmitting absolute position information to an external device, and the first image estimated by the external device based on the first image information, the second image information, and the first absolute position information transmitted by the transmitting means. And the one imaging device A second absolute position which is information relating to the absolute position of the one imaging device or the other imaging device when the object is imaged by another different imaging device and the information which is the source of the first image is generated An estimation result acquiring unit that acquires information from the external device, and a presenting unit that presents the acquired second absolute position information.
本発明の請求項7に記載の撮影条件推定方法は、上記課題を解決するために、撮影条件推定装置によって使用される撮影条件推定方法であって、第1画像に係る情報である第1画像情報を取得する第1画像取得工程と、前記第1画像に含まれる対象物を撮影した第2画像に係る情報である第2画像情報を取得する第2画像取得工程と、一の撮影装置により前記対象物が撮影され前記第2画像情報が生成された時の前記一の撮影装置の絶対位置に係る情報である絶対位置情報を取得する位置情報取得工程と、前記取得された第1画像情報、前記取得された第2画像情報及び前記取得された絶対位置情報に基づいて、前記一の撮影装置又は前記一の撮影装置とは異なる他の撮影装置により前記対象物が撮影され前記第1画像の元となる情報が生成された時の前記一の撮影装置又は前記他の撮影装置の絶対位置を少なくとも推定する推定工程と、を備える。 A photographing condition estimation method according to a seventh aspect of the present invention is a photographing condition estimation method used by the photographing condition estimation device to solve the above-mentioned problem, and is a first image relating to a first image. A first image acquiring step of acquiring information, a second image acquiring step of acquiring second image information which is information related to a second image obtained by photographing an object included in the first image, and one imaging device A position information acquiring step of acquiring absolute position information which is information relating to an absolute position of the one photographing apparatus when the object is photographed and the second image information is generated, and the acquired first image information And the first image is captured by the other imaging device different from the one imaging device or the one imaging device based on the acquired second image information and the acquired absolute position information. Generate information that is the source of And a estimation process at least estimate the absolute position of the one imaging device or the other imaging apparatus when.
本発明の請求項8に記載のコンピュータプログラムは、上記課題を解決するために、コンピュータを、第1画像に係る情報である第1画像情報を取得する第1画像取得手段と、前記第1画像に含まれる対象物を撮影した第2画像に係る情報である第2画像情報を取得する第2画像取得手段と、一の撮影装置により前記対象物が撮影され前記第2画像情報が生成された時の前記一の撮影装置の絶対位置に係る情報である絶対位置情報を取得する位置情報取得手段と、前記取得された第1画像情報、前記取得された第2画像情報及び前記取得された絶対位置情報に基づいて、前記一の撮影装置又は前記一の撮影装置とは異なる他の撮影装置により前記対象物が撮影され前記第1画像の元となる情報が生成された時の前記一の撮影装置又は前記他の撮影装置の絶対位置を少なくとも推定する推定手段と、として機能させる。 A computer program according to claim 8 of the present invention, in order to solve the above problems, a computer, a first image acquisition means for acquiring first image information which is information related to a first image, and the first image A second image acquisition unit that acquires second image information that is information related to a second image obtained by imaging the object included in the image; and the second image information is generated by imaging the object by one imaging device Position information acquiring means for acquiring absolute position information, which is information relating to the absolute position of the one imaging apparatus at a time, the acquired first image information, the acquired second image information, and the acquired absolute information The one photographing when the object is photographed by the one photographing device or another photographing device different from the one photographing device based on the position information and the information which is the source of the first image is generated Device or said other And estimating means for at least estimate the absolute position of the shadow device, to function as a.
本発明の請求項9に記載の記録媒体は、上記課題を解決するために、本発明のコンピュータプログラムが記録されている。 The computer program of the present invention is recorded in the recording medium according to claim 9 of the present invention in order to solve the above-mentioned problems.
本発明の作用及び他の利得は次に説明する実施するための形態から明らかにされる。 The operation and other advantages of the present invention will be apparent from the embodiments to be described below.
本発明の撮影条件推定装置等に係る各実施形態について説明する。 Each embodiment concerning the photography condition estimating device etc. of the present invention is described.
(撮影推定装置)
実施形態に係る撮影条件推定装置は、第1画像取得手段、第2画像取得手段、位置情報取得手段及び推定手段を備えて構成されている。
(Shooting estimation device)
The imaging condition estimation apparatus according to the embodiment is configured to include a first image acquisition unit, a second image acquisition unit, a position information acquisition unit, and an estimation unit.
第1画像取得手段は、第1画像に係る情報である第1画像情報を取得する。ここで、「第1画像」は、例えば国会議事堂、東京駅等の既知の撮影対象物を含む画像ではあるが、当該撮影条件推定装置のユーザが、その撮影地点を知らない画像である。 The first image acquisition means acquires first image information which is information related to the first image. Here, the “first image” is an image including a known photographing object such as, for example, a National Assembly Building, Tokyo Station, but an image in which the user of the photographing condition estimation device does not know the photographing point.
「第1画像情報」は、第1画像が、例えばデジタルカメラ等の電子撮影装置により対象物が撮影されたことにより生成されたデジタルデータが、例えばモニタ等の表示装置の画面上に表示された画像である場合の該デジタルデータに限らず、第1画像が、例えば印画紙等の紙に印刷された画像(例えば写真)である場合に、該画像が、例えばスキャナ等を介してデジタル化されたデータをも含む概念である。 In the "first image information", digital data generated by capturing an object with a first image, for example, an electronic photographing device such as a digital camera, is displayed on a screen of a display device such as a monitor Not only the digital data in the case of an image but also the first image is an image (eg, a photograph) printed on a sheet of paper such as printing paper, the image is digitized, for example, via a scanner or the like. It is a concept that also includes
第2画像取得手段は、第1画像に含まれる対象物を撮影した第2画像に係る情報である第2画像情報を取得する。尚、第1画像に複数の物体が含まれている場合、「対象物」は、当該撮影条件推定装置のユーザが所望する撮影対象物を意味する。つまり、第2画像情報は、典型的には、ユーザが対象物を撮影することにより生成された情報である。 The second image acquisition means acquires second image information which is information related to a second image obtained by photographing an object included in the first image. When a plurality of objects are included in the first image, the “target object” means a shooting target desired by the user of the shooting condition estimation apparatus. That is, the second image information is typically information generated by the user photographing an object.
位置情報取得手段は、例えばデジタルカメラ等である一の撮影装置により対象物が撮影され第2画像情報が生成された時の該一の撮影装置の絶対位置に係る情報である絶対位置情報を取得する。 The position information acquisition means acquires absolute position information which is information relating to the absolute position of the one photographing device when the object is photographed by the one photographing device such as a digital camera and the second image information is generated. Do.
このような絶対位置情報は、撮影時に、例えばGPS(Global Positioning System)、例えばモバイルデータ通信等の通信機能を用いた位置情報サービス、等により取得すればよい。取得された絶対位置情報は、第2画像情報と対応付けられて又は該第2画像情報の一部として記録される。位置情報取得手段は、第2画像取得手段により第2画像情報が取得された際に、該取得された第2画像情報に対応付けられた絶対位置情報又は該取得された第2画像情報の一部としての絶対位置情報を取得する。 Such absolute position information may be acquired, for example, by GPS (Global Positioning System), for example, a position information service using a communication function such as mobile data communication, at the time of shooting. The acquired absolute position information is recorded in association with the second image information or as a part of the second image information. When the second image information is acquired by the second image acquisition unit, the position information acquisition unit may use absolute position information associated with the acquired second image information or one of the acquired second image information. Get absolute position information as a part.
例えばメモリ、プロセッサ等を備えてなる推定手段は、取得された第1画像情報、取得された第2画像情報及び取得された絶対位置情報に基づいて、一の撮影装置又は該一の撮影装置とは異なる他の撮影装置により対象物が撮影され第1画像の元となる情報が生成された時の該一の撮影装置又は他の撮影装置の絶対位置を少なくとも推定する。 For example, the estimation unit comprising a memory, a processor, etc. is based on the acquired first image information, the acquired second image information, and the acquired absolute position information, and one imaging apparatus or one imaging apparatus At least estimates the absolute position of the one imaging device or the other imaging device when the object is imaged by another different imaging device and the information that is the source of the first image is generated.
「第1画像の元となる情報」は、一の撮影装置又は他の撮影装置が、例えばフィルムカメラ等である場合の写真フィルムに記録された光情報、或いは、該一の撮影装置又は他の撮影装置が、例えばデジタルカメラ等の電子撮影装置である場合のデジタルデータ(例えば、RAW画像、JPEG画像等)、等である。 The “information that is the source of the first image” is light information recorded on a photographic film when one photographing device or another photographing device is, for example, a film camera, or the one photographing device or the other For example, digital data (for example, a RAW image, a JPEG image, and the like) when the imaging device is an electronic imaging device such as a digital camera, and the like.
推定手段は、具体的には例えば、SfM(Structure from Motion)等の公知の技術を用いて、第1画像情報及び第2画像情報から、第1画像の元となる情報が生成された時の一の撮影装置又は他の撮影装置の、第2画像情報が生成された時の該一の撮影装置の位置に対する、相対的な位置を求める。その後、推定装置は、該求められた相対的な位置と、第2画像情報が生成された時の該一の撮影装置に係る絶対位置情報と、に基づいて、第1画像の元となる情報が生成された時の該一の撮影装置又は他の撮影装置の絶対位置を推定する。 More specifically, the estimation means uses, for example, a known technique such as SfM (Structure from Motion) to generate information on the basis of the first image from the first image information and the second image information. The position of one imaging device or another imaging device relative to the position of the one imaging device when the second image information is generated is determined. Thereafter, the estimation device generates information on the basis of the first image based on the determined relative position and the absolute position information of the one imaging device when the second image information is generated. Estimate the absolute position of the one imaging device or another imaging device when
例えばSfM等の公知技術では、複数の画像に夫々対応する複数の撮影地点間の相対的な位置関係等は推定可能であるが、スケールを復元することができないので、撮影地点の実際の位置を推定することが不可能である。しかるに本実施形態では、上述の如く、第2画像情報が生成された時の該一の撮影装置に係る絶対位置情報が用いられることにより、スケールが復元される。従って、本実施形態に係る撮影条件推定装置によれば、第1画像の元となる情報が生成された時の一の撮影装置又は他の撮影装置の絶対位置(即ち、撮影地点)を推定することができる。 For example, in the known technique such as SfM, although relative positional relationships among a plurality of shooting points respectively corresponding to a plurality of images can be estimated, the scale can not be restored. It is impossible to estimate. However, in the present embodiment, as described above, the scale is restored by using the absolute position information related to the one imaging device when the second image information is generated. Therefore, according to the photographing condition estimation device according to the present embodiment, the absolute position (that is, the photographing point) of one photographing device or another photographing device when the information which is the source of the first image is generated is estimated. be able to.
第1画像に対応する撮影地点が少なくともわかれば、上述の如く、撮影対象物は既知であるので、例えば撮影方向や焦点距離等を調節することは比較的容易である。尚、SfMを用いれば、上記相対的な位置と共に、例えば撮影方向や焦点距離情報も求められる。 If at least the shooting point corresponding to the first image is known, as described above, since the shooting target is known, it is relatively easy to adjust, for example, the shooting direction and the focal length. Incidentally, if SfM is used, for example, shooting direction and focal length information can be obtained along with the relative position.
以上の結果、本実施形態に係る撮影条件推定装置によれば、過去に撮影され、撮影地点が未知な第1画像についての撮影条件を推定することができる。 As a result of the above, according to the imaging condition estimation device according to the present embodiment, it is possible to estimate the imaging conditions for the first image which is imaged in the past and whose imaging point is unknown.
実施形態に係る撮影条件推定装置の一態様では、推定手段は、取得された第1画像情報及び取得された第2画像情報に基づいて、第1画像及び第2画像各々の特徴点を取得する特徴点取得手段を有し、該取得された特徴点に基づいて、第1画像の元となる情報が生成された時及び第2画像情報が生成された時各々における一の撮影装置又は他の撮影装置の相対位置、撮影方向及び焦点距離を少なくとも含む撮影条件を算出し、該算出された撮影条件と、取得された絶対位置情報とに基づいて、第1画像の元となる情報が生成された時の絶対位置を推定する。 In one aspect of the imaging condition estimation apparatus according to the embodiment, the estimation unit acquires feature points of each of the first image and the second image based on the acquired first image information and the acquired second image information. One imaging device or another in each of the time when the information that is the origin of the first image is generated and the time when the second image information is generated based on the acquired feature points. The imaging condition including at least the relative position of the imaging device, the imaging direction, and the focal distance is calculated, and the information that is the source of the first image is generated based on the calculated imaging condition and the acquired absolute position information. Estimate the absolute position of
この態様によれば、比較的容易にして、第1画像の元となる情報が生成された時の絶対位置を含む撮影条件を推定することができ、実用上非常に有利である。 According to this aspect, it is possible to estimate the imaging conditions including the absolute position when the original information of the first image is generated relatively easily, which is extremely useful in practice.
尚、特徴点の取得(検出)には、例えばSIFT、Harris Corner Detection、SURF、FAST等の公知の技術を適用可能であるので、その詳細についての説明は割愛する。 In addition, for example, known techniques such as SIFT, Harris Corner Detection, SURF, FAST and the like can be applied to acquisition (detection) of feature points, and thus the detailed description thereof will be omitted.
実施形態に係る撮影条件推定装置の他の態様では、第2画像取得手段は、対象物を夫々撮影した複数の第2画像に夫々対応する複数の第2画像情報を取得し、位置情報取得手段は、一の撮影装置により対象物が撮影され複数の第2画像情報が夫々生成された時の一の撮影装置の絶対位置に夫々対応する複数の絶対位置情報を取得する。 In another aspect of the imaging condition estimation apparatus according to the embodiment, the second image acquisition unit acquires a plurality of second image information respectively corresponding to a plurality of second images obtained by imaging an object respectively, and position information acquisition unit A plurality of pieces of absolute position information respectively corresponding to the absolute positions of the one imaging device when the object is photographed by the one imaging device and the plurality of pieces of second image information are respectively generated are acquired.
この態様によれば、第1画像の元となる情報が生成された時の絶対位置の推定精度を向上させることができ、実用上非常に有利である。 According to this aspect, it is possible to improve the estimation accuracy of the absolute position when the information that is the source of the first image is generated, which is extremely advantageous in practice.
実施形態に係る撮影条件推定装置の他の態様では、推定された第1画像の元となる情報が生成された時の一の撮影装置又は他の撮影装置の絶対位置を少なくとも提示する提示手段を更に備える。 In another aspect of the imaging condition estimation device according to the embodiment, a presentation unit that presents at least an absolute position of one imaging device or another imaging device when information that is a source of the estimated first image is generated Furthermore, it has.
この態様によれば、当該撮影条件推定装置のユーザに対し、推定結果を、比較的容易に提示することができ、実用上非常に有利である。 According to this aspect, the estimation result can be presented relatively easily to the user of the imaging condition estimation apparatus, which is extremely advantageous in practice.
実施形態に係る撮影条件推定装置の他の態様では、当該撮影条件推定装置の現在位置を計測する位置計測手段と、該計測された現在位置に基づいて、ユーザを、推定された第1画像の元となる情報が生成された時の一の撮影装置又は他の撮影装置の絶対位置まで誘導する誘導手段と、を更に備える。 In another aspect of the imaging condition estimation device according to the embodiment, the user of the first image estimated based on the position measuring unit that measures the current position of the imaging condition estimation device and the measured current position And a guiding means for guiding to an absolute position of one imaging device or another imaging device when the original information is generated.
この態様によれば、当該撮影条件推定装置のユーザを、推定結果に従って誘導することができ、実用上非常に有利である。 According to this aspect, it is possible to guide the user of the imaging condition estimation device according to the estimation result, which is extremely advantageous in practice.
尚、誘導手段には、例えばナビゲーションサービス等の公知の各種態様を適用可能であるので、その詳細についての説明は割愛する。 In addition, since various known aspects such as a navigation service can be applied to the guiding means, for example, the description of the details thereof will be omitted.
(端末装置)
実施形態に係る端末装置は、第1画像取得手段、第2画像取得手段、位置情報取得手段、送信手段、推定結果取得手段及び提示手段を備えて構成されている。
(Terminal device)
The terminal device according to the embodiment includes a first image acquisition unit, a second image acquisition unit, a position information acquisition unit, a transmission unit, an estimation result acquisition unit, and a presentation unit.
第1画像取得手段は、第1画像に係る情報である第1画像情報を取得する。第2画像取得手段は、第1画像に含まれる対象物を撮影した第2画像に係る情報である第2画像情報を取得する。位置情報取得手段は、一の撮影装置により対象物が撮影され第2画像情報が生成された時の該一の撮影装置の絶対位置に係る情報である第1絶対位置情報を取得する。 The first image acquisition means acquires first image information which is information related to the first image. The second image acquisition means acquires second image information which is information related to a second image obtained by photographing an object included in the first image. The position information acquisition means acquires first absolute position information which is information relating to the absolute position of the one photographing device when the one object photographing device captures an object and the second image information is generated.
送信手段は、取得された第1画像情報、取得された第2画像情報及び取得された第1絶対位置情報を外部装置へ送信する。ここで、「外部装置」は、当該端末装置と異なる装置であればよく、例えば当該端末装置とフラットケーブル等により接続された装置、或いは、例えば当該端末装置とネットワークを介して接続されたサーバ装置、等である。 The transmitting means transmits the acquired first image information, the acquired second image information, and the acquired first absolute position information to an external device. Here, the “external device” may be any device different from the terminal device, for example, a device connected to the terminal device by a flat cable or the like, or a server device connected to the terminal device via the network, for example , Etc.
推定結果取得手段は、送信手段により送信された第1画像情報、第2画像情報及び第1絶対位置情報に基づいて、外部装置により推定された、一の撮影装置又は該一の撮影装置とは異なる他の撮影装置により対象物が撮影され第1画像の元となる情報が生成された時の該一の撮影装置又は他の撮影装置の絶対位置に係る情報である第2絶対位置情報を外部装置から取得する。 The estimation result acquisition unit is one imaging device or one imaging device estimated by the external device based on the first image information, the second image information, and the first absolute position information transmitted by the transmission unit. The second absolute position information, which is information relating to the absolute position of the one imaging device or the other imaging device when the object is imaged by another different imaging device and the information that is the origin of the first image is generated Acquire from the device.
提示手段は、取得された第2絶対位置情報を提示する。 The presentation means presents the acquired second absolute position information.
本実施形態に係る端末装置によれば、上述した実施形態に係る撮影条件推定装置と同様に、過去に撮影された第1画像についての撮影条件を推定することができる。尚、本実施形態に係る端末装置においても、上述した実施形態に係る撮影条件推定装置における各種態様と同様の各種態様を採ることができる。 According to the terminal device according to the present embodiment, it is possible to estimate the photographing conditions for the first image photographed in the past, as in the photographing condition estimation device according to the above-described embodiment. The terminal device according to the present embodiment can also adopt various aspects similar to the various aspects of the photographing condition estimation device according to the above-described embodiment.
(撮影条件推定方法)
実施形態に係る撮影条件推定方法は、撮影条件推定装置によって使用される撮影条件推定方法である。
(Imaging condition estimation method)
The imaging condition estimation method according to the embodiment is an imaging condition estimation method used by the imaging condition estimation device.
当該撮影条件推定方法は、第1画像に係る情報である第1画像情報を取得する第1画像取得工程と、該第1画像に含まれる対象物を撮影した第2画像に係る情報である第2画像情報を取得する第2画像取得工程と、一の撮影装置により対象物が撮影され第2画像情報が生成された時の該一の撮影装置の絶対位置に係る情報である絶対位置情報を取得する位置情報取得工程と、取得された第1画像情報、取得された第2画像情報及び取得された絶対位置情報に基づいて、一の撮影装置又は該一の撮影装置とは異なる他の撮影装置により対象物が撮影され第1画像の元となる情報が生成された時の該一の撮影装置又は他の撮影装置の絶対位置を少なくとも推定する推定工程と、を備える。 The imaging condition estimation method includes: a first image acquiring step of acquiring first image information which is information related to a first image; and information related to a second image obtained by imaging an object included in the first image 2) A second image acquisition step of acquiring image information, and absolute position information which is information relating to an absolute position of the one imaging device when the object is photographed by the one imaging device and the second image information is generated One imaging device or another imaging device different from the one imaging device based on the acquired position information acquiring step, the acquired first image information, the acquired second image information, and the acquired absolute position information And E. estimating at least an absolute position of the one imaging device or another imaging device when the device captures an object and information that is a source of the first image is generated.
本実施形態に係る撮影条件推定方法によれば、上述した実施形態に係る撮影条件推定装置と同様に、過去に撮影された第1画像についての撮影条件を推定することができる。尚、本実施形態に係る撮影条件推定方法においても、上述した実施形態に係る撮影条件推定装置における各種態様と同様の各種態様を採ることができる。 According to the imaging condition estimation method according to the present embodiment, the imaging conditions for the first image captured in the past can be estimated as in the imaging condition estimation device according to the above-described embodiment. Also in the photographing condition estimation method according to the present embodiment, various aspects similar to the various aspects in the photographing condition estimation device according to the above-described embodiment can be adopted.
(コンピュータプログラム)
実施形態に係るコンピュータプログラムは、コンピュータを、第1画像に係る情報である第1画像情報を取得する第1画像取得手段と、該第1画像に含まれる対象物を撮影した第2画像に係る情報である第2画像情報を取得する第2画像取得手段と、一の撮影装置により対象物が撮影され第2画像情報が生成された時の該一の撮影装置の絶対位置に係る情報である絶対位置情報を取得する位置情報取得手段と、取得された第1画像情報、取得された第2画像情報及び取得された絶対位置情報に基づいて、一の撮影装置又は該一の撮影装置とは異なる他の撮影装置により対象物が撮影され第1画像の元となる情報が生成された時の該一の撮影装置又は他の撮影装置の絶対位置を少なくとも推定する推定手段と、として機能させる。
(Computer program)
A computer program according to an embodiment relates to a computer, a first image acquisition unit that acquires first image information that is information related to a first image, and a second image obtained by photographing an object included in the first image. Information relating to an absolute position of the one imaging device when a second image acquisition unit for acquiring second image information which is information and an object is photographed by one imaging device and the second image information is generated According to position information acquisition means for acquiring absolute position information, one imaging device or one imaging device based on the acquired first image information, acquired second image information and acquired absolute position information It functions as an estimation unit that at least estimates the absolute position of the one imaging device or the other imaging device when the object is captured by another different imaging device and the information that is the source of the first image is generated.
実施形態に係るコンピュータプログラムによれば、当該コンピュータプログラムを格納するRAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(DVD Read Only Memory)等の記録媒体から、当該コンピュータプログラムを、撮影条件推定装置に備えられたコンピュータに読み込んで実行させれば、或いは、当該コンピュータプログラムを、通信手段を介してダウンロードさせた後に実行させれば、上述した実施形態に係る撮影条件推定装置を比較的容易にして実現できる。これにより、上述した実施形態に係る撮影条件推定装置と同様に、過去に撮影された第1画像についての撮影条件を推定することができる。 According to the computer program of the embodiment, the recording medium such as a random access memory (RAM), a compact disc read only memory (CD-ROM), or a DVD read only memory (DVD-ROM) storing the computer program If the computer program is read and executed on a computer provided in the photographing condition estimation apparatus, or if the computer program is executed after being downloaded via the communication means, the photographing conditions according to the above-described embodiment The estimation device can be realized relatively easily. Thus, as in the imaging condition estimation apparatus according to the above-described embodiment, the imaging conditions for the first image captured in the past can be estimated.
上記、実施形態に係るコンピュータプログラムが格納されたCD−ROM、DVD−ROM等が、本発明の記録媒体に係る実施形態の一例である。 The CD-ROM, the DVD-ROM, etc. in which the computer program according to the embodiment is stored are an example of the embodiment according to the recording medium of the present invention.
本発明の撮影条件推定装置に係る実施例を、図面に基づいて説明する。 An embodiment according to a photographing condition estimation device of the present invention will be described based on the drawings.
<第1実施例>
実発明の撮影条件推定装置に係る第1実施例を、図1及び図2を参照して説明する。図1は、第1実施例に係る撮影条件推定装置の構成を示すブロック図である。図2は、第1実施例に係る撮影条件推定処理を示すフローチャートである。
First Embodiment
A first embodiment of the photographing condition estimation apparatus of the present invention will be described with reference to FIGS. 1 and 2. FIG. FIG. 1 is a block diagram showing the configuration of a photographing condition estimation apparatus according to the first embodiment. FIG. 2 is a flowchart showing photographing condition estimation processing according to the first embodiment.
図1において、撮影条件推定装置1は、過去に撮影された1枚の画像についての、撮影位置、撮影方向及び焦点距離を含む撮影条件を推定し、該画像と同一の撮影条件での撮影を支援する装置である。当該撮影条件推定装置1は、撮影画像取得手段11、絶対位置取得手段12、制御部13及び記憶部14を備えて構成されている。
In FIG. 1, the photographing
本実施例では、当該撮影条件推定装置1は、例えばデジタルカメラ等の電子撮影装置に内蔵されている、又は該電子撮影装置に外付けされているものとする。
In this embodiment, it is assumed that the photographing
撮影画像取得手段11は、電子撮影装置により撮影された撮影画像を取得する。該撮影画像取得手段11は、更に、ネットワークを介して、或いは、例えばフラッシュメモリ等の外部機器を介して、画像を取得可能に構成されている。
The photographed
絶対位置取得手段は、例えばGPS、通信機能等により、当該撮影条件推定装置1の絶対位置を取得する。尚、絶対位置の取得方法については、公知の各種態様を適用であるので、その詳細についての説明は割愛する。
The absolute position acquisition unit acquires the absolute position of the imaging
制御部13は、例えばCPU(Central Processing Unit)等を有しており、記憶部14に記録されている所定のプログラムに応じて処理を行う。尚、処理の具体的内容については後述する。
The
記憶部14は、例えばROM、RAM、ハードディスク等の各種メモリを有している。記憶部14には、当該撮影条件推定装置1を制御するための各種制御プログラム等が格納されている。また、記憶部14は、制御部13に対してワーキングエリアを提供する。
The
本実施例に係る撮影条件推定装置1では、撮影画像取得手段11により取得された撮影画像等の処理に、SfMを利用している。尚、SfMは、未知環境下で移動するロボット等の自己位置推定やマッピングに使用される場合には、SLAM(Simultaneously Localization and Mapping)やVisual SLAMと呼ばれることがある。
In the photographing
ここで、SfMの概要について、図3のフローチャートを参照して説明を加える。 Here, the outline of SfM will be described with reference to the flowchart of FIG.
図3において、先ず、複数の撮影画像が取り込まれた後(ステップS901)、取り込まれた複数の撮影画像各々の特徴点が検出される(ステップS902)。次に、2枚の画像ペアの各特徴点を比較することにより、該特徴点のうち一致する特徴点が対応点として検出される(このような処理を、適宜“マッチング”と称する)(ステップS903)。 In FIG. 3, first, after a plurality of captured images are captured (step S901), feature points of each of the captured plurality of captured images are detected (step S902). Next, the feature points which match among the feature points are detected as corresponding points by comparing the feature points of the two image pairs (this process is referred to as “matching” as appropriate) (step S903).
尚、マッチングには、例えば近似最近傍探索(S. Arya et al. “An optimal algorithm for approximate nearest neighbor searching”, Journal of the AMC, 45, 6, pp.891-923 (1998)参照)等を適用可能である。 For matching, for example, approximate nearest neighbor search (see S. Arya et al. “An optimal algorithm for approximate nearest searching”, Journal of the AMC, 45, 6, pp. 891-923 (1998)), etc. It is applicable.
次に、検出された対応点から、2枚の画像ペアを撮影したカメラのカメラパラメータ(例えば基礎行列、基本行列、内部パラメータ等)が推定される(ステップS904)。尚、カメラパラメータの推定には、例えば8点アルゴリズム(“ディジタル画像処理” CG-ARTS協会、ISBN4-906665-47-0 p266参照)、DLT法(Y.I. Abdel-Aziz et al. “Direct linear transformation from comparator coordinates into object space coordinates in close-range photogrammetry. In Proceedings of the Symposium on Close-Range Photogrammetry”, pp-1-18. American Society of Photogrammetry, Falls Church, 1971参照)等を適用可能である。 Next, camera parameters (for example, a base matrix, a base matrix, an internal parameter, etc.) of a camera that has captured two image pairs are estimated from the detected corresponding points (step S904). For estimation of camera parameters, for example, an 8-point algorithm ("Digital Image Processing" CG-ARTS Association, see ISBN 4-906665-47-0 p266), DLT method (YI Abdel-Aziz et al. "Direct linear transformation from In Proceedings of the Symposium on Close-Range Photogrammetry ", pp. 1-18. American Society of Photogrammetry, see Falls Church (1971), etc. can be applied.
次に、推定されたカメラパラメータに基づいて、カメラの位置及び姿勢が求められると共に(ステップS905)、被写体の特徴点の3次元位置が求められる(ステップS906)。尚、カメラの位置及び姿勢は、例えばカメラパラメータの一つである基本行列が、特異値分解(R. Hartley et al. “Mutiview Geometry in computer vision”, 2nd Edition, Cambridge University Press, 2004参照)により、回転行列と並進ベクトルとに分解されることにより求められてよい。 Next, based on the estimated camera parameters, the position and orientation of the camera are determined (step S905), and the three-dimensional position of the feature point of the subject is determined (step S906). The position and orientation of the camera can be determined, for example, by singular value decomposition (see R. Hartley et al. “Mutiview Geometry in computer vision”, 2nd Edition, Cambridge University Press, 2004), which is one of the camera parameters. , And may be determined by being decomposed into a rotation matrix and a translation vector.
ところで、このSfMでは、カメラと被写体との間の相対位置やカメラ間(撮影地点間)の相対位置は推定可能であるが、スケールが復元されない。つまり、SfMでは、例えば被写体とカメラとの間の実際の距離が復元されない。 By the way, in this SfM, although the relative position between the camera and the subject and the relative position between the cameras (between the shooting points) can be estimated, the scale is not restored. That is, in SfM, for example, the actual distance between the subject and the camera is not restored.
他方、本実施例に係る撮影条件推定装置1では、SfM技術に、距離情報(絶対的な位置情報)を併せることにより、カメラの絶対位置が推定される。
On the other hand, in the photographing
撮影条件推定装置1における撮影条件推定処理について、図2のフローチャートを参照して具体的に説明する。尚、撮影条件が推定される過去に撮影された画像(以降、適宜“過去画像”と称する)に含まれる撮影対象物の少なくとも一部は既知であるとする。
The imaging condition estimation process in the imaging
図2において、先ず、撮影画像取得手段11は、過去画像を取り込む(ステップS101)。この結果、過去画像に係るデジタル情報である過去画像情報が生成される。ここで、過去画像が、印画紙にプリントされた写真である場合には、該写真がデジタル化された後に取り込まれ、デジタル画像である場合には、そのまま取り込まれる。
In FIG. 2, first, the captured
尚、本実施例に係る「過去画像」及び「過去画像情報」は、夫々、本発明に係る「第1画像」及び「第1画像情報」の一例である。 The “past image” and the “past image information” according to the present embodiment are examples of the “first image” and the “first image information” according to the present invention, respectively.
次に、当該撮影条件推定装置1のユーザが、過去画像に含まれる撮影対象物と同一の撮影対象物を、該撮影対象物の周辺の複数個所において電子撮影装置を用いて撮影することにより、複数の画像情報(以降、適宜“周辺画像情報”と称する)が生成される(ステップS102)。この際、絶対位置取得手段12は、例えばGPS情報や地図情報等から、各撮影地点の絶対位置を示す絶対位置情報を、対応する周辺画像情報と関連付けて記録する(ステップS103)。
Next, the user of the photographing
尚、本実施例に係る「周辺画像情報」は、本発明に係る「第2画像情報」の一例である。周辺画像情報に基づいて、例えばモニタ上に映し出される画像が、本発明に係る「第2画像」の一例である。 The “nearby image information” according to the present embodiment is an example of the “second image information” according to the present invention. An image displayed on a monitor, for example, based on surrounding image information is an example of the “second image” according to the present invention.
次に、撮影画像取得手段11は、生成された複数の周辺画像情報を取り込む(ステップS104)。次に、制御部13は、過去画像情報に対応する過去画像、及び複数の周辺画像情報により夫々対応する複数の周辺画像各々の特徴点を検出する(ステップS105)。ここで、特徴点の検出には、例えばSIFT、Harris Corner Detection、SURF、FAST等の公知の技術を適用可能である。
Next, the photographed image acquisition means 11 takes in a plurality of generated peripheral image information (step S104). Next, the
次に、制御部13は、検出された特徴点に基づいて、過去画像及び複数の周辺画像各々の間で、特徴点の対応点マッチングを実施し、対応点を検出する(ステップS106)。続いて、制御部13は、検出された対応点に基づいて、例えば8点アルゴリズム、DLT法等により、カメラパラメータを推定する(ステップS107)。
Next, based on the detected feature points, the
次に、制御部13は、推定されたカメラパラメータのうち基本行列を特異値分解により、回転行列と並進ベクトルに分解し、当該撮影条件推定装置1が内蔵されている若しくは外付けされている電子撮影装置又は該電子撮影装置とは異なる他の撮影装置により撮影対象物が撮影され過去画像の元となる情報が生成された時の(以降、適宜“過去画像の撮影時”と称する)該電子撮影装置又は他の撮影装置の相対的なカメラ位置及び姿勢、並びに、該電子撮影装置により該撮影対象物が撮影され複数の周辺画像情報が夫々生成された時の(以降、適宜、“周辺画像の撮影時”又は“複数の周辺画像各々の撮影時”と称する)該電子撮影装置の相対的なカメラ位置及び姿勢を求める。
Next, the
続いて、制御部13は、各周辺画像情報に関連付けられた絶対位置情報と、求められた相対的なカメラ位置との関係から、スケールを復元し、過去画像の撮影時の絶対的なカメラ位置及び姿勢を求める(ステップS108)。
Subsequently, the
次に、制御部13は、求められた過去画像の撮影時の絶対的なカメラ位置及び姿勢を、例えばモニタ(図示せず)上に表示して、ユーザに提示する(ステップS109)。この際、制御部13は、例えばGPS情報、地図情報等を利用して、ユーザを、求められた過去画像の撮影時の絶対的なカメラ位置まで誘導する。
Next, the
上記ステップS109の処理と並行して、制御部13は、推定されたカメラパラメータのうち焦点距離(即ち、内部パラメータ)に基づいて、当該撮影条件推定装置1が内蔵されている若しくは外付けされている電子撮影装置に係る焦点距離(例えばズームレンズの焦点距離)を設定する(ステップS110)。
In parallel with the process of step S109, the
当該撮影条件推定装置1のユーザが、過去画像の撮影時の絶対的なカメラ位置に対応する地点に到達し、該ユーザが、提示された過去画像の撮影時のカメラ姿勢(カメラ方向)に従って、カメラを構えて又は三脚等の調整をして、撮影対象物を撮影した後(ステップS111)、制御部13は、生成された新たな画像情報と過去画像情報とを比較する(ステップS112)。具体的には、制御部13は、生成された新たな画像情報に対応する画像と、過去画像との対応する特徴点の位置の誤差の合計を算出する。
The user of the photographing
続いて、制御部13は、算出された誤差の合計と誤差閾値とを比較する(ステップS113)。算出された誤差の合計が、誤差閾値以上であると判定された場合(ステップS113:非類似)、制御部13は、生成された新たな画像情報に対応する画像が、過去画像と非類似であるとして、例えば再度の撮影を促すようなメッセージを提示する。この際、電子撮影装置の調整に係る情報(例えば、カメラの姿勢に係る情報等)が提示されてよい。
Subsequently, the
他方、算出された誤差の合計が、誤差閾値未満であると判定された場合(ステップS113:類似)、制御部13は、生成された新たな画像情報に対応する画像を、過去画像の類似画像として、実際の撮影位置及び電子撮影装置の姿勢を決定すると共に(ステップS114)、生成された新たな画像情報を記録する(ステップS115)。
On the other hand, when it is determined that the total of the calculated errors is less than the error threshold (step S113: similar), the
本実施例に係る「撮影画像取得手段11」は、本発明に係る「第1画像取得手段」及び「第2画像取得手段」の一例である。本実施例に係る「絶対位置取得手段12」及び「制御部13」は、夫々、本発明に係る「位置情報取得手段」及び「推定手段」の一例である。
The "captured image acquisition means 11" according to the present embodiment is an example of the "first image acquisition means" and the "second image acquisition means" according to the present invention. The “absolute
<第1変形例>
次に、本実施例の撮影条件推定装置の第1変形例について、図4のフローチャートを参照して説明する。
First Modified Example
Next, a first modification of the photographing condition estimation apparatus of the present embodiment will be described with reference to the flowchart of FIG.
図4において、上述したステップS115の処理の後、制御部13が、生成された新たな画像情報に対応する画像(類似画像)と過去画像との対応点に係る情報に基づいて、生成された新たな画像情報に対応する画像に、微小な誤差がなくなるような画像変換を、生成された新たな画像情報に施す(ステップS201)。尚、このような画像変換には、公知の各種態様を適用可能であるので、その詳細についての説明は割愛する。
In FIG. 4, after the process of step S115 described above, the
当該撮影条件推定装置1により求められた過去画像の撮影時の絶対的なカメラ位置及び姿勢に係る誤差や、ユーザが操作することに起因するズレ、等により、類似と判定された場合であっても、生成された新たな画像情報に対応する画像と過去画像との間にズレが生じることが多い。本変形例のように構成すれば、画像変換により上記ズレを解消することができるので、実用上非常に有利である。
The case where it is determined to be similar due to an error relating to an absolute camera position and orientation at the time of shooting of a past image obtained by the shooting
<第2変形例>
次に、本実施例の撮影条件推定装置の第2変形例について、図5のフローチャートを参照して説明する。
Second Modified Example
Next, a second modification of the photographing condition estimation apparatus of the present embodiment will be described with reference to the flowchart of FIG.
図5において、上述したステップS110の処理の後、過去画像の撮影時の絶対的なカメラ位置に対応する地点に到達したユーザが、提示された過去画像の撮影時のカメラ姿勢に従って、カメラを構えて又は三脚等の調整をして、撮影対象物を撮影する(ステップS301)。この際、所定期間(例えば数秒)分の連続した複数の画像情報が生成及び記録される(尚、電子撮影装置のシャッタは切られない)。 In FIG. 5, after the process of step S110 described above, the user who reaches the point corresponding to the absolute camera position at the time of shooting of the past image holds the camera according to the camera posture at the time of shooting of the presented past image. Or adjust the tripod or the like to photograph an object to be photographed (step S301). At this time, a plurality of continuous image information for a predetermined period (for example, several seconds) are generated and recorded (note that the shutter of the electronic photographing apparatus is not released).
次に、制御部13は、生成された複数の画像情報に夫々対応する複数の画像各々の対応点と、過去画像の対応点とを比較し(ステップS113)、誤差の合計が誤差閾値未満の画像であって、誤差の合計が最も小さい画像に対応する画像情報を選択する(ステップS302)。尚、誤差の合計が誤差閾値未満である画像に対応する画像情報がない場合(ステップS113:非類似)、制御部13は、例えば再度の撮影を促すようなメッセージを提示する。
Next, the
このように構成すれば、撮影対象物が1枚撮影される毎に類似度判定が実施される場合に比べ、時間を短縮することができる。特に、時間的に連続した複数の画像情報が生成されるので、例えばユーザが操作することに起因するわずかなズレ等の影響を抑制することができ、実用上非常に有利である。 With this configuration, the time can be shortened compared to the case where similarity determination is performed each time one object to be photographed is photographed. In particular, since a plurality of temporally continuous image information are generated, it is possible to suppress the influence of a slight deviation or the like caused by the user's operation, for example, which is extremely advantageous in practical use.
<第2実施例>
本発明の撮影条件推定装置に係る第2実施例について、図6及び図7を参照して説明する。第2実施例では、周辺画像情報の取得方法が異なる以外は、上述した第1実施例と同様である。よって、第2実施例について、第1実施例と重複する説明を省略すると共に、図面上における共通箇所には同一符号を付して示し、基本的に異なる点についてのみ、図6及び図7を参照して説明する。図6は、第2実施例に係る撮影条件推定装置の構成を示すブロック図である。図7は、第2実施例に係る撮影条件推定処理を示すフローチャートである。
Second Embodiment
A second embodiment according to the photographing condition estimation device of the present invention will be described with reference to FIGS. 6 and 7. The second embodiment is the same as the first embodiment described above except that the method of acquiring the surrounding image information is different. Therefore, in the second embodiment, the description overlapping with the first embodiment will be omitted, and the same reference numerals will be given to the common portions in the drawings, and FIGS. Refer to the description. FIG. 6 is a block diagram showing the configuration of a photographing condition estimation apparatus according to the second embodiment. FIG. 7 is a flowchart showing photographing condition estimation processing according to the second embodiment.
図6において、撮影条件推定装置2は、撮影画像取得手段11、絶対位置取得手段12、制御部13、記憶部14及び通信部15を備えて構成されている。
In FIG. 6, the photographing
通信部15は、典型的には、無線通信により、例えばインターネット等の広域ネットワークに接続可能に構成されている。通信部15には、公知の各種態様を適用可能であるので、その詳細についての説明は割愛する。
The
図7において、撮影画像取得手段11により、過去画像が取り込まれ、該過去画像に係るデジタル情報である過去画像情報が生成された後(ステップS101)、制御部13は、通信部15を介して、広域ネットワーク上に存在する、過去画像に含まれる撮影対象物を撮影した複数の画像を検索する(ステップS401)。続いて、制御部13は、検索された複数の画像に対応する画像情報を周辺画像情報として取り込む(ステップS104)。
In FIG. 7, after the past image is fetched by the photographed
ステップS105乃至S107の処理により、過去画像及び複数の周辺画像各々に係るカメラパラメータが推定された後、制御部13は、過去画像に含まれる撮影対象物に係る3次元形状を取得する(ステップS402)。ここで、「3次元形状」は、上述したステップS105乃至S107の処理(即ち、SfMに係る処理)において生成された、複数の特徴点各々の3次元位置を意味する。「3次元形状の取得」は公知技術であるので、その詳細についての説明は割愛する。
After the camera parameters relating to the past image and the plurality of peripheral images are estimated by the processing in steps S105 to S107, the
続いて、制御部13は、当該撮影条件推定装置2のユーザにより入力された、過去画像に含まれる撮影対象物のスケール情報(例えば大きさ、高さ等)を取得する(ステップS403)。
Subsequently, the
次に、制御部13は、推定されたカメラパラメータ、取得された被写体の3次元形状及びスケール情報に基づいて、過去画像の撮影時の絶対的なカメラ位置と及び姿勢を求める(ステップS109)。
Next, the
このように構成すれば、ユーザ自身が撮影対象物をその周辺において撮影することに伴う該ユーザの負担を軽減することができ、実用上非常に有利である。 With this configuration, it is possible to reduce the burden on the user when the user shoots an object to be photographed around the object, which is extremely advantageous in practical use.
<第3実施例>
本発明の撮影条件推定装置に係る第3実施例について、図8を参照して説明する。第3実施例では、撮影条件推定装置(システム)が、ネットワークを介して互いに接続された端末装置及びサーバ装置を備えて構成されている以外は、上述した第1実施例と同様である。よって、第3実施例について、第1実施例と重複する説明を省略すると共に、図面上における共通箇所には同一符号を付して示し、基本的に異なる点についてのみ、図8を参照して説明する。図8は、第3実施例に係る撮影条件推定装置の構成を示すブロック図である。
Third Embodiment
A third embodiment of the photographing condition estimation apparatus of the present invention will be described with reference to FIG. The third embodiment is the same as the first embodiment described above except that the photographing condition estimation device (system) is configured to include a terminal device and a server device connected to each other via a network. Therefore, in the third embodiment, the description overlapping with the first embodiment is omitted, and the same reference numerals are given to the common portions in the drawings, and only the fundamentally different points are described with reference to FIG. explain. FIG. 8 is a block diagram showing the configuration of a photographing condition estimation apparatus according to the third embodiment.
図8において、撮影条件推定システム3は、例えばインターネット等の広域ネットワーク及び/又は例えばLAN(Local Area Network)等の挟域ネットワークである、ネットワーク30を介して互いに接続された端末装置10とサーバ装置20とを備えて構成されている。
In FIG. 8, the photographing
端末装置10は、撮影画像取得手段11、絶対位置取得手段12、制御部13、記憶部14及び通信部15を備えて構成されている。
The
当該撮影条件推定システム3における撮影条件推定処理は、基本的には、上述した図2のフローチャートより示される撮影条件推定処理と同様である。
The photographing condition estimation process in the photographing
具体的には、端末装置10の撮影画像取得手段11は、過去画像を取り込み、過去画像情報が生成される(ステップS101)。次に、撮影画像取得手段11は、端末装置10のユーザが、過去画像に含まれる撮影対象物と同一の撮影対象物を、該撮影対象物の周辺の複数個所において撮影することにより生成された複数の周辺画像情報を取り込む(ステップS104)。
Specifically, the photographed image acquisition means 11 of the
次に、制御部13は、取得された過去画像情報及び複数の周辺画像情報、並びに、該複数の周辺画像情報に夫々対応する絶対位置情報を、通信部15及びネットワーク30を介してサーバ装置20に送信する。
Next, the
次に、サーバ装置20は、送信された過去画像情報及び複数の周辺画像情報、並びに、該複数の周辺画像情報に夫々対応する絶対位置情報から、過去画像の撮影時の絶対的なカメラ位置及び姿勢を求める(ステップS105〜S108)。サーバ装置20は、該求められた絶対的なカメラ位置及び姿勢に係る情報を、ネットワーク30を介して、端末装置10に送信する。
Next, based on the transmitted past image information and a plurality of peripheral image information, and the absolute position information respectively corresponding to the plurality of peripheral image information, the
次に、端末装置10の制御部13は、送信された絶対的なカメラ位置及び姿勢に係る情報に基づいて、過去画像の撮影時の絶対的なカメラ位置及び姿勢を、例えばモニタ(図示せず)上に表示して、ユーザに提示する(ステップS109)。
Next, based on the transmitted information on the absolute camera position and attitude, the
本実施例に係る「通信部15」は、本発明に係る「送信手段」及び「推定結果取得手段」の一例である。本実施例に係る「サーバ装置20」は、本発明に係る「外部装置」の一例である。
The “
本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う撮影条件推定装置及び方法、コンピュータプログラム並びに記録媒体もまた本発明の技術的範囲に含まれるものである。 The present invention is not limited to the above-described embodiment, but can be appropriately modified without departing from the scope or spirit of the invention as can be read from the claims and the specification as a whole. An apparatus and method, a computer program and a recording medium are also included in the technical scope of the present invention.
1、2…撮影条件推定装置、3…撮影条件推定システム、10…端末装置、11…撮影画像取得手段、12…絶対位置取得手段、13…制御部、14…記憶部、15…通信部、20…サーバ装置、30…ネットワーク 1, 2 ... photographing condition estimation device, 3 ... photographing condition estimation system, 10 ... terminal device, 11 ... photographed image acquisition means, 12 ... absolute position acquisition means, 13 ... control unit, 14 ... storage unit, 15 ... communication unit, 20: Server unit, 30: Network
Claims (1)
前記第1画像に含まれる対象物を撮影した第2画像に係る情報である第2画像情報を取得する第2画像取得手段と、
一の撮影装置により前記対象物が撮影され前記第2画像情報が生成された時の前記一の撮影装置の絶対位置に係る情報である絶対位置情報を取得する位置情報取得手段と、
前記取得された第1画像情報、前記取得された第2画像情報及び前記取得された絶対位置情報に基づいて、前記一の撮影装置又は前記一の撮影装置とは異なる他の撮影装置により前記対象物が撮影され前記第1画像の元となる情報が生成された時の前記一の撮影装置又は前記他の撮影装置の絶対位置を少なくとも推定する推定手段と、
を備えることを特徴とする撮影条件推定装置。 A first image acquisition unit that acquires first image information that is information related to a first image;
A second image acquisition unit that acquires second image information that is information related to a second image obtained by capturing an object included in the first image;
Position information acquiring means for acquiring absolute position information which is information relating to an absolute position of the one imaging device when the object is photographed by the one imaging device and the second image information is generated;
Based on the acquired first image information, the acquired second image information, and the acquired absolute position information, the target is acquired by the other imaging apparatus different from the one imaging apparatus or the one imaging apparatus Estimating means for at least estimating an absolute position of the one photographing apparatus or the other photographing apparatus when an object is photographed and information that is a source of the first image is generated;
An imaging condition estimation apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018210520A JP2019068429A (en) | 2018-11-08 | 2018-11-08 | Imaging condition estimation apparatus and method, terminal device, computer program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018210520A JP2019068429A (en) | 2018-11-08 | 2018-11-08 | Imaging condition estimation apparatus and method, terminal device, computer program, and recording medium |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014115833A Division JP2015231101A (en) | 2014-06-04 | 2014-06-04 | Imaging condition estimation apparatus and method, terminal device, computer program and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019068429A true JP2019068429A (en) | 2019-04-25 |
Family
ID=66340002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018210520A Pending JP2019068429A (en) | 2018-11-08 | 2018-11-08 | Imaging condition estimation apparatus and method, terminal device, computer program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019068429A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021181977A (en) * | 2020-06-04 | 2021-11-25 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Method and apparatus for visual positioning based on mobile edge computing |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010183150A (en) * | 2009-02-03 | 2010-08-19 | Hoya Corp | Camera capable of fixed-point shooting |
JP2011215973A (en) * | 2010-03-31 | 2011-10-27 | Aisin Aw Co Ltd | Scene matching reference data generation system and position measurement system |
JP2013042250A (en) * | 2011-08-12 | 2013-02-28 | Sony Corp | Imaging apparatus and imaging method |
-
2018
- 2018-11-08 JP JP2018210520A patent/JP2019068429A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010183150A (en) * | 2009-02-03 | 2010-08-19 | Hoya Corp | Camera capable of fixed-point shooting |
JP2011215973A (en) * | 2010-03-31 | 2011-10-27 | Aisin Aw Co Ltd | Scene matching reference data generation system and position measurement system |
JP2013042250A (en) * | 2011-08-12 | 2013-02-28 | Sony Corp | Imaging apparatus and imaging method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021181977A (en) * | 2020-06-04 | 2021-11-25 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Method and apparatus for visual positioning based on mobile edge computing |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9565364B2 (en) | Image capture device having tilt and/or perspective correction | |
KR102143456B1 (en) | Depth information acquisition method and apparatus, and image collection device | |
EP3134870B1 (en) | Electronic device localization based on imagery | |
KR101990073B1 (en) | Method and apparatus for shooting and storing multi-focused image in electronic device | |
WO2018142496A1 (en) | Three-dimensional measuring device | |
JP2015231101A (en) | Imaging condition estimation apparatus and method, terminal device, computer program and recording medium | |
KR100982192B1 (en) | A Method for Geo-tagging of Pictures and Apparatus thereof | |
US8937669B2 (en) | Image processing apparatus, control method thereof, and program | |
JP6304244B2 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
JPWO2015068470A1 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
JP5625844B2 (en) | Imaging method and imaging system | |
JP2019068429A (en) | Imaging condition estimation apparatus and method, terminal device, computer program, and recording medium | |
JP6210807B2 (en) | Display control device and control method of display control device | |
KR101598399B1 (en) | System for combining images using coordinate information of roadview image | |
JP6625654B2 (en) | Projection device, projection method, and program | |
WO2015087315A1 (en) | Methods and systems for remotely guiding a camera for self-taken photographs | |
JP2005286747A (en) | Text information providing apparatus and text information providing method | |
JP2011182341A (en) | Imaging device and method of controlling imaging device | |
JP2008064970A (en) | Camera photographing support system | |
JP2004354234A (en) | Camera calibration method for photogrammetry | |
JP2004242288A (en) | Video reproducing apparatus and video recording and reproducing apparatus | |
KR20190056650A (en) | Method for controlling PTZ camera using values obtained by analyzing images obtained from a fixed camera | |
JP2020043528A (en) | Image processing apparatus, control method thereof, and program | |
JP2018005611A (en) | Information processing equipment | |
JP2015022630A (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190805 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191001 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200414 |