JP2022066278A - カメラテストシステムおよびカメラテスト方法 - Google Patents

カメラテストシステムおよびカメラテスト方法 Download PDF

Info

Publication number
JP2022066278A
JP2022066278A JP2022027115A JP2022027115A JP2022066278A JP 2022066278 A JP2022066278 A JP 2022066278A JP 2022027115 A JP2022027115 A JP 2022027115A JP 2022027115 A JP2022027115 A JP 2022027115A JP 2022066278 A JP2022066278 A JP 2022066278A
Authority
JP
Japan
Prior art keywords
projector
luminance
image data
image
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022027115A
Other languages
English (en)
Other versions
JP7260937B2 (ja
Inventor
ピエール コプフ
Kopff Pierre
宏之 ▲徳▼茂
Hiroyuki Tokushige
ラファエル ラベラード
Labayrade Raphael
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Octec Inc
Original Assignee
Octec Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Octec Inc filed Critical Octec Inc
Publication of JP2022066278A publication Critical patent/JP2022066278A/ja
Application granted granted Critical
Publication of JP7260937B2 publication Critical patent/JP7260937B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/006Electronic inspection or testing of displays and display drivers, e.g. of LED or LCD displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Projection Apparatus (AREA)

Abstract

【課題】光学的な環境条件がカメラに及ぼす影響を試験できるカメラテストシステム等を提供すること。【解決手段】プロジェクタ31、スクリーン33、および、情報処理装置を備えるカメラテストシステムにおいて、前記情報処理装置は、画像データを取得する画像データ取得部と、テスト対象カメラ15の位置から測定した前記スクリーン33の各位置における輝度を補正する輝度補正情報を取得する輝度補正情報取得部と、前記画像データを、前記輝度補正情報に基づいて前記画像の位置ごとに補正する輝度補正部と、前記輝度補正部が補正した画像データに対応する前記入力信号を前記プロジェクタ31に出力する出力部とを有し、前記スクリーン33を挟んで前記プロジェクタ31の反対側に配置されたテスト対象カメラ15により前記スクリーン33に投影された画像を撮影する。【選択図】図1

Description

本発明は、カメラテストシステムおよびカメラテスト方法に関する。
車両の運転操作を自動的に行なう自動運転技術が開発されている(特許文献1)。自動運転車両は、車体に取り付けたカメラにより撮影した画像の解析結果等を用いて、車両の運転操作を行なう。
カメラを含め、車載用の電子機器は、高温、低温、電磁界ノイズ、電圧変動および振動等の、さまざまな厳しい環境条件に耐えうる特性のものが選定されている。
特開2020-55526号公報
しかしながら、対向車のヘッドライトによる照射、または、トンネルの前後での明るさの変化等の、光学的な環境条件がカメラに及ぼす影響については、十分な試験を行なうことが難しかった。
一つの側面では、光学的な環境条件がカメラに及ぼす影響を試験できるカメラテストシステム等を提供することを目的とする。
カメラテストシステムは、プロジェクタ、リアプロジェクション用スクリーン、および、情報処理装置を備えるカメラテストシステムにおいて、前記情報処理装置は、前記リアプロジェクション用スクリーンに投影する画像データを取得する画像データ取得部と、テスト対象カメラを配置する位置から測定した前記リアプロジェクション用スクリーンの各位置における輝度を、前記画像データに含まれる画像の各位置に対応する輝度情報に合わせて補正する輝度補正情報を取得する輝度補正情報取得部と、前記画像データを、前記輝度補正情報に基づいて前記画像の位置ごとに補正する輝度補正部と、前記輝度補正部が補正した画像データに対応する入力信号を前記プロジェクタに出力する出力部とを有し、前記プロジェクタは、前記入力信号に基づく画像を前記リアプロジェクション用スクリーンに投影し、前記リアプロジェクション用スクリーンを挟んで前記プロジェクタの反対側に配置されたテスト対象カメラにより、前記リアプロジェクション用スクリーンに投影された画像を撮影する。
一つの側面では、光学的な環境条件がカメラに及ぼす影響を試験できるカメラテストシステム等を提供できる。
情報処理システムの概要を説明する説明図である。 輝度分布測定の概要を説明する説明図である。 輝度分布測定の概要を説明する説明図である。 準備段階の情報処理システムの構成を説明する説明図である。 プロジェクタへの入力階調値と輝度との関係を示すグラフである。 輝度実測DBのレコードレイアウトを説明する説明図である。 輝度補正DBのレコードレイアウトを説明する説明図である。 準備段階のプログラムの処理の流れを示すフローチャートである。 補正値算出のサブルーチンの処理の流れを示すフローチャートである。 使用段階のプログラムの処理の流れを示すフローチャートである。 実施の形態2の使用段階のプログラムの処理の流れを示すフローチャートである。 実施の形態3の変形取得段階の情報処理システムの構成を示す説明図である。 実施の形態3の輝度分布取得段階の情報処理システムの構成を示す説明図である。 プロジェクタおよびスクリーンの配置を説明する説明図である。 上側からプロジェクタとスクリーンとを見た図である。 右側からプロジェクタとスクリーンとを見た図である。 プロジェクタの投影状態を説明する説明図である。 プロジェクタの投影状態を説明する説明図である。 プロジェクタの投影状態を説明する説明図である。 プロジェクタの投影状態を説明する説明図である。 実施の形態3の輝度の測定結果の一例を説明する説明図である。 実施の形態3の準備段階のプログラムの処理の流れを示すフローチャートである。 変形取得のサブルーチンの処理の流れを示すフローチャートである。 輝度分布取得のサブルーチンの処理の流れを示すフローチャートである。 実施の形態3の使用段階のプログラムの処理の流れを示すフローチャートである。 上側からプロジェクタと、補助プロジェクタと、スクリーンとを見た図である。 プロジェクタの背面側から、プロジェクタと、補助プロジェクタと、スクリーンとを見た図である。 実施の形態4のプロジェクタの投影状態を説明する説明図である。 実施の形態5のプロジェクタおよびスクリーンの配置を説明する説明図である。 実施の形態6の使用段階の情報処理システムの構成を示す説明図である。 実施の形態7の情報処理装置の動作を示す機能ブロック図である。 実施の形態8の情報処理システムの構成を示す説明図である。 プロジェクタから投影する画像の座標と、使用範囲の座標との変換を説明する説明図である。 プロジェクタから投影する画像の座標と、使用範囲の座標との変換を説明する説明図である。 使用範囲座標と、元画像データとの変換を説明する説明図である。 使用範囲座標と、元画像データとの変換を説明する説明図である。 第1変換DBのレコードレイアウトを説明する説明図である。 第2変換DBのレコードレイアウトを説明する説明図である。 実施の形態9のプログラムの処理の流れを示すフローチャートである。 第1プロジェクタから第4プロジェクタまでをスクリーンに投影した状態を示す。 図33Aに使用範囲を重畳した状態を示す。 実施の形態9の第2変形例を説明する説明図である。 実施の形態9の第2変形例を説明する説明図である。
[実施の形態1]
図1は、情報処理システム10の概要を説明する説明図である。本実施の形態の情報処理システム10は、たとえば車載カメラ等のテスト対象カメラ15の評価に使用される。
情報処理システム10は、情報処理装置20(図3参照)と、情報処理装置20に接続された表示装置30とを含む。表示装置30は、プロジェクタ31と、リアプロジェクション用のスクリーン33とを含む。テスト対象カメラ15は、スクリーン33を介してプロジェクタ31の反対側に配置される。
情報処理装置20には、実輝度に対応する輝度情報を含む実輝度画像データが入力される。ここで「実輝度」は、目的の輝度、三刺激値など固有の分光感度曲線を持ち、分光放射輝度から一意に値が定まる物理量もしくは分光放射輝度を意味する。「実輝度で表示する」とは、上記の絶対的な物理量を再現し、画像を表示することを意味する。
実輝度画像データは、たとえば高解像度の二次元色彩輝度計36により撮影された実写画像である。実輝度画像データは、輝度キャリブレーションを行い実輝度の撮影を行なえるようにしたデジタルカメラにより撮影された実写画像であっても良い。実輝度画像データは、物理理論に基づくシミュレーションにより作成したシミュレーション画像であっても良い。実輝度画像データは、ハイパースペクトルカメラ等で撮影されたスペクトル画像であっても良い。
実輝度画像データは、たとえば、各画素をCIE(Commission Internationale de l'Eclairage(Eはアキュートアクセント付き):国際照明委員会)で定めるCIE表色系の三刺激値データX、Y、Zを用いて表現した画像データである。各画素は、CIELAB(CIE L*a*b*)値、CIERGB(CIE Red Green Blue)値、または、CIELMS(CIE Long Medium Short)値等、固有の分光感度曲線を持ち、分光放射輝度から一意に値が定まる物理量により表現される。物理量は3次元に限定しない。1次元、2次元または4次元以上の物理量であっても良い。実輝度画像データは、各画素の分光放射輝度を記録した画像データであっても良い。
実輝度画像データは、JPEG(Joint Photographic Experts Group)またはPNG(Portable Network Graphics)等の一般的なフォーマットの画像データまたは動画データと、これらのデータに記録されているRGB階調値と輝度とを対応づけたリファレンス情報等とがセットになったデータであっても良い。
実輝度画像データは、JPEGまたはPNG等の一般的なフォーマットの画像データまたは動画データと、これらのデータに記録されているRGB階調値と、輝度と、撮影機器のガンマ値および色域情報とを対応づけたデータであっても良い。
実輝度画像データは、後述する輝度補正情報に基づき輝度補正される。輝度補正後の画像データは、プロジェクタ31に入力される。プロジェクタ31は、入力された画像データに基づいて、スクリーン33に画像を投影する。なお、本実施の形態に置いては、プロジェクタ31は、入力画像の左右を反転して投影する、いわゆるリアプロジェクションを行なう。
スクリーン33に投影されたリアプロジェクション画像を、スクリーン33を挟んでプロジェクタ31と略正対する位置から観察する場合を例に説明する。一般的に、リアプロジェクション画像はプロジェクタ31の配光特性と、スクリーン33の指向性との影響により、中央部の輝度が高く、周縁部の輝度が低く見える。たとえば、観察する位置が右側に移動した場合、輝度が高い部分も右側に移動して見える。
輝度補正情報は、このように観察する位置によって変化する輝度分布および輝度の絶対値を補正する情報である。以後の説明では、輝度補正情報を作成するまでの段階を準備段階という。以後の説明においては、輝度補正情報を作成する際に輝度を測定する位置を測定位置と記載する。
準備段階が終了した後で、本実施の形態の情報処理システム10を使用する。使用段階においては、測定位置に対応する輝度補正情報を用いて補正した実輝度画像データを、プロジェクタ31に入力してスクリーン33に投影する。測定位置からは、実輝度画像データに忠実な実輝度の画像を見ることができる。測定位置に、テスト対象カメラ15を配置することにより、テスト対象カメラ15により実輝度の画像を撮影することができる。
以上に説明したシステムを用いてテスト対象カメラ15を試験することにより、たとえば対向車のヘッドライト等により生じるレンズフレアおよびゴースト、または、トンネルの前後での明るさの変化等が、テスト対象カメラ15が撮影する画像に及ぼす影響を評価することができる。複数の機種のテスト対象カメラ15を同一の条件で評価することが容易であるので、たとえば車載カメラの機種選定等に有用な情報を得ることができる。
図2は、輝度分布測定の概要を説明する説明図である。図2Aに示すように、プロジェクタ31からスクリーン33に対して、全面が灰色、白色または黒色の画像を投影する。以後の説明においては、白色および黒色も含めて灰色と記載する。測定位置に配置された輝度計36を用いて、投影された画像の各位置における輝度を測定する。
輝度測定の終了後、プロジェクタ31からスクリーン33に投影する灰色の明度を変更し、再度輝度を測定する。以上により、プロジェクタ31から様々な明度の灰色画像を投影した際の、画像の各位置における輝度を測定する。
なお、本実施の形態においては、輝度計36には高解像度の二次元色彩輝度計36を使用する。輝度計36には、二次元輝度計を使用しても良い。1点の輝度を測定することが可能な輝度計36の向きを変化させることにより、スクリーン33上を機械的に走査して、各位置における輝度を測定しても良い。
図2Bは、輝度の測定結果の一例を示す。投影範囲の中央部は高輝度であり、端にいくほど低輝度である。輝度の分布状態は、測定位置に加えて、プロジェクタ31の個体差、および、プロジェクタ31とスクリーン33との位置関係によっても変化する。輝度の分布状態は、プロジェクタ31の光源であるランプの経時劣化によっても変化する。
図3は、準備段階の情報処理システム10の構成を説明する説明図である。準備段階の情報処理システム10は、情報処理装置20、表示装置30および輝度計36を備える。
情報処理装置20は、CPU(Central Processing Unit)21、主記憶装置22、補助記憶装置23、通信部24、出力I/F(Interface)25、入力I/F26およびバスを備える。本実施の形態の情報処理装置20は汎用のパソコンまたはタブレット等の情報処理装置である。
CPU21は、本実施の形態にかかるプログラムを実行する演算制御装置である。CPU21には、一もしくは複数のCPUもしくはマルチコアCPU等が使用される。CPU21には、一もしくは複数のCPUもしくはマルチコアCPUの代わりに、または一もしくは複数のCPUもしくはマルチコアCPUと共に、FPGA(Field Programmable Gate Array)、CPLD(Complex Programmable Logic Device)、ASIC(Application Specific Integrated Circuit)またはGPU(Graphics Processing Unit)が使用されても良い。CPU21は、バスを介して情報処理装置20を構成するハードウェア各部と接続されている。
主記憶装置22は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の記憶装置である。主記憶装置22には、情報処理装置20が行なう処理の途中で必要な情報および情報処理装置20で実行中のプログラムが一時的に保存される。
補助記憶装置23は、SRAM、フラッシュメモリ、ハードディスクまたは磁気テープ等の記憶装置である。補助記憶装置23には、CPU21に実行させるプログラム、輝度実測DB(Database)51、輝度補正DB52およびプログラムの実行に必要な各種情報が保存される。
輝度実測DB51および輝度補正DB52は、ネットワーク等を介して情報処理装置20に接続された別の記憶装置に記憶されても良い。各DBの詳細については後述する。通信部24は、ネットワークとの通信を行なうインターフェイスである。
出力I/F25は、表示装置30に表示する画像データを出力するインターフェイスである。入力I/F26は、輝度計36から輝度測定結果を取得するインターフェイスである。なお、入力I/F26は、輝度計36を使用してあらかじめ測定したデータを、SD(Secure Digital)メモリカード等の可搬型記録媒体から読み取るインターフェイスであっても良い。
表示装置30は、スクリーン33とプロジェクタ31とを備える。スクリーン33は、リアプロジェクション用である。スクリーン33は、本実施の形態の表示部の一例である。
なお、表示装置30は、フロントプロジェクション可能なプロジェクタ31と、フロントプロジェクション用のスクリーン33とを備えても良い。表示装置30は、液晶表示パネルまたは有機EL(Electro Luminescence)表示パネル等、任意の表示パネルを備えても良い。
使用段階においては、輝度計36の代わりに、たとえば図1に示すようにテスト対象カメラ15を配置する。テスト対象カメラ15は、入力I/F26に接続する必要はない。
図4は、プロジェクタ31への入力階調値と輝度との関係を示すグラフである。図4の横軸は、出力I/F25を介してプロジェクタ31に入力した全面が灰色の画像の階調値を示す。本実施の形態においては、プロジェクタ31への入力は8ビットであり、0から255までの256階調を入力可能である。入力階調値が0である場合は黒色を、入力階調値が255である場合は白色を意味する。なお、プロジェクタ31への入力は、8ビットより大きいビット数であっても良い。
図4の縦軸は、輝度計36により測定された輝度と最大輝度との比、すなわち表示領域中の最大輝度で規格化した輝度実測値を示す。実線は、スクリーン33中央部の測定結果を、破線はスクリーン33端部の測定結果の例を示す。入力階調値が大きいほど、輝度実測値は大きくなる。同一の入力階調値であっても、中央部にくらべて端部の輝度実測値は低い。
図5は、輝度実測DB51のレコードレイアウトを説明する説明図である。輝度実測DB51は、スクリーン33上の位置と、輝度計36による輝度の実測値とを関連づけて記録するDBである。輝度実測DB51は、位置フィールドと、輝度実測値フィールドとを有する。輝度実測値フィールドは、入力階調値10フィールド、入力階調値20フィールドおよび入力階調値255フィールド等、任意の数の入力階調値フィールドを有する。
位置フィールドには、スクリーン33上の位置がX座標とY座標とにより記録されている。本実施の形態においては、X座標およびY座標は、二次元色彩輝度計36の測定画素の位置により表現する。入力階調値10フィールドには、出力I/F25からプロジェクタ31に入力階調値10を入力し、プロジェクタ31より全面が10の入力階調値に対応する濃い灰色の画面が出力された場合の、各位置における輝度実測値が記録されている。輝度実測値の単位は、カンデラ/平方メートルである。
同様に、入力階調値20フィールドには、出力I/F25からプロジェクタ31に入力階調値20を入力した場合の、各位置における輝度実測値が記録されている。入力階調値255フィールドには、出力I/F25からプロジェクタ31に入力階調値255を入力した場合の、各位置における輝度実測値が記録されている。
図6は、輝度補正DB52のレコードレイアウトを説明する説明図である。輝度補正DB52は、スクリーン33上の位置と、所定の表示輝度値を得るために出力I/F25からプロジェクタ31に入力する入力階調値とを関連づけて記録するDBである。輝度補正DB52に記録される情報は、本実施の形態の輝度補正情報の一例である。
輝度補正DB52は、位置フィールドと入力階調値フィールドとを有する。入力階調値フィールドは、表示輝度値100フィールド、表示輝度値200フィールド、表示輝度値5000フィールドおよび表示輝度値10000フィールド等、任意の数の表示輝度値フィールドを有する。
位置フィールドには、スクリーン33上の位置がX座標とY座標とにより記録されている。表示輝度値100フィールドには、測定位置に配置した輝度計36により測定した表示輝度値が100カンデラ/平方メートルである場合の出力I/F25からプロジェクタ31に入力する入力階調値が記録されている。
同様に、表示輝度値200フィールドには、測定位置に配置した輝度計36により測定した表示輝度値が200カンデラ/平方メートルである場合の出力I/F25からプロジェクタ31に入力する入力階調値が記録されている。表示輝度値5000フィールドには、測定位置に配置した輝度計36により測定した表示輝度値が5000カンデラ/平方メートルである場合の出力I/F25からプロジェクタ31に入力する入力階調値が記録されている。
図5と図6とを使用して具体例を説明する。図5に示すように、位置(1,1)において入力階調値が10である場合の輝度実測値は100カンデラ/平方メートルである。したがって、図6に示すように、位置(1,1)において表示輝度値100カンデラ/平方メートルを得るために必要な入力階調値は10である。
図6において「-」は、当該輝度が得られないことを示す。たとえば、位置(1,1)においては、入力階調値を大きくした場合であっても、10000カンデラ/平方メートルの表示輝度は得られない。
なお、図6の表示輝度値フィールドに合致する輝度が図5に示す輝度実測DB51に記録されていない場合には、線形補間等の任意の方式の補間処理によって得られた入力階調値が、表示輝度値フィールドに記録される。
図7は、準備段階のプログラムの処理の流れを示すフローチャートである。図7に示すプログラムは、スクリーン33およびプロジェクタ31の設置およびピント合わせ等が終了し、測定位置に輝度計36を配置した後に実行される。
CPU21は、入力階調値を決定する(ステップS501)。入力階調値には、たとえば10階調毎等の、任意の値を定めることができる。CPU21は、表示装置30に輝度分布評価画像を表示する(ステップS502)。具体的には、CPU21は、出力I/F25を介してプロジェクタ31に全面がステップS501で定めた階調値に対応する輝度分布評価画像の画像データを出力する。プロジェクタ31は、入力された画像データに基づきスクリーン33に画像を投影する。これにより、スクリーン33に輝度分布評価画像が表示される。なお、輝度分布評価画像は、たとえば階調の異なる部分をチェッカーボード状に配置した画像であっても良い。
CPU21は、輝度計36および入力I/F26を介して、輝度分布の測定値を取得する(ステップS503)。CPU21は、輝度実測DB51の各座標位置に対応するレコードの、ステップS501で決定した入力階調値に対応するフィールドに、測定値を記録する(ステップS504)。
CPU21は、所定の入力階調値の測定が終了したか否かを判定する(ステップS505)。終了していないと判定した場合(ステップS505でNO)、CPU21はステップS501に戻る。終了したと判定した場合(ステップS505でYES)、CPU21は補正値算出のサブルーチンを起動する(ステップS506)。補正値算出のサブルーチンは、輝度実測DB51に基づいて輝度補正DB52を作成するサブルーチンである。補正値算出のサブルーチンの処理の流れは後述する。
CPU21は、輝度補正DB52をプロジェクタ31に入力する入力データの解像度に合わせて補間する(ステップS507)。具体的には、CPU21は、プロジェクタ31の表示画素数と、輝度補正DB52のレコード数とが一致するように、輝度補正DB52にレコードを追加する。CPU21は、任意の補間手法に基づいて、追加したレコードの各フィールドに対する入力階調値を記録する。さらに、CPU21は、位置フィールドのデータをプロジェクタ31の画素位置に合わせて修正する。その後、CPU21は処理を終了する。
図8は、補正値算出のサブルーチンの処理の流れを示すフローチャートである。CPU21は、輝度補正DB52を初期化する(ステップS511)。具体的には、CPU21は既存の輝度補正DB52のレコードを削除し、輝度実測DB51と同じ数のレコードを作成する。CPU21は、各レコードの位置フィールドに、輝度実測DB51の位置フィールドと同一のデータを記録する。
CPU21は、輝度実測DB51から一つのレコード、すなわち一つの位置における入力階調値と輝度値との関係を示す測定結果を取得する(ステップS512)。
CPU21は、輝度補正DB52の各表示輝度値フィールドの輝度値に対応する入力階調値を算出する(ステップS513)。CPU21は、ステップS512で取得したデータをたとえば線形補間することにより、所定の表示輝度値に対する入力階調値を算出する。CPU21は、ステップS512で取得したデータに基づき、たとえば最小二乗法等により入力階調値と表示輝度値との関係を示す関数を算出し、算出した関数に基づいて所定の表示輝度値に対する入力階調値を算出しても良い。
CPU21は、ステップS512で取得した位置に対応する輝度補正DB52のレコードに、ステップS513で算出した表示輝度値毎の入力階調値を記録する(ステップS514)。
CPU21は、輝度実測DB51のすべてのレコードの処理を終了したか否かを判定する(ステップS515)。終了していないと判定した場合(ステップS515でNO)、CPU21はステップS512に戻る。終了したと判定した場合(ステップS515でYES)、CPU21は処理を終了する。
図9は、使用段階のプログラムの処理の流れを示すフローチャートである。CPU21は、補助記憶装置23またはネットワークを介して接続された他のサーバ等から、元画像データを取得する(ステップS521)。CPU21は、HDMI(登録商標)(High Definition Multimedia Interface)等のインターフェイスを介して元画像データを取得しても良い。元画像データは、シミュレーションソフトにより生成されても良い。CPU21は、外部から取得した元画像データを、補助記憶装置23に保存し、再度取得しても良い。元画像データは、実輝度の情報を含む実輝度画像データである。ステップS521により、CPU21は本実施の形態の第2取得部の機能を実現する。
CPU21は、ステップS521で取得した画像中の1つの画素の輝度値を取得する(ステップS522)。CPU21は、輝度補正DB52よりステップS522で取得した画素の位置に対応するレコードを抽出する。CPU21は、ステップS522で取得した輝度値に対応するフィールドの入力階調値を取得する(ステップS523)。ステップS523により、CPU21は本実施の形態の第1取得部の機能を実現する。
なお、輝度補正DB52がステップS522で取得した輝度値に対応するフィールドを有さない場合には、CPU21は補間により入力階調値を算出する。
CPU21は、ステップS522で取得した画素の位置に関連づけて、ステップS523で取得した入力階調値を記録する(ステップS524)。ステップS524により、CPU21は本実施の形態の輝度補正部の機能を実現する。CPU21は、元画像データのすべての画素の処理を終了したか否かを判定する(ステップS525)。終了していないと判定した場合(ステップS525でNO)、CPU21はステップS522に戻る。
終了したと判定した場合(ステップS525でYES)、CPU21はステップS524で記録した各画素の入力階調値に基づき出力I/F25を介してプロジェクタ31に対して画像データを出力する(ステップS526)。ステップS526により、CPU21は本実施の形態の出力部の機能を実現する。プロジェクタ31は、入力された画像データに基づき画像をスクリーン33に投影する。その後、CPU21は処理を終了する。
以上の処理により、測定位置から見た場合に、スクリーン33には実輝度の画像が表示される。
本実施の形態によると、輝度の絶対値に応じた表示を実現できる情報処理装置20等を提供することができる。
たとえば、測定位置にテスト対象カメラ15を配置して、スクリーン33を撮影することにより、実輝度画像を用いてテスト対象カメラ15の評価を行なうことができる。
本実施の形態の情報処理システム10を用いることにより、たとえば対向車のヘッドライト等により生じるレンズフレアおよびゴースト、または、トンネルの前後での明るさの変化等が、テスト対象カメラ15が撮影する画像に及ぼす影響を評価することができる。
実輝度画像は、動画であっても良い。プロジェクタ31からスクリーン33に投影する画像を所定のフレームレートで切り替えることにより、スクリーン33に実輝度の動画を表示することができる。これにより、たとえば、車載カメラで撮影した画像に基づいた自動運転動作の検証等を行なうこともできる。また、実輝度画像を用いた運転シミュレーション等を提供することもできる。
[実施の形態2]
本実施の形態は、複数の測定位置に対して輝度補正情報を作成し、テスト対象カメラ15等を設置した位置に最も近い測定位置に基づいて補正した画像を表示する情報処理装置20に関する。実施の形態1と共通する部分については、説明を省略する。
本実施の形態においては、図7を使用して説明した準備段階の処理を、複数の測定位置について実施する。それぞれの測定位置に対応する輝度補正DB52が、補助記憶装置23に記憶される。
図10は、実施の形態2の使用段階のプログラムの処理の流れを示すフローチャートである。CPU21は、たとえば位置センサ等の位置取得部から、テスト対象カメラ15等の位置を取得する(ステップS531)。
CPU21は、ステップS531で取得した位置と、事前に輝度補正情報を作成した複数の測定位置それぞれとの間の距離を算出する(ステップS532)。CPU21は、輝度補正に使用する測定位置を選択する(ステップS533)。以後の処理は、選択した測定位置に対応する輝度補正DB52を使用して実施する。
なお、ステップS533においては、ステップS531で取得した位置と最も近い測定位置を選択することができる。ステップS533において、ステップS531で取得した位置に近い複数の測定位置を選択し、データ補間によりステップS531で取得した位置における測定値を推測しても良い。
CPU21は、補助記憶装置23またはネットワークを介して接続された他のサーバ等から、元画像データを取得する(ステップS521)。以後の処理は、図9を用いて説明した実施の形態1のプログラムの処理と同様であるので、説明を省略する。
本実施の形態によると、複数の測定位置の中から最も近い測定位置を選択して、輝度補正を行なう情報処理システム10を実現できる。たとえば、テスト対象カメラ15の位置を変更した場合であっても、実輝度画像を表示することが可能な情報処理システム10を実現できる。
図7を使用して説明したプログラムのステップS502において、R(Red)、G(Green)、B(Blue)の三原色についてそれぞれ個別に輝度表示画像を表示し、三原色それぞれについて輝度実測DB51および輝度補正DB52を作成しても良い。色収差等に起因する色むらの発生を防止する情報処理システム10を実現できる。
[実施の形態3]
本実施の形態は、複数のプロジェクタ31からスクリーン33に投影する画像を重畳する情報処理システム10に関する。実施の形態1と共通する部分については、説明を省略する。
本実施の形態においては、準備段階は変形取得段階と輝度分布取得段階の2つの段階を有する。図11は、実施の形態3の変形取得段階の情報処理システム10の構成を示す説明図である。
変形取得段階の情報処理システム10は、情報処理装置20、表示装置30および輝度計36を備える。
情報処理装置20は、CPU21、主記憶装置22、補助記憶装置23、通信部24、出力I/F25、入力I/F26、モニタ27およびバスを備える。モニタ27は、情報処理装置20に設けられた、たとえば液晶表示装置等である。本実施の形態の情報処理装置20は汎用のパソコンまたはタブレット等の情報処理装置20である。
表示装置30は、スクリーン33と、第1プロジェクタ311、第2プロジェクタ312等の複数のプロジェクタ31を含む。以下の説明においては、個々のプロジェクタ31を区別する必要がない場合には、プロジェクタ31と記載する。プロジェクタ31の配置については、後述する。
入力I/F26に、カメラ37が接続される。カメラ37は、スクリーン33を挟んでプロジェクタ31に対向する位置に配置される。カメラ37は、第1プロジェクタ311等と同じ側で、プロジェクタ31の投光経路を遮らない位置に配置されても良い。カメラ37は、高解像度のデジタルカメラである。
図12は、実施の形態3の輝度分布取得段階の情報処理システム10の構成を示す説明図である。輝度分布取得段階においては、カメラ37が輝度計36に変更される。
図13および図14は、プロジェクタ31およびスクリーン33の配置を説明する説明図である。図13は、プロジェクタ31の背面側から、プロジェクタ31とスクリーン33とを見た図である。図14Aは、上側からプロジェクタ31とスクリーン33とを見た図である。図14Bは、右側からプロジェクタ31とスクリーン33とを見た図である。図14においては、各プロジェクタ31からスクリーン33への投影状態を模式的に示す。
実施の形態においては、左右方向に3台、上下方向に2台の合計6台のプロジェクタ31を使用する。左右方向の両端のプロジェクタ31は、それぞれ真ん中のプロジェクタ31の光軸の方を向くように略扇形に配置されている。
複数のプロジェクタ31が一つの筐体に収容されて、外観上は1台の統合プロジェクタに見える形態で提供されても良い。統合プロジェクタの形態で提供される場合、複数のプロジェクタ31の全部または一部は、たとえば投影レンズ、リレー光学系または空間光変調器等の、光学コンポーネントを共有しても良い。複数のプロジェクタ31の全部または一部は、光学経路を共有しても良い。複数のプロジェクタ31の全部または一部は、電源回路、制御回路等を共有しても良い。
図14に示すように、プロジェクタ31は、レンズシフト機能を用いてスクリーン33上の略同一の範囲に画像を投影するように調整され、ピント合わせが行なわれる。なお、図13および図14に示すプロジェクタ31の配置は一例であり、任意の数のプロジェクタ31を任意の位置に配置して使用することができる。
図15は、プロジェクタ31の投影状態を説明する説明図である。図15においては、第1プロジェクタ311と第2プロジェクタ312の二つのプロジェクタ31を用いて説明する。
それぞれのプロジェクタ31の設置位置およびレンズシフトの調整を行なうことにより、投影範囲をできるだけ一致させるように調整した場合であっても、図15Aに示すようにそれぞれのプロジェクタ31の投影範囲には相違が生じる。
CPU21は、プロジェクタ31を1台ずつ動作させ、それぞれのプロジェクタ31による投影範囲を、カメラ37を介して取得する。CPU21は、図15Bに示すように、各プロジェクタ31による投影範囲を重畳して、モニタ27に表示する。ユーザは、たとえばマウスによるドラッグ等の操作により、使用範囲を入力することができる。
CPU21は、各プロジェクタ31による投影範囲に含まれる、所定の縦横比の長方形を算出することにより、使用範囲を自動的に定めても良い。以後の説明においては、使用範囲における座標を用いてスクリーン33上の位置を示す。
使用範囲は、たとえば3台以上等の任意の台数のプロジェクタ31による投影範囲に定めても良い。
図16は、プロジェクタ31の投影状態を説明する説明図である。図16においても、第1プロジェクタ311と第2プロジェクタ312の二つのプロジェクタ31を用いて説明する。
CPU21は、それぞれのプロジェクタ31に対して、使用範囲に所定の画像を投影するように元画像を変形した画像データを出力する。プロジェクタ31は、図16Aに示すように、入力された画像をスクリーン33に投影する。図16Bに示すように、それぞれの画像がスクリーン33上で重畳することにより、スクリーン33の使用範囲に高輝度の画像が表示される。
図17は、実施の形態3の輝度の測定結果の一例を説明する説明図である。図17は、すべてのプロジェクタ31から使用範囲に対して、それぞれ一様な灰色の画像を同時に投影した場合に、輝度計36を用いて測定した測定結果を示す。輝度計36は、使用範囲の輝度を測定するように配置される。図17に示すように、プロジェクタ31の台数に対応する高輝度部分が形成される。
実施の形態1と同様に、輝度分布を補正した画像データをそれぞれのプロジェクタ31に入力することにより、実輝度の画像をスクリーン33に表示できる。また、1台のプロジェクタ31では再現できない高輝度の画像をスクリーン33に表示できる。
図18は、実施の形態3の準備段階のプログラムの処理の流れを示すフローチャートである。CPU21は、変形取得のサブルーチンを起動する(ステップS551)。変形取得のサブルーチンは、図15を使用して説明したように、それぞれのプロジェクタ31による投影範囲に基づいて使用範囲を取得し、図16Aを使用して説明したようにプロジェクタ31に入力する画像を変形する形状補正情報を記録するサブルーチンである。変形取得のサブルーチンの処理の流れは後述する。
CPU21は、輝度分布取得のサブルーチンを起動する(ステップS552)。輝度分布取得のサブルーチンは、図17を使用して説明した輝度の分布を測定し、輝度補正DB52を作成するサブルーチンである。輝度分布取得のサブルーチンの処理の流れは後述する。CPU21は、その後処理を終了する。
図19は、変形取得のサブルーチンの処理の流れを示すフローチャートである。CPU21は、1台のプロジェクタ31を選択する(ステップS561)。CPU21は、表示装置30に変形取得用の画像を表示する(ステップS562)。たとえば、CPU21は、出力I/F25を介してプロジェクタ31から全面の輝度値が最大値である変形取得用の画像を投影する。これにより、スクリーン33に白色画像が表示される。
なお、変形取得用の画像は、白い正方形と黒い正方形とを交互に配列した、いわゆるチェッカーボード様の画像等、任意の画像であっても良い。以下の説明においては、全面が白色の白色画像を変形取得用の画像に使用する場合を例にして説明する。
CPU21は、カメラ37を介して白色画像の投影範囲を取得し、補助記憶装置23に記録する(ステップS563)。CPU21は、すべてのプロジェクタ31の処理を終了したか否かを判定する(ステップS564)。終了していないと判定した場合(ステップS564でNO)、CPU21はステップS561に戻る。
終了したと判定した場合(ステップS564でYES)、CPU21は図15Bを使用して説明した使用範囲を決定する(ステップS565)。CPU21は、たとえばユーザによる入力を受け付けることにより、使用範囲を決定する。CPU21は、各プロジェクタ31による投影範囲に含まれる、所定の縦横比の長方形を算出することにより、使用範囲を自動的に定めても良い。
CPU21は、一つのプロジェクタ31について、ステップS563で記録した投影範囲を取得する(ステップS566)。CPU21は、取得した投影範囲と、ステップS565で決定した使用範囲とに基づいて、図16Aを使用して説明したように元画像を変形することでスクリーン33上に投影される画像を補正する形状補正情報を算出して、補助記憶装置23に記憶する(ステップS567)。形状補正情報は、たとえば画像を座標変換することにより変形させる行列により表現することができる。画像の変形については、従来から使用されているので、説明を省略する。
CPU21は、すべてのプロジェクタ31の処理を終了したか否かを判定する(ステップS568)。終了していないと判定した場合(ステップS568でNO)、CPU21はステップS566に戻る。終了したと判定した場合(ステップS568でYES)、CPU21は処理を終了する。
図20は、輝度分布取得のサブルーチンの処理の流れを示すフローチャートである。輝度分布取得のサブルーチンは、図17を使用して説明した輝度の分布を測定し、輝度補正DB52を作成するサブルーチンである。
CPU21は、入力階調値を決定する(ステップS571)。入力階調値には、たとえば10階調毎等の、任意の値を定めることができる。CPU21は、補助記憶装置23に記憶された形状補正情報に基づいて、輝度分布評価画像を作成する(ステップS572)。具体的には、CPU21は、図15Bを使用して説明した使用範囲に、ステップS571で定めた入力階調値の画像を投影する画像データを作成して、補助記憶装置23に記憶する。
CPU21は、すべてのプロジェクタ31の処理を終了したか否かを判定する(ステップS573)。終了していないと判定した場合(ステップS573でNO)、CPU21はステップS572に戻る。
終了したと判定した場合(ステップS573でYES)、CPU21は輝度分布評価画像を表示する(ステップS574)。具体的には、CPU21は出力I/F25を介して、それぞれのプロジェクタ31にステップS572で作成した輝度分布評価画像の画像データを出力する。プロジェクタ31は、入力された画像データに基づきスクリーン33に画像を投影する。各プロジェクタ31から投影された画像は、図15を使用して説明した使用範囲に重畳して投影される。以上により、スクリーン33に輝度分布評価画像が表示される。
CPU21は、輝度計36および入力I/F26を介して、輝度分布の測定値を取得する(ステップS575)。CPU21は、輝度実測DB51の各座標位置に対応するレコードの、ステップS571で決定した入力階調値に対応するフィールドに、測定値を記録する(ステップS576)。
なお、入力階調値とスクリーン33上の輝度との関係は、スクリーン33上のどの位置でも同じである。したがって、一つの輝度分布評価画像をスクリーン33に表示し、輝度を測定することにより、各プロジェクタ31の入力階調値とスクリーン33上の輝度との関係を取得して、輝度実測DB51を作成しても良い。各プロジェクタ31の入力階調値とスクリーン33上の輝度との関係データを用いることにより、高精度に実輝度表示を行うことができる。
CPU21は、所定の入力階調値の測定が終了したか否かを判定する(ステップS577)。終了していないと判定した場合(ステップS577でNO)、CPU21はステップS571に戻る。終了したと判定した場合(ステップS577でYES)、CPU21は補正値算出のサブルーチンを起動する(ステップS578)。補正値算出のサブルーチンは、図8を使用して説明したサブルーチンと同一のサブルーチンである。その後、CPU21は処理を終了する。
図21は、実施の形態3の使用段階のプログラムの処理の流れを示すフローチャートである。CPU21は、補助記憶装置23またはネットワークを介して接続された他のサーバ等から、元画像データを取得する(ステップS581)。元画像データは、実輝度の情報を含む実輝度画像データである。
CPU21は、ステップS581で取得した画像中の1つの画素の輝度値を取得する(ステップS582)。CPU21は、輝度を取得した画素について、図15Bを使用して説明した使用範囲中の位置を算出する(ステップS583)。CPU21は、輝度補正DB52を参照して、ステップS583で算出した輝度に対応する入力階調値を取得する(ステップS584)。この際、CPU21は、輝度補正DB52に基づいて補間を行い、ステップS583で算出した位置および表示輝度値に対応する入力階調値を算出する。
CPU21は、ステップS583で算出した位置に関連づけて、ステップS584で取得した入力階調値を記録する(ステップS585)。CPU21は、元画像データのすべての画素の処理を終了したか否かを判定する(ステップS586)。終了していないと判定した場合(ステップS586でNO)、CPU21はステップS582に戻る。
終了したと判定した場合(ステップS586でYES)、CPU21は一つのプロジェクタ31に入力する画像を変形する形状補正情報を補助記憶装置23から取得する(ステップS591)。ステップS591により、CPU21は本実施の形態の第3取得部の機能を実現する。
CPU21は、ステップS585で記録した各画素の入力階調値により形成される画像データを、形状補正情報に基づいて変形する(ステップS592)。ステップS592により、CPU21は本実施の形態の形状補正部の機能を実現する。
CPU21は、出力I/F25を介してプロジェクタ31に対してステップS592で画像データを出力する(ステップS593)。プロジェクタ31は、入力された画像データに基づき画像をスクリーン33に投影する。
CPU21は、すべてのプロジェクタ31の処理を終了したか否かを判定する(ステップS594)。終了していないと判定した場合(ステップS594でNO)、CPU21はステップS591に戻る。終了したと判定した場合(ステップS594でYES)、CPU21は処理を終了する。
本実施の形態によると、複数のプロジェクタ31から使用範囲に対して画像を投影するので、1台のプロジェクタ31では投影できない高輝度の部分を実輝度で投影する情報処理装置20を提供できる。
図20を使用して説明した輝度分布取得のサブルーチンにおいて、1台または数台のプロジェクタ31を用いた場合の輝度補正DB52を作成しても良い。たとえば比較的暗い画像については、少ない台数のプロジェクタ31を使用し、高輝度の部分を含む画像については、すべてのプロジェクタ31を使用することができる。
必要最低限の台数のプロジェクタ31を使用することにより、低輝度の画像を正確な実輝度で表示する情報処理装置20を実現できる。同時に、節電およびプロジェクタ31の寿命の延長も可能である。
一つの画像で、高輝度の部分を含む領域についてはすべてのプロジェクタ31を使用し、それ以外の部分については1台または数台のプロジェクタ31を使用しても良い。低輝度の部分については、重畳した投影を行なわないので、高解像度で表示する情報処理システム10を提供できる。
[実施の形態4]
本実施の形態は、使用範囲の一部に画像を投影する補助プロジェクタ32を使用する情報処理システム10に関する。実施の形態3と共通する部分については、説明を省略する。
図22は、実施の形態4のプロジェクタ31およびスクリーン33の配置を説明する説明図である。図22Aは、上側からプロジェクタ31と、補助プロジェクタ32と、スクリーン33とを見た図である。図22Bは、プロジェクタ31の背面側から、プロジェクタ31と、補助プロジェクタ32と、スクリーン33とを見た図である。
本実施の形態においては、実施の形態3と同様に配置された6台のプロジェクタ31の左右に、それぞれ2台の補助プロジェクタ32が略扇形に配置されている。
図23は、実施の形態4のプロジェクタ31の投影状態を説明する説明図である。図22および図23を使用して、本実施の形態のプロジェクタ31の投影範囲について説明する。
第1プロジェクタ311から第6プロジェクタ316までの6台のプロジェクタ31は、使用範囲を含む領域に画像を投影可能である。
右側に配置された第1補助プロジェクタ321および第2補助プロジェクタ322は、使用範囲の略右半分に画像を投影する。図22Aおよび図23に破線で示すように、第1補助プロジェクタ321と第2補助プロジェクタ322の投影可能領域のうち、右半分は使用されない。
同様に、左側に配置された第3補助プロジェクタ323と第4補助プロジェクタ324は、使用範囲の略左半分に画像を投影する。図22Aおよび図23に破線で示すように、第3補助プロジェクタ323と第4補助プロジェクタ324の投影可能領域のうち、左半分は使用されない。
本実施の形態によると、使用範囲の縁近傍でも高い輝度の部分を実輝度で表示可能な情報処理システム10を提供できる。
本実施の形態によると、高輝度の画像を実輝度で表示できる領域が広い情報処理システム10を提供できる。
補助プロジェクタ32の数は、3台以下または5台以上であっても良い。補助プロジェクタ32は、任意の場所に配置できる。補助プロジェクタ32の投影可能領域の大きさは、プロジェクタ31の投影可能領域の大きさと異なっても良い
[実施の形態5]
本実施の形態は複数のスクリーン33を有する情報処理システム10に関する。実施の形態3と共通する部分については、説明を省略する。
図24は、実施の形態5のプロジェクタ31およびスクリーン33の配置を説明する説明図である。本実施の形態の表示装置30は、第1スクリーン331、第1スクリーン331の一辺に連続して配置された第2スクリーン332、および、第1スクリーン331の反対側の一辺に連続して配置された第3スクリーン333を含む。以下の説明においては、特に区別する必要が無い場合には、第1スクリーン331から第3スクリーン333をスクリーン33と記載する。
それぞれのスクリーン33の背面には、それぞれ6台のプロジェクタ31が配置されている。各プロジェクタ31の光軸は、測定位置の方を向くように配置されている。
合計で18台のプロジェクタ31から、3枚のスクリーン33に連続するようにして、横長のいわゆるパノラマ型の実輝度画像を投影する。
本実施の形態によると、広角のテスト対象カメラ15を評価可能な情報処理システム10を提供できる。それぞれのプロジェクタ31の後軸が測定位置の方を向いているので、高輝度の画像を実輝度で表示可能な情報処理システム10を提供できる。
スクリーン33は、4枚以上であっても良い。スクリーン33は上下方向に繋がっていても良い。
スクリーン33は、曲面であっても良い。スクリーン33の継ぎ目の影響の少ない情報処理システム10を提供できる。
[実施の形態6]
本実施の形態は、ユーザが実輝度画像を目視により観察する情報処理システム10に関する。実施の形態3と共通する部分については、説明を省略する。
図25は、実施の形態6の使用段階の情報処理システム10の構成を示す説明図である。着席した場合に、ユーザの眼が測定位置近傍に位置するように、自動車のシート18が配置されている。シート18の位置に合わせてフロントガラス17、ハンドル19およびインパネ等が配置されている。
スクリーン33に実輝度画像が表示される。ユーザは、たとえば、対向車のヘッドライト、朝日または夕日等が当たった場合の、インパネの視認性の評価を行なうことができる。ユーザは、フロントガラス17に各種情報を投影する、いわゆるHUD(Head-Up Display)の視認性の評価を行なうこともできる。
本実施の形態によると、たとえば、対向車のヘッドライトによる幻惑などの現象を体験可能なドライブシミュレータ16用の実輝度表示を行なう情報処理システム10を提供できる。
[実施の形態7]
図26は、実施の形態7の情報処理装置20の動作を示す説明図である。情報処理装置20は、CPU21による制御に基づいて以下のように動作する。
情報処理システム10は、表示装置30と情報処理装置20とを備える。表示装置30は、画像を表示する表示部33を有する。情報処理装置20は、第1取得部61、第2取得部62、輝度補正部63および出力部64を有する。
第1取得部61は、入力信号に基づく画像を表示した前記表示部を所定の測定位置から測定した輝度を、前記入力信号に含まれる輝度情報に合わせて補正する輝度補正情報を取得する。第2取得部62は、表示部33に表示する画像を取得する。輝度補正部63は、第2取得部62が取得した画像を、第1取得部61が取得した補正情報に基づいて補正する。出力部64は、輝度補正部が補正した画像を前記表示部に出力する。
[実施の形態8]
本実施の形態は、汎用のコンピュータ90とプログラム97とを組み合わせて動作させることにより、本実施の形態の情報処理システム10を実現する形態に関する。図27は、実施の形態8の情報処理システム10の構成を示す説明図である。なお、実施の形態1と共通する部分の説明は省略する。
本実施の形態の情報処理システム10は、コンピュータ90と、表示装置30と輝度計36とを含む。
コンピュータ90は、CPU21、主記憶装置22、補助記憶装置23、通信部24、出力I/F25、入力I/F26、読取部28およびバスを備える。コンピュータ90は、汎用のパーソナルコンピュータ、タブレット等の情報機器等である。
プログラム97は、可搬型記録媒体96に記録されている。CPU21は、読取部28を介してプログラム97を読み込み、補助記憶装置23に保存する。またCPU21は、コンピュータ90内に実装されたフラッシュメモリ等の半導体メモリ98に記憶されたプログラム97を読出しても良い。さらに、CPU21は、通信部24および図示しないネットワークを介して接続される図示しない他のサーバ等からプログラム97をダウンロードして補助記憶装置23に保存しても良い。
プログラム97は、コンピュータ90の制御プログラムとしてインストールされ、主記憶装置22にロードして実行される。これにより、コンピュータ90は上述した情報処理装置20として機能する。
[実施の形態9]
本実施の形態は、プロジェクタ31から投影する画像の座標と、図15を使用して説明した使用範囲における座標と、元画像データとを、変換DBを用いて順次変換する形態に関する。実施の形態3と共通する部分については、説明を省略する。
図28は、プロジェクタ31から投影する画像の座標と、使用範囲の座標との変換を説明する説明図である。図28Aは、第1プロジェクタ311に入力される画像の座標、すなわちプロジェクタ座標を示す。画像の左上角を原点(0,0)として、右向きにx軸、下向きにy軸を定義する。たとえば1080p解像度で正方形比率ピクセルの第1プロジェクタ311を使用する場合、xは0から1919までの整数であり、yは0から1079までの整数である。
図28Bは、使用範囲の座標、すなわち使用範囲座標を示す。使用範囲の左上角を原点(0,0)として、右向きにx軸、下向きにy軸を定義する。たとえば、図17を使用して説明した使用範囲の輝度分布の測定を2048ピクセル×1080ピクセルの解像度で行なった場合、xは0から2047までの整数であり、yは0から1079までの整数である。
図29は、使用範囲座標と、元画像データの座標との変換を説明する説明図である。図29Aは、使用範囲座標を示す。図28Bと同様に、使用範囲の左上角を原点(0,0)として、右向きにx軸、下向きにy軸を定義する。
図29Bは、元画像データの座標、すなわち元画像座標を示す。元画像データの左上角を原点(0,0)として、右向きにx軸、下向きにy軸を定義する。たとえば元画像データが1080p解像度で正方形比率ピクセルである場合、xは0から1919までの整数であり、yは0から1079までの整数である。
なお、図28および図29を使用して説明したピクセル数は、すべて例示である。プロジェクタ31から投影する画像と、使用範囲と、元画像データとは、それぞれ縦横比が異なっていても良い。
図30は、第1変換DBのレコードレイアウトを説明する説明図である。第1変換DBは、プロジェクタ31から投影する画像のプロジェクタ座標と、使用範囲座標と、各プロジェクタ31に対する輝度の配分とを関連づけて記録するDBである。第1変換DBは、プロジェクタ番号フィールドと、プロジェクタ座標フィールドと、使用範囲座標フィールドと、配分フィールドとを有する。
プロジェクタ番号フィールドには、プロジェクタ31に連番で付与された番号が記録されている。プロジェクタ座標フィールドには、図28Aを使用して説明したプロジェクタ31から投影する画像の各座標が記録されている。使用範囲座標フィールドには、図28Bを使用して説明した使用範囲座標が記録されている。
図28に示すように、プロジェクタ座標の原点近傍は、使用範囲に含まれない。このような座標については使用範囲座標フィールドに「-」が記録されている。図30においては、第1プロジェクタ311においてプロジェクタ座標が「100,100」である点は、使用範囲座標が「200.45,300.32」である点に投影されることを示す。
配分フィールドには、プロジェクタ31に対する輝度の配分が記録されている。図28において、第1プロジェクタ311のプロジェクタ座標「100,100」の位置については、配分フィールドに記録された「0.25」は、第1プロジェクタ311に対して全体の輝度のうちの25パーセントが配分されることを意味する。使用範囲外であり光を投影しない場合、配分フィールドに「-」が記録されている。
配分フィールドの値は、使用範囲内のそれぞれの位置について合計が1になるように定められる。該当位置について、輝度の高いプロジェクタ31と、輝度の低いプロジェクタ31とが混在する場合には、輝度の高いプロジェクタ31にかかる配分フィールドの値を大きくすることにより、それぞれのプロジェクタ31の特性を有効に利用できる。
配分フィールドの値は、使用範囲内のそれぞれの位置について、それぞれのプロジェクタ31が寄与可能な最大輝度に比例するように定めても良い。このように定めることにより、輝度分布の測定回数を低減し、少ない演算量で実輝度表示を行なえる情報処理システム10を実現できる。なお、本実施の形態の以下の説明においては、配分フィールドに輝度の配分が記録されている場合を例にして説明する。
図31は、第2変換DBのレコードレイアウトを説明する説明図である。第2変換DBは、使用範囲座標と、元画像座標とを関連づけて記録するDBである。第2変換DBは、使用範囲座標フィールドと、元画像座標フィールドとを有する。
使用範囲座標フィールドには、図29Aを使用して説明した使用範囲座標が記録されている。元画像座標フィールドには、図29Bを使用して説明した元座標が記録されている。図31においては、使用範囲座標が「100,100」である点には、元画像座標が「340.24,234.58」である点が投影されることを示す。
たとえば、使用範囲の縦横比と、元画像の縦横比とが異なる場合、使用範囲の端には元画像が投影されない。このような場合、投影されない使用範囲座標に対応する元画像座標フィールドには、「-」が記録されている。
図32は、実施の形態9のプログラムの処理の流れを示すフローチャートである。CPU21は、補助記憶装置23またはネットワークを介して接続された他のサーバ等から、元画像データを取得する(ステップS601)。
CPU21は、プロジェクタ座標を初期値「0,0」に設定する(ステップS602)。CPU21はプロジェクタ座標をキーにして第1変換DBを検索してレコードを抽出し、抽出したレコードの使用範囲座標フィールドから使用範囲座標を取得する(ステップS603)。CPU21は、プロジェクタ座標が使用範囲座標内であるか否かを判定する(ステップS604)。使用範囲座標外である場合には、ステップS603で取得した使用範囲座標に「-」が記録されている。
使用範囲座標内であると判定した場合(ステップS604でYES)、CPU21は使用範囲座標に対応する元画像座標を算出する(ステップS605)。具体的には、CPU21はステップS603で取得した使用範囲座標近傍の複数の座標をキーとして第2変換DBを検索して、レコードを抽出し、抽出したレコードの元画像座標を補間して、元画像座標を算出する。補間は、たとえばニアレストネイバー法、バイリニア法、バイキュービック法等の、任意の手法により行なえる。
CPU21は、算出した元画像座標が、元画像の範囲内であるか否かを判定する(ステップS606)。たとえば、第2変換DBを検索して抽出したレコードの元座標フィールドに「-」が記録されていて、正常に補間を行なえない場合、CPU21は元画像の範囲外であると判定する。
元画像範囲内であると判定した場合(ステップS606でYES)、CPU21は、ステップS601で取得した元画像データに基づいて画素の輝度を取得する(ステップS607)。画素の輝度は、たとえばステップS605で算出した座標に最も近い元画像データの輝度を使用する。元画像データから、ステップS605で算出した座標近傍の画素を抽出し、任意の補間手法により補間して輝度を算出しても良い。
CPU21は、ステップS607で算出した輝度に、ステップS603で第1変換DBから抽出したレコードの配分フィールドに記録された配分を積算して、処理中のプロジェクタ31に割り当てられた輝度を算出する(ステップS608)。
使用範囲内ではないと判定した場合(ステップS604でNO)、または元画像の範囲内ではないと判定した場合(ステップS606でNO)、CPU21は、画素は黒である、すなわち、画素の輝度は0であると判定する(ステップS609)。
ステップS608またはステップS609の終了後、CPU21は、画素の輝度に対応する入力階調値を取得する(ステップS610)。この際、CPU21は、図6を使用して説明した輝度補正DB52に基づいて補間を行い、ステップS603で算出した位置およびステップS608またはステップS609で取得した輝度値に対応する入力階調値を算出する。なお、本実施の形態においては、輝度補正DB52はプロジェクタ31ごとに、当該プロジェクタ31のみを使用した場合の投影輝度に基づいて作成されている。
CPU21は、プロジェクタ座標に関連づけて、ステップS610で取得した入力階調値を記録する(ステップS611)。CPU21は、すべてのプロジェクタ座標の処理を終了したか否かを判定する(ステップS612)。終了していないと判定した場合(ステップS612でNO)、CPU21は次に処理するプロジェクタ座標を選択する(ステップS613)。CPU21は、ステップS603に戻る。
すべてのプロジェクタ座標の処理を終了したと判定した場合(ステップS612でYES)、CPU21はすべてのプロジェクタ31の処理を終了したか否かを判定する(ステップS614)。すべてのプロジェクタ31の処理を終了していないと判定した場合(ステップS614でNO)、CPU21は次に処理するプロジェクタ31を選択する(ステップS615)。CPU21はステップS602に戻る。
すべてのプロジェクタ31の処理を終了したと判定した場合(ステップS614でYES)、CPU21は、すべてのプロジェクタ31宛に画像を出力する(ステップS616)。それぞれのプロジェクタ31から画像がスクリーン33に投影される。これにより、元画像データに忠実な輝度の画像をスクリーン33に投影する、実輝度表示が実現する。CPU21は、処理を終了する。
[第1変形例]
図33は、実施の形態9の第1変形例を説明する説明図である。図33Aは、第1プロジェクタ311から第4プロジェクタ314までをスクリーン33に投影した状態を示す。4台のプロジェクタ31の投影範囲の縁が少しずつ重なり、中央部では4台のプロジェクタ31の投影範囲が重なっている。
図33Bは、図33に使用範囲を重畳した状態を示す。それぞれのプロジェクタ31について、図30を使用して説明した第1変換DBを作成できる。第1変換DBに配分フィールドを設けることにより、場所により重畳して投影するプロジェクタ31の台数が異なる場合であっても、それぞれのプロジェクタ31に対して適切に輝度を割り当てることができる。
[第2変形例]
図34は、実施の形態9の第2変形例を説明する説明図である。本変形例においては、使用範囲に直交座標系ではなく、樽型に変形した座標系を使用している。このような樽型の座標系に基づいて図31を使用して説明した第2変換DBを作成することにより、図34Aおよび図34Bに示すように元画像データを樽型に変形させて表示できる。
本実施の形態によると、第1変換DBと第2変換DBとを組み合わせて使用することにより、たとえば図33および図34を使用して説明したような様々な投影を実現できる。
各実施例で記載されている技術的特徴(構成要件)はお互いに組合せ可能であり、組み合わせすることにより、新しい技術的特徴を形成することができる。
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
10 情報処理システム
15 テスト対象カメラ
16 ドライブシミュレータ
17 フロントガラス
18 シート
19 ハンドル
20 情報処理装置
21 CPU
22 主記憶装置
23 補助記憶装置
24 通信部
25 出力I/F
26 入力I/F
27 モニタ
28 読取部
30 表示装置
31 プロジェクタ
311 第1プロジェクタ
312 第2プロジェクタ
313 第3プロジェクタ
314 第4プロジェクタ
315 第5プロジェクタ
316 第6プロジェクタ
321 第1補助プロジェクタ
322 第2補助プロジェクタ
323 第3補助プロジェクタ
324 第4補助プロジェクタ
33 スクリーン(表示部)
331 第1スクリーン
332 第2スクリーン
333 第3スクリーン
36 輝度計(二次元色彩輝度計)
37 カメラ
51 輝度実測DB
52 輝度補正DB
61 第1取得部
62 第2取得部
63 輝度補正部
64 出力部
96 可搬型記録媒体
97 プログラム
98 半導体メモリ

Claims (5)

  1. プロジェクタ、リアプロジェクション用スクリーン、および、情報処理装置を備えるカメラテストシステムにおいて、
    前記情報処理装置は、
    前記リアプロジェクション用スクリーンに投影する画像データを取得する画像データ取得部と、
    テスト対象カメラを配置する位置から測定した前記リアプロジェクション用スクリーンの各位置における輝度を、前記画像データに含まれる画像の各位置に対応する輝度情報に合わせて補正する輝度補正情報を取得する輝度補正情報取得部と、
    前記画像データを、前記輝度補正情報に基づいて前記画像の位置ごとに補正する輝度補正部と、
    前記輝度補正部が補正した画像データに対応する入力信号を前記プロジェクタに出力する出力部とを有し、
    前記プロジェクタは、前記入力信号に基づく画像を前記リアプロジェクション用スクリーンに投影し、
    前記リアプロジェクション用スクリーンを挟んで前記プロジェクタの反対側に配置されたテスト対象カメラにより、前記リアプロジェクション用スクリーンに投影された画像を撮影させる
    カメラテストシステム。
  2. 前記画像データは、実輝度に関連づけられた三刺激値データを含む
    請求項1に記載のカメラテストシステム。
  3. 相互に投影範囲が重複するように配置された複数の前記プロジェクタを含み、
    前記情報処理装置は、
    複数の前記プロジェクタが、前記画像データを、前記リアプロジェクション用スクリーンに重畳する状態で投影するように補正する形状補正部を備え、
    前記形状補正部は、前記輝度補正部が補正した画像データを補正し、
    前記出力部は複数の前記プロジェクタのそれぞれに前記形状補正部が補正した画像データに対応する前記入力信号を出力する
    請求項1または請求項2に記載のカメラテストシステム。
  4. 前記プロジェクタは、投影範囲の一部が他の前記プロジェクタの投影範囲と重複するように配置される
    請求項3に記載のカメラテストシステム。
  5. リアプロジェクション用スクリーンを挟んでプロジェクタの反対側に、前記リアプロジェクション用スクリーンに向けた状態でテスト対象カメラを配置し、
    前記リアプロジェクション用スクリーンに投影する画像データを取得し、
    前記テスト対象カメラの位置から測定した前記リアプロジェクション用スクリーンの各位置における輝度を、前記画像データに含まれる画像の各位置に対応する輝度情報に合わせて補正する輝度補正情報を取得し、
    前記画像データを、前記輝度補正情報に基づいて前記画像の位置ごとに補正し、
    補正した画像データに対応する入力信号を前記プロジェクタに出力し、
    前記入力信号に基づく画像を前記プロジェクタから前記リアプロジェクション用スクリーンに投影し、
    前記テスト対象カメラにより、前記リアプロジェクション用スクリーンに投影された画像を撮影する
    カメラテスト方法。
JP2022027115A 2017-08-30 2022-02-24 カメラテストシステムおよびカメラテスト方法 Active JP7260937B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2017166119 2017-08-30
JP2017166119 2017-08-30
PCT/JP2018/032246 WO2019045010A1 (ja) 2017-08-30 2018-08-30 情報処理装置、情報処理システムおよび情報処理方法
JP2019539636A JPWO2019045010A1 (ja) 2017-08-30 2018-08-30 情報処理装置、情報処理システムおよび情報処理方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019539636A Division JPWO2019045010A1 (ja) 2017-08-30 2018-08-30 情報処理装置、情報処理システムおよび情報処理方法

Publications (2)

Publication Number Publication Date
JP2022066278A true JP2022066278A (ja) 2022-04-28
JP7260937B2 JP7260937B2 (ja) 2023-04-19

Family

ID=65525777

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019539636A Pending JPWO2019045010A1 (ja) 2017-08-30 2018-08-30 情報処理装置、情報処理システムおよび情報処理方法
JP2022027115A Active JP7260937B2 (ja) 2017-08-30 2022-02-24 カメラテストシステムおよびカメラテスト方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019539636A Pending JPWO2019045010A1 (ja) 2017-08-30 2018-08-30 情報処理装置、情報処理システムおよび情報処理方法

Country Status (5)

Country Link
US (1) US20210407046A1 (ja)
EP (1) EP3723363A4 (ja)
JP (2) JPWO2019045010A1 (ja)
IL (1) IL272975A (ja)
WO (1) WO2019045010A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019212601A1 (de) * 2019-08-22 2021-02-25 Volkswagen Aktiengesellschaft Generieren einer Anzeige eines Augmented-Reality-Head-up-Displays für ein Kraftfahrzeug

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0756549A (ja) * 1993-08-12 1995-03-03 Hitachi Ltd 画像機器及び色補正システム
JP2003046751A (ja) * 2001-07-27 2003-02-14 Olympus Optical Co Ltd マルチプロジェクションシステム
JP2004158941A (ja) * 2002-11-05 2004-06-03 Seiko Epson Corp 色ムラ補正装置、プロジェクタ、色ムラ補正方法、プログラムおよび記録媒体
JP2004336225A (ja) * 2003-05-02 2004-11-25 Seiko Epson Corp 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP2005189542A (ja) * 2003-12-25 2005-07-14 National Institute Of Information & Communication Technology 表示システム、表示プログラム、表示方法
JP3766672B2 (ja) * 2002-02-19 2006-04-12 オリンパス株式会社 画像補正データ算出方法
JP2008051849A (ja) * 2006-08-22 2008-03-06 Seiko Epson Corp プロジェクションシステム、画像情報処理装置、プログラム、及び記録媒体
JP2008191257A (ja) * 2007-02-01 2008-08-21 Canon Inc 画像表示装置及びその制御方法、プログラム並びにコンピュータ読み取り可能な記憶媒体
JP2012142669A (ja) * 2010-12-28 2012-07-26 Seiko Epson Corp 投写制御装置、投写システム、テストチャート、投写領域判定方法
JP2015177484A (ja) * 2014-03-18 2015-10-05 株式会社Jvcケンウッド モニタ及び映像信号表示方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001209358A (ja) * 2000-01-26 2001-08-03 Seiko Epson Corp 表示画像のムラ補正
JP2004036225A (ja) * 2002-07-03 2004-02-05 Taiyo Kiso Kk 結束リング
US6817721B1 (en) * 2003-07-02 2004-11-16 Hewlett-Packard Development Company, L.P. System and method for correcting projector non-uniformity
BR112015024055A2 (pt) 2013-03-20 2017-07-18 Basf Se composição de polímero, em especial para aplicações de moldagem por injeção, processo para produzir uma composição de polímero, em especial para aplicações de moldagem por injeção, molde obtenível através de moldagem por injeção de uma composição de polímero e uso de uma moldagem por injeção

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0756549A (ja) * 1993-08-12 1995-03-03 Hitachi Ltd 画像機器及び色補正システム
JP2003046751A (ja) * 2001-07-27 2003-02-14 Olympus Optical Co Ltd マルチプロジェクションシステム
JP3766672B2 (ja) * 2002-02-19 2006-04-12 オリンパス株式会社 画像補正データ算出方法
JP2004158941A (ja) * 2002-11-05 2004-06-03 Seiko Epson Corp 色ムラ補正装置、プロジェクタ、色ムラ補正方法、プログラムおよび記録媒体
JP2004336225A (ja) * 2003-05-02 2004-11-25 Seiko Epson Corp 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP2005189542A (ja) * 2003-12-25 2005-07-14 National Institute Of Information & Communication Technology 表示システム、表示プログラム、表示方法
JP2008051849A (ja) * 2006-08-22 2008-03-06 Seiko Epson Corp プロジェクションシステム、画像情報処理装置、プログラム、及び記録媒体
JP2008191257A (ja) * 2007-02-01 2008-08-21 Canon Inc 画像表示装置及びその制御方法、プログラム並びにコンピュータ読み取り可能な記憶媒体
JP2012142669A (ja) * 2010-12-28 2012-07-26 Seiko Epson Corp 投写制御装置、投写システム、テストチャート、投写領域判定方法
JP2015177484A (ja) * 2014-03-18 2015-10-05 株式会社Jvcケンウッド モニタ及び映像信号表示方法

Also Published As

Publication number Publication date
EP3723363A1 (fr) 2020-10-14
JPWO2019045010A1 (ja) 2020-10-01
US20210407046A1 (en) 2021-12-30
IL272975A (en) 2020-04-30
JP7260937B2 (ja) 2023-04-19
WO2019045010A1 (ja) 2019-03-07
EP3723363A4 (fr) 2021-11-03

Similar Documents

Publication Publication Date Title
JP5082776B2 (ja) 画像処理装置
US9661257B2 (en) Projection system, image processing device, and projection method
JP4165540B2 (ja) 投写画像の位置調整方法
JP5257375B2 (ja) 画像処理装置および画像処理方法
Klein et al. Simulating low-cost cameras for augmented reality compositing
US8913135B2 (en) Method and apparatus for measuring response curve of an image sensor
JP5411786B2 (ja) 撮影装置および画像統合プログラム
Menk et al. Visualisation techniques for using spatial augmented reality in the design process of a car
JP5242248B2 (ja) 欠陥検出装置、欠陥検出方法、欠陥検出プログラム、及び、記録媒体
JP2022020575A (ja) 暗い画像の強調
US9836818B2 (en) Method and device for color interpolation
JP7260937B2 (ja) カメラテストシステムおよびカメラテスト方法
WO2005064584A1 (ja) 表示システム
JP2015194567A (ja) 表示装置
JP2009157219A (ja) ディスプレイの評価方法およびそれに用いる評価装置
Zhao et al. Perceptual spatial uniformity assessment of projection displays with a calibrated camera
JP2019205104A (ja) 情報処理装置、情報処理方法及びプログラム
JP2009217174A (ja) 映像表示システムの調整装置、調整方法、幾何情報取得方法、及びプログラム
JP2011041094A (ja) 画像処理装置、撮像装置および画像処理方法
JP2011041094A5 (ja)
JP5858735B2 (ja) 色補正装置及び色補正方法
Zhao et al. Objective assessment of perceived sharpness of projection displays with a calibrated camera
Kaur et al. Enriched image demosaicing using illuminate normalization and content based color filter array
JP2008035370A (ja) デジタルカメラの偽色評価方法、デジタルカメラの偽色評価装置及びデジタルカメラの偽色評価プログラム
TW202213274A (zh) 圖像處理裝置、圖像處理方法及記錄媒體

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230331

R150 Certificate of patent or registration of utility model

Ref document number: 7260937

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150