JP7475539B1 - 照明制御システム - Google Patents

照明制御システム Download PDF

Info

Publication number
JP7475539B1
JP7475539B1 JP2023511916A JP2023511916A JP7475539B1 JP 7475539 B1 JP7475539 B1 JP 7475539B1 JP 2023511916 A JP2023511916 A JP 2023511916A JP 2023511916 A JP2023511916 A JP 2023511916A JP 7475539 B1 JP7475539 B1 JP 7475539B1
Authority
JP
Japan
Prior art keywords
image
light
user
lighting device
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023511916A
Other languages
English (en)
Inventor
旭洋 山田
孝介 八木
冰 鄭
遥 寺島
直紀 古畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2024063099A priority Critical patent/JP2024074970A/ja
Application granted granted Critical
Publication of JP7475539B1 publication Critical patent/JP7475539B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/617Safety or protection, e.g. defining protection zones around obstacles or avoiding hazards

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)

Abstract

照明制御システム(100)は、画像光(61)を被照射面(51)に対して斜め方向に照射する照明装置(10e)と、被照射面(51)で反射した画像光(61)の光強度及び波長が関連付けられた光学データが格納された記憶部(10a)と、照明装置(10e)によって照射される被照射面(51)の特性を特定する特定部(10b)と、ユーザ(21)の目の位置を推定する推定部(10c)と、被照射面(51)の特性及び推定部(10c)によって推定された結果に基づいて、照明装置(10e)から出る画像光(61)の光強度又は波長を制御する制御部(10d)とを有する。

Description

本開示は、照明制御システムに関する。
近年、移動型ロボットの普及に伴い、移動型ロボットと人(ユーザ)とが混在する空間において、ユーザへの注意喚起などの、移動型ロボットの利用が重要となっている。例えば、移動型ロボットに搭載された照明装置を利用して、ユーザへ注意喚起を行う際に、照明装置によって照射される光のコントラストが、外光の影響により低下するという課題がある。そのため、ロボットに搭載された映像投影手段により、被照射面に投影される画像の、明るさ又はコントラストを調整する方法が提案されている(例えば、特許文献1参照)。
特開2005-313291号公報(段落0011、図1)
しかしながら、従来の技術では、移動型ロボットに搭載された映像投影手段から被照射面に斜めに照射された光をユーザが観察する際におけるユーザの目線の位置を考慮しておらず、ユーザにとっての視認性を高める照射が困難であるという課題がある。
本開示の目的は、上記の課題を解決するものであり、ユーザにとっての視認性を高める照明制御システムを提供することを目的とする。
本開示の一態様に係る照明制御システムは、
被照射面に対して照射して画像を結像する移動可能な移動可能照明装置とユーザとが共存する空間で、前記被照射面に対する前記移動可能照明装置の照明を制御して前記ユーザに注意喚起を行う照明制御システムにおいて、
前記移動可能照明装置に配置してあり、前記被照射面を撮像する第1撮像装置と、
前記ユーザに配置してあり、前記ユーザの目の位置を示す第2撮像装置と、
前記第1撮像装置の撮像内容に基づいて前記被照射面の特性を特定する特定部と、
前記第2撮像装置によって取得された画像を用いて前記ユーザの目の位置を推定する推定部と、
前記特定部が特定した前記特性及び前記ユーザに配置した前記第2撮像装置によって取得された前記画像を用いて前記推定部が推定した前記目の位置に基づいて、前記移動可能照明装置による照射の光強度又は波長を制御する制御部と
を備える
ことを特徴とする。
本開示によれば、ユーザにとっての視認性を高める照明制御システムを提供することができる。
実施の形態1に係る照明制御システムの構成を概略的に示すブロック図である。 照明制御システムの動作の一例を示す図である。 主制御部のハードウェア構成の一例を示す図である。 主制御部のハードウェア構成の他の例を示す図である。 照明装置の構成を概略的に示す断面図である。 画像光形成部の構造を概略的に示す正面図である。 照明装置からの入射光の入射角度と出射光の出射角度とを示す図である。 実施の形態3における照明制御システムの動作の一例を示す図である。 マスクデータを作成する方法の一例を示すフローチャートである。 マスク処理の一工程を示す図である。 マスク処理の他の工程を示す図である。 マスク処理の他の工程を示す図である。 マスク処理の他の工程を示す図である。 マスク処理の他の工程を示す図である。 マスク処理によって得られる画像を示す図である。 実施の形態3における画像光を制御する工程の一例を示すフローチャートである。 可動範囲マップの一例を示す図である。 床面マップの一例を示す図である。 照明マップの一例を示す図である。 外光マップの一例を示す図である。
<座標の設定>
本実施の形態では、説明を容易にするために、以下に示す図においてXYZ座標を用いる。+Y方向は高さ方向を示し、Z軸方向は、例えば、移動型ロボット又はユーザが進行する方向を示す。X軸中心の右回りの回転は+RXで示され、Y軸中心の右回りの回転は+RYで示され、Z軸中心の右回りの回転は+RZで示される。
実施の形態1.
図1は、実施の形態1に係る照明制御システム100の構成を概略的に示すブロック図である。
図2は、照明制御システム100の動作の一例を示す図である。
照明制御システム100は、記憶部10aと、特定部10bと、推定部10cと、制御部10dと、照明装置10eとを有する。照明制御システム100は、例えば、移動型ロボット11に搭載される。照明制御システム100は、撮像装置41aをさらに有してもよい。
<記憶部10a>
記憶部10aは、例えば、揮発性メモリ又は不揮発性メモリである。記憶部10aは、揮発性メモリ及び不揮発性メモリの両方によって構成されていてもよい。
図2に示される例では、照明装置10e及び撮像装置41a(第1の撮像装置とも称する)が移動型ロボット11に搭載されており、撮像装置41aによって撮影されたデータが記憶部10aに格納される。これにより、記憶部10aにデータベースが構築される。
記憶部10aには、撮像装置41bによって取得された、様々な被照射面51から入射した画像光の光学特性が予め格納されている。撮像装置41bは、例えば、被照射面51で反射して撮像装置41bに入射する画像光の光量(具体的には、光強度)及び色(具体的には、波長)などのデータを取得する。
移動型ロボット11に搭載された撮像装置41aとは異なる撮像装置41b(第2の撮像装置とも称する)によって取得されたデータが、記憶部10aに格納されてもよい。撮像装置41bは、例えば、移動型ロボット11と対向する位置に存在するユーザ21の目の高さに相当する位置に設けられる。
<特定部10b>
特定部10bは、照明装置10eによって照射される被照射面51の特性を特定する。例えば、特定部10bは、移動型ロボット11に搭載された撮像装置41aによって取得された被照射面51の画像を用いて被照射面51の特性を特定する。
特定部10bは、被照射面51の位置を示す位置情報を用いて被照射面51の特性を特定してもよく、照明制御システム100の外部から特定部10bに入力された情報を用いて被照射面51の特性を特定してもよく、複数の被照射面51のデータを基に演算処理されたデータを用いて被照射面51の特性を特定してもよい。
<推定部10c>
推定部10cは、ユーザ21の目の位置を推定する。ユーザ21の目の位置は、例えば、床からユーザ21の目までの距離である。ユーザ21の目の位置は、移動型ロボット11に搭載された撮像装置41aによって取得された画像を用いて推定されてもよい。この場合、撮像装置41aによって取得された画像が推定部10cに送られ、推定部10cがユーザ21の目の位置を推定する。
ユーザ21の目の位置は、ユーザ21が存在する屋内に設置された別の撮像装置によって取得された画像を用いて推定されてもよい。
推定部10cは、被照射面51での反射した画像光の、ユーザ21の目の位置における光強度及び波長を推定してもよい。推定部10cは、照明装置10eから出る画像光の出射角度、照明装置10eの高さ、画像光の光強度、画像光の波長、及び被照射面51の特性に基づいて、ユーザ21の目の位置における光強度及び波長を推定してもよい。
さらに、移動型ロボット11に搭載された測距装置を用いて移動型ロボット11からユーザ21までの距離を計測し、ユーザ21の目の位置さと被照射面51で反射した画像光の反射角度を推定し、ユーザ21の目の位置における光強度及び波長を推定してもよい。この方法によれば、ユーザ21の目の位置における光強度及び波長を高精度で推定することができる。
<制御部10d>
制御部10dは、被照射面51の特性及び推定部10cによって推定された結果に基づいて、照明装置10eから出る画像光61の光強度又は波長を制御する。
制御部10dは、画像光61のデータ及び背景光(外光)のデータに基づいて照明装置10eから出る画像光61の光強度又は波長を制御してもよい。
制御部10dは、ユーザ21(第1のユーザとも称する)とは異なるユーザ(第2のユーザとも称する)を検知した場合、照明装置10eからの照射を停止してもよい。例えば、移動型ロボット11とユーザ21の方向、図2ではZ軸方向とは無関係な方向、例えば±X軸方向から別のユーザが移動型ロボット11方向に近づくことを検知した際に、被照射面51への画像光の照射を消灯してもよい。これにより、画像光の表示対象であるユーザ21とは異なるユーザが画像光を認識することを避けることが可能となる。別のユーザの検知には屋内の撮像装置を用いてもよいし、移動型ロボット11に人感センサを設置してもよい。
特定部10bで被照射面51の光学特性を特定することで、例えば、±X方向から別のユーザが移動型ロボット11方向に近づくことを検知した場合でも、±X方向への画像光61の反射光を別のユーザ(第2のユーザ)が認識できないと推定部10cによって推定できる場合は、照明装置10eの点灯を維持してもよい。
図3は、主制御部42のハードウェア構成の一例を示す図である。
図4は、主制御部42のハードウェア構成の他の例を示す図である。
特定部10b、推定部10c、及び制御部10dは、例えば、主制御部42で構成される。この場合、主制御部42は、例えば、少なくとも1つのプロセッサ42a及び少なくとも1つのメモリ42bで構成される。図1に示される記憶部10aは、メモリ42bでもよい。プロセッサ42aは、例えば、メモリ42bに格納されるプログラムを実行するCPU(Central Processing Unit)である。この場合、特定部10b、推定部10c、及び制御部10dの機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア及びファームウェアはプログラムとしてメモリ42bに格納することができる。この構成により、主制御部42の機能を実現するためのプログラムは、コンピュータによって実行される。
メモリ42bは、コンピュータで読み取り可能な記録媒体であり、例えば、RAM(Random Access Memory)及びROM(Read Only Memory)などの揮発性メモリ、不揮発性メモリ、又は揮発性メモリと不揮発性メモリとの組み合わせである。
主制御部42は、複数のプロセッサ42a及び複数のメモリ42bを有してもよい。この場合、特定部10b、推定部10c、及び制御部10dの機能は、これらの複数のプロセッサ42a及び複数のメモリ42bによって実現される。
主制御部42は、単一回路及び複合回路などの専用のハードウェアとしての処理回路42cで構成されてもよい。処理回路42cは、例えば、システムLSIである。この場合、特定部10b、推定部10c、及び制御部10dの機能は、処理回路42cで実現される。
<照明装置10e>
図5は、照明装置10eの構成を概略的に示す断面図である。
照明装置10eは、照明光学系31bを有する。照明装置10eは、例えば、プロジェクターのように動画を表示できる投射型表示装置でもよい。照明光学系31bは、小型かつ省エネを実現可能とする。
<照明光学系31b>
照明光学系31bは、光源1と、画像光形成部3と、投射光学部4とを有する。
<光源1>
光源1は、光L1を発する固体光源である。光源1は、例えば、LED(発光ダイオード)である。光源1の発光面から出た光L1は、拡散光として画像光形成部3に入射する。なお、光源1の発光面から出た光L1は、±RX方向の発散角度が±60度(1/2ビーム角:120度)より小さい指向性のある光でも良い。
光源1は、例えば、平面に塗布された蛍光体に、中心波長が448nmである励起用のレーザ光を照射することによって当該蛍光体を透過したレーザ光及び励起された蛍光光を混合した光を発する光源であってもよい。
光源1は、蛍光光のみを発する光源であってもよい。
光源1は、レーザダイオードのみによって構成されていてもよい。この場合、光源1の発光面のサイズは小さい。そのため、発光面のサイズを大きくする四角柱状のロッドレンズ又はライトパイプが、光源1と画像光形成部3との間に配置されていてもよい。
蛍光体に入射するレーザ光の領域が狭い場合も同様に、ロッドレンズ又はライトパイプが光源1と画像光形成部3との間に配置されていてもよい。
LED光源の場合でも、画像光形状の形成および光強度の均一化のため、ロッドレンズ又はライトパイプが光源1と画像光形成部3との間に配置されていてもよい。その場合、図6に示す画像光形成領域3a2、3b2、3c2よりロッドレンズ又はライトパイプの出射面のサイズが大きいことが好ましい。
<画像光形成部3>
図6は、画像光形成部3の構造を概略的に示す正面図である。
画像光形成部3は、光源1と投射光学部4との間に配置されている。画像光形成部3は、光源1から出た光L1を画像光に変更して投射光学部4に向けて出射する。画像光形成部3は、回転可能に支持されている。画像光形成部3は、例えば、回転駆動部(例えば、モータ)から伝達された回転駆動力によって回転する。画像光形成部3は、例えば、+RZ方向に回転する。画像光形成部3は、-RZ方向に回転してもよい。
図6に示される例では、+Z軸方向に見たときの画像光形成部3の構造が示されている。画像光形成部3の回転中心軸Raは、光軸C1と同軸上には位置していない。
図6に示されるように、画像光形成部3は、+RZ方向に分割された複数のセグメント(図6では、セグメント3a、セグメント3b、及びセグメント3c)を有する。図6に示される例では、画像光形成部3は、3個のセグメントに分割されている。
3個のセグメント3a、3b、3cは、それぞれ画像光形成領域3a2、3b2、3c2を含む。画像光形成部3は、回転動作に伴って、複数の種類(図6に示される例では、3種類)の画像のうちの1種類の画像を形成する画像光を形成することができる。
具体的には、光軸C1と重なるセグメント3a、3b、3cを通過した光L1が、画像光61に変換される。画像光形成部3は遮光領域3a1、3b1、3c1を有し、遮光領域3a1、3b1、3c1に到達した光L1は+Z方向に進行しない。
光軸C1上に画像光形成領域3a2、3b2、又は3c2のいずれかが対向しているとき、光L1が対応する画像光形成領域3a2、3b2、又は3c2を通過し、+Z方向に進行し、投射光学部4に到達する。
照明装置10eを小型にするためには、投射光学部4を少ない枚数の光学素子(投射レンズ)で構成することが好ましく、投射光学部4の被照射面51上の結像性能を考慮すると、画像光61によって形成される画像は文字又は記号などの簡易なパターンが好ましいが、画像光61によって形成される画像は文字又は記号に限定されない。なお、図6では、投射光学部4の光学素子が1枚の構成を示している。
画像光形成領域3a2、3b2、3c2の形状は、斜め投射の際に生じるひずみ(例えば、台形ひずみ)を補正する形状でもよい。
図6に示される中心角度β1、β2、β3の各々は、例えば、120度である。セグメント数に応じて中心角度は変更できる。光軸C1を画像光形成領域3a2、3b2,3c2が通過するタイミングを検知できさえすれば、中心角度β1、β2、β3は互いに異なる角度であってもよい。回転角度のステップを予め決定しておいてもよい。
<投射光学部4>
投射光学部4は、例えば、投射レンズなどの光学素子である。投射光学部4は、画像光形成部3から出た画像光を被照射面51に対して斜め方向に照射する。投射光学部4は、例えば、画像光形成部3によって形成された画像光61の投射パターンを形成する。投射光学部4は、画像光形成部3によって形成された画像光61を被照射面51に結像する機能を有する。
投射光学部4は、ぼかしが生じた投射パターンを被照射面51に照射してもよい。投射光学部4は、反射ミラー又は反射ミラーとレンズとの組み合わせによって構成されていてもよい。
<データベース>
被照射面51の特性、特定の位置、並びにその特定の位置において検出された、被照射面51で反射した画像光の光強度及び波長が関連付けられた光学データは、記憶部10aに格納される。これにより、記憶部10aにデータベースが構築される。
図2において、照明装置10eの被照射面51への出射条件(例えば、画像光61の入射角度、照射距離、設置高さ等)が固定される場合、撮像装置41a及び撮像装置41bによって取得される光強度及び波長が光学データとして記憶部10aに格納されてもよい。
撮像装置41bのY軸方向における高さを変化させて撮像装置41bによって取得された高さ方向のデータが記憶部10aに格納されてもよい。これにより、ユーザ21の身長、移動型ロボット11とユーザ21との距離を考慮することが可能となる。このように、一対の撮像装置41a、41bによって取得される光強度及び波長が記憶部10aに格納されてもよい。
照明装置10eの被照射面51への出射条件(入射角度、照射距離、設置高さ等)、撮像装置41a及び撮像装置41bの配置条件などの条件を適宜変更して光学データを作成してもよい。
図7は、照明装置10eからの入射光Li(すなわち、画像光61)の入射角度αiと出射光Loの出射角度αoとを示す図である。
図7に示されるように、移動型ロボット11に搭載される照明装置10eの出射条件(入射角度、照射距離、設置高さ等)及びユーザ21の目の位置を考慮してデータベースを作成するために、例えば、入射角度αi毎(-80度から-5度)の入射光Liに対する出射光Loの出射角度αo毎(-80度から80度)の光強度及び波長に対する反射率を光学データとして取得してもよい。
被照射面51の特性を取得する場合、入射光Liは必ずしも照明装置10eからの光である必要はない。移動型ロボット11に搭載された撮像装置41aによって取得されたデータに基づいて被照射面51の特性を特定する場合、例えば、出射角度αo(-80度から0度)のデータを取得することが望ましい。
被照射面51の特性は、例えば、反射率、散乱度、光沢度、又は色である。被照射面51の材質は、タイル又は布でもよい。被照射面51の材質が既知である場合、複数の既知の材質を記憶部10aに格納することにより、被照射面51の特性を容易に特定することができる。すなわち、撮像装置41aによって取得されたデータに基づく演算処理が不要となり、被照射面51の特性を容易に特定することができる。
基準面(例えば、完全散乱白色面)のデータを取得することにより、入射光Liの光源色(白色は、3000K、5000K等、光源に依存する)の影響を除外することが可能となる。
光源1の各波長の光強度と被照射面51の各波長の反射率とを乗じて得られる光強度が反射光の各波長の光強度である。光源1の分光分布(各波長の光強度)と被照射面51の各波長の反射率を乗じて得られる光がユーザ21の目に入る。したがって、基準面のデータを用いて各波長の光強度を正規化することにより、被照射面51の各波長の相対反射率を算出することが可能となる。ここで、基準面が100%反射率である場合、被照射面51の各波長の絶対反射率を算出することが可能となる。つまり、照明装置10eの基準面のデータを記憶部10aに格納することで、異なる光源色で作成したデータベースを照明装置10eのデータベースに変換することが可能となる。言い換えると、照明装置10eの基準面のデータを異なる光源色の基準面のデータで正規化することで、各波長の反射率の補正係数を算出することが可能となる。
<実施の形態1の利点>
実施の形態1によれば、制御部10dは、被照射面51の特性及び推定部10cによって推定された結果に基づいて、照明装置10eから出る画像光61の光強度又は波長を制御する。これにより、ユーザにとっての視認性を高める照明制御システム100を提供することができる。
実施の形態2.
実施の形態2では、記憶部10aに格納されるデータ及び制御部10dが実施の形態1と異なる。実施の形態2におけるその他の構成は、実施の形態1と同じである。
<データベース>
記憶部10aには、実施の形態1で説明したデータ以外に、記号、文字、又は簡易なパターンで形成される、画像光の形状に関する情報(パターンごとのマスクデータなどのデータ含む)が格納されてもよい。
<マスクデータの作成>
図8は、実施の形態2における照明制御システム100の動作の一例を示す図である。
図9は、マスクデータを作成する方法の一例を示すフローチャートである。
実施の形態2では、例えば、照明装置10eの起動時に照明装置10eから照射される画像光61のマスクデータを作成する。
ステップS21では、照明装置10eが光を照射していない状態で、撮像装置41aは、被照射面51上の背景光(具体的には、外光)の画像を取得する。
ステップS22では、照明装置10eは、画像光61を被照射面51に照射し、撮像装置41aは、照明装置10eによって被照射面51に投影された画像(背景光と画像光61を合わせた画像)を取得する。すなわち、撮像装置41aは、画像光61によって被照射面51に形成された画像を取得する。この場合、画像光61によって被照射面51に形成される画像は、例えば、記号、文字、又はパターンを示す画像である。
ステップS23では、制御部10は、撮像装置41aによって取得された画像(背景光の画像および背景光と画像光61を合わせた画像)を取得し、差分計算、二値化、及び境界部抽出等の画像処理(例えば、マスク処理)を行う。
ステップS24では、パターンごとにマスクデータ(画像領域、背景領域、境界領域)を記憶部10aに格納する。パターンは、例えば、図6に示される画像光形成領域3a2、3b2、3c2である。
マスク処理の一例を説明する。
図10から図15は、マスク処理の工程を示す図である。
差分計算が行われる際、照明装置10eは画像光61を被照射面51に照射し、撮像装置41aが画像61Aを取得する(図10)。
次に、照明装置10eが画像光61を照射しない状態で、撮像装置41aが被照射面51の背景光(具体的には、外光)によって形成された画像61Bを取得する(図11)。図12に示されるように、画像61Aと画像61Bとの差分をとることで差分画像61Cを算出する。
図13に示されるように差分画像61Cを二値化した後、図14に示されるように画像領域61D(第1の画像領域とも称する)と背景領域61E(第2の画像領域とも称する)との間の領域を抽出し、図15に示されるように画像領域61D、背景領域61E、及び分離領域61F(境界領域とも称する)の3つの領域に分割する。以上の処理により、マスク処理が完了する。
なお、マスク化を行う際は、二値化は必須ではなく、境界領域に対して段階的に重みづけを行ってもよい。つまり、画像領域61D、背景領域61E、分離領域61Fの3つの領域に分割すればマスク化方法は限られない。
なお、高精度に制御を行うため、3つの領域に分割しているが、精度が許容される場合は、画像領域と背景領域のみを分割、つまり2つの領域の分割でもよい。これにより、制御が容易となる利点がある。
<制御部10d>
実施の形態2では、制御部10dは、予め取得した画像(例えば、パターンを含む画像61Aおよび背景光によって形成された画像61B)を用いてマスク処理を行い、マスク処理によって得られたデータを使用して、照明装置10eから出る光の光強度を制御する。具体的には、制御部10dは、画像領域61Dによって形成される第1の画像領域の光強度と第1の画像領域の周囲に第1の画像領域とは異なる第2の画像領域を形成する背景領域61Eの光強度を比較し、画像領域61Dの光強度が背景領域61Eの光強度より大きくなるように照明装置10eから照射される画像光61の光強度を制御する。
図16は、実施の形態2における制御部10dにおける処理の一例を示すフローチャートである。
図16に示される処理は、例えば、移動型ロボット11が走行しながら行われる。
ステップS25では、制御部10dは、被照射面51に形成された画像を取得する。
ステップS26では、制御部10dは、画像光61のパターンに対応するマスクデータを用いて、取得した画像を画像領域61D、背景領域61E、及び分離領域61Fの3つの領域に分離する。画像領域61Dの結像性能、照明装置10eの振動による画像ブレ等の影響を避けるため、分離領域61Fを設ける。これにより、画像領域61Dと背景領域61Eとを明確に分離することが可能となる。
ステップS27では、制御部10dは、画像領域61Dのデータ、背景領域61Eのデータ、及び撮像装置41aによって取得されたデータを用いて、画像領域61Dの光強度及び背景領域61Eの光強度を算出する。
ステップS28では、制御部10dは、第1の画像領域を形成する画像領域61Dの光強度が第2の画像領域を形成する背景領域61Eの光強度よりも大きくなるように照明装置10eを制御する。例えば、制御部10dは、画像領域61Dの光強度と背景領域61Eの光強度との関係が予め設定された目標値に近づくように照明装置10eから照射される画像光61の光強度を制御する。目標値を、画像領域61Dの光強度が背景領域61Eの光強度の2倍以上の値に設定した場合、制御部10dは、画像領域61Dの光強度が背景領域61Eの光強度の2倍以上となるように画像光61の光強度を制御する。
ステップS25からステップS28までの処理は、繰り返し行われてもよい。
被照射面51に照射される画像領域61Dの面積に対して背景領域61Eの面積は、0.5倍以上であることが好ましい。これにより、計算領域を絞ることが可能となり計算速度を速くすることができる。その結果、コントラストを上げることができ、画像光61を強調することができる。
以上に説明したように、実施の形態2によれば、制御部10dは、画像領域61Dによって形成される第1の画像領域の光強度と第1の画像領域の周囲に第1の画像領域とは異なる第2の画像領域を形成する背景領域61Eの光強度を比較し、画像領域61Dの光強度が背景領域61Eの光強度より大きくなるように照明装置10eから照射される画像光61の光強度を制御する。
例えば、画像領域61D、背景領域61E、及び分離領域61Fの3つの領域に分離し、分離領域61Fを計算から除外することにより、精度高くコントラスト比率を算出することが可能となる。その結果、画像光61を強調することができ、ユーザ21にとっての第1の画像の視認性を高めることができる。また、画像領域61Dの結像性能、照明装置10eの振動による画像ブレ等の影響により、算出したコントラスト比率の精度が低下することを抑制する効果が得られる。
制御部10dは、第1の画像領域を形成する画像領域61Dの光強度が第2の画像領域を形成する背景領域61Eの光強度よりも大きくなるように照明装置10eを制御することが好ましい。これにより、ユーザ21にとっての第1の画像領域の視認性をより高めることができる。
例えば、制御部10dは、画像領域61Dの光強度が背景領域61Eの光強度の2倍以上となるように画像光61の光強度を制御することが好ましい。これにより、ユーザ21にとっての第1の画像領域の視認性をより高めることができる。
なお、本実施の形態では、制御速度を速めるため、予め取得した画像(例えば、パターンを含む画像61Aおよび背景光によって形成された画像61B)を用いてマスク処理を行っているが、リアルタイムで画像処理を行ってもよい。
例えば、移動型ロボット11に搭載した撮像装置41aあるいは、移動型ロボット11が移動する屋内の天井又は壁面に設置された撮像装置により、画像光が照射された状態で第1の画像領域を取得し、画像光が照射されていない状態で、第1の画像領域の周囲に形成された第2の画像領域とを取得し、制御部10dは、第1の画像領域と第2の画像領域との間に第1の画像領域と第2の画像領域とを分離する分離領域が形成されるように画像処理を行ってもよい。
これにより、精度高くコントラスト比率を算出することが可能となる。
なお、この分離機能は、図1に示す構成に限らず。記憶部、特性部、推定部を備えないシステムに適用しても良く、斜め投射でない場合でも適用しても良い。適用先のシステムは特に限定されず、精度高くコントラスト比率を算出する用途であればよい。その場合は、撮像装置は上記に限定されず、システムに対象となる領域の撮像画像を入力できれば良い。
実施の形態3.
実施の形態3では、記憶部10aに格納されるデータが実施の形態1と異なる。実施の形態3におけるその他の構成は、実施の形態1と同じである。
記憶部10aには、移動型ロボット11が移動する屋内の情報に関する屋内情報データベースが構築されている。屋内情報データベースは、例えば、可動範囲マップ81、床面マップ82、照明マップ83、及び外光マップ84から構成される。制御部10dは、屋内情報データベースを用いて画像光(具体的には、ユーザ21の目の位置における、被照射面51での反射光の光強度及び波長)を適切に制御する。
図16は、実施の形態3における画像光を制御する工程の一例を示すフローチャートである。
<可動範囲マップ81>
図17は、可動範囲マップ81の一例を示す図である。
可動範囲マップ81は、移動型ロボット11が移動可能な範囲を示すデータである。具体的には、可動範囲マップ81は、屋内の床面、障害物などの屋内の状況を考慮して移動型ロボット11が移動可能な範囲を示すデータである。可動範囲マップ81は、移動可能領域81aと移動不可能領域81bとに分類されており、これらの領域を示すデータによって構成されている。
<床面マップ82>
図18は、床面マップ82の一例を示す図である。
床面マップ82は、移動可能領域81aに対応する床面の光学特性又は移動可能領域81aに対応する床面(すなわち、被照射面51)の材料の種類を示すデータである。したがって、床面マップ82は、可動範囲マップ81と関連付けられている。
図18に示される例では、データ「C1」はカーペット(第1のカーペット)を示し、データ「C2」は他のカーペット(第1のカーペットとは異なる第2のカーペット)を示し、データ「PT」はPタイルを示す。これらのデータ「C1」、「C2」、「PT」の光学特性は、記憶部10aに予め格納されている。これらのデータ「C1」、「C2」、「PT」の光学特性は、例えば、移動型ロボット11の位置情報又は移動経路情報に基づいて、特定部10bによって特定される。移動型ロボット11の移動経路情報は、例えば、決められた時間帯に特定の場所を走行するように定められた移動経路を示す情報であり、記憶部10aに予め格納されている。なお、移動型ロボット11の移動経路情報は、動作前の任意に設定された移動経路を示す情報でもよい。
<照明マップ83>
図19は、照明マップ83の一例を示す図である。
照明マップ83は、移動可能領域81aに対応する照明器具の位置(例えば、天井の位置)を示すデータである。したがって、照明マップ83は、可動範囲マップ81と関連付けられている。例えば、移動可能領域81aごとに照明器具の種類を示す照明マップ83が記憶部10aに格納されている。
図19に示される例では、データ「FL」は蛍光灯(昼白色)を示し、データ「DL」はダウンライト(電球色)を示す。これらのデータ「FL」、「DL」のように、照明器具の種類、光源色などのデータが記憶部10aに予め格納されている。
記憶部10aに予め格納された床面上の照度と照明器具の位置及び被照射面51の特性とを用いてユーザ21の目の位置における光強度を推定してもよい。これにより、移動型ロボット11に搭載された撮像装置41a又は屋内に設置された撮像装置41bを用いて背景光の影響を推定する必要がなくなる。
色の場合、光強度と同様に、可動範囲マップ81に対応する床面での反射光の色分布を複数の視点で記憶部10aに格納してもよい。例えば、反射光の色分布を、ユーザ21の目の位置、ユーザ21の目線を考慮して記憶部10aに格納してもよい。
床面(すなわち、被照射面51)の色度又は色情報を記憶部10aに予め格納し、照明マップ83の照明器具の位置、光源色、被照射面51の特性を用いてユーザ21の目の位置における色を推定してもよい。
<外光マップ84>
図20は、外光マップ84の一例を示す図である。
外光マップ84は、外光が入る移動可能領域81aにおける反射光の強度分布を示すデータである。したがって、外光マップ84は、可動範囲マップ81と関連付けられている。反射光の強度分布は、例えば、外光が入る領域における、天候情報、季節などの条件に応じた太陽高度の推定値に対応する。反射光の強度分布は、例えば、ユーザ21の目の位置、ユーザ21の目線を考慮して記憶部10aに格納してもよい。
記憶部10aに予め格納された床面上の照度と外光の入射角度及び被照射面51の特性とを用いてユーザ21の目の位置における光強度を推定してもよい。
色の場合、光強度と同様に、可動範囲マップ81に対応する床面での反射光の色分布を複数の視点で記憶部10aに格納してもよい。例えば、反射光の色分布を、ユーザ21の目の位置、ユーザ21の目線を考慮して記憶部10aに格納してもよい。
床面(すなわち、被照射面51)の色度又は色情報を記憶部10aに予め格納し、照明マップ83の照明器具の位置、光源色、被照射面51の特性を用いてユーザ21の目の位置における色を推定してもよい。
図20に示される例では、図20の上側(例えば、北側)から外光が屋内に入る場合の、データ「N1」で示される領域の光強度及びデータ「N2」で示される領域の光強度が記憶部10aに予め格納されている。ブラインドの開閉状態を記憶部10aに予め格納してもよい。これにより、ブラインドの開閉情報を用いて、外光の影響を推定することが可能となる。
以上に説明したように、実施の形態3によれば、可動範囲マップ81、床面マップ82、照明マップ83、及び外光マップ84が記憶部10aに予め格納されている。したがって、これらのデータを用いることにより、移動型ロボット11の位置、移動経路などの情報に基づいて、被照射面51の特性の特定、ユーザ21の目の位置における光強度及び波長の推定を行うことができる。すなわち、撮像装置41aを用いることなく、例えば、ユーザ21の目の位置を、ユーザ21が存在する屋内に設置された別の撮像装置によって取得された画像を用いて推定することにより、画像光(すなわち、ユーザ21の目の位置における、被照射面51での反射光)の光強度及び波長を適切に制御することができる。その結果、ユーザ21にとっての視認性を高めることができる。
移動型ロボット11が可動範囲マップ81の移動可能領域81aを走行している際に、撮像装置41aによって取得される背景光と被照射面51の特性を記憶部10aに格納してもよい。
記憶部10aに格納されるデータは、人工知能を用いて生成されたデータでもよい。
以上に説明した各実施の形態における特徴は、互いに組み合わせることができる。
1 光源、 3 画像光形成部、 4 投射光学部、 10a 記憶部、 10b 特定部、 10c 推定部、 10d 制御部、 10e 照明装置、 11 移動型ロボット、 21 ユーザ、 31b 照明光学系、 41a,41b 撮像装置、 42 主制御部、 42a プロセッサ、 42b メモリ、 51 被照射面、 100 照明制御システム。

Claims (6)

  1. 被照射面に対して照射して画像を結像する移動可能な移動可能照明装置とユーザとが共存する空間で、前記被照射面に対する前記移動可能照明装置の照明を制御して前記ユーザに注意喚起を行う照明制御システムにおいて、
    前記移動可能照明装置に配置してあり、前記被照射面を撮像する第1撮像装置と、
    前記ユーザに配置してあり、前記ユーザの目の位置を示す第2撮像装置と、
    前記第1撮像装置の撮像内容に基づいて前記被照射面の特性を特定する特定部と、
    前記第2撮像装置によって取得された画像を用いて前記ユーザの目の位置を推定する推定部と、
    前記特定部が特定した前記特性及び前記ユーザに配置した前記第2撮像装置によって取得された前記画像を用いて前記推定部が推定した前記目の位置に基づいて、前記移動可能照明装置による照射の光強度又は波長を制御する制御部と
    を備える
    ことを特徴とする照明制御システム。
  2. 前記移動可能照明装置は、記号、文字、又はパターンを示す第1の画像光を前記被照射面に照射し、
    前記制御部は、
    前記第1の画像光が照射された状態で前記第1の画像光と背景光によって形成された第1の画像と、
    前記第1の画像光が照射されていない状態で、前記背景光によって形成された第2の画像と
    を取得し、
    前記制御部は、前記第1の画像光に対応する第1の画像領域と前記第1の画像領域の周囲に形成される第2の画像領域との間に前記第1の画像領域と前記第2の画像領域とを分離する分離領域が形成されるように画像処理を行う
    請求項1に記載の照明制御システム。
  3. 前記制御部は、前記第1の画像を形成する前記第1の画像光の光強度が前記第2の画像を形成する前記背景光の光強度よりも大きくなるように前記移動可能照明装置を制御する請求項2に記載の照明制御システム。
  4. 前記制御部は、前記第1の画像を形成する前記第1の画像光の光強度が前記第2の画像を形成する前記背景光の光強度の2倍以上となるように前記移動可能照明装置を制御する請求項2に記載の照明制御システム。
  5. 前記制御部は、前記ユーザとは異なるユーザを検知した場合、前記移動可能照明装置からの照射を停止する請求項1に記載の照明制御システム。
  6. 前記制御部は、屋内の情報に関する屋内情報データベースを用いて前記第1の画像光を制御する
    請求項2に記載の照明制御システム。
JP2023511916A 2022-10-19 2022-10-19 照明制御システム Active JP7475539B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024063099A JP2024074970A (ja) 2022-10-19 2024-04-10 照明制御システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/038855 WO2024084606A1 (ja) 2022-10-19 2022-10-19 照明制御システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024063099A Division JP2024074970A (ja) 2022-10-19 2024-04-10 照明制御システム

Publications (1)

Publication Number Publication Date
JP7475539B1 true JP7475539B1 (ja) 2024-04-26

Family

ID=90737074

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2023511916A Active JP7475539B1 (ja) 2022-10-19 2022-10-19 照明制御システム
JP2024063099A Pending JP2024074970A (ja) 2022-10-19 2024-04-10 照明制御システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024063099A Pending JP2024074970A (ja) 2022-10-19 2024-04-10 照明制御システム

Country Status (2)

Country Link
JP (2) JP7475539B1 (ja)
WO (1) WO2024084606A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011050029A (ja) 2009-01-29 2011-03-10 Sanyo Electric Co Ltd 立体画像表示システムおよび投写型映像表示装置
JP2017170982A (ja) 2016-03-22 2017-09-28 日本電気株式会社 無人飛行装置制御システム、無人飛行装置制御方法および画像投影装置
JP2020010888A (ja) 2018-07-19 2020-01-23 シャープ株式会社 電気掃除機
JP2021157203A (ja) 2018-06-19 2021-10-07 ソニーグループ株式会社 移動体制御装置および移動体制御方法、並びにプログラム
CN114022543A (zh) 2021-10-28 2022-02-08 北京乐驾科技有限公司 Ar/vr眼镜和测量身高的***、方法、电子设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2005015466A1 (ja) * 2003-08-07 2006-10-05 松下電器産業株式会社 生活支援システム及びその制御用プログラム
JP2005313291A (ja) * 2004-04-30 2005-11-10 Mitsubishi Heavy Ind Ltd ロボット行動とリンクした映像表示方法とその装置
JP2011204145A (ja) * 2010-03-26 2011-10-13 Sony Corp 移動装置、移動方法およびプログラム
JP2015149522A (ja) * 2014-02-04 2015-08-20 シャープ株式会社 投影制御装置
JP6799789B2 (ja) * 2016-06-29 2020-12-16 パナソニックIpマネジメント株式会社 歩行支援ロボット及び歩行支援方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011050029A (ja) 2009-01-29 2011-03-10 Sanyo Electric Co Ltd 立体画像表示システムおよび投写型映像表示装置
JP2017170982A (ja) 2016-03-22 2017-09-28 日本電気株式会社 無人飛行装置制御システム、無人飛行装置制御方法および画像投影装置
JP2021157203A (ja) 2018-06-19 2021-10-07 ソニーグループ株式会社 移動体制御装置および移動体制御方法、並びにプログラム
JP2020010888A (ja) 2018-07-19 2020-01-23 シャープ株式会社 電気掃除機
CN114022543A (zh) 2021-10-28 2022-02-08 北京乐驾科技有限公司 Ar/vr眼镜和测量身高的***、方法、电子设备及存储介质

Also Published As

Publication number Publication date
JP2024074970A (ja) 2024-05-31
WO2024084606A1 (ja) 2024-04-25

Similar Documents

Publication Publication Date Title
US10094530B2 (en) Apparatus for spatially and spectrally adaptable dichromatic white light source using spatial light modulator
JP6139017B2 (ja) 光源の特性を決定する方法及びモバイルデバイス
US9400416B2 (en) Illumination light source device including a reflecting-transmitting element, projection device including the illumination light source device and method to control the projection device
TWI425299B (zh) 發光裝置、光源裝置及使用此光源裝置之投影器
JP6981174B2 (ja) 車両用前照灯装置
US11827140B2 (en) Vehicle detecting device, vehicle lamp system, vehicle detecting method, light distribution controlling device, and light distribution controlling method
JP2015184383A5 (ja)
TW202021340A (zh) 用於相機之紅外光預閃光
EP2933143B1 (en) Irradiation apparatus
US11066006B2 (en) Vehicle lamp
JP7252755B2 (ja) アクティブセンサ、物体識別システム、車両、車両用灯具
JP7475539B1 (ja) 照明制御システム
WO2020129522A1 (ja) 画像処理装置
JP6495021B2 (ja) 車両用灯具
JP2010078854A (ja) 照明装置
US20160150617A1 (en) Lighting device for adjusting a light colour separately within severla zones
JP7188902B2 (ja) 情報処理システム及びプログラム
JP2008249783A (ja) 画像表示装置及び方法、及びスクリーン
JPWO2021234890A5 (ja)
JP2019175686A (ja) 照明システム
JP2005176031A (ja) 車載用障害物検出装置
JP6590313B2 (ja) 照明装置及び照明システム
JP2014053844A (ja) プロジェクタ及び投影制御方法と投影制御プログラム
WO2022085683A1 (ja) 車両用灯具システム、配光制御装置および配光制御方法
KR101401395B1 (ko) 표면각도 측정 광센서 및 이를 이용한 표면각도 및 형상정보 감지방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230216

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240416

R150 Certificate of patent or registration of utility model

Ref document number: 7475539

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150