JP7415912B2 - 装置、システム、方法およびプログラム - Google Patents

装置、システム、方法およびプログラム Download PDF

Info

Publication number
JP7415912B2
JP7415912B2 JP2020214218A JP2020214218A JP7415912B2 JP 7415912 B2 JP7415912 B2 JP 7415912B2 JP 2020214218 A JP2020214218 A JP 2020214218A JP 2020214218 A JP2020214218 A JP 2020214218A JP 7415912 B2 JP7415912 B2 JP 7415912B2
Authority
JP
Japan
Prior art keywords
camera
subject
display
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020214218A
Other languages
English (en)
Other versions
JP2022100073A (ja
Inventor
征世 秋定
康樹 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yokogawa Electric Corp
Original Assignee
Yokogawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yokogawa Electric Corp filed Critical Yokogawa Electric Corp
Priority to JP2020214218A priority Critical patent/JP7415912B2/ja
Priority to US17/457,674 priority patent/US20220201194A1/en
Priority to EP21215069.2A priority patent/EP4020970A1/en
Priority to CN202111578836.6A priority patent/CN114666535A/zh
Publication of JP2022100073A publication Critical patent/JP2022100073A/ja
Application granted granted Critical
Publication of JP7415912B2 publication Critical patent/JP7415912B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Description

本発明は、装置、システム、方法およびプログラムに関する。
特許文献1には、「ユーザの視線方向を検出して、ユーザが注視しているモニタ11上の位置(領域)を推定する。そして注視位置を含む所定の範囲の被写体に焦点を合わすAF処理を行う。」と記載されている。
[先行技術文献]
[特許文献]
[特許文献1] 特許6241107号
本発明の第1の態様においては、装置が提供される。装置は、向きを制御可能なカメラから撮像画像を取得する取得部を備えてよい。装置は、撮像画像を表示画面に表示させる表示制御部を備えてよい。装置は、表示画面内でユーザの見ている被写体を検出する検出部を備えてよい。装置は、被写体がカメラの撮像領域から外れないようカメラの向きを変更する向き変更部を備えてよい。
向き変更部は、被写体が撮像領域の中央部に位置するようカメラの向きを変更してよい。
検出部は、ユーザの目の動きから、被写体に対するズーム操作を検出してよい。装置は、ズーム操作に応じて表示画面内で被写体の大きさを変更する大きさ変更部をさらに備えてよい。
本発明の第2の態様においては、システムが提供される。システムは、第1の態様の装置を備えてよい。システムは、向きを制御可能なカメラを備えてよい。システムは、カメラにより撮像された撮像画像を装置に送信する通信装置を備えてよい。
カメラおよび通信装置は、無人機に搭載されてよい。
無人機は、予め設定されたルート上を移動してよい。
カメラは、監視カメラであってよい。
本発明の第3の態様においては、方法が提供される。方法は、向きを制御可能なカメラから撮像画像を取得する取得段階を備えてよい。方法は、撮像画像を表示画面に表示させる表示制御段階を備えてよい。方法は、表示画面内でユーザの見ている被写体を検出する検出段階を備えてよい。方法は、被写体がカメラの撮像領域から外れないようカメラの向きを変更する向き変更段階を備えてよい。
本発明の第4の態様においては、プログラムが提供される。プログラムは、コンピュータを、向きを制御可能なカメラから撮像画像を取得する取得部として機能させてよい。プログラムは、コンピュータを、撮像画像を表示画面に表示させる表示制御部として機能させてよい。プログラムは、コンピュータを、表示画面内でユーザの見ている被写体を検出する検出部として機能させてよい。プログラムは、コンピュータを、被写体がカメラの撮像領域から外れないようカメラの向きを変更する向き変更部として機能させてよい。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本実施形態に係る看視システム1を示す。 装置3の動作を示す。 表示画面の例を示す。 本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ2200の例を示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
[1.看視システム1の構成]
図1は、本実施形態に係る看視システム1を示す。看視システム1は、プラントの看視を行うものであり、無人機2と、装置3とを備える。
ここで、プラントとしては、化学等の工業プラントの他、ガス田や油田等の井戸元やその周辺を管理制御するプラント、水力・火力・原子力等の発電を管理制御するプラント、太陽光や風力等の環境発電を管理制御するプラント、上下水やダム等を管理制御するプラント等がある。
[1.1.無人機2]
無人機2は、プラント内を移動する。無人機2は、プラント内の予め設定されたルート上を移動してよい。無人機2は、自律的な移動が可能であってもよいし、図示しない操作装置や、装置3によって遠隔操縦が可能であってもよい。
無人機2は、無人航空機(UAV(Unmanned Aerial Vehicle)、ドローンとも称する)であってもよいし、無人車両(UGV(unmanned ground vehicle)とも称する)であってもよいし、無人水上艦(USV(unmanned surface vehicle)とも称する)であってもよいし、無人潜水艦(UUV(unmanned underwater vehicle)とも称する)であってもよい。
無人機2は、カメラ21と、通信装置22とを有する。
[1.1(1).カメラ21]
カメラ21は、撮像を行って撮像画像を通信装置22に供給する。本実施形態では一例として、カメラ21は、常時、撮像を行って動画像(映像とも称する)を生成してよい。カメラ21は、向き(撮像方向とも称する)を制御可能であってよく、本実施形態では一例として、通信装置22から供給される後述の向き変更指示に応じて、向きを変更してよい。
[1.1(2).通信装置22]
通信装置22は、無線または有線で装置3と通信する。
通信装置22は、カメラ21により撮像された撮像画像を装置3に送信してよい。本実施形態では一例として、通信装置22は、撮像画像を逐次、装置3に送信するが、基準インターバル毎(一例として10秒毎)に送信してもよい。
また、通信装置22は、向き変更指示を装置3から受信してカメラ21に供給してよい。
[1.2.装置3]
装置3は、無人機2を用いたプラントの看視を支援する。装置3は、通信部31と、表示制御部32と、表示部33と、撮像部34と、検出部35と、向き変更部36とを有する。なお、装置3は、プラントにおける管理室、計器室などに配置されてよい。本実施形態では一例として、装置3は、据え置き型のPCなどであってよい。
[1.2(1).通信部31]
通信部31は、無線または有線で無人機2の通信装置22と通信する。通信部31は、取得部の一例であり、通信装置22を介してカメラ21から撮像画像を取得する。通信部31は、撮像画像を表示制御部32に供給してよい。また、通信部31は、後述の向き変更部36から供給される向き変更指示を通信装置22に送信してもよい。
[1.2(2).表示制御部32]
表示制御部32は、表示部33を制御する。表示制御部32は、表示対象の画像(表示画像とも称する)を表示部33に供給して表示画面に表示させてよい。表示画像は、一例として、カメラ21により撮像された撮像画像そのものであってよい。
表示制御部32は、大きさ変更部の一例であってよく、ズーム操作に応じて表示画面内で被写体の大きさを変更してよい。本実施形態では一例として、ズーム操作に応じた拡大(ズームインとも称する)または縮小(ズームアウトとも称する)の指示を検出部35から取得して、被写体の大きさを変更してよい。
表示制御部32は、デジタルズームによって被写体の大きさを変更してよい。例えば、表示制御部32は、拡大の指示を取得したことに応じて、通信部31から供給される撮像画像のうち、現時点で表示されている領域よりも小さい領域の画像を表示部33に供給して拡大表示させてよい。表示制御部32は、縮小の指示を取得したことに応じて、通信部31から供給される撮像画像のうち、現時点で表示されている領域よりも大きい領域の画像を表示部33に供給して縮小表示させてよい。この場合には、表示部33に供給される表示画像は、撮像画像のうち拡大表示される一部の画像であってよい。
表示制御部32は、表示画像を検出部35および向き変更部36にも供給してよい。
[1.2(3).表示部33]
表示部33は、表示制御部32から供給される表示画像を表示画面に表示する。表示部33は、他の内容をさらに表示してもよい。
[1.2(4).撮像部34]
撮像部34は、ユーザの目を撮像する。撮像部34は、撮像した目の画像を検出部35に供給してよい。なお、本実施形態においては一例として、撮像部34は、表示部33の表示画面の外周部に設けられるが、他の位置に設けられてもよい。
[1.2(5).検出部35]
検出部35は、目の画像に基づいて種々の検出を行う。検出部35は、操作検出部351と、注視位置検出部352と、被写体検出部353とを有する。
[1.2(5-1).操作検出部351]
操作検出部351は、ユーザの目の動きから、被写体に対するズーム操作を検出する。操作検出部351は、撮像部34から供給される目の画像を用いてズーム操作を検出してよい。ズーム操作は、ズームイン操作およびズームアウト操作の両方であってよい。
操作検出部351は、第1基準時間(一例として0.5秒)に亘ってユーザが目を細めることに応じてズームイン操作を検出し、目を広げることに応じてズームアウト操作を検出してよい。検出部35は、ユーザが基準頻度(一例として1秒間に3回)以上に瞬きをすることに応じてズームイン操作を検出してもよい。操作検出部351は、ズーム操作を検出したことに応じて、拡大または縮小の指示を表示制御部32に供給してよい。
[1.2(5-2).注視位置検出部352]
注視位置検出部352は、表示画面内でユーザの見ている注視位置を検出する。
注視位置検出部352は、ユーザの視線を検出してよい。本実施形態では一例として、注視位置検出部352は、撮像部34から供給される目の画像を解析することによって視線を検出してよい。注視位置検出部352は、検出した視線が通過する表示画面上の位置を、注視位置としてよい。注視位置検出部352は、検出した注視位置の位置情報(一例として表示画面内の座標)を被写体検出部353および表示制御部32に供給してよい。
[1.2(5-3).被写体検出部353]
被写体検出部353は、表示画面内でユーザの見ている被写体(対象被写体とも称する)を検出する。例えば、被写体検出部353は、プラント内の機器や設備ごとに撮像画像や外観の特徴データを予め記憶してよい。被写体検出部353は、表示画像を表示制御部32から取得し、表示画像に含まれる被写体のうち、注視位置を含む領域に対してエッジ抽出処理などの画像処理を行って取得される被写体の外観を、予め記憶した撮像画像や特徴データと照合することで、対象被写体を検出してよい。これに代えて、プラント内の各機器や設備の外面には、予め固有のコードが設けられてよく、被写体検出部353は、注視位置を含む領域に対してエッジ抽出処理などの画像処理を行って取得される被写体の外面から検出されるコードを解析することで対象被写体を検出してもよい。コードは、バーコードや2次元コード(一例としてQRコード(登録商標))などであってよく、貼付、印刷、または、刻印の少なくとも1つによって機器や設備に設けられてよい。
被写体検出部353は、検出した対象被写体の情報を向き変更部36に供給してよい。対象被写体の情報は、被写体の特徴データであってもよいし、撮像画像内での被写体の位置座標データであってもよいし、プラント内の機器や設備に予め設定された識別番号であってもよい。
[1.2(6).向き変更部36]
向き変更部36は、対象被写体がカメラ21の撮像領域から外れないよう、カメラ21の向きを変更する。例えば、向き変更部36は、対象被写体が撮像領域の中央部に位置するようカメラ21の向きを変更してよい。向き変更部36は、通信部31を介してカメラ21の向き変更指示をカメラ21に供給することで、カメラ21の向きを変更してよい。
以上の装置3によれば、撮像画像が表示された表示画面内でユーザの見ている対象被写体が検出され、撮像領域から対象被写体が外れないようカメラ21の向きが変更されるので、対象被写体を確実に撮像画像に収めることができる。
また、対象被写体が撮像領域の中央部に位置するようカメラ21の向きが変更されるので、対象被写体を撮像画像の中央部に収めることができる。
また、無人機2にカメラ21と通信装置22とが搭載されるので、無人機2に搭載されたカメラ21によって対象被写体を確実に撮像画像に収めることができる。
また、無人機2は予め設定されたルート上を移動するので、ルート上に存在する対象被写体を無人機のカメラ21によって確実に撮像画像に収めることができる。
また、ユーザの目の動きから検出されるズーム操作に応じて表示画面内で対象被写体の大きさが変更されるので、目の動きによって任意の倍率で対象被写体の撮像画像を見ることができる。
[2.動作]
図2は、装置3の動作を示す。装置3は、ステップS11~S27の処理によってプラントの看視を行う。
ステップS11において通信部31は無人機2のカメラ21から撮像画像を取得し、ステップS13において表示制御部32は、撮像画像を表示画面に表示させる。なお、後述のステップS17によって対象被写体の大きさが変更されている場合には、表示制御部32は、被写体の大きさが維持されるよう撮像画像の一部の領域の表示画像を表示画面に表示させてよい。
ステップS15において表示制御部32は、操作検出部351によりズーム操作が検出されたか否かを判定する。ズーム操作が検出されないと判定された場合(ステップS15;N)にはステップS21に処理が移行してよい。ズーム操作が検出されたと判定された場合(ステップS15;Y)にはステップS17に処理が移行してよい。
ステップS17において表示制御部32は、ズーム操作に応じて表示画面内で対象被写体の大きさを変更する。表示制御部32は、対象被写体の大きさを段階的に変更してよく、ズーム操作が1回行われることに応じて、対象被写体の表示サイズを1段階だけ大きく、または、小さくしてよい。表示制御部32は、注視位置検出部352から供給される注視位置の位置情報に基づいて、注視位置が表示画面から外れないように撮像画像を拡大または縮小してよい。一例として、注視位置検出部352が表示画面内でユーザの見ている注視位置を検出し、表示制御部32は、検出された注視位置を基準点として撮像画像を拡大または縮小してよい。注視位置を基準点として撮像画像を拡大または縮小するとは、注視位置の被写体が移動しないように撮像画像を拡大または縮小することであってよい。
ステップS21において注視位置検出部352は、表示画面内でユーザの見ている注視位置を検出する。なお、ステップS17の処理において既に注視位置検出部352が注視位置を検出している場合には、注視位置検出部352は新たに注視位置を検出しなくてもよい。
ステップS23において被写体検出部353は、表示画面内でユーザの見ている対象被写体を検出する。被写体検出部353は、表示画像に含まれる被写体のうち、注視位置を含む領域に対してエッジ抽出処理などの画像処理を行って取得される被写体の外観を、予め記憶した撮像画像や特徴データと照合することで、対象被写体を検出してよい。
被写体検出部353は、同一の被写体が現時点までに第2基準時間以上、継続してユーザにより見られたことに応じて、当該被写体を対象被写体として検出してよい。第1の被写体が対象被写体として検出されたのち、第2基準時間未満だけユーザが第2の被写体を見た場合には、被写体検出部353は、第1の被写体を対象被写体に維持してよい。第2基準時間は、操作検出部351によってズーム操作が検出される第1基準時間(一例として0.5秒)と同じであってもよいし、異なってもよい。一例として第2基準時間は1秒であってよい。
ステップS25において向き変更部36は、対象被写体が表示画像から外れるか否か、別言すれば表示画面から外れるか否かを判定する。例えば、向き変更部36は、表示制御部32から供給される表示画像の遷移から表示画像内での対象被写体の移動速度を算出し、第3基準時間の経過後に対象被写体が表示画像外に外れるか否かを判定してよい。第3基準時間は、被写体検出部353により対象被写体が検出される第2基準時間(一例として1秒)や、操作検出部351によってズーム操作が検出される第1基準時間(一例として0.5秒)と同じであってもよいし、異なってもよい。一例として第3基準時間は0.5秒であってよい。なお、ステップS25において向き変更部36は、対象被写体が表示画像の中央部から外れるか否か、或いは、対象被写体が表示画像の中央部から外れたか否かを判定してもよい。
ステップS25において対象被写体が表示画像から外れないと判定された場合(ステップS25;N)には、ステップS11に処理が移行してよい。対象被写体が表示画像から外れると判定された場合(ステップS25;Y)には、ステップS27に処理が移行してよい。
ステップS27において向き変更部36は、対象被写体がカメラ21の撮像領域から外れないよう、カメラ21の向きを変更する。向き変更部36は、対象被写体が撮像領域の中央部に位置するようカメラ21の向きを変更してよい。本実施形態では一例として、向き変更部26は、対象被写体が表示画像から外れないようカメラ21の向きを変更してよく、好ましくは、対象被写体が表示画像の中央部に位置するようカメラ21の向きを変更してよい。ステップS27の処理が終了したら、ステップS11に処理が移行してよい。
[3.表示画面の例]
図3は、表示画面の例を示す。この図に示されるように、無人機2のカメラ21により撮像されたプラントの外観が表示画面に表示された状態において、図中の2重線枠で囲まれた被写体をユーザが注視すると、この被写体が撮像領域から外れないようにカメラ21の向きが変更される。
[4.変形例]
なお、上記の実施形態においては、装置3は表示部33を有することとして説明したが、表示部33を有しなくてもよい。この場合には、表示制御部32は外部接続された表示装置に撮像画像を表示させてよい。
また、注視位置検出部352は目の撮像画像からユーザの視線を検出することとして説明したが、他の手法によって視線を検出してもよい。この場合には、装置3は撮像部34を有しなくてもよく、注視位置検出部352は、ユーザの視線または両目の注視位置を検出するセンサ群(図示せず)を有してよい。センサ群は、ユーザの頭部(一例として目の周辺)に装着される6軸センサや、磁気センサ、眼電位センサなどを含んでよい。6軸センサは、3軸加速度センサおよび3軸ジャイロ(角速度)センサを有するモーションセンサ(慣性センサとも称する)であってよく、ユーザの頭部の向きを検出してよい。磁気センサは、例えば、3軸の地磁気センサであってよい。眼電位センサは、目の周りの電位差を検出することで、眼球の向きを検出してよい。注視位置検出部352は、これらのセンサを用い、従来より公知の手法によって視線を検出してよい。例えば、センサ群に6軸センサや磁気センサが含まれる場合には、注視位置検出部352は、両目の中間点の位置と、頭部の向きとを検出し、両目の中間点を通って頭部の正面に向かう直線を視線として検出してよい。センサ群に眼電位センサがさらに含まれる場合には、注視位置検出部352は、両目の中間点と両目の注視位置とを検出し、両目の中間点と両目の注視位置とを結ぶ直線を視線として検出してよい。
また、看視システム1は単一の無人機2を備えることとして説明したが複数の無人機2を備えてもよい。この場合には、表示画面には各無人機2のカメラ21による撮像画像が表示されてよい。
また、装置3を据え置き型のPCとして説明したが、モバイル端末など、他の任意の装置であってもよく、一例として、ヘッドマウントディスプレイを有するウェアラブル端末であってもよい。
また、カメラ21は常時撮像を行うこととして説明したが、定期的なタイミングで撮像を行ってもよいし、図示しない操作装置や、装置3に対して行われるシャッター操作のタイミングで撮像を行ってもよい。また、カメラ21は動画像を生成することとして説明したが、静止画像を生成してもよい。
また、移動可能な無人機2にカメラ21が搭載されることとして説明したが、向きを制御可能である限りにおいて、カメラ21は監視カメラであってもよい。この場合には、監視カメラによる監視領域内に存在する被写体を確実に撮像画像に収めることができる。なお、監視カメラは、道路や駐車場、電灯、電柱に配置されてもよいし、設備の出入り口や通路などに配置されてもよい。設備は、プラントでもよいし、学校や住宅、駅、空港、博物館、病院、店舗であってもよいし、テーマパークや遊園地、それらのアトラクション用施設などであってもよい。
また、本発明の様々な実施形態は、フローチャートおよびブロック図を参照して記載されてよく、ここにおいてブロックは、(1)操作が実行されるプロセスの段階または(2)操作を実行する役割を持つ装置のセクションを表わしてよい。特定の段階およびセクションが、専用回路、コンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、および/またはコンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタルおよび/またはアナログハードウェア回路を含んでよく、集積回路(IC)および/またはディスクリート回路を含んでよい。プログラマブル回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、および他の論理操作、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等のようなメモリ要素等を含む、再構成可能なハードウェア回路を含んでよい。
コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読媒体は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(RTM)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、および「C」プログラミング言語または同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードのいずれかを含んでよい。
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供され、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
図4は、本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ2200の例を示す。コンピュータ2200にインストールされたプログラムは、コンピュータ2200に、本発明の実施形態に係る装置に関連付けられる操作または当該装置の1または複数のセクションとして機能させることができ、または当該操作または当該1または複数のセクションを実行させることができ、および/またはコンピュータ2200に、本発明の実施形態に係るプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ2200に、本明細書に記載のフローチャートおよびブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定の操作を実行させるべく、CPU2212によって実行されてよい。
本実施形態によるコンピュータ2200は、CPU2212、RAM2214、グラフィックコントローラ2216、およびディスプレイデバイス2218を含み、それらはホストコントローラ2210によって相互に接続されている。コンピュータ2200はまた、通信インタフェース2222、ハードディスクドライブ2224、DVD-ROMドライブ2226、およびICカードドライブのような入/出力ユニットを含み、それらは入/出力コントローラ2220を介してホストコントローラ2210に接続されている。コンピュータはまた、ROM2230およびキーボード2242のようなレガシの入/出力ユニットを含み、それらは入/出力チップ2240を介して入/出力コントローラ2220に接続されている。
CPU2212は、ROM2230およびRAM2214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ2216は、RAM2214内に提供されるフレームバッファ等またはそれ自体の中にCPU2212によって生成されたイメージデータを取得し、イメージデータがディスプレイデバイス2218上に表示されるようにする。
通信インタフェース2222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブ2224は、コンピュータ2200内のCPU2212によって使用されるプログラムおよびデータを格納する。DVD-ROMドライブ2226は、プログラムまたはデータをDVD-ROM2201から読み取り、ハードディスクドライブ2224にRAM2214を介してプログラムまたはデータを提供する。ICカードドライブは、プログラムおよびデータをICカードから読み取り、および/またはプログラムおよびデータをICカードに書き込む。
ROM2230はその中に、アクティブ化時にコンピュータ2200によって実行されるブートプログラム等、および/またはコンピュータ2200のハードウェアに依存するプログラムを格納する。入/出力チップ2240はまた、様々な入/出力ユニットをパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入/出力コントローラ2220に接続してよい。
プログラムが、DVD-ROM2201またはICカードのようなコンピュータ可読媒体によって提供される。プログラムは、コンピュータ可読媒体から読み取られ、コンピュータ可読媒体の例でもあるハードディスクドライブ2224、RAM2214、またはROM2230にインストールされ、CPU2212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ2200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ2200の使用に従い情報の操作または処理を実現することによって構成されてよい。
例えば、通信がコンピュータ2200および外部デバイス間で実行される場合、CPU2212は、RAM2214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース2222に対し、通信処理を命令してよい。通信インタフェース2222は、CPU2212の制御下、RAM2214、ハードディスクドライブ2224、DVD-ROM2201、またはICカードのような記録媒体内に提供される送信バッファ処理領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信された受信データを記録媒体上に提供される受信バッファ処理領域等に書き込む。
また、CPU2212は、ハードディスクドライブ2224、DVD-ROMドライブ2226(DVD-ROM2201)、ICカード等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM2214に読み取られるようにし、RAM2214上のデータに対し様々なタイプの処理を実行してよい。CPU2212は次に、処理されたデータを外部記録媒体にライトバックする。
様々なタイプのプログラム、データ、テーブル、およびデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU2212は、RAM2214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプの操作、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM2214に対しライトバックする。また、CPU2212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU2212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ2200上またはコンピュータ2200近傍のコンピュータ可読媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ2200に提供する。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
1 看視システム
2 無人機
3 装置
21 カメラ
22 通信装置
31 通信部
32 表示制御部
33 表示部
34 撮像部
35 検出部
36 向き変更部
351 操作検出部
352 注視位置検出部
353 被写体検出部
2200 コンピュータ
2201 DVD-ROM
2210 ホストコントローラ
2212 CPU
2214 RAM
2216 グラフィックコントローラ
2218 ディスプレイデバイス
2220 入/出力コントローラ
2222 通信インタフェース
2224 ハードディスクドライブ
2226 DVD-ROMドライブ
2230 ROM
2240 入/出力チップ
2242 キーボード

Claims (9)

  1. 向きを制御可能なカメラから撮像画像を取得する取得部と、
    前記撮像画像を表示画面に表示させる表示制御部と、
    前記表示画面内でユーザの見ている被写体を検出する検出部と、
    前記被写体が前記カメラの撮像領域から外れないよう前記カメラの向きを変更する向き変更部と、
    を備え、
    前記向き変更部は、前記表示制御部に表示される表示画像の遷移から、当該表示画像内での前記被写体の移動速度を算出し、基準時間の経過後に前記被写体が前記表示画像外に外れると判定されることに応じて、前記被写体が前記表示画像から外れないよう前記カメラの向きを変更する装置。
  2. 前記向き変更部は、前記被写体が撮像領域の中央部に位置するよう前記カメラの向きを変更する、請求項1に記載の装置。
  3. 前記検出部は、ユーザの目の動きから、前記被写体に対するズーム操作を検出し、
    当該装置は、
    前記ユーザが基準頻度以上に瞬きする場合に前記ズーム操作に応じて前記表示画面内で前記被写体の大きさを大きくする大きさ変更部をさらに備える、請求項1または2に記載の装置。
  4. 請求項1から3の何れか一項に記載の装置と、
    向きを制御可能なカメラと、
    前記カメラにより撮像された撮像画像を前記装置に送信する通信装置と、
    を備えるシステム。
  5. 前記カメラおよび前記通信装置は、無人機に搭載される、請求項4に記載のシステム。
  6. 前記無人機は、予め設定されたルート上を移動する、請求項5に記載のシステム。
  7. 前記カメラは、監視カメラである、請求項5に記載のシステム。
  8. 向きを制御可能なカメラから撮像画像を取得する取得段階と、
    前記撮像画像を表示画面に表示させる表示制御段階と、
    前記表示画面内でユーザの見ている被写体を検出する検出段階と、
    前記被写体が前記カメラの撮像領域から外れないよう前記カメラの向きを変更する向き変更段階と、
    を備え、
    前記向き変更段階では、前記表示制御段階により表示される表示画像の遷移から、当該表示画像内での前記被写体の移動速度を算出し、基準時間の経過後に前記被写体が前記表示画像外に外れると判定されることに応じて、前記被写体が前記表示画像から外れないよう前記カメラの向きを変更する方法。
  9. コンピュータを、
    向きを制御可能なカメラから撮像画像を取得する取得部と、
    前記撮像画像を表示画面に表示させる表示制御部と、
    前記表示画面内でユーザの見ている被写体を検出する検出部と、
    前記被写体が前記カメラの撮像領域から外れないよう前記カメラの向きを変更する向き変更部
    として機能させ、
    前記向き変更部は、前記表示制御部に表示される表示画像の遷移から、当該表示画像内での前記被写体の移動速度を算出し、基準時間の経過後に前記被写体が前記表示画像外に外れると判定されることに応じて、前記被写体が前記表示画像から外れないよう前記カメラの向きを変更するプログラム。
JP2020214218A 2020-12-23 2020-12-23 装置、システム、方法およびプログラム Active JP7415912B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020214218A JP7415912B2 (ja) 2020-12-23 2020-12-23 装置、システム、方法およびプログラム
US17/457,674 US20220201194A1 (en) 2020-12-23 2021-12-06 Apparatus, system, method and storage medium
EP21215069.2A EP4020970A1 (en) 2020-12-23 2021-12-16 Apparatus, system, method and program
CN202111578836.6A CN114666535A (zh) 2020-12-23 2021-12-22 装置、***、方法以及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020214218A JP7415912B2 (ja) 2020-12-23 2020-12-23 装置、システム、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2022100073A JP2022100073A (ja) 2022-07-05
JP7415912B2 true JP7415912B2 (ja) 2024-01-17

Family

ID=79287896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020214218A Active JP7415912B2 (ja) 2020-12-23 2020-12-23 装置、システム、方法およびプログラム

Country Status (4)

Country Link
US (1) US20220201194A1 (ja)
EP (1) EP4020970A1 (ja)
JP (1) JP7415912B2 (ja)
CN (1) CN114666535A (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012118188A (ja) 2010-11-30 2012-06-21 Ditect:Kk 撮影システム
JP2013192184A (ja) 2012-03-15 2013-09-26 Casio Comput Co Ltd 被写体追尾表示制御装置、被写体追尾表示制御方法およびプログラム
JP2017151672A (ja) 2016-02-24 2017-08-31 株式会社ミツトヨ 眼で操作するポインティングデバイス、および、それを利用した測定システム
JP2017212495A (ja) 2016-05-23 2017-11-30 富士通株式会社 撮影制御装置、プログラム及び方法
WO2019087870A1 (ja) 2017-10-30 2019-05-09 Necフィールディング株式会社 作業支援装置、作業支援方法及びプログラム
JP2019208197A (ja) 2017-11-30 2019-12-05 株式会社コンピュータシステム研究所 監視装置、監視プログラム、記憶媒体、および、監視方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5683098A (en) 1979-12-11 1981-07-07 Matsushita Electric Ind Co Ltd Bothhside metallic foil stretcher for printed circuit
JPWO2004032086A1 (ja) * 2002-10-04 2006-02-02 富士通株式会社 ロボットシステムおよび自律走行ロボット
US8320623B2 (en) * 2009-06-17 2012-11-27 Lc Technologies, Inc. Systems and methods for 3-D target location

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012118188A (ja) 2010-11-30 2012-06-21 Ditect:Kk 撮影システム
JP2013192184A (ja) 2012-03-15 2013-09-26 Casio Comput Co Ltd 被写体追尾表示制御装置、被写体追尾表示制御方法およびプログラム
JP2017151672A (ja) 2016-02-24 2017-08-31 株式会社ミツトヨ 眼で操作するポインティングデバイス、および、それを利用した測定システム
JP2017212495A (ja) 2016-05-23 2017-11-30 富士通株式会社 撮影制御装置、プログラム及び方法
WO2019087870A1 (ja) 2017-10-30 2019-05-09 Necフィールディング株式会社 作業支援装置、作業支援方法及びプログラム
JP2019208197A (ja) 2017-11-30 2019-12-05 株式会社コンピュータシステム研究所 監視装置、監視プログラム、記憶媒体、および、監視方法

Also Published As

Publication number Publication date
US20220201194A1 (en) 2022-06-23
CN114666535A (zh) 2022-06-24
EP4020970A1 (en) 2022-06-29
JP2022100073A (ja) 2022-07-05

Similar Documents

Publication Publication Date Title
US10228763B2 (en) Gaze direction mapping
KR20230074780A (ko) 검출된 손 제스처들에 응답한 터치리스 포토 캡처
JP5765019B2 (ja) 表示制御装置、表示制御方法、およびプログラム
CN110310329A (zh) 操作显示设备的方法、信息处理***及非暂时性存储介质
CN114727022A (zh) 在全向视频中的跟踪感兴趣对象
US11016559B2 (en) Display system and display control method of display system
WO2012154989A2 (en) Point-of-view object selection
US10776943B2 (en) System and method for 3D association of detected objects
CN107402577A (zh) 无人机及其控制方法
JP2016224919A (ja) データ閲覧装置、データ閲覧方法、及びプログラム
WO2022006116A1 (en) Augmented reality eyewear with speech bubbles and translation
US11297244B2 (en) Click-and-lock zoom camera user interface
EP3751422A1 (en) Information processing device, information processing method, and program
US10771707B2 (en) Information processing device and information processing method
JP7419003B2 (ja) 情報表示装置、情報表示方法及び情報表示システム
TWI750822B (zh) 用於為目標設置可呈現的虛擬對象的方法和系統
JP7415912B2 (ja) 装置、システム、方法およびプログラム
JP2018046427A (ja) 目標捜索装置、目標捜索方法及び目標捜索プログラム
EP2829150B1 (en) Using camera input to determine axis of rotation and navigation
Leung et al. Toward a large-scale multimodal event-based dataset for neuromorphic deep learning applications
US20160274765A1 (en) Providing a context related view with a wearable apparatus
WO2024049513A1 (en) Methods and apparatus for forecasting collisions using egocentric video data
EP4207087A1 (en) Method and system for creating and storing map targets
US20240118786A1 (en) Augmented reality system and method for collecting custom datasets for 3d hand-object interaction pose estimation
TWI759764B (zh) 基於光通信裝置疊加虛擬物件的方法、電子設備以及電腦可讀取記錄媒體

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R150 Certificate of patent or registration of utility model

Ref document number: 7415912

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150