JP2021144260A - 情報処理装置、情報処理方法、プログラム、および情報処理システム - Google Patents

情報処理装置、情報処理方法、プログラム、および情報処理システム Download PDF

Info

Publication number
JP2021144260A
JP2021144260A JP2018114695A JP2018114695A JP2021144260A JP 2021144260 A JP2021144260 A JP 2021144260A JP 2018114695 A JP2018114695 A JP 2018114695A JP 2018114695 A JP2018114695 A JP 2018114695A JP 2021144260 A JP2021144260 A JP 2021144260A
Authority
JP
Japan
Prior art keywords
unmanned aerial
aerial vehicle
person
information processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018114695A
Other languages
English (en)
Inventor
真人 西尾
Masato Nishio
真人 西尾
雄平 矢部
Yuhei Yabe
雄平 矢部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2018114695A priority Critical patent/JP2021144260A/ja
Priority to US17/057,692 priority patent/US11417088B2/en
Priority to PCT/JP2019/015241 priority patent/WO2019239694A1/ja
Publication of JP2021144260A publication Critical patent/JP2021144260A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/31UAVs specially adapted for particular uses or applications for imaging, photography or videography for surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Astronomy & Astrophysics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】撮像データに写るターゲットの向いている方向をより適切に特定することを可能にする情報処理装置、情報処理方法、プログラム、及び情報処理システムを提供する。【解決手段】無人航空機100は、撮像部130によって空撮された撮像データを取得する取得部と、撮像データを解析することで撮像データに写るターゲットである人の顔または頭の特徴に基づいて向いている方向を特定する方向特定部111cと、を備える。【選択図】図2

Description

本開示は、情報処理装置、情報処理方法、プログラム、および情報処理システムに関する。
近年、無人航空機(UAV:Unmanned Aerial Vehicle)を用いるシステム、またはサービスなどが盛んに開発されている。例えば、以下の特許文献1には、無人航空機によって空撮された撮像データに写った物体の情報を特定し、当該物体の位置を特定することができる情報処理システムが開示されている。また、特許文献2には、移動しているターゲットを追跡する自律飛行移動体であり、ターゲットを見失った場合でもターゲットの移動経路を予測し先回りすることでターゲットを再発見し追跡を続行することができる自律飛行移動体が開示されている。
なお、無人航空機を用いるシステム、またはサービスではないが、特許文献3には、高所から俯瞰的に撮像された俯瞰画像を解析することで、当該俯瞰画像に写る人に対してサービスを行うためのサービスロボットシステムが開示されている。
特開2017−58831号公報 特開2017−68298号公報 特開2005−329515号公報
しかし、特許文献1〜特許文献3などに開示されている技術によっては、撮像データに写るターゲットの向いている方向を特定することができなかった。
そこで、本開示は上記に鑑みてなされたものであり、本開示は、撮像データに写るターゲットの向いている方向をより適切に特定することが可能な、新規かつ改良された情報処理装置、情報処理方法、プログラム、および情報処理システムを提供する。
本開示によれば、無人航空機によって空撮された撮像データを取得する取得部と、前記撮像データを解析することで前記撮像データに写るターゲットの向いている方向を特定する方向特定部と、を備える、情報処理装置が提供される。
また、本開示によれば、無人航空機によって空撮された撮像データを取得することと、前記撮像データを解析することで前記撮像データに写るターゲットの向いている方向を特定することと、を有する、コンピュータにより実行される情報処理方法が提供される。
また、本開示によれば、無人航空機によって空撮された撮像データを取得することと、前記撮像データを解析することで前記撮像データに写るターゲットの向いている方向を特定することと、をコンピュータに実現させるためのプログラムが提供される。
また、本開示によれば、情報処理装置と、ロボットと、を備え、前記情報処理装置は、無人航空機によって空撮された撮像データを取得する取得部と、前記撮像データを解析することで前記撮像データに写るターゲットの向いている方向を特定する方向特定部と、前記撮像データを解析することで前記撮像データに写るターゲットの位置を特定する位置特定部と、前記位置および前記方向に基づいて前記ロボットの移動を制御するロボット制御部と、を備える、情報処理システムが提供される。
以上説明したように本開示によれば、撮像データに写るターゲットの向いている方向をより適切に特定することが可能になる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本実施形態に係る情報処理システムのシステム構成例を示す図である。 無人航空機100の機能構成例を示すブロック図である。 「人の位置」および「人の位置座標」の具体例を示す図である。 無人航空機100の飛行制御を説明するための図である。 障害物によって顔の特徴領域が明確に写らない場合の、無人航空機100の飛行制御を説明するための図である。 サーバ200の機能構成例を示すブロック図である。 アプローチ曲線の出力方法を説明するための図である。 移動ロボット300の機能構成例を示すブロック図である。 無人航空機100による、人の位置および人の向いている方向の認識処理フローの一例を示すフローチャートである。 サーバ200による移動ロボット300の制御処理フローの一例を示すフローチャートである。 移動ロボット300による移動処理フローの一例を示すフローチャートである。 無人航空機100の状態変化を説明するための図である。 体の特徴領域に基づいて人の向いている方向を特定する方法を説明するための図である。 人の装着物の特徴領域に基づいて人の向いている方向を特定する方法を説明するための図である。 移動ロボット300の制御に用いられるジェスチャの例を示す図である。 移動ロボット300の制御に用いられるジェスチャの例を示す図である。 移動ロボット300の制御に用いられるジェスチャの例を示す図である。 移動ロボット300の制御に用いられるジェスチャの例を示す図である。 無人航空機100に対して視線を送ることで移動ロボット300を制御する場合の例を示す図である。 本開示を用いて建築物における入り口の位置を特定する方法を説明するための図である。 無人航空機100、サーバ200、または移動ロボット300のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.システム構成例
2.無人航空機100の機能構成例
3.サーバ200の機能構成例
4.移動ロボット300の機能構成例
5.処理フロー例
6.人の向いている方向の特定方法に関するバリエーション
7.変形例
8.ハードウェア構成例
9.まとめ
<1.システム構成例>
まず、図1を参照して、本開示の一実施形態に係る情報処理システムのシステム構成例について説明する。図1は、本実施形態に係る情報処理システムのシステム構成例を示す図である。
図1に示すように、本実施形態に係る情報処理システムは、1台または2台以上の無人航空機100(図中では、無人航空機100aおよび無人航空機100b)と、サーバ200と、移動ロボット300と、を備える。
本実施形態に係る情報処理システムは、例えば、テーマパーク、スポーツ施設、または公園などの所定の施設において、所定のサービスをユーザに提供するシステムであることを想定しているが、これに限定されない。すなわち、本実施形態に係る情報処理システムは、任意の施設、または場所で運用され得る。
(1.1.無人航空機100)
無人航空機100は、撮像データを取得可能な撮像部を備えた無人の飛行体であり、情報処理装置として機能する装置でもある。無人航空機100は、サーバ200から提供される制御情報に基づいて飛行を行う。また、無人航空機100は、自らに搭載された撮像部によって取得された撮像データを解析することなどによって、より詳細な飛行制御を行うこともできる。例えば、無人航空機100がサーバ200から提供された制御情報に基づいて飛行している時に、進行方向に障害物が現れた場合、無人航空機100は撮像部によって取得された撮像データを解析することで障害物を認識し衝突を回避するように飛行してもよい。換言すると、無人航空機100は、サーバ200から提供された制御情報を変更して新たな制御情報を生成してもよい。なお、本実施形態に係る「撮像データ」は、静止画データ、動画データ、または像として視覚化されていない測定値を含む概念である。また、「撮像データ」は、RGBカメラによって取得されたものでもよいし、赤外線カメラなどのようにRGB以外の波長帯域の光を検出可能なカメラによって取得されたものでもよい。
無人航空機100は飛行中に、撮像部を用いて地表に位置するターゲットを空撮する。ここで、「ターゲット」は、主に人(人間)であることを想定している(以降、「ターゲット」を「人」、または「ユーザ」と呼称する場合がある)。例えば、「ターゲット」は、図1におけるユーザu1、またはユーザu2であり得る。なお、「ターゲット」は、人(人間)に限定されない。例えば、「ターゲット」は、所定の生物、乗り物、または建築物などを含む所定の有体物であればよい。また、「ターゲット」は、必ずしも地表に位置していなくてもよく、撮像部によって撮像可能な場所に位置していればよい(例えば、ビルなどを含む建築物の屋上など)。
そして、無人航空機100は、予め入力された人の撮像データに基づいて、上空から特定の人を探索することができる。例えば、本実施形態に係る情報処理システムが運用されるテーマパークの入り口にて入場者の撮像データ、および属性情報など(例えば、氏名、年齢、性別、または住所など)が取得されたとする。無人航空機100は、自らが撮像した撮像データを解析することで当該撮像データに写る人の特徴量を抽出し、入り口で予め取得された撮像データに写る人の特徴量と比較することで、自らが撮像した撮像データに写る人を特定する。これによって、例えば本サービスが希望者のみに提供される場合、無人航空機100は、自らが撮像した撮像データに写る人が本サービスの提供を希望する人であるか否かを判定することができる(この場合、例えば、本サービスの提供を希望するか否かが入り口で入場者毎に取得される)。そして、無人航空機100が撮像した撮像データに写る人が本サービスの提供を希望する人である場合には、無人航空機100は、当該人を上空から追跡することができる。
また、無人航空機100は、自らが備える撮像部によって取得された撮像データを解析することで、撮像データに写るターゲットの向いている方向を特定することができる。ここで、「ターゲットの向いている方向」とは、上記のとおり「人の向いている方向」であることを想定している(以降、「ターゲットの向いている方向」を「人の向いている方向」と呼称する場合がある)。無人航空機100は、撮像データの解析によって人の「顔」の向いている方向を特定することで、当該人の向いている方向を特定することができる(この場合、人の顔の向いている方向と、人の向いている方向が略同一であることを想定しているがこれに限定されない)。より具体的に説明すると、無人航空機100は、撮像データに写る人の顔または頭の特徴に基づいて当該人の向いている方向を特定することができる。例えば、無人航空機100は、両目、片目、眉毛、鼻、口、歯、耳、または髪の少なくともいずれか一つの特徴に基づいて当該人の向いている方向を特定することができる。ここで、これらの顔または頭の部位を「特徴領域」と呼称する場合もある(換言すると、特徴領域とは、これらの顔や頭の部位、またはそれらの部位周辺に位置する所定の部分を指す)。人の顔の特徴(または特徴領域)に基づいて当該人の向いている方向(当該人の顔の向いている方向)を特定する方法の詳細については後述する。
なお、無人航空機100は、人の顔または頭以外の特徴に基づいて当該人の向いている方向を特定してもよい。詳細については後述する。また、「ターゲット」が人以外の有体物である場合、「ターゲットの向いている方向」の定義、または特定方法はその有体物に応じて変わり得る。例えば、「ターゲット」が犬などの生物である場合には、「ターゲットの向いている方向」は、犬の顔の特徴に基づいて特定される犬の顔の向いている方向によって特定され得る。また、「ターゲット」が乗り物である場合には、「ターゲットの向いている方向」は、乗り物の特徴、または進行方向などによって特定され得る。
ここで、逆光のなかで撮像が行われた場合、影がある領域の撮像が行われた場合、または障害物の多い場所で撮像が行われた場合などにおいて、撮像データにて顔の特徴領域が明確に写らなかったり、障害物に隠れたりすることがある。この場合、人の向いている方向の特定精度が低くなる可能性があるところ、無人航空機100は、人の向いている方向の特定を妨げる原因を除去するように自装置の飛行を制御することができる(以降、この飛行を「障害回避飛行」と呼称する場合がある)。例えば、逆光のなかで撮像が行われたことが原因で撮像データにて顔の特徴領域が明確に写らなかった場合、無人航空機100は、前後方向、左右方向、または上下方向に移動することで順光のなかで撮像を行うことができる位置を探索することができる。これによって、無人航空機100は、顔の特徴領域が明確に写った撮像データを取得することができ、人の向いている方向の特定精度を向上させることができる。詳細については後述する。
また、無人航空機100は、撮像データに写るターゲットの向いている方向だけでなく、ターゲットの位置を特定することもできる。より具体的には、無人航空機100は、GNSS(Global Navigation
Satelite System)受信機、または気圧センサなどを搭載しており(これらのように、無人航空機100の位置の特定に使用されるセンサを「測位センサ」と総称する場合がある)、これらによって取得された情報に基づいて三次元空間における自装置の位置座標を特定することができる。そして、無人航空機100は、撮像部によって取得された撮像データにおける人の位置に基づいて自装置と人との相対的な位置関係を認識することで、人の位置座標を特定することができる。
無人航空機100は、上記の処理によって特定した、人の向いている方向に関する情報(以降、「方向情報」とも呼称する)、および人の位置に関する情報(位置座標。以降、「位置情報」とも呼称する)をサーバ200へ送信する。
なお、無人航空機100は、基本的な飛行機能を有するものであればよく、無人航空機100の種類は特に限定されない。例えば、無人航空機100は、飛行機型の飛行体(垂直離着陸機(VTOL:Vertical Take-Off and Landing)など)、ヘリコプタ―型の飛行体、またはマルチコプター型の飛行体などであってもよい。VTOLは飛行機型とマルチコプター型の両方の特性を持つ。
(1.2.サーバ200)
サーバ200は、無人航空機100、および移動ロボット300を制御する情報処理装置である。例えば、サーバ200は、1台または2台以上の無人航空機100それぞれの飛行を制御することができる。より具体的には、サーバ200は、無人航空機100毎に巡回ルート、または飛行エリアを設定することで各無人航空機100の飛行を制御することができる。
また、上述したように、無人航空機100が人の方向情報および位置情報をサーバ200へ送信した場合、サーバ200は、これらの情報に基づいて移動ロボット300を制御する。例えば、サーバ200は、人の向いている方向の延長線上にあるいずれかの位置を始点として、その位置から当該人に向けて近づけるように移動ロボット300を移動させる(換言すると、サーバ200は、人の正面方向から当該人に近づけるように移動ロボット300を移動させる)。これによって、人は、移動ロボット300を自然に認識することができる。そして、サーバ200は、人から所定の距離だけ離れた位置で移動ロボット300を停止させ、移動ロボット300に所定の動作をさせることでユーザに対して所定のサービスを提供することができる。サーバ200による移動ロボット300の制御方法の詳細については後述する。
なお、本実施形態に係るサーバ200は、クラウドネットワーク上に位置するクラウドサーバであることを想定しているが、これに限定されない。例えば、サーバ200は、本実施形態に係る情報処理システム外のネットワークに接続されていないサーバであってもよい。また、サーバ200の種類は特に限定されない。例えば、サーバ200は、汎用コンピュータ、PC(Personal
Computer)、またはタブレットPCなどを含む任意の装置であってよい。また、サーバ200はプロポ装置と有線又は無線で接続し、プロポ装置からのリクエストを受けたサーバ200が、無人航空機100に対して制御情報を提供してもよい。
(1.3.移動ロボット300)
移動ロボット300は、地上を移動する移動体であり、人に対して所定のサービスを提供する装置である。例えば、移動ロボット300は、サーバ200から提供される移動経路情報に基づいてサービスの提供場所まで移動する。より具体的には、上記のとおり、移動ロボット300は、人の向いている方向から当該人に近づくように移動する。また、移動ロボット300が、撮像データを取得可能な撮像部などの各種センサを備えている場合には、移動ロボット300は各種センサ情報を解析することで、より細かい移動制御を行ってもよい。例えば、移動ロボット300がサーバ200から提供された移動経路情報に基づいて移動している時に、進行方向に障害物が現れた場合、移動ロボット300は各種センサ情報を解析することで障害物を認識し衝突を回避するように移動してもよい。換言すると、移動ロボット300は、サーバ200から提供された移動経路情報を変更して新たな移動経路情報を生成してもよい。
そして、移動ロボット300がサービスの提供場所(例えば、上記のとおり、人から所定の距離だけ離れた位置)に到着した場合、移動ロボット300は、人に対して所定のサービスを提供する。ここで、移動ロボット300が提供するサービスの内容は特に限定されない。例えば、移動ロボット300は、人を撮影する写真撮影サービス、または人の代りに荷物を運搬する荷物運搬サービスなどの各種サービスを提供することができる。
なお、移動ロボット300は、必ずしも地上を移動しなくてもよい。例えば、移動ロボット300は、無人航空機100と同様に飛行体(例えば、低空(地上数メートル程度)を飛行する飛行体など)であってもよい。
以上、本実施形態に係る情報処理システムの構成例について説明した。なお、図1を参照して説明した上記の構成はあくまで一例であり、本実施形態に係る情報処理システムの構成は係る例に限定されない。例えば、無人航空機100の機能の全部または一部が、サーバ200または移動ロボット300に備えられてもよい。また、サーバ200の機能の全部または一部が、無人航空機100または移動ロボット300に備えられてもよい。さらに、移動ロボット300の機能の全部または一部が、無人航空機100またはサーバ200に備えられてもよい。また、無人航空機100、サーバ200、または移動ロボット300以外の装置が上記の機能の全部または一部を実現してもよい。例えば、無人航空機100に搭載されている所定の装置が上記の機能の全部または一部を実現してもよい。また、各装置の台数は特に限定されていない。例えば、サーバ200、または移動ロボット300は、無人航空機100と同様に2台以上存在してもよい。本実施形態に係る情報処理システムの構成は、仕様や運用に応じて柔軟に変形可能である。
<2.無人航空機100の機能構成例>
上記では、本実施形態に係る情報処理システムのシステム構成例について説明した。続いて、図2を参照して、無人航空機100の機能構成例について説明する。図2は、無人航空機100の機能構成例を示すブロック図である。
図2に示すように、無人航空機100は、制御部110と、通信部120と、撮像部130と、センサ部140と、記憶部150と、飛行機構160と、を備える。
(制御部110)
制御部110は、無人航空機100が行う処理全般を統括的に制御する機能構成である。例えば、制御部110は、サーバ200から提供される制御情報に基づいて各機能構成の起動や停止を制御することができる。また、制御部110は、位置特定部111bによって出力された人の位置情報、および方向特定部111cによって出力された人の方向情報を、通信部120を介してサーバ200へ送信する処理を制御する。なお、制御部110の制御内容はこれらに限定されない。例えば、制御部110は、各種サーバ、汎用コンピュータ、PC、またはタブレットPCなどにおいて一般的に行われる処理(例えば、OS(Operating
System)による処理など)を制御してもよい。
図2に示すように、制御部110は、解析部111と、飛行制御部112と、を備える。
(解析部111)
解析部111は、撮像部130によって取得された撮像データ、およびセンサ部140によって取得された各種センサ情報を解析する機能構成である。例えば、解析部111は、撮像データを解析することで、撮像データに写る有体物を識別する。より具体的には、解析部111は、撮像データに写る有体物の特徴量を抽出し、予め取得された様々な有体物の特徴量と比較することで、撮像データに写る有体物を識別する。これによって、解析部111は、撮像データに写る有体物が人であるか否かなどを認識することができる。なお、解析部111による解析の内容、または解析の方法はこれに限定されない。
図2に示すように、解析部111は、人特定部111aと、位置特定部111bと、方向特定部111cと、を備える。
(人特定部111a)
人特定部111aは、撮像部130によって取得された撮像データを解析することで、撮像データに写る人を特定する機能構成である(換言すると、人特定部111aは、撮像データに写るターゲットを特定するターゲット特定部として機能する)。例えば、本実施形態に係る情報処理システムが運用されるテーマパークの入り口にて取得された入場者の撮像データが一旦サーバ200に記憶され、無人航空機100は、当該撮像データに写る人の特徴量(または、撮像データそのものでもよい)を、通信部120を介してサーバ200から受信する。そして、人特定部111aは、撮像部130によって取得された撮像データを解析することで当該撮像データに写る人の特徴量を抽出し、サーバ200から提供された、撮像データに写る人の特徴量と比較することで、撮像部130によって取得された撮像データに写る人を特定する。
そして例えば、本サービスが希望者のみに提供される場合、人特定部111aは、撮像部130によって取得された撮像データに写る人が本サービスの提供を希望する人であるか否かを判定する。なお、人特定部111aによる人の特定方法は上記に限定されない。例えば、人が無人航空機100と通信可能なタグ装置を装着している場合、人特定部111aは、当該タグ装置を装着している人の識別情報(例えばIDなど)を、通信部120を介してタグ装置から受信することで各人を特定してもよい。
(位置特定部111b)
位置特定部111bは、撮像部130によって取得された撮像データを解析することで、撮像データに写る人の位置を特定する機能構成である。より具体的には、センサ部140は、GNSS受信機または気圧センサなどの測位センサを備えており、位置特定部111bは、センサ部140からこれらのセンサ情報を取得し解析することで、三次元空間における自装置の位置座標を特定する。
そして、位置特定部111bは、撮像部130によって取得された撮像データを解析し、撮像データにおける人の位置に基づいて自装置と人との相対的な位置関係を認識することで、人の位置座標を特定する。ここで、撮像データにおける「人の位置」とは、「人の頭頂の中心点の位置」であることを想定している。また、位置特定部111bによって特定される「人の位置座標」とは、所定の点(以降、「基準点」と呼称する)を基準としたときに二次元直交座標系(例えば、x座標およびy座標)で表される座標であることを想定している。
ここで、図3を参照して、「人の位置」および「人の位置座標」について具体的に説明する。図3には、撮像部130によって取得された撮像データに写るユーザu1の頭部が示されている。位置特定部111bは、撮像データに写る人の顔または頭の特徴に基づいて「人の位置」である「人の頭頂の中心点の位置」を特定する。例えば、位置特定部111bは、両目、片目、眉毛、鼻、口、歯、耳、または髪の少なくともいずれか一つの特徴に基づいて頭頂の中心点を特定する。
そして、位置特定部111bは、撮像データにおける頭頂の中心点の位置を、所定の基準点を原点とした場合における二次元直交座標系で表すことで「人の位置座標」を特定する。なお、基準点の位置は特に限定されない。例えば、基準点は、テーマパーク内の所定の位置に設定され得る。また、「人の位置」の定義は上記に限定されない。例えば、「人の位置」は、撮像データに写る人を内包する円の中心点であってもよいし、撮像データに写る人の特定の部位など(例えば、鼻の先など)であってもよい。また、「人の位置座標」の定義は上記に限定されない。例えば、「人の位置座標」は、所定の基準点を原点としたときの二次元斜交座標系で表される座標であってもよい。
(方向特定部111c)
方向特定部111cは、撮像部130によって取得された撮像データを解析することで、撮像データに写る人の向いている方向を特定する機能構成である。より具体的には、方向特定部111cは、両目、片目、眉毛、鼻、口、歯、耳、または髪の少なくともいずれか一つの特徴に基づいて人の向いている方向を特定する。例えば、図3に示すように、方向特定部111cは、撮像データを解析することで両目、鼻、口の4か所を顔の特徴領域として特定し、これらの特徴領域中の点(例えば、特徴領域の中心点など)を用いて最小二乗法に基づく回帰直線を算出する。この回帰直線は、顔に対しておおよそ平行な線であるため、以降では「平行線」とも呼称する。
そして、図3に示すように、方向特定部111cは、基準点を通る所定の線(以降、「基準線」と呼称する)と平行線とのなす角度θを特定することで、平行線が伸びる方向を示す。顔の向いている方向は、平行線に対して垂直な方向であり、上記で出力された位置座標(頭頂の中心点)と平行線との相対的な位置関係に基づいて一意に決まる(図3の例では、顔の向いている方向は、位置座標(頭頂の中心点)から平行線に向かう方向である)ため、平行線が伸びる方向が示されることで顔の向いている方向が示される。なお、基準線が伸びる方向は特に限定されない。なお、方向特定部111cは、平行線を出力することなく、顔の特徴領域の解析によって人の向いている方向に伸びる線を直接出力し、当該線と基準線とのなす角度を特定してもよい。
(飛行制御部112)
飛行制御部112は、無人航空機100の飛行を制御する機能構成である。より具体的には、解析部111が、撮像部130によって取得された撮像データ、およびセンサ部140によって取得された各種センサ情報を解析した場合、飛行制御部112は、解析結果に基づいて飛行機構160を制御する制御情報を生成し、当該情報を飛行機構160に提供する。例えば、解析の結果、進行方向に障害物が検出された場合、飛行制御部112は、検出された障害物の形状や動作などに基づいて障害物との衝突を回避するように飛行を制御することができる。
ここで、無人航空機100が2台以上存在する場合、各無人航空機100は、互いに連携するように人の特定など(および人の位置の特定、人の向いている方向の特定、人の追跡など)を行う。例えば、図4に示すように、無人航空機100aおよび無人航空機100bが存在する場合、各無人航空機100の飛行制御部112は、基本的に、それぞれの探索範囲(図中では、探索範囲は円形を有しているがこれに限定されない)が所定面積より大きく重ならないように飛行制御を行う。これによって、飛行制御部112は、人の特定などをより効率的に実現することができる。なお、飛行制御部112は、このような飛行制御を、サーバ200からの制御情報に従うことで実現してもよいし、解析部111による撮像データなどの解析の結果に基づいて実現してもよい。なお、無人航空機100の交代時(例えば、無人航空機100aと無人航空機100bが交代する場合など)、または緊急時など(例えば、無人航空機100が障害物と衝突しそうな場合など)においては、各無人航空機100の探索範囲は所定面積より大きく重なってもよい。
また、飛行制御部112は、自装置と追跡すべき人との相対的な位置関係の変化に基づいて自装置の飛行を制御することで、少なくとも一人の人を追跡する。例えば、飛行制御部112は、自装置の探索範囲内に存在する人の位置と、探索範囲の中心点との距離を単位時間ごとに算出する。より具体的には、図4において、無人航空機100aの飛行制御部112は、探索範囲内に存在するユーザu1〜ユーザu4の位置と、探索範囲の中心点との距離(dA1〜dA4)を単位時間ごとに算出する。同様に、無人航空機100bの飛行制御部112は、探索範囲内に存在するユーザu3〜ユーザu5の位置と、探索範囲の中心点との距離(dB1〜dB3)を単位時間ごとに算出する。そして、飛行制御部112は、各人と探索範囲の中心点との距離(dA1〜dA4、dB1〜dB3)の時間微分量の合計値(または平均値)が最小と(または、所定値より小さく)なるように自装置の飛行を制御する。これによって、探索範囲に含まれる全員が略同一の方向に移動している場合には、無人航空機100は、全員を追跡するように飛行することができ、探索範囲に含まれる各人が別々の方向に移動している場合には、無人航空機100は、各人の追跡をより効率的に実現することができる。
なお、「単位時間」は、本実施形態に係る情報処理システムにおいて、探索範囲内を探索する時間の間隔であり、その長さは特に限定されない。また、単位時間は動的に変更されてもよい。例えば、無人航空機100のバッテリーが消耗するほど、単位時間はより長くなるように変更されてもよい。また、例えば、探索範囲に含まれる各人が別々の方向に移動している場合、飛行制御部112は、無人航空機100の飛行高度をより高く変更することによって各人の追跡をより効率的に実現してもよい。また、各人に優先度(または、優先度に相当する所定の情報)が付与されている場合、飛行制御部112は、優先度の高い人ほどより優先的に追跡されるように無人航空機100の飛行を制御してもよい。
また、図4において、ユーザu3およびユーザu4は、無人航空機100aおよび無人航空機100b両方の探索範囲に含まれているため、無人航空機100aおよび無人航空機100bはユーザu3およびユーザu4を分担して追跡してもよい(換言すると、無人航空機100によって特定されたターゲットが、他の無人航空機100によって空撮された撮像データにも写ることによって特定された場合、これらの無人航空機100は分担して追跡を行ってもよい)。例えば、無人航空機100aおよび無人航空機100bそれぞれの飛行制御部112は、所定の演算によって、無人航空機100aと無人航空機100bのどちらがユーザu3またはユーザu4のどちらを追跡するのか(または、ユーザu3およびユーザu4の両者を追跡するのか)を決定してもよい(換言すると、飛行制御部112は、無人航空機100aまたは無人航空機100bのうちの少なくともどちらかが各ユーザの追跡を行うように飛行を制御する)。なお、ユーザu3およびユーザu4については、無人航空機100aによって出力されたそれぞれの位置情報と、無人航空機100bによって出力されたそれぞれの位置情報が一致する(または、それぞれの位置情報の差異が所定値以下となる)ことに基づいて、無人航空機100aによって捕捉された各人(ユーザu3およびユーザu4)と、無人航空機100bによって捕捉された各人が同一人物であることが認識される。
また、飛行制御部112は、人の向いている方向の特定を妨げる原因を除去するように飛行を制御することができる(すなわち、障害回避飛行を実現することができる)。例えば、逆光のなかで撮像が行われた場合、影がある領域の撮像が行われた場合、または障害物の多い場所で撮像が行われた場合などにおいて、撮像データにて顔の特徴領域が明確に写らなかったり、障害物に隠れたりすることがある。例えば、図5に示すように、顔の特徴領域である片目が障害物で隠れる場合がある(図5における「障害物」は、逆光によって白飛びが発生した領域でもよいし、影がある領域でもよい)。この場合、飛行制御部112は、障害物に隠れている片目が撮像されるまで、無人航空機100の位置を前後方向、左右方向、または上下方向など様々な方向に変更させる。これによって、飛行制御部112は、処理に用いられる顔の特徴領域が検出され易くすることができるため、人の向いている方向の解析精度を向上させることができる。なお、当該制御はあくまで一例であり、飛行制御部112による制御内容は適宜変更され得る。
(通信部120)
通信部120は、サーバ200との通信を行う機能構成である。例えば、通信部120は、サーバ200から自装置の飛行制御に用いられる制御情報を受信する。また、通信部120は、解析部111によって出力された、人の位置情報および方向情報をサーバ200へ送信する。なお、通信部120が通信する情報の内容は特に限定されない。例えば、通信部120は、飛行制御以外の所定の処理(例えば、他の無人航空機100との情報連携処理など)を指示する制御情報などをサーバ200から受信してもよい。また、通信部120は、自装置の位置情報(例えば、三次元空間における自装置の位置座標など)をサーバ200へ送信してもよい。
また、通信部120は、他の無人航空機100、または移動ロボット300と通信を行ってもよい。例えば、無人航空機100がサーバ200の機能の全部または一部を有している場合、通信部120は、移動ロボット300と通信を行うことで移動ロボット300を制御してもよい。また、通信部120は、他の無人航空機100と通信を行うことで、自装置の解析部111による解析結果などを他の無人航空機100へ送信してもよいし、逆に他の無人航空機100による解析結果などを当該無人航空機100から受信してもよい。また、通信部120が通信に用いる通信方式は特に限定されない。より具体的には、通信部120は、所定の無線通信を行うことを想定しているが、通信部120は、通信用のケーブルを接続されることによって所定の有線通信を行ってもよい。
(撮像部130)
撮像部130は、空撮を行うことで撮像データを取得する取得部として機能する機能構成である。より具体的には、撮像部130は、人(ターゲット)またはその周辺の環境を空撮することで撮像データを取得する。また、撮像部130は、撮像レンズ、絞り、ズームレンズ、およびフォーカスレンズなどにより構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイなどを各々備えている。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary
Metal Oxide Semiconductor)センサアレイにより実現されてもよい。
そして、撮像部130の撮像レンズは、空撮を行うことができるように地表方向に向けられた状態で設置されている。なお、撮像部130の各部材(撮像レンズなど)の設置態様はこれに限定されず、撮像部130の各部材は、撮像方向を変更可能な態様で設置されていてもよい。
(センサ部140)
センサ部140は、無人航空機100の周辺環境に関する各種センサ情報を取得する機能構成である。例えば、センサ部140は、測位センサ(GNSS受信機、または気圧センサなど)、ジャイロセンサ、加速度センサ、地磁気センサ、近接センサ、マイクロホン、温度センサ(例えば、サーモセンサなど)、湿度センサ、照度センサ、圧力センサ、赤外線センサなどを備えている。なお、センサ部140が備えるセンサの種類はこれらに限定されない。また、センサ部140が備える各センサはそれぞれ複数あってもよい。また、これらの各センサが無人航空機100以外の外部装置(または、外部システム)に備えられており、各種センサ情報は外部装置から取得されてもよい。
(記憶部150)
記憶部150は、各種情報を記憶する機能構成である。例えば、記憶部150は、解析部111による解析処理に用いられる情報(例えば、撮像データ、各種センサ情報、人の特徴量、基準点もしくは基準線などの情報)、解析部111によって出力された情報(例えば、人の位置情報および方向情報など)、またはサーバ200から提供された制御情報などを記憶する。また、記憶部150は、各機能構成による処理に用いられるプログラム、またはパラメータなども記憶する。なお、記憶部150によって記憶される情報はこれらに限定されない。
(飛行機構160)
飛行機構160は、無人航空機100を飛行させるための機構であり、例えば、アクチュエータ、モータ、またはプロペラなど(図示なし)を含む。飛行機構160は、飛行制御部112から提供された制御情報に従って駆動し、無人航空機100を飛行させる。
以上、無人航空機100の機能構成例について説明した。なお、図2を用いて説明した上記の機能構成はあくまで一例であり、無人航空機100の機能構成は係る例に限定されない。例えば、無人航空機100は、図2に示す構成の全てを必ずしも備えなくてもよい。また、無人航空機100の機能構成は、仕様や運用に応じて柔軟に変形可能である。
<3.サーバ200の機能構成例>
上記では、無人航空機100の機能構成例について説明した。続いて、図6を参照して、サーバ200の機能構成例について説明する。図6は、サーバ200の機能構成例を示すブロック図である。
図6に示すように、サーバ200は、制御部210と、通信部220と、記憶部230と、を備える。
(制御部210)
制御部210は、サーバ200が行う処理全般を統括的に制御する機能構成である。例えば、制御部210は、自装置の各機能構成の起動や停止を制御することができる。また、制御部210は、本実施形態に係る情報処理システムが運用されるテーマパークの入り口にて取得された入場者の撮像データ(および、入場者の属性情報など(例えば、氏名、年齢、性別、または住所など))を、通信部220または入力部(図示なし)を介して取得し、これらの情報を記憶部230に登録することで管理する。また、制御部210は、無人航空機100によって出力された人の位置情報および方向情報も通信部220を介して取得し、これらの情報を記憶部230に登録することで管理する。なお、制御部210の制御内容はこれらに限定されない。例えば、制御部210は、各種サーバ、汎用コンピュータ、PC、またはタブレットPCなどにおいて一般的に行われる処理(例えば、OSによる処理など)を制御してもよい。
図6に示すように、制御部210は、無人航空機制御部211と、ロボット制御部212と、を備える。
(無人航空機制御部211)
無人航空機制御部211は、1台または2台以上の無人航空機100の処理全般を制御する機能構成である。例えば、無人航空機制御部211は、無人航空機100毎に巡回ルート、または飛行エリアを設定することで各無人航空機100の飛行を制御する。より具体的には、無人航空機制御部211は、無人航空機100毎に巡回ルート、または飛行エリアを設定し、設定内容に基づいて生成した制御情報を、通信部220を介して各無人航空機制御部211へ送信することで各無人航空機100の飛行を制御する。また、無人航空機制御部211は、無人航空機100毎の巡回ルート、または飛行エリアなどの設定を随時変更してもよい。例えば、無人航空機制御部211は、より多くの人で混雑しているエリアを飛行する無人航空機100が増加するように各無人航空機100の飛行エリアの設定を変更してもよい。なお、無人航空機制御部211による制御内容は上記に限定されない。例えば、無人航空機制御部211は、無人航空機100間での情報連携処理などを制御してもよい。
(ロボット制御部212)
ロボット制御部212は、移動ロボット300の処理全般を制御する機能構成である。例えば、ロボット制御部212は、各無人航空機100から提供された人の方向情報および位置情報に基づいて移動ロボット300の移動などを制御する。
より具体的には、ロボット制御部212は、人の方向情報および位置情報と、移動ロボット300の位置情報(および方向情報)に基づいて、人の向いている方向(または、人の向いている方向に基づいて決められる他の方向(例えば、人の横方向など))から人に近づけるように移動ロボット300を移動させ、人から所定の距離dだけ離れた位置で移動ロボット300を停止させることが可能な、移動ロボット300の移動経路(以降、「アプローチ曲線」と呼称する場合がある)を出力する。
ここで、図7を参照して、アプローチ曲線の出力方法についてより具体的に説明する。ロボット制御部212は、無人航空機100によって出力された平行線(人の顔に対しておおよそ平行な線)に対して垂直に伸びる線(以降、「垂直線」と呼称する。また、平行線に直交する直交線でもよい)を定義する。そして、ロボット制御部212は、人から所定の距離dだけ離れた垂直線上の点(以降、「アプローチ接点」と呼称する)に接するようなアプローチ曲線を出力する。これによって、ロボット制御部212は、移動ロボット300によるより円滑な移動を実現することができる。なお、ロボット制御部212は、移動ロボット300を近づける対象となる人(図中では、ユーザu1)の周囲に存在する障害物(他の人(図中では、ユーザu2〜ユーザu9)も含む)の位置情報も考慮してアプローチ曲線を出力することで、移動ロボット300が障害物に衝突することを防ぐことができる。なお、ロボット制御部212は、予め用意された複数のアプローチ曲線の中から最適な一つのアプローチ曲線を選択してもよい。また、ロボット制御部212は、アプローチ曲線ではなく、移動ロボット300が移動するべき複数の座標と、それぞれの座標への移動順を出力してもよい。これによって、移動ロボット300は、移動順に従ってこれらの座標を移動していくことで目的の位置へ到達することができる。
ロボット制御部212は、人から所定の距離dだけ離れた位置で移動ロボット300を停止させ、移動ロボット300に所定の動作をさせることで人に対して所定のサービスを提供させることができる。なお、「所定の距離d」は、人に対して提供されるサービスの内容に応じて変わる。例えば、人に対して提供されるサービスが「写真撮影サービス」である場合には、「所定の距離」は数メートル程度の距離であり、人に対して提供されるサービスが「荷物運搬サービス」である場合には、「所定の距離」は、荷物の受け渡しを考慮して数十センチメートル程度の距離であり得る。
ロボット制御部212は、出力したアプローチ曲線に関する情報を含む移動経路情報を、通信部220を介して移動ロボット300へ送信する。なお、「移動経路情報」には、1つのアプローチ曲線に関する情報が含まれてもよいし、ある地点で接続される複数のアプローチ曲線に関する情報が含まれてもよい。ここで、「アプローチ曲線に関する情報」とは、アプローチ曲線を示す数式でもよいし、予め用意されたアプローチ曲線を示す識別情報(ID)などでもよい。また、上記のとおり、ロボット制御部212が、アプローチ曲線ではなく、移動ロボット300が移動するべき複数の座標と、それぞれの座標への移動順を出力する場合、「移動経路情報」にはこれらの情報が含まれる。
また、例えば、人が所定の乗り物(以降、「乗り物ロボット」と呼称する)に乗っている場合、ロボット制御部212は、移動ロボット300だけではなく、乗り物ロボットの制御を行ってもよい。より具体的には、ロボット制御部212は、人の向いている方向から移動ロボット300が近づき易いように、当該人の乗った乗り物ロボットを移動させたり、乗り物ロボットの向いている方向を変えたりしてもよい。これによって、ロボット制御部212は、より確実に、移動ロボット300を適切な方向から人に近づけることができる。
(通信部220)
通信部220は、無人航空機100、および移動ロボット300との通信を行う機能構成である。無人航空機100との通信について説明すると、通信部220は、無人航空機100の飛行制御に用いられる制御情報を無人航空機100へ送信する。また、通信部220は、飛行制御以外の所定の処理(例えば、他の無人航空機100との情報連携処理など)を指示する制御情報などを無人航空機100へ送信してもよい。また、通信部220は、人の位置情報および方向情報を無人航空機100から受信する。また、通信部220は、無人航空機100の位置情報(例えば、三次元空間における位置座標など)を無人航空機100から受信してもよい。
また、移動ロボット300との通信について説明すると、通信部220は、移動ロボット300の移動制御に用いられる移動経路情報を移動ロボット300へ送信する。また、通信部220は、移動制御以外の所定の処理(例えば、移動ロボット300によって提供されるサービスに関する処理など)を指示する制御情報などを移動ロボット300へ送信してもよい。なお、通信部220が通信する情報の内容は上記に限定されない。
(記憶部230)
記憶部230は、各種情報を記憶する機能構成である。例えば、記憶部230は、無人航空機100、および移動ロボット300に関する情報など(例えば、識別情報、位置情報、ステータスに関する情報など)を記憶する。また、記憶部230は、各機能構成による処理に用いられるプログラム、またはパラメータなども記憶する。なお、記憶部230によって記憶される情報はこれらに限定されない。
図6に示すように、記憶部230は、人DB231と、位置・方向DB232と、を備える。
(人DB231)
人DB231は、人に関する情報を記憶する機能構成である。例えば、人DB231は、本実施形態に係る情報処理システムが運用されるテーマパークへの入場者に関する情報を記憶する。より具体的には、人DB231は、入場者の撮像データ(および当該撮像データに写る入場者の特徴量)、識別情報、属性情報(例えば、氏名、年齢、性別、または住所など)、または行動履歴情報など(例えば、入場時刻、移動経路に関する履歴情報、または移動ロボット300によって提供されたサービスの内容に関する履歴情報など)を記憶する。なお、人DB231によって記憶される情報はこれらに限定されない。
(位置・方向DB232)
位置・方向DB232は、人の位置情報および方向情報を記憶する機能構成である。より具体的には、位置・方向DB232は、無人航空機100から提供された人の位置情報および方向情報を記憶する。そして、無人航空機100によって人の位置情報および方向情報が更新される都度、位置・方向DB232は自らの記憶情報を更新する。上記のとおり、人の位置情報とは、所定の基準点を原点とした場合におけるx座標およびy座標によって表される情報であり、人の方向情報とは、基準線と顔の平行線とのなす角度θによって表される情報であることを想定しているが、これらの情報の形式は適宜変更され得る。
以上、サーバ200の機能構成例について説明した。なお、図6を用いて説明した上記の機能構成はあくまで一例であり、サーバ200の機能構成は係る例に限定されない。例えば、サーバ200は、図6に示す構成の全てを必ずしも備えなくてもよい。また、サーバ200の機能構成は、仕様や運用に応じて柔軟に変形可能である。
<4.移動ロボット300の機能構成例>
上記では、本実施形態に係るサーバ200の機能構成例について説明した。続いて、図8を参照して、本実施形態に係る移動ロボット300の機能構成例について説明する。図8は、本実施形態に係る移動ロボット300の機能構成例を示すブロック図である。
図8に示すように、移動ロボット300は、制御部310と、通信部320と、センサ部330と、記憶部340と、移動機構350と、を備える。
(制御部310)
制御部310は、移動ロボット300が行う処理全般を統括的に制御する機能構成である。例えば、制御部310は、自装置の各機能構成の起動や停止を制御することができる。なお、制御部310の制御内容はこれに限定されない。例えば、制御部310は、各種サーバ、汎用コンピュータ、PC、またはタブレットPCなどにおいて一般的に行われる処理(例えば、OSによる処理など)を制御してもよい。
図8に示すように、制御部310は、解析部111と、移動制御部312と、を備える。
(解析部311)
解析部311は、センサ部330によって取得された各種センサ情報を解析する機能構成である。例えば、解析部311は、センサ部330によって取得された各種センサ情報(センサ部330が、無人航空機100の撮像部130と同様の機能を有している場合には撮像データ)を解析することで、移動ロボット300の周辺環境を認識する。より具体的には、解析部311は、各種センサ情報を解析することで、進行方向に存在する障害物やサービスの提供対象者などを認識することができる。また、解析部311は、各種センサ情報を解析することで、無人航空機100の解析部111と同様に、移動ロボット300の周辺に位置する人の特定、人の位置の特定、または人の向いている方向の特定などを行ってもよい。なお、解析部311の解析処理の内容はこれらに限定されない。
(移動制御部312)
移動制御部312は、移動ロボット300の移動を制御する機能構成である。例えば、サーバ200が移動経路情報を移動ロボット300へ送信した場合、移動制御部312は、当該移動経路情報に含まれるアプローチ曲線に関する情報に基づいて自装置の移動を制御する。より具体的には、移動制御部312は、アプローチ曲線に関する情報に基づいて移動機構350を制御する制御情報を生成し、当該情報を移動機構350に提供する。これによって、移動制御部312は、サーバ200からの指示に応じて自装置の移動を制御することができる。
また、解析部311が、センサ部330によって取得された各種センサ情報を解析した場合、移動制御部312は、適宜この解析結果に基づいて移動ロボット300の移動を制御してもよい。換言すると、解析部311は、各種センサ情報の解析結果に基づいて、サーバ200から提供された移動経路情報を変更して新たな移動経路情報を生成してもよい。例えば、解析の結果、進行方向に障害物が検出された場合、移動制御部312は、検出された障害物の形状や動作などに基づいて障害物との衝突を回避するために、サーバ200から提供された移動経路情報を変更して新たな移動経路情報を生成してもよい。
(通信部320)
通信部320は、サーバ200との通信を行う機能構成である。例えば、通信部320は、サーバ200から自装置の移動制御に用いられる移動経路情報を受信する。なお、通信部320が通信する情報の内容は特に限定されない。例えば、通信部320は、移動制御以外の所定の処理(例えば、移動ロボット300によるサービスに伴う処理など)を指示する制御情報などをサーバ200から受信してもよい。また、通信部320は、自装置の位置情報(例えば、三次元空間における位置座標など)をサーバ200へ送信してもよい。
(センサ部330)
センサ部330は、移動ロボット300の周辺環境に関する各種センサ情報を取得する機能構成である。センサ部330に備えられるセンサの種類は、上記で説明した無人航空機100のセンサ部140と同様であり得るが、これらに限定されない。より具体的には、センサ部330は、センサ部140によって備えられるセンサを必ずしも備えていなくてもよいし、センサ部140によって備えられるセンサ以外のセンサを備えていてもよい。また、センサ部330は、撮像データを生成可能な無人航空機100の撮像部130と同様の機能を有していてもよい。
(記憶部340)
記憶部340は、各種情報を記憶する機能構成である。例えば、記憶部340は、センサ部330によって取得された各種センサ情報、解析部311の解析結果に関する情報、またはサーバ200から提供された移動経路情報などを記憶する。また、記憶部340は、各機能構成による処理に用いられるプログラム、またはパラメータなども記憶する。なお、記憶部340によって記憶される情報はこれらに限定されない。
(移動機構350)
移動機構350は、移動ロボット300を移動させるための構成であり、例えば、アクチュエータ、モータ、ホイール、またはタイヤなど(図示なし)を含む。移動機構350は、移動制御部312から提供された制御情報に従って駆動することで移動ロボット300を移動させる。
以上、移動ロボット300の機能構成例について説明した。なお、図8を用いて説明した上記の機能構成はあくまで一例であり、移動ロボット300の機能構成は係る例に限定されない。例えば、移動ロボット300は、図8に示す構成の全てを必ずしも備えなくてもよい。また、移動ロボット300の機能構成は、仕様や運用に応じて柔軟に変形可能である。
<5.処理フロー例>
上記では、移動ロボット300の機能構成例について説明した。続いて、本実施形態に係る各装置の処理フロー例について説明する。
(5.1.無人航空機100による、人の位置および方向の認識処理フロー)
まず、図9を参照して、無人航空機100による、人の位置および方向の認識処理フローについて説明する。図9は、無人航空機100による、人の位置および方向の認識処理フローの一例を示すフローチャートである。
ステップS1000では、無人航空機100の飛行制御部112が、サーバ200から提供される制御情報に基づいて巡回を開始する。ステップS1004では、撮像部130が人を上空から撮像することで撮像データを生成する。ステップS1008では、解析部111が、撮像データを解析することで撮像データに写る有体物が人であることを認識する。
ステップS1012では、位置特定部111bが、撮像データを解析することで人の位置座標を特定する。ステップS1016では、方向特定部111cが撮像データを解析することで人の顔の特徴領域(例えば、両目、鼻、または口など)の抽出を試みる(併せて、人特定部111aが撮像データを解析することで人の顔の特徴量の抽出を試みる)。人の顔の特徴領域(または人の顔の特徴量)の抽出に成功しなかった場合(ステップS1020/No)、ステップS1024にて、飛行制御部112が障害回避飛行を実現する。例えば、飛行制御部112は、無人航空機100の位置を前後方向、左右方向、または上下方向など様々な方向に変更させて、認識した人の顔の特徴領域の抽出を試みる(ステップS1016)。
人の顔の特徴領域(または人の顔の特徴量)の抽出に成功した場合(ステップS1020/Yes)、ステップS1028にて、人特定部111aが、撮像データから抽出した人の特徴量と、予めサーバ200から提供された人の特徴量(例えば、テーマパークの入り口で撮像された撮像データから抽出された特徴量)とを比較することで撮像データに写る人を特定する。ステップS1032では、方向特定部111cが、撮像データから抽出した人の特徴領域に基づいて平行線を出力し、基準線と平行線とのなす角度θを特定することで、人の顔の向きを特定する。なお、図9に示すように、ステップS1012の処理と、ステップS1016〜ステップS1032の処理は並行して行われることを想定しているが、これに限定されない。
ステップS1036では、制御部110が、位置特定部111bによって出力された人の位置情報、および方向特定部111cによって出力された人の方向情報等を統合する。ステップS1040では、通信部120が、統合された位置情報および方向情報等をサーバ200へ送信することで一連の処理が終了する。
図9に示された処理が繰り返し行われることによって、サーバ200は、無人航空機100によって捕捉された人の位置情報および方向情報を把握し続けることができる。なお、図9に示された処理が繰り返し行われる頻度は特に限定されない。例えば、無人航空機100は、図9に示された処理を所定の時間間隔で行ってもよいし、バッテリーの消耗状況に応じて処理頻度を適宜低減させてもよい。
(5.2.サーバ200による移動ロボット300の制御処理フロー)
続いて、図10を参照して、サーバ200による移動ロボット300の制御処理フローについて説明する。図10は、サーバ200による移動ロボット300の制御処理フローの一例を示すフローチャートである。
ステップS1100では、サーバ200の通信部220が、位置情報および方向情報等を無人航空機100から受信する。ステップS1104では、制御部210が位置情報および方向情報を位置・方向DB232に登録する。ステップS1108では、ロボット制御部212が、人の方向情報および位置情報と、移動ロボット300の位置情報(および方向情報)に基づいて、人の向いている方向から人に近づけるように移動ロボット300を移動させ、人から所定の距離dだけ離れた位置で移動ロボット300を停止させることが可能な、移動ロボット300の移動経路(アプローチ曲線を含む)を出力する。ステップS1112では、通信部220が、移動経路情報を移動ロボット300へ送信することで一連の処理が終了する。
(5.3.移動ロボット300の移動処理フロー)
続いて、図11を参照して、移動ロボット300の移動処理フローについて説明する。図11は、移動ロボット300の移動処理フローの一例を示すフローチャートである。
ステップS1200では、移動ロボット300の通信部320が、移動経路情報をサーバ200から受信する。ステップS1204では、移動制御部312は、移動経路情報に含まれるアプローチ曲線に関する情報に基づいて移動機構350を制御する制御情報を生成し、当該情報を移動機構350に提供することで自装置の移動を制御する。これによって、移動ロボット300が、人の向いている方向から人に近づき、人から所定の距離dだけ離れた位置で停止し、人に対して所定のサービスを提供することができる。なお、図11のステップS1208のように、解析部311が、センサ部330によって取得された各種センサ情報を解析することで、サービスの提供対象者(人)を認識してもよい。
なお、図9〜図11に示したフローチャートにおける各ステップは、必ずしも記載された順序に沿って時系列に処理する必要はない。すなわち、フローチャートにおける各ステップは、記載された順序と異なる順序で処理されても、並列的に処理されてもよい。
(5.4.無人航空機100の状態変化)
無人航空機100は、常に、巡回および人の追跡を行っているわけではなく、例えば、バッテリーの消耗時にはステーション(待機場所)へ帰還する。このように、無人航空機100による「巡回」、または「追跡」などを、本書では無人航空機100の「状態」と呼称する。続いては、図12を参照して、無人航空機100の状態の変化(以降、「状態変化」とも呼称する)について説明する。図12は、無人航空機100の状態変化を説明するための図である。
ステップS1300では、ステーションから離陸した無人航空機100がサーバ200から提供された制御情報に基づいて飛行し、巡回を開始するポイント(以降、「巡回開始ポイント」と呼称する)に移動する(換言すると、無人航空機100の状態は「移動」状態である)。ステップS1304にて、無人航空機100が巡回開始ポイントに到着した場合、ステップS1308にて、無人航空機100は巡回を開始する(換言すると、無人航空機100の状態は、「移動」状態から「巡回」状態に遷移する)。
ステップS1312にて、無人航空機100がサービスの提供対象者を発見した場合、またはサーバ200から所定の人の追跡を開始する旨の指示を受けた場合、ステップS1316にて、人の追跡を行う(換言すると、無人航空機100の状態は、「巡回」状態から「追跡」状態に遷移する)。
ステップS1320にて、無人航空機100のバッテリーが消耗した場合(例えば、バッテリーの残量が所定値以下になった場合)、または無人航空機100がサーバ200から帰還指示を受けた場合、無人航空機100は、ステップS1324にてステーションへの帰還を行い、ステップS1328にてバッテリーの充電、または待機を行う(換言すると、無人航空機100の状態は、「追跡」状態または「巡回」状態から、「移動」状態を経て「充電/待機」状態に遷移する)。
そして、ステップS1332にて、バッテリーの充電が完了し、無人航空機100がサーバ200からの復帰指示を受けた場合、無人航空機100は、ステーションから離陸し再び巡回開始ポイントに移動する(換言すると、無人航空機100の状態は、「充電/待機」状態から、「移動」状態を経て「巡回」状態に遷移する)。
なお、無人航空機100がステーションから離陸し再び巡回開始ポイントに移動する場合などにおいて、他の無人航空機100との交代が発生する場合、当該他の無人航空機100は、新たに巡回を開始する無人航空機100に対して各種情報を引き継いでもよい。例えば、他の無人航空機100は、新たに巡回を開始する無人航空機100に対して、特定した人の情報、人の位置情報および方向情報などを、お互いの通信部120により直接的に、またはサーバ200を介して間接的に、引き継いでもよい。その際、他の無人航空機100と、引き継ぎを受ける無人航空機100の位置ができる限り近い状態で情報の引き継ぎが行われることが望ましい。例えば、引き継ぎを受ける無人航空機100が他の無人航空機100の直上に移動した状態で情報の引き継ぎが行われ、その後に、他の無人航空機100が移動(例えば、ステーションに帰還)することが望ましい。これによって、引き継ぎを受けた無人航空機100の位置と、他の無人航空機100から引き継がれた情報との整合性が保たれ易くなる。また、引き継ぎを受けた無人航空機100は、人の特定処理などを改めて行わなくてもよくなる。なお、引き継ぎを受けた無人航空機100は、引き継ぎが行われた時点での自装置と他の無人航空機100との位置関係などに基づいて、引き継がれた情報を適宜補正してもよい。
<6.人の向いている方向の特定方法に関するバリエーション>
上記では、本実施形態に係る各装置の処理フロー例について説明した。続いて、人の向いている方向の特定方法に関するバリエーションについて説明する。
上記では、無人航空機100の方向特定部111cが、人の顔または頭の特徴に基づいて人の向いている方向を特定できる旨を説明した。しかし、方向特定部111cは、人の顔または頭以外の特徴に基づいて人の向いている方向を特定してもよい。
例えば、方向特定部111cは、顔または頭以外の体の特徴に基づいて人の向いている方向を特定してもよい。より具体的には、図13に示すように、方向特定部111cは、撮像データを解析することで両肩の特徴に基づいて人の向いている方向を特定してもよい(図13の例では、両肩を「体の特徴領域」と呼称する)。この場合、方向特定部111cは、これらの体の特徴領域中の点(例えば、体の特徴領域の中心点など)を通る直線を平行線として出力する。そして、方向特定部111cは、基準線と平行線とのなす角度θを特定する。最後に、上記と同様に、平行線に対して垂直に伸びる垂直線が出力されることによって、両肩の特徴に基づいて人の向いている方向が特定される。なお、方向特定部111cは、両肩以外にも、首、胸、腹、腕、肘、手、指、足、または膝などを含む様々な体の特徴に基づいて人の向いている方向を特定してもよい。
また、人が移動している場合、方向特定部111cは、人の進行方向に基づいて人の向いている方向を特定してもよい。より具体的には、位置特定部111bは、撮像データを解析することで撮像データに写る人の位置を特定することができるため、方向特定部111cは、その位置の変化に基づいて人の進行方向を認識することができる。一般的に、人の進行方向(例えば、人の歩く方向など)と、人の向いている方向とは一致する(または、それぞれの方向の差異が所定値以下となる)可能性が高いと考えられるため、方向特定部111cは、人の進行方向を人の向いている方向とみなしてもよい。また、本開示に係る情報処理システムは、人の進行方向を用いて所定の演算を行うことによって人の向いている方向を出力してもよい。
また、方向特定部111cは、人が装着している物(以降、「装着物」と呼称する)の特徴に基づいて人の向いている方向を特定してもよい。より具体的には、図14に示すように、方向特定部111cは、撮像データを解析することで靴の特徴に基づいて人の向いている方向を特定してもよい(図14の例では、靴の一部を「装着物の特徴領域」と呼称する)。この場合、方向特定部111cは、これらの装着物の特徴領域中の点(例えば、装着物の特徴領域の中心点など)を通る直線を平行線として出力する。そして、方向特定部111cは、基準線と平行線とのなす角度θを特定する。最後に、上記と同様に、平行線に対して垂直に伸びる垂直線が出力されることによって、靴の特徴に基づいて人の向いている方向が特定される。なお、方向特定部111cは、靴以外にも、つばのある帽子、メガネ、サングラス、マスク、頭に着ける装飾品、時計、ボタンのあるジャケット、ズボン、ネクタイ及びシャツ、バックルのついたベルト、背中に背負う鞄(例えば、リュックサックなど)、またはウェアラブル端末(ヘッドマウントディスプレイを含む)などを含む様々な装着物の特徴に基づいて人の向いている方向を特定してもよい。
また、方向特定部111cは、撮像部130によって取得された撮像データの解析結果以外に基づいて人の向いている方向を特定してもよい。例えば、方向特定部111cは、センサ部140によって取得されたセンサ情報の解析結果に基づいて人の向いている方向を特定してもよい。例えば、方向特定部111cは、センサ部140に備えられている温度センサ(例えば、サーモセンサなど)によって取得された温度分布情報の解析によって顔の特徴領域を特定することで人の向いている方向を特定してもよい。また、センサ部140が、人の吐く息を検出可能なセンサを備えている場合、方向特定部111cは、当該息が吐かれた方向に基づいて人の向いている方向を特定してもよい。
なお、方向特定部111cは、無人航空機100以外に搭載されている撮像部またはセンサによって取得された撮像データまたはセンサ情報の解析結果に基づいて人の向いている方向を特定してもよい。例えば、方向特定部111cは、人を撮像可能な装置(移動ロボット300であってもよい)によって取得された撮像データの解析結果、または人の装着物であるウェアラブル端末に搭載されているセンサ(例えば、ジャイロセンサ、または加速度センサなど)によって取得されたセンサ情報の解析結果に基づいて人の向いている方向を特定してもよい。
また、方向特定部111cは、上記で説明した様々な方法を組み合せることで人の向いている方向を特定してもよい。これによって、方向特定部111cは、人の向いている方向の特定精度を向上させることができる。
<7.変形例>
上記では、人の向いている方向の判断方法に関するバリエーションについて説明した。続いて、本開示に係る変形例について説明する。
(7.1.ジェスチャなどによる移動ロボット300の制御)
まず、ジェスチャ(動作)などによる移動ロボット300の制御について説明する。より具体的に説明すると、無人航空機100の撮像部130によって撮像される人が、所定のジェスチャを行う、または無人航空機100へ視線を送ると、無人航空機100が撮像部130によって取得された撮像データを解析することでジェスチャ、または視線を認識し、その認識結果をサーバ200へ提供する。そして、サーバ200は、無人航空機100から提供された認識結果に基づいて移動ロボット300の動作を制御することができる。これによって、人は、所定の機器を操作するなどの煩雑な動作を行うことなく、より簡単に移動ロボット300を呼び寄せ、移動ロボット300による所定のサービスを受けることができる。
ここで、移動ロボット300の制御に用いられるジェスチャなどの内容は特に限定されない。例えば、図15に示すように、ユーザu1は無人航空機100に対して片手で手を振るジェスチャを行うことで移動ロボット300の制御を実現してもよい。また、図16に示すように、ユーザu1は、無人航空機100に対して両手で手を振るジェスチャを行うことで移動ロボット300の制御を実現してもよい。両手でジェスチャが行われることによって、無人航空機100が当該ジェスチャをより認識し易くなるという効果が得られる。また、片手によるジェスチャは移動ロボット300の制御を意図しない人によっても行われ易いため、片手によるジェスチャによっては、人が意図せずに移動ロボット300を制御してしまう状況(以降、「移動ロボット300の誤作動」とも呼称する)が生じる可能性が高くなる。一方、両手によるジェスチャは人が意図しなければ行われにくいため、移動ロボット300の誤作動が生じる可能性が低くなる。
また、図17に示すように、ユーザu1は、無人航空機100の方向を向いた状態でジャンプするジェスチャを行うことで移動ロボット300の制御を実現してもよい。なお、ユーザu1は、無人航空機100の方向を向いた状態で複数回(例えば5回程度)ジャンプするジェスチャを行うことで移動ロボット300の制御を実現してもよい。複数回(例えば5回程度)ジャンプするジェスチャは人が意図しなければ行われにくいため、移動ロボット300の誤作動が生じる可能性が低くなる。
また、図18に示すように、ユーザu1は、無人航空機100の方向を向いた状態で両手をあげるジェスチャを行うことで移動ロボット300の制御を実現してもよい。なお、ユーザu1は、無人航空機100の方向を向いた状態で数秒間(例えば3秒間程度)にわたって両手をあげ続けるジェスチャを行うことで移動ロボット300の制御を実現してもよい。数秒間(例えば3秒間程度)にわたって両手をあげ続けるジェスチャは人が意図しなければ行われにくいため、移動ロボット300の誤作動が生じる可能性が低くなる。
また、図19に示すように、ユーザu1は、無人航空機100に対して視線を送ることで移動ロボット300の制御を実現してもよい。なお、ユーザu1は、無人航空機100に対して数秒間(例えば10秒間程度)にわたって視線を送り続けることで移動ロボット300の制御を実現してもよい。数秒間(例えば10秒間程度)にわたって視線を送り続けることは人が意図しなければ行われにくいため、移動ロボット300の誤作動が生じる可能性が低くなる。
なお、ジェスチャ、または無人航空機100に対して視線を送ること(動作)の解析処理は無人航空機100の解析部111によって実現され(換言すると、解析部111がターゲット(人)の動作を解析する動作解析部として機能し)、移動ロボット300の動作制御処理はサーバ200のロボット制御部212によって実現されることを想定しているが、これに限定されない。また、上記のジェスチャ、または無人航空機100に対して視線を送ることが組み合わされることによって移動ロボット300の制御が実現されてもよい。これによって、移動ロボット300の誤作動が生じる可能性がより低くなり、移動ロボット300の制御がより細かく規定され得る。
(7.2.混雑状況の予測結果に基づく移動ロボット300の制御)
続いて、ターゲットとなる人の周囲に存在する有体物による混雑状況の予測結果に基づく移動ロボット300の制御について説明する。上記のとおり、サーバ200は、ターゲットとなる人の周囲に存在する障害物(または有体物。他の人も含む)の位置情報も考慮して移動ロボット300の移動経路を出力することで、移動ロボット300が障害物に衝突することを防ぐことができる。しかし、障害物が移動することによってターゲットとなる人の周囲の混雑状況が刻々と変わる場合、移動ロボット300が障害物に衝突する可能性は高くなる。
そこで、サーバ200は、ターゲットとなる人の周囲の混雑状況の予測結果に基づいて移動ロボット300を制御してもよい。例えば、無人航空機100が、撮像部130によって取得された撮像データを解析することによって、各時刻における各障害物の位置を認識する。そして、無人航空機100は、各障害物の位置情報を行列化したものを時系列に並べたテンソルを出力し、当該テンソルを所定の方法で解析することによって、ある時間が経過した時点での、ターゲットとなる人の周辺に存在する障害物の位置を予測し、予測結果をサーバ200へ提供する。「所定の方法」とは、例えば、テンソルの時系列解析が可能な機械学習(または、人工知能)ライブラリーに対してテンソルを入力することを含むが、これに限定されない。そして、サーバ200は、無人航空機100から提供された障害物の位置の予測結果に基づいて移動ロボット300の移動経路を決定する。
なお、上記の予測処理は無人航空機100の解析部111によって実現され、移動ロボット300の移動制御処理はサーバ200のロボット制御部212によって実現されることを想定しているが、これに限定されない。また、無人航空機100は上記の予測処理および予測結果の提供処理を随時行うことで、サーバ200は、移動ロボット300の移動経路を随時変更してもよい。これによって、ターゲットとなる人の周囲の混雑状況が刻々と変化する場合においても、移動ロボット300が障害物に衝突することなく目的位置に到達できる可能性が高くなる。
(7.3.ターゲットが移動している場合における移動ロボット300の制御)
続いて、ターゲットが移動している場合における移動ロボット300の制御について説明する。例えば、ターゲットである人が移動している場合、ある時点での人の位置および人の向いている方向に基づいて移動ロボット300の移動が制御されたとしても、移動ロボット300が目的位置に到着する時には、既に人の位置および人の向いている方向が変わっているため、移動ロボット300は当該人に対してサービスを提供することができない。
そこで、サーバ200は、人の移動状況に基づいて移動ロボット300を制御してもよい。例えば、無人航空機100が、撮像部130によって取得された撮像データを解析することによって、撮像データに写る人が移動しているか否か(または、人が移動している場合には、その移動速度)を認識する。そして、人が移動している場合(または、移動速度が所定値より速い場合)、サーバ200は移動ロボット300を移動させず、人が移動を止めた場合(または、移動速度が所定値以下になった場合)、サーバ200は移動ロボット300を移動させてもよい。これによって、移動ロボット300がターゲットとなる人に到達できる可能性が高くなる。
また、サーバ200は、人の位置または人の向いている方向の予測結果に基づいて移動ロボット300を制御してもよい。例えば、無人航空機100は、撮像部130によって取得された撮像データを解析することによって、撮像データに写る人が移動しているか否か、人が移動している場合には移動速度と移動方向、人の行動内容など(例えば、食事中、休憩中、テーマパークにおけるアトラクションのプレイ中など)を認識する。そして、無人航空機100は、これらの認識結果に基づいて、ある時間が経過した時点での当該人の位置または人の向いている方向を予測し、予測結果をサーバ200へ提供する。そして、サーバ200は、無人航空機100から提供された人の位置または人の向いている方向の予測結果に基づいて移動ロボット300の移動経路を決定する。
なお、上記の予測処理は無人航空機100の解析部111によって実現され、移動ロボット300の移動制御処理はサーバ200のロボット制御部212によって実現されることを想定しているが、これに限定されない。また、人の位置または人の向いている方向の予測方法は上記に限定されない。例えば、無人航空機100は、人の行動履歴情報なども用いてこれらの予測を行ってもよい。また、無人航空機100は上記の予測処理および予測結果の提供処理を随時行うことで、サーバ200は、移動ロボット300の移動経路を随時変更してもよい。これによって、人が移動している場合においても、移動ロボット300が適切な位置に到達できる可能性が高くなる。
(7.4.建築物における入り口の位置の特定方法)
続いて、無人航空機100の撮像部130によって取得された撮像データの解析結果に基づいて建築物における入り口の位置を特定する方法について説明する。
サーバ200が移動ロボット300をある建築物の中に移動させたい場合において、サーバ200が当該建築物における入り口の位置を予め認識していない場合がある。例えば、本開示に係る情報処理システムが物流システムに応用され、サーバ200が移動ロボット300を配達先であるビル内に移動させたい場合において、サーバ200が当該ビルにおける入り口の位置を予め認識していない場合がある。
この場合、無人航空機100の解析部111は、撮像部130によって取得された撮像データを解析することで建築物における入り口の位置を特定することができる。例えば、図20のAに示すように、ユーザu1と建築物が撮像データに写っているとする。このとき、無人航空機100の方向特定部111cは、上記で説明した方法によってユーザu1の向いている方向を特定する。そして、ユーザu1が建築物の方向に移動していき、図20のBに示すように、ユーザu1の体の一部が建築物の中に入ったことを、解析部111が撮像データの解析によって認識した場合、解析部111は、ユーザu1の体の一部が入った位置を入り口の位置とみなす。これによって、解析部111は、建築物における入り口の位置を特定することができる。なお、建築物における入り口の位置の特定方法は上記に限定されない。また、解析部111は、上記と同様の方法で建築物における出口を特定してもよい。
<8.ハードウェア構成例>
上記では、本開示に係る変形例について説明した。続いて、図21を参照して、無人航空機100、サーバ200、または移動ロボット300を具現する情報処理装置900のハードウェア構成例について説明する。
図21は、情報処理装置900のハードウェア構成を示す図である。情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置(HDD)910と、ドライブ911と、通信装置912と、を備える。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス904により相互に接続されている。当該CPU901、ROM902およびRAM903の協働により、無人航空機100の制御部110、サーバ200の制御部210、または移動ロボット300の制御部310の各機能が実現される。
ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置900の使用者は、該入力装置908を操作することにより、各装置に対して各種情報を入力したり処理動作を指示したりすることができる。当該入力装置908により、各装置の入力部(図示なし)の機能が実現される。
出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。さらに、出力装置909は、スピーカおよびヘッドホンなどの音声出力装置を含む。出力装置909は、例えば、再生されたコンテンツを出力する。具体的には、表示装置は再生された映像データ等の各種情報をテキストまたはイメージで表示する。一方、音声出力装置は、再生された音声データ等を音声に変換して出力する。当該出力装置909により、各装置の出力部(図示なし)の機能が実現される。
ストレージ装置910は、データ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。当該ストレージ装置910により無人航空機100の記憶部150、サーバ200の記憶部230、または移動ロボット300の記憶部340の各機能が実現される。
ドライブ911は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ911は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体913に記録されている情報を読み出して、RAM903に出力する。また、ドライブ911は、リムーバブル記憶媒体913に情報を書き込むこともできる。
通信装置912は、例えば、通信網914に接続するための通信デバイス等で構成された通信インタフェースである。当該通信装置912により無人航空機100の通信部120、サーバ200の通信部220、または移動ロボット300の通信部320の各機能が実現される。
<9.まとめ>
以上で説明してきたように、本開示に係る無人航空機100は、撮像部130によって取得された撮像データを解析することで、上空から特定の人を探索し、追跡することができる。そして、無人航空機100は、撮像データに写る人の位置および人の向いている方向を特定することができるため、サーバ200は、無人航空機100によって特定された位置および方向に基づいて移動ロボット300を当該人に向けて移動させ、所定のサービスを提供させることができる。
また、逆光のなかで撮像が行われたり、影がある領域の撮像が行われたり、障害物の多い場所で撮像が行われたりすることによって、撮像データにて人の顔の特徴領域が明確に写らない場合、無人航空機100は、人の向いている方向の特定を妨げる原因を除去するように自装置の飛行を制御することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
無人航空機によって空撮された撮像データを取得する取得部と、
前記撮像データを解析することで前記撮像データに写るターゲットの向いている方向を特定する方向特定部と、を備える、
情報処理装置。
(2)
前記方向特定部は、前記ターゲットである人の向いている方向を特定する、
前記(1)に記載の情報処理装置。
(3)
前記方向特定部は、前記撮像データに写る、前記人の顔または頭の特徴に基づいて前記方向を特定する、
前記(2)に記載の情報処理装置。
(4)
前記方向特定部は、両目、片目、眉毛、鼻、口、歯、耳、または髪の少なくともいずれか一つの特徴に基づいて前記方向を特定する、
前記(3)に記載の情報処理装置。
(5)
前記方向特定部は、前記撮像データに写る、前記人の体の特徴に基づいて前記方向を特定する、
前記(2)に記載の情報処理装置。
(6)
前記方向特定部は、前記撮像データに写る、前記人が装着している物の特徴に基づいて前記方向を特定する、
前記(2)に記載の情報処理装置。
(7)
前記方向の特定が妨げられたことを認識し、前記無人航空機の飛行を前後、左右、上下、又はこれらを組み合わせて制御する飛行制御部をさらに備える、
前記(1)から(6)のいずれか1項に記載の情報処理装置。
(8)
前記撮像データに写るターゲットを特定するターゲット特定部をさらに備え、
前記飛行制御部は、特定された前記ターゲットのうちの少なくとも一つを追跡するように前記飛行を制御する、
前記(7)に記載の情報処理装置。
(9)
前記飛行制御部は、前記無人航空機と前記ターゲットとの相対的な位置関係の変化に基づいて前記飛行を制御する、
前記(8)に記載の情報処理装置。
(10)
前記ターゲット特定部によって特定された前記ターゲットが、他の無人航空機によって空撮された撮像データにも写ることによって特定された場合、
前記飛行制御部は、前記無人航空機または前記他の無人航空機のうちの少なくともどちらかが前記ターゲットを追跡するように前記飛行を制御する、
前記(8)または(9)に記載の情報処理装置。
(11)
前記撮像データを解析することで前記撮像データに写るターゲットの位置を特定する位置特定部と、
前記位置および前記方向に基づいて所定のロボットの移動を制御するロボット制御部と、をさらに備える、
前記(1)から(10)のいずれか1項に記載の情報処理装置。
(12)
前記ロボット制御部は、前記方向、または前記方向に基づいて決められる他の方向から前記ターゲットに近づけるように前記ロボットを移動させる、
前記(11)に記載の情報処理装置。
(13)
前記ロボット制御部は、前記ターゲットから所定の距離だけ離れた位置で前記ロボットを停止させる、
前記(12)に記載の情報処理装置。
(14)
前記ターゲットが移動している場合、
前記ロボット制御部は、ある時間が経過した時点での前記ターゲットの位置または前記方向の予測結果に基づいて前記ロボットの移動を制御する、
前記(11)から(13)のいずれか1項に記載の情報処理装置。
(15)
前記ロボット制御部は、ある時間が経過した時点での前記ターゲットの周辺に存在する有体物の位置の予測結果に基づいて前記ロボットの移動を制御する、
前記(11)から(14)のいずれか1項に記載の情報処理装置。
(16)
前記撮像データに写る前記ターゲットの動作を解析する動作解析部をさらに備え、
前記ロボット制御部は、前記動作に基づいて前記ロボットの移動を制御する、
前記(11)から(15)のいずれか1項に記載の情報処理装置。
(17)
前記情報処理装置は、前記無人航空機、前記無人航空機に搭載されている所定の装置、またはクラウドサーバのいずれかである、
前記(1)から(16)のいずれか1項に記載の情報処理装置。
(18)
無人航空機によって空撮された撮像データを取得することと、
前記撮像データを解析することで前記撮像データに写るターゲットの向いている方向を特定することと、を有する、
コンピュータにより実行される情報処理方法。
(19)
無人航空機によって空撮された撮像データを取得することと、
前記撮像データを解析することで前記撮像データに写るターゲットの向いている方向を特定することと、
をコンピュータに実現させるためのプログラム。
(20)
情報処理装置と、ロボットと、を備え、
前記情報処理装置は、
無人航空機によって空撮された撮像データを取得する取得部と、
前記撮像データを解析することで前記撮像データに写るターゲットの向いている方向を特定する方向特定部と、
前記撮像データを解析することで前記撮像データに写るターゲットの位置を特定する位置特定部と、
前記位置および前記方向に基づいて前記ロボットの移動を制御するロボット制御部と、を備える、
情報処理システム。
(21)
前記方向の特定を妨げる原因を除去するように前記無人航空機の飛行を制御する飛行制御部をさらに備える、
前記(1)から(6)のいずれか1項に記載の情報処理装置。
100 無人航空機
110 制御部
111 解析部
111a 人特定部
111b 位置特定部
111c 方向特定部
112 飛行制御部
120 通信部
130 撮像部
140 センサ部
150 記憶部
160 飛行機構
200 サーバ
210 制御部
211 無人航空機制御部
212 ロボット制御部
220 通信部
230 記憶部
231 人DB
232 位置・方向DB
300 移動ロボット
310 制御部
311 解析部
312 移動制御部
320 通信部
330 センサ部
340 記憶部
350 移動機構

Claims (20)

  1. 無人航空機によって空撮された撮像データを取得する取得部と、
    前記撮像データを解析することで前記撮像データに写るターゲットの向いている方向を特定する方向特定部と、を備える、
    情報処理装置。
  2. 前記方向特定部は、前記ターゲットである人の向いている方向を特定する、
    請求項1に記載の情報処理装置。
  3. 前記方向特定部は、前記撮像データに写る、前記人の顔または頭の特徴に基づいて前記方向を特定する、
    請求項2に記載の情報処理装置。
  4. 前記方向特定部は、両目、片目、眉毛、鼻、口、歯、耳、または髪の少なくともいずれか一つの特徴に基づいて前記方向を特定する、
    請求項3に記載の情報処理装置。
  5. 前記方向特定部は、前記撮像データに写る、前記人の体の特徴に基づいて前記方向を特定する、
    請求項2に記載の情報処理装置。
  6. 前記方向特定部は、前記撮像データに写る、前記人が装着している物の特徴に基づいて前記方向を特定する、
    請求項2に記載の情報処理装置。
  7. 前記方向の特定が妨げられたことを認識し、前記無人航空機の飛行を前後、左右、上下、又はこれらを組み合わせて制御する飛行制御部をさらに備える、
    請求項1に記載の情報処理装置。
  8. 前記撮像データに写るターゲットを特定するターゲット特定部をさらに備え、
    前記飛行制御部は、特定された前記ターゲットのうちの少なくとも一つを追跡するように前記飛行を制御する、
    請求項7に記載の情報処理装置。
  9. 前記飛行制御部は、前記無人航空機と前記ターゲットとの相対的な位置関係の変化に基づいて前記飛行を制御する、
    請求項8に記載の情報処理装置。
  10. 前記ターゲット特定部によって特定された前記ターゲットが、他の無人航空機によって空撮された撮像データにも写ることによって特定された場合、
    前記飛行制御部は、前記無人航空機または前記他の無人航空機のうちの少なくともどちらかが前記ターゲットを追跡するように前記飛行を制御する、
    請求項8に記載の情報処理装置。
  11. 前記撮像データを解析することで前記撮像データに写るターゲットの位置を特定する位置特定部と、
    前記位置および前記方向に基づいて所定のロボットの移動を制御するロボット制御部と、をさらに備える、
    請求項1に記載の情報処理装置。
  12. 前記ロボット制御部は、前記方向、または前記方向に基づいて決められる他の方向から前記ターゲットに近づけるように前記ロボットを移動させる、
    請求項11に記載の情報処理装置。
  13. 前記ロボット制御部は、前記ターゲットから所定の距離だけ離れた位置で前記ロボットを停止させる、
    請求項12に記載の情報処理装置。
  14. 前記ターゲットが移動している場合、
    前記ロボット制御部は、ある時間が経過した時点での前記ターゲットの位置または前記方向の予測結果に基づいて前記ロボットの移動を制御する、
    請求項11に記載の情報処理装置。
  15. 前記ロボット制御部は、ある時間が経過した時点での前記ターゲットの周辺に存在する有体物の位置の予測結果に基づいて前記ロボットの移動を制御する、
    請求項11に記載の情報処理装置。
  16. 前記撮像データに写る前記ターゲットの動作を解析する動作解析部をさらに備え、
    前記ロボット制御部は、前記動作に基づいて前記ロボットの移動を制御する、
    請求項11に記載の情報処理装置。
  17. 前記情報処理装置は、前記無人航空機、前記無人航空機に搭載されている所定の装置、またはクラウドサーバのいずれかである、
    請求項1に記載の情報処理装置。
  18. 無人航空機によって空撮された撮像データを取得することと、
    前記撮像データを解析することで前記撮像データに写るターゲットの向いている方向を特定することと、を有する、
    コンピュータにより実行される情報処理方法。
  19. 無人航空機によって空撮された撮像データを取得することと、
    前記撮像データを解析することで前記撮像データに写るターゲットの向いている方向を特定することと、
    をコンピュータに実現させるためのプログラム。
  20. 情報処理装置と、ロボットと、を備え、
    前記情報処理装置は、
    無人航空機によって空撮された撮像データを取得する取得部と、
    前記撮像データを解析することで前記撮像データに写るターゲットの向いている方向を特定する方向特定部と、
    前記撮像データを解析することで前記撮像データに写るターゲットの位置を特定する位置特定部と、
    前記位置および前記方向に基づいて前記ロボットの移動を制御するロボット制御部と、を備える、
    情報処理システム。

JP2018114695A 2018-06-15 2018-06-15 情報処理装置、情報処理方法、プログラム、および情報処理システム Pending JP2021144260A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018114695A JP2021144260A (ja) 2018-06-15 2018-06-15 情報処理装置、情報処理方法、プログラム、および情報処理システム
US17/057,692 US11417088B2 (en) 2018-06-15 2019-04-08 Information processing device, information processing method, program, and information processing system
PCT/JP2019/015241 WO2019239694A1 (ja) 2018-06-15 2019-04-08 情報処理装置、情報処理方法、プログラム、および情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018114695A JP2021144260A (ja) 2018-06-15 2018-06-15 情報処理装置、情報処理方法、プログラム、および情報処理システム

Publications (1)

Publication Number Publication Date
JP2021144260A true JP2021144260A (ja) 2021-09-24

Family

ID=68843163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018114695A Pending JP2021144260A (ja) 2018-06-15 2018-06-15 情報処理装置、情報処理方法、プログラム、および情報処理システム

Country Status (3)

Country Link
US (1) US11417088B2 (ja)
JP (1) JP2021144260A (ja)
WO (1) WO2019239694A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107111314B (zh) * 2014-11-07 2021-10-08 索尼公司 控制***、控制方法以及存储介质
CN111527463B (zh) * 2018-01-22 2024-02-23 深圳市大疆创新科技有限公司 用于多目标跟踪的方法和***
JP7379814B2 (ja) * 2018-11-21 2023-11-15 富士フイルムビジネスイノベーション株式会社 自律移動装置およびプログラム
GB201906420D0 (en) * 2019-05-07 2019-06-19 Farley Adam Virtual augmented and mixed reality systems with physical feedback
US20220242559A1 (en) * 2019-06-27 2022-08-04 Ntt Docomo, Inc. Information processing apparatus
US20210358152A1 (en) * 2020-05-12 2021-11-18 Corsight .Al Monitoring distances between people
KR102610397B1 (ko) * 2021-06-08 2023-12-05 금오공과대학교 산학협력단 멀티 카메라 기반 드론을 이용한 객체추적방법 및 이를 이용한 객체추적시스템

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263641A (ja) 2002-03-11 2003-09-19 Mitsubishi Heavy Ind Ltd 移動分析装置
JP2005329515A (ja) 2004-05-21 2005-12-02 Hitachi Ltd サービスロボットシステム
EP1978432B1 (en) * 2007-04-06 2012-03-21 Honda Motor Co., Ltd. Routing apparatus for autonomous mobile unit
JP5277600B2 (ja) * 2007-10-02 2013-08-28 朝日航洋株式会社 架空線撮影システム及び方法
JP5227911B2 (ja) * 2009-07-22 2013-07-03 株式会社日立国際電気 監視映像検索装置及び監視システム
IL201681A (en) * 2009-10-22 2014-06-30 Abraham Abershitz System and method for UAV
US8705813B2 (en) * 2010-06-21 2014-04-22 Canon Kabushiki Kaisha Identification device, identification method, and storage medium
WO2015088618A2 (en) * 2013-09-26 2015-06-18 Konica Minolta Laboratory U.S.A., Inc. Method and system of calibrating a multispectral camera on an aerial vehicle
US20150134143A1 (en) * 2013-10-04 2015-05-14 Jim Willenborg Novel tracking system using unmanned aerial vehicles
JP6559987B2 (ja) * 2015-03-23 2019-08-14 グローリー株式会社 人物認証装置及び人物認証方法
AU2016201867B2 (en) * 2015-03-27 2017-09-28 Konica Minolta Laboratory U.S.A., Inc. Method and system to avoid plant shadows for vegetation and soil imaging
EP3313731B1 (en) * 2015-06-24 2021-05-05 Ent. Services Development Corporation LP Control aerial movement of drone based on line-of-sight of humans using devices
JP6216353B2 (ja) 2015-09-15 2017-10-18 株式会社オプティム 情報特定システム、情報特定方法及び、そのプログラム
EP3353706A4 (en) * 2015-09-15 2019-05-08 SZ DJI Technology Co., Ltd. SYSTEM AND METHOD FOR MONITORING UNIFORM TARGET TRACKING
JP2017056904A (ja) 2015-09-18 2017-03-23 アイシン・エィ・ダブリュ株式会社 無人飛行体の制御システム、制御方法及び制御プログラム
CN105117022A (zh) * 2015-09-24 2015-12-02 北京零零无限科技有限公司 一种控制无人机随脸转动的方法和装置
JP6680498B2 (ja) 2015-09-28 2020-04-15 株式会社日立システムズ 自律飛行移動体、ターゲット追跡方法
US10409292B2 (en) * 2015-12-10 2019-09-10 Panasonic Intellectual Property Corporation Of America Movement control method, autonomous mobile robot, and recording medium storing program
WO2017115448A1 (ja) 2015-12-29 2017-07-06 楽天株式会社 無人航空機退避システム、無人航空機退避方法、及びプログラム
JP6697006B2 (ja) 2016-01-29 2020-05-20 パイオニア株式会社 情報生成装置、情報生成方法、情報生成プログラム及び記録媒体
JP6672857B2 (ja) * 2016-02-09 2020-03-25 日本電気株式会社 無人飛行装置制御システム、無人飛行装置制御方法および無人飛行装置
JP7120002B2 (ja) * 2016-03-31 2022-08-17 株式会社ニコン 飛行装置
WO2017170651A1 (ja) * 2016-03-31 2017-10-05 住友重機械工業株式会社 建設機械用作業管理システム及び建設機械
JP6281720B2 (ja) 2016-05-24 2018-02-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 撮像システム
JP6500849B2 (ja) * 2016-06-23 2019-04-17 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
JP7031588B2 (ja) * 2016-07-05 2022-03-08 日本電気株式会社 不審者検出装置、不審者検出方法およびプログラム
CN107223219B (zh) * 2016-09-26 2020-06-23 深圳市大疆创新科技有限公司 控制方法、控制设备和运载***
KR20180051996A (ko) * 2016-11-09 2018-05-17 삼성전자주식회사 무인 비행 장치 및 이를 이용한 피사체 촬영 방법
CN109997091B (zh) * 2016-12-01 2022-08-09 深圳市大疆创新科技有限公司 用于管理3d飞行路径的方法和相关***
US10552967B2 (en) * 2017-02-27 2020-02-04 Isolynx, Llc Systems and methods for tracking and controlling a mobile camera to image objects of interest
DE102017104490A1 (de) * 2017-03-03 2018-09-06 Innogy Se Inspektionsgerätsteuerungseinrichtung für ein Inspektionsgerät einer Windkraftanlage
US10474881B2 (en) * 2017-03-15 2019-11-12 Nec Corporation Video retrieval system based on larger pose face frontalization
GB2552092A (en) * 2017-07-04 2018-01-10 Daimler Ag Inspection system and method for automatic visual inspection of a motor vehicle
JP6859241B2 (ja) * 2017-09-28 2021-04-14 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 飛行体、生体探索システム、生体探索方法、プログラム、及び記録媒体
US10510157B2 (en) * 2017-10-28 2019-12-17 Altumview Systems Inc. Method and apparatus for real-time face-tracking and face-pose-selection on embedded vision systems
US10416678B2 (en) * 2017-11-16 2019-09-17 The Boeing Company Recharging an aircraft in a region using areas of increased sunlight within the region
US20210034078A1 (en) * 2017-12-27 2021-02-04 Intel Corporation Dynamic generation of restricted flight zones for drones
JP7119383B2 (ja) * 2018-01-23 2022-08-17 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
CN109155067A (zh) * 2018-01-23 2019-01-04 深圳市大疆创新科技有限公司 可移动平台的控制方法、设备、计算机可读存储介质
JP7119384B2 (ja) * 2018-01-23 2022-08-17 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム

Also Published As

Publication number Publication date
WO2019239694A1 (ja) 2019-12-19
US20210209332A1 (en) 2021-07-08
US11417088B2 (en) 2022-08-16

Similar Documents

Publication Publication Date Title
JP2021144260A (ja) 情報処理装置、情報処理方法、プログラム、および情報処理システム
US11914370B2 (en) System and method for providing easy-to-use release and auto-positioning for drone applications
US11347217B2 (en) User interaction paradigms for a flying digital assistant
US20220019248A1 (en) Objective-Based Control Of An Autonomous Unmanned Aerial Vehicle
US10169880B2 (en) Information processing apparatus, information processing method, and program
US9255813B2 (en) User controlled real object disappearance in a mixed reality display
KR20190110498A (ko) 영상 파일에서 불특정 인물의 얼굴 영역을 비식별화 처리하는 인공 지능 서버 및 그 방법
KR20190100085A (ko) 인공 지능을 이용하여, 위험 상황을 감지할 수 있는 로봇 및 그의 동작 방법
JP2006192563A (ja) 識別対象識別装置およびそれを備えたロボット
US11156844B2 (en) Information processing apparatus, information processing method, and program
WO2021127888A1 (zh) 控制方法、智能眼镜、可移动平台、云台、控制***及计算机可读存储介质
KR102190743B1 (ko) 로봇과 인터랙션하는 증강현실 서비스 제공 장치 및 방법
WO2018117514A1 (ko) 공항용 로봇 및 그의 동작 방법
KR20190105216A (ko) 인공지능 로봇 청소기
KR20200144363A (ko) 로봇 및 그의 구동 방법
KR102231922B1 (ko) 인공 지능을 이용하여, 복수의 로봇들을 제어하는 인공 지능 서버
EP3115978B1 (en) Monitoring
US11766779B2 (en) Mobile robot for recognizing queue and operating method of mobile robot
EP4246281A1 (en) Information display system, information display method, and carrier means
CN114623836A (zh) 车辆位姿确定方法、装置及车辆
WO2022061615A1 (zh) 待跟随目标的确定方法、装置、***、设备及存储介质
US11288840B2 (en) Artificial intelligence apparatus for estimating pose of head and method for the same
WO2024087456A1 (zh) 确定朝向信息以及自动驾驶车辆
WO2022044900A1 (ja) 情報処理装置、情報処理方法、および記録媒体