JP2017016588A - Object person guiding system, program and object person guiding method - Google Patents

Object person guiding system, program and object person guiding method Download PDF

Info

Publication number
JP2017016588A
JP2017016588A JP2015135657A JP2015135657A JP2017016588A JP 2017016588 A JP2017016588 A JP 2017016588A JP 2015135657 A JP2015135657 A JP 2015135657A JP 2015135657 A JP2015135657 A JP 2015135657A JP 2017016588 A JP2017016588 A JP 2017016588A
Authority
JP
Japan
Prior art keywords
guidance
subject
characteristic
determining
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015135657A
Other languages
Japanese (ja)
Other versions
JP6632824B2 (en
Inventor
栄太 平井
Eita Hirai
栄太 平井
良 田中
Makoto Tanaka
田中  良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Paramount Bed Co Ltd
Original Assignee
Paramount Bed Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Paramount Bed Co Ltd filed Critical Paramount Bed Co Ltd
Priority to JP2015135657A priority Critical patent/JP6632824B2/en
Publication of JP2017016588A publication Critical patent/JP2017016588A/en
Application granted granted Critical
Publication of JP6632824B2 publication Critical patent/JP6632824B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instructional Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an object person guiding system or the like capable of performing an appropriate guide display according to a characteristic of the object person, without own behavior of the object person.SOLUTION: A guiding point is stored in association with a characteristic of an object person P, and by sensing the object person with a recognizing device 20, a characteristic (human body attribute) is determined. Based on the determined characteristic, the guidance point is decided. From a current point to the decided guiding point, an image display unit 34 displays an image in a region R34 for the object person, for guide display.SELECTED DRAWING: Figure 6

Description

本発明は、対象者誘導システム等に関する。   The present invention relates to a subject guidance system and the like.

正しい道筋を誘導するシステムの代表例として、GPS技術を用いたカーナビゲーションシステムや、スマートフォンでの経路案内が存在する。しかし、それらは対象者自ら設定しなければならないこと、対象者自身がGPSを受信できる装置を装備している必要があった。よって本人以外の人が意図的に誘導させることは難しかった。特に、施設内の場合は、位置情報を検出することができず、適切に誘導を行うことが出来ない。   As a typical example of a system for guiding a correct route, there are a car navigation system using GPS technology and route guidance using a smartphone. However, they had to be set by the subject himself, and the subject himself had to be equipped with a device that could receive GPS. Therefore, it was difficult for a person other than the principal to intentionally induce it. In particular, in the case of a facility, position information cannot be detected, and guidance cannot be performed appropriately.

そこで、屋内に設けられた無線設備等を利用して誘導する発明が知られている。例えば、予め来場者を識別する識別情報を書き込んだ無線発信装置と、無線発信装置から発信される識別情報を読み取る少なくとも3つ以上の受信装置と、受信装置の会場内における位置を保持する受信装置位置データベースと、識別情報を受信した受信装置の位置を受信装置位置データベースから検出する手段を有するサーバからなり、無線発信装置から発信される電波を、受信した複数の受信装置の中から受信レベルの高い順に上から3つの受信装置を選択し、選択された受信装置をそれぞれ結んだ3角点内に発信装置が存在することとして来場者の位置を特定する。来場者の携帯端末からサーバへアクセスすると、来場者の携帯端末の画面上に会場案内図上に目的のブースまたは店舗が表示され、会場内に入ると、来場者の位置と目的のブースまたは店舗との位置関係がわかる発明が知られている(例えば、特許文献1参照)。   Therefore, an invention is known in which guidance is performed using a wireless facility or the like provided indoors. For example, a wireless transmission device in which identification information for identifying a visitor is written in advance, at least three or more reception devices that read identification information transmitted from the wireless transmission device, and a reception device that holds the position of the reception device in the venue The server includes a position database and a server having means for detecting the position of the receiving device that has received the identification information from the receiving device position database. The radio wave transmitted from the wireless transmitting device is received from a plurality of receiving devices. Three receiving devices are selected from the top in descending order, and the location of the visitor is specified as the transmitting device exists within the three corner points connecting the selected receiving devices. When the server is accessed from the mobile terminal of the visitor, the target booth or store is displayed on the venue guide map on the screen of the mobile terminal of the visitor. When entering the venue, the location of the visitor and the target booth or store are displayed. Is known (see, for example, Patent Document 1).

特開2006−23129号公報JP 2006-23129 A

上述したように、GPSを受信可能な装置や、屋内の無線発信装置の電波を受信可能な装置を持った対象者にだけ誘導をサービスすることは可能であったが、対象者本人が意図的に操作して、「誘導してもらう」という行動を取る必要があった。したがって、子供や高齢者等、それらの機能を持ち合わせていない、自ら活用しない人に対して、対象者にとって有益な情報を提供するということは難しかった。   As described above, it was possible to provide guidance only to a subject who has a device capable of receiving GPS or a device capable of receiving radio waves from an indoor wireless transmission device. It was necessary to take the action of “getting a guide”. Therefore, it has been difficult to provide useful information for the target person to children, the elderly, and the like who do not have those functions and do not utilize them.

特に、大型ショッピングモールや商店街においてさまざまな客層の顧客が訪れる。顧客のターゲット層によって本来お勧めのお店を積極的に選別し、誘導することができれば売り上げ増加が見込める可能性がある。しかし、端末装置を有していない顧客を誘導する方法は単なる看板程度であり、対象者である顧客が自らお店を選定し行動している状態であり、お店側は機会損失を招いている可能性が高かった。   In particular, customers from various customers visit large shopping malls and shopping streets. If you can actively select and guide shops that are originally recommended according to your target audience, sales may increase. However, the method of guiding customers who do not have a terminal device is just a signboard, and the customer who is the target person is selecting and acting on the store himself, and the store side incurs a loss of opportunity. The possibility was high.

上述した課題に鑑み、本発明が目的とするところは、対象者が自ら行動を起こさなくても、対象者の特性に応じて適切な誘導表示を行うことが可能な対象者誘導システム等を提供することである。   In view of the above-described problems, an object of the present invention is to provide a target person guidance system and the like that can perform appropriate guidance display according to the characteristics of the target person even if the target person does not take action himself It is to be.

上述した課題を解決するために、本発明の対象者誘導システムは、
対象者の特性に対応づけて、誘導地点を記憶する記憶手段と、
対象者をセンシングして特性を判定する特性判定手段と、
前記特性判定手段により判定された特性に基づいて、誘導地点を決定する決定手段と、
現在地点から、前記決定された誘導地点まで、対象者を誘導する誘導手段と、
を備えることを特徴とする。
In order to solve the above-described problem, the subject guidance system of the present invention is:
Storage means for storing the guidance point in association with the characteristics of the target person,
A characteristic determination means for sensing the target and determining the characteristic;
Determining means for determining a guide point based on the characteristics determined by the characteristic determining means;
Guidance means for guiding the subject from the current location to the determined guidance location;
It is characterized by providing.

本発明の対象者誘導システムは、
対象者の特性に対応づけて、誘導地点と、音声データとを記憶する記憶手段と、
対象者をセンシングして特性を判定する特性判定手段と、
前記特性判定手段により判定された特性に基づいて、誘導地点を決定する決定手段と、
現在地点から、前記決定された誘導地点まで、対象者に対して前記音声データを出力することにより誘導を行う音声出力手段と、
を備えることを特徴とする。
The subject guidance system of the present invention is
A storage means for storing the guidance point and voice data in association with the characteristics of the target person;
A characteristic determination means for sensing the target and determining the characteristic;
Determining means for determining a guide point based on the characteristics determined by the characteristic determining means;
From the current location to the determined guidance location, voice output means for performing guidance by outputting the voice data to the subject,
It is characterized by providing.

本発明の対象者誘導システムは、
対象者の特性と、動作パターンと、誘導データとを対応づけて記憶する記憶手段と、
対象者をセンシングして特性を判定する特性判定手段と、
前記特性判定手段により判定された特性は前記対象者の動作状態であり、当該動作状態が前記動作パターンと一致するかを判定する動作状態判定手段と、
前記動作状態が、前記動作パターンと一定した場合には、対応する誘導データを出力する出力手段と、
を備えることを特徴とする。
The subject guidance system of the present invention is
Storage means for storing the subject's characteristics, operation patterns, and guidance data in association with each other;
A characteristic determination means for sensing the target and determining the characteristic;
The characteristic determined by the characteristic determination unit is the operation state of the subject, and the operation state determination unit determines whether the operation state matches the operation pattern;
When the operation state is constant with the operation pattern, output means for outputting corresponding guidance data;
It is characterized by providing.

本発明の対象者誘導システムは、
対象者をセンシングして認識する認識装置と、報知装置と、制御装置とを備えた対象者誘導システムであって、
前記制御装置は、
対象者の特性に対応づけて、誘導地点を記憶する記憶手段と、
前記認識装置により認識された対象者の特性を判定する特性判定手段と、
前記特性判定手段により判定された特性に基づいて、誘導地点を決定する決定手段と、
現在地点から、前記決定された誘導地点まで、前記報知装置により対象者を誘導する誘導手段と、
を備えたことを特徴とする。
The subject guidance system of the present invention is
A subject guidance system comprising a recognition device that senses and recognizes a subject, a notification device, and a control device,
The controller is
Storage means for storing the guidance point in association with the characteristics of the target person,
Characteristic determination means for determining characteristics of the subject recognized by the recognition device;
Determining means for determining a guide point based on the characteristics determined by the characteristic determining means;
From the current location to the determined guidance location, guidance means for guiding the subject by the notification device,
It is provided with.

本発明のプログラムは、
コンピュータに、
対象者の特性に対応づけて、誘導地点を記憶する記憶機能と、
対象者をセンシングして特性を判定する特性判定機能と、
前記特性判定機能により判定された特性に基づいて、誘導地点を決定する決定機能と、
現在地点から、前記決定された誘導地点まで、対象者を誘導する誘導機能と、
を実現させることを特徴とする。
The program of the present invention
On the computer,
A memory function for storing the guidance point in association with the characteristics of the target person,
A characteristic determination function that senses the target person and determines characteristics,
A determination function for determining a guide point based on the characteristics determined by the characteristic determination function;
A guidance function for guiding the subject from the current location to the determined guidance location;
It is characterized by realizing.

本発明の対象者誘導方法は、
対象者の特性に対応づけて、誘導地点を記憶する記憶ステップと、
対象者をセンシングして特性を判定する特性判定ステップと、
前記特性判定ステップにより判定された特性に基づいて、誘導地点を決定する決定ステップと、
現在地点から、前記決定された誘導地点まで、対象者を誘導する誘導ステップと、
を備えることを特徴とする。
The subject guidance method of the present invention includes:
A storage step for storing the guidance point in association with the characteristics of the target person;
A characteristic determination step for sensing the target and determining the characteristic;
A determination step of determining a guide point based on the characteristics determined by the characteristic determination step;
A guidance step for guiding the subject from the current location to the determined guidance location;
It is characterized by providing.

本発明によれば、対象者をセンシングし、対象者の特性を判定する。そして、判定された対象者の特性に基づいて、誘導地点を決定し、現在地点から、決定された誘導地点まで誘導表示を行うことができる。したがって、対象者が端末装置等を持っているかいないかに関わらず、適切な誘導表示を行うことが可能となる。   According to the present invention, the subject is sensed and the characteristics of the subject are determined. Then, based on the determined characteristics of the target person, a guidance point can be determined, and guidance display can be performed from the current point to the determined guidance point. Therefore, it is possible to perform appropriate guidance display regardless of whether the subject has a terminal device or the like.

第1実施形態における全体を説明するための図である。It is a figure for demonstrating the whole in 1st Embodiment. 第1実施形態における機能構成を説明するための図である。It is a figure for demonstrating the function structure in 1st Embodiment. 第1実施形態における人体の認識方法について説明するための図である。It is a figure for demonstrating the recognition method of the human body in 1st Embodiment. 第1実施形態における誘導地点テーブルのデータ構成の一例である。It is an example of the data structure of the guidance point table in 1st Embodiment. 第1実施形態における処理の流れを説明する為の動作フローである。It is an operation | movement flow for demonstrating the flow of the process in 1st Embodiment. 第1実施形態における適用例を説明するための図である。It is a figure for demonstrating the application example in 1st Embodiment. 第2実施形態における記憶部の構成を説明するための図である。It is a figure for demonstrating the structure of the memory | storage part in 2nd Embodiment. 第2実施形態における誘導表示情報のデータ構成の一例である。It is an example of the data structure of the guidance display information in 2nd Embodiment. 第2実施形態における処理の流れを説明する為の動作フローである。It is an operation | movement flow for demonstrating the flow of the process in 2nd Embodiment. 第3実施形態における誘導表示情報のデータ構成の一例である。It is an example of the data structure of the guidance display information in 3rd Embodiment. 第4実施形態における誘導地点テーブルのデータ構成の一例である。It is an example of a data structure of the guidance point table in 4th Embodiment. 第4実施形態における処理の流れを説明する為の動作フローである。It is an operation | movement flow for demonstrating the flow of the process in 4th Embodiment. 第4実施形態における適用例を説明するための図である。It is a figure for demonstrating the application example in 4th Embodiment. 第5実施形態における機能構成を説明するための図である。It is a figure for demonstrating the function structure in 5th Embodiment. 第5実施形態における動作を説明するための図である。It is a figure for demonstrating the operation | movement in 5th Embodiment. 第5実施形態における動作を説明するための図である。It is a figure for demonstrating the operation | movement in 5th Embodiment. 第6実施形態における記憶部の構成を説明するための図である。It is a figure for demonstrating the structure of the memory | storage part in 6th Embodiment. 第6実施形態における動作状態テーブルのデータ構成の一例である。It is an example of the data structure of the operation state table in 6th Embodiment. 第6実施形態における処理の流れを説明する為の動作フローである。It is an operation | movement flow for demonstrating the flow of the process in 6th Embodiment. 第6実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 6th Embodiment. 第6実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 6th Embodiment.

以下、図面を参照して本発明を実施するための最良の形態について説明する。以下の実施形態は、本発明の対象者誘導システムを適用した一例であり、発明の内容が、本実施形態に限定されるものではないのは勿論である。   The best mode for carrying out the present invention will be described below with reference to the drawings. The following embodiment is an example to which the subject guidance system of the present invention is applied, and it goes without saying that the content of the invention is not limited to this embodiment.

[1.第1実施形態]
[1.1 システム外観]
第1実施形態における対象者誘導システム1の全体について、図1を用いて説明する。図1に示すように、対象者誘導システム1は、対象者Pを認識する認識装置20と、誘導手段として対象者を誘導するための画像を表示する画像表示装置30とを有しており、これらが制御装置10(画像表示制御装置)に接続されている。
[1. First Embodiment]
[1.1 System appearance]
The entire subject guidance system 1 in the first embodiment will be described with reference to FIG. As shown in FIG. 1, the subject guidance system 1 includes a recognition device 20 that recognizes the subject P, and an image display device 30 that displays an image for guiding the subject as guidance means. These are connected to the control device 10 (image display control device).

例えば、画像表示装置30は、画像表示装置(ディスプレイ)32のような装置であっても良いし、画像表示装置(プロジェクタ)34のような装置であっても良い。また、画像表示装置(プロジェクタ)34は、表示位置として領域R30(R34)に画像を投影する。   For example, the image display device 30 may be a device such as an image display device (display) 32, or may be a device such as an image display device (projector) 34. The image display device (projector) 34 projects an image on the region R30 (R34) as a display position.

ここで、本明細書において、画像を表示するとは、ディスプレイ等の画像表示装置に画像を表示することは勿論のこと、プロジェクタのような投影装置により画像を投影すること、レーザ等を照射することも含むものとする。すなわち、プロジェクタが画像を投影することにより、画像を表示する画像表示装置として説明している。   Here, in this specification, to display an image means not only to display an image on an image display device such as a display, but also to project an image by a projection device such as a projector, or to irradiate a laser or the like. Shall also be included. That is, it is described as an image display device that displays an image by projecting an image by a projector.

また、本実施形態では、画像表示装置34を用いて、対象者の移動方向の床面に誘導表示を行う(プロジェクタから画像が投影される)ことを例として説明するが、壁面に設定された画像表示装置32に表示しても良い。また、画像表示装置30は、1つであっても複数であってもよい。複数の場合、両方に表示しても良いし、必要に応じて選択して表示しても良い。各装置の詳細については次の機能構成で説明する。   In the present embodiment, an example in which guidance display is performed on the floor surface in the moving direction of the subject using the image display device 34 (an image is projected from the projector) will be described. You may display on the image display apparatus 32. FIG. Further, the image display device 30 may be one or plural. In the case of a plurality, they may be displayed on both, or may be selected and displayed as necessary. Details of each device will be described in the following functional configuration.

更に、画像表示装置30は、可動可能に構成されていてもよい。例えば、プロジェクタの場合は、プロジェクタ取付部が可動するように構成されており、プロジェクタが画像を投影する方向にレンズ方向を自在に稼動させることが可能となるように構成されても良い。また、ディスプレイの場合は、取付部が移動可能になっており、表示したい箇所に移動する構成としても良い。   Furthermore, the image display device 30 may be configured to be movable. For example, in the case of a projector, the projector mounting portion may be configured to move, and the projector may be configured to freely operate the lens direction in the direction in which the projector projects an image. Moreover, in the case of a display, the attachment part can be moved, and it is good also as a structure which moves to the location to display.

なお、本実施形態では、認識装置20と、画像表示装置30と、制御装置10とが同一の構内で接続されている(例えば、同一のネットワークに接続されていたり、USB接続といったローカル接続されていたりする)こととして説明するが、外部ネットワークを介して接続されていても良い。   In the present embodiment, the recognition device 20, the image display device 30, and the control device 10 are connected on the same premises (for example, connected to the same network or connected locally such as USB connection). However, it may be connected via an external network.

すなわち、制御装置10が、インターネットに接続されているサーバであり、サーバ上で処理を実行する。そして、インターネットを介して、認識装置20及び画像表示装置30が接続されることとしても良い。この場合、サーバ側の管理者は、離れた場所であっても複数の制御を行うことが可能となる。   That is, the control device 10 is a server connected to the Internet, and executes processing on the server. The recognition device 20 and the image display device 30 may be connected via the Internet. In this case, the server-side administrator can perform a plurality of controls even at remote locations.

[1.2 機能構成]
つづいて、本実施形態における対象者誘導システム1を構成する各装置の機能構成について図2を用いて説明する。
[1.2 Functional configuration]
It continues and demonstrates the function structure of each apparatus which comprises the subject guidance system 1 in this embodiment using FIG.

図2に示すように、制御装置10に、認識装置20と、画像表示装置30(32)とが接続されている。   As shown in FIG. 2, a recognition device 20 and an image display device 30 (32) are connected to the control device 10.

また、制御装置10は、制御部110と、認識部120と、画像表示制御部130と、記憶部140とを備えて構成されている。   The control device 10 includes a control unit 110, a recognition unit 120, an image display control unit 130, and a storage unit 140.

制御部110は、制御装置10の全体を制御するための機能部である。制御部110は、記憶部140に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、例えばCPU(Central Process Unit)等により構成されている。   The control unit 110 is a functional unit for controlling the entire control device 10. The control unit 110 implements various functions by reading and executing various programs stored in the storage unit 140, and includes, for example, a CPU (Central Process Unit).

認識部120は、認識装置20により認識された対象者の人体に基づく情報を入力・処理するための機能部である。すなわち、認識装置20における空間内における人の動きをセンシングする技術(画像処理・サーモ・位置センサ・圧センサ)を利用し、対象者の特性を認識する機能部である。   The recognition unit 120 is a functional unit for inputting and processing information based on the human body of the subject recognized by the recognition device 20. In other words, the recognition unit 20 is a functional unit that recognizes the characteristics of the target person using technology (image processing, thermo, position sensor, pressure sensor) for sensing human movement in the space.

ここで、対象者(人)の特性とは、当該対象者の属性、動作を含む概念である。対象者の属性(人体属性)とは、当該対象者を認識装置20により判定可能なものであり、例えば身長、体格といったものである。さらに、人の大きさ、表情等を認識することにより、男女であったり、大人、子供であったり、車いすを利用しているか、健常者等であるかを認識することができる。また、対象者の動作とは、対象者の動きを判定するものであり、対象者が動いている方向、速度であったり、対象者が起立しているか等の姿勢であったり、対象者の動きといったものを認識することができる。   Here, the characteristic of the subject (person) is a concept including the attributes and actions of the subject. The attributes of the subject (human body attributes) are those by which the subject person can be determined by the recognition device 20, such as height and physique. Furthermore, by recognizing a person's size, facial expression, etc., it is possible to recognize whether it is a man or woman, an adult, a child, a wheelchair, or a healthy person. In addition, the movement of the target person is to determine the movement of the target person, such as the direction and speed in which the target person is moving, the posture such as whether the target person is standing up, You can recognize things like movement.

ここで、認識装置20及び認識部120が、空間内において人(人体)を認識する仕組みについて、図3を用いて説明する。ここで、認識装置20としては種々の装置が考えられるが、一例としてマイクロソフト株式会社製のKinect(キネクト)(登録商標)を利用した方法について説明する。   Here, a mechanism in which the recognition device 20 and the recognition unit 120 recognize a person (human body) in the space will be described with reference to FIG. Here, although various apparatuses can be considered as the recognition apparatus 20, a method using Kinect (registered trademark) manufactured by Microsoft Corporation will be described as an example.

Kinectを利用する事により、人間の骨格をスティックピクチャとして捉えることができるようになる(図3(a))。すなわち、人体の各関節の特徴点と、当該特徴点を結んだ線とがそれぞれ検出される。   By using Kinect, a human skeleton can be understood as a stick picture (FIG. 3A). That is, the feature points of each joint of the human body and the line connecting the feature points are detected.

この特徴点に基づいて、人の顔の向きや、体の向きを認識することが可能となる。例えば、顔の向きや体の向きを求めるには、図3(b)に示すように、各関節の特徴点をもちいて認識する。図3(b)では、特徴点P01と、特徴点P02の(x、y、z)座標をそれぞれ検出する。そして、2つの座標を結ぶ直線と、基準面との角度を算出することにより、顔の向きを認識する。   Based on this feature point, it becomes possible to recognize the direction of the human face and the direction of the body. For example, in order to obtain the orientation of the face and the orientation of the body, the feature points of each joint are recognized as shown in FIG. In FIG. 3B, the feature point P01 and the (x, y, z) coordinates of the feature point P02 are detected. Then, the orientation of the face is recognized by calculating the angle between the straight line connecting the two coordinates and the reference plane.

また、特徴点P03と、特徴点P04の(x、y、z)座標をそれぞれ検出し、特徴点P03と特徴点P04とを直線で結ぶ仮想線L01の位置から、体の方向(向きと傾き)を認識する。   Further, (x, y, z) coordinates of the feature point P03 and the feature point P04 are detected, respectively, and the body direction (direction and inclination) is determined from the position of the virtual line L01 connecting the feature point P03 and the feature point P04 with a straight line. )

これにより、例えば、対象者の向いている方向から、画像を表示する領域を特定することができる。例えば、図3(c)に示すように、特徴点P01と、特徴点P02から、中心軸に対しての角度が算出され、これにより顔の角度(対象者が向いている角度)θ1が算出される。   Thereby, the area | region which displays an image can be specified from the direction which the subject faces, for example. For example, as shown in FIG. 3C, the angle with respect to the central axis is calculated from the feature point P01 and the feature point P02, and thereby the face angle (the angle the subject is facing) θ1 is calculated. Is done.

また、人体の視点の高さL02(例えば、近似的に特徴点P02の高さ)と、顔の角度の法線方向L03とから、視線が地上線L04に到達する位置を求めることが可能となる(例えば、高さL02×arctanθ1)。そして、この位置を表示領域R01として、画像を表示することができる。   Further, it is possible to determine the position at which the line of sight reaches the ground line L04 from the height L02 of the viewpoint of the human body (for example, the height of the feature point P02 approximately) and the normal direction L03 of the face angle. (For example, height L02 × arctan θ1). An image can be displayed using this position as the display region R01.

なお、人体を認識する方法としては、他の方法であっても良い。例えば、カメラを用いた画像処理技術、サーモグラフィや赤外線を用いた認識技術であっても良いし、圧力センサを床に置き、足の方向と荷重方向で人を認識しても良い。また、視線検出技術を利用して、視線を検出しても良い。   Note that other methods may be used as a method of recognizing a human body. For example, an image processing technique using a camera, a recognition technique using thermography or infrared rays, or a pressure sensor may be placed on the floor and a person may be recognized by the direction of the foot and the direction of load. Further, the line of sight may be detected by using a line of sight detection technique.

ここで、対象者P(人体)の向きの認識としては、視線の方向、顔の向き、体の向きの順に優先度が高くなっている。すなわち、視線の方向が認識できるのであれば視線の方向を、顔の向きを検出できるのであれば顔の方向を、そうで無ければ体の向きを認識する。これらを複数認識することとしても良いし、単独で方向を認識しても良い。   Here, as the recognition of the orientation of the target person P (human body), the priority is higher in the order of the line of sight, the face orientation, and the body orientation. That is, the direction of the line of sight is recognized if the direction of the line of sight can be recognized, the direction of the face if the direction of the face can be detected, and the direction of the body if not. A plurality of these may be recognized, or the direction may be recognized alone.

また、認識された特徴点に基づいて対象者の姿勢であったり、特徴点の動きを認識することにより対象者の動作を認識したりすることも可能である。例えば、対象者が座っている姿勢であることを認識できたり、対象者が転倒したといった姿勢を認識したりすることも出来る。また、動作として対象者が右手を挙げたとか、対象者が荷物を持ったといったことを認識することも可能である。これらの対象者の姿勢や動き、すなわち動作状態を認識する方法は何れかの公知の方法を利用する。   It is also possible to recognize the movement of the subject by recognizing the posture of the subject based on the recognized feature points or by recognizing the movement of the feature points. For example, it is possible to recognize that the subject is in a sitting posture or to recognize a posture in which the subject has fallen. It is also possible to recognize that the subject has raised his right hand as an action, or that the subject has a baggage. Any known method is used as a method for recognizing the posture and movement of these subjects, that is, the motion state.

つづいて、画像表示制御部130は、接続されている画像表示装置30に対して、画像の表示を制御するための機能部である。画像表示装置30は、液晶ディスプレイや有機ELディスプレイといった表示装置や、プロジェクタといった投影装置といった画像を表示可能な装置である。なお、本実施形態における画像とは、文字や図形、写真といった静止画像は勿論のこと、動画像も含む概念である。図2では、画像表示装置34が1台接続されているが、複数台接続されていても良い。   Subsequently, the image display control unit 130 is a functional unit for controlling display of an image with respect to the connected image display device 30. The image display device 30 is a device capable of displaying an image such as a display device such as a liquid crystal display or an organic EL display, or a projection device such as a projector. The image in the present embodiment is a concept including a moving image as well as a still image such as a character, a figure, and a photograph. Although one image display device 34 is connected in FIG. 2, a plurality of image display devices 34 may be connected.

記憶部140は、制御装置10の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部140は、例えば、半導体メモリや、HDD(Hard Disk Drive)等により構成されている。   The storage unit 140 is a functional unit that stores various programs and various data necessary for the operation of the control device 10. The storage unit 140 includes, for example, a semiconductor memory, an HDD (Hard Disk Drive), or the like.

また、記憶部140には、誘導地点テーブル142と、地図情報144とが記憶されている。ここで、誘導地点テーブル142の一例を、図4に示す。   The storage unit 140 stores a guidance point table 142 and map information 144. An example of the guidance point table 142 is shown in FIG.

誘導地点テーブル142は、対象者の特性(例えば、本実施形態では人体の属性)と、対象者を認識した場所を示す現在地点(例えば、「1F北口」)と、対象者を誘導する地点の位置を示す誘導地点(例えば、「A玩具店」)とが対象づけて記憶されている。ここで、人体属性とは、認識された人体に関する情報である。例えば、本実施形態で示すように「大人」「子供」の情報や、「男性」「女性」の情報である。また、単純に身長や、体格(例えば、「細身」等)であったりしてもよい。また、「帽子を被っている」という情報で有っても良い。すなわち、制御装置10が、認識部120(認識装置20)を介して認識可能な情報であれば良い。   The guidance point table 142 includes the characteristics of the target person (for example, the attributes of the human body in the present embodiment), the current point (for example, “1F North Exit”) indicating the location where the target person is recognized, and the points for guiding the target person. A guidance point indicating the position (for example, “A toy store”) is stored in a targeted manner. Here, the human body attribute is information about the recognized human body. For example, as shown in this embodiment, the information is “adult” and “children”, and “male” and “female” information. Further, it may simply be a height or a physique (for example, “slim”). Further, the information may be “I am wearing a hat”. That is, any information that can be recognized by the control device 10 via the recognition unit 120 (the recognition device 20) may be used.

誘導地点については、誘導地点の位置情報が記憶されている。なお、位置情報は、絶対的な位置を示す情報であっても良いし、現在地点からの相対的な位置を示す情報であっても良い。絶対的な位置を示す情報としては、例えば屋内であればビーコンを使った位置情報であったり、地磁気測位を使った位置情報であっても良い。また、屋外であれば、緯度経度情報や、無線基地局から判定可能な位置情報で会っても良い。   As for the guidance point, position information of the guidance point is stored. The position information may be information indicating an absolute position or information indicating a relative position from the current point. The information indicating the absolute position may be, for example, position information using a beacon if indoors, or position information using geomagnetic positioning. Moreover, if it is the outdoors, you may meet with the latitude / longitude information or the position information that can be determined from the wireless base station.

なお、現在地点の情報は必ずしも記憶されている必要は無い。例えば、特定の入り口に設置された誘導システムであれば、対象者を認識する地点は同じ地点となるため、現在地点は認識システム設置場所となる。   Note that the current location information does not necessarily have to be stored. For example, in the case of a guidance system installed at a specific entrance, the point where the subject is recognized is the same point, so the current point is the recognition system installation location.

地図情報144は、誘導する地点が含まれる地図に関する情報である。例えば、公共施設やショッピングモール等の施設の地図や、駅構内の地図、遊園地等の場内の地図等が記憶されている。また、駅や市役所周辺の地図といった広範囲の地図であっても良い。   The map information 144 is information relating to a map including a point to be guided. For example, a map of a facility such as a public facility or a shopping mall, a map of a station, a map of an amusement park or the like is stored. Further, it may be a wide-range map such as a map around a station or city hall.

[1.3 処理の流れ]
つづいて、本実施形態における処理の流れについて図5をもちいて説明する。まず、人体が検知されると(ステップS102;Yes)、人体認識処理が実行される(ステップS104)。本実施形態では、人体認識処理により、関節等に対応する特徴点がそれぞれ検出され、対象者(人体)の大きさや体型が認識される。
[1.3 Process flow]
Next, the flow of processing in this embodiment will be described with reference to FIG. First, when a human body is detected (step S102; Yes), a human body recognition process is executed (step S104). In the present embodiment, feature points corresponding to joints and the like are detected by the human body recognition process, and the size and body shape of the target person (human body) are recognized.

つづいて、各特徴点が認識された後は、特性判定処理を実行する(ステップS106)。本実施形態においては、特性の一つとして人体属性を判定する。なお、人体属性を判定できれば良いため、例えば赤外線センサ等によって身長だけを認識可能な装置を利用し、認識された身長から人体属性を判定しても良い。   Subsequently, after each feature point is recognized, a characteristic determination process is executed (step S106). In the present embodiment, the human body attribute is determined as one of the characteristics. Since it is sufficient that the human body attribute can be determined, for example, a human body attribute may be determined from the recognized height using an apparatus capable of recognizing only the height by an infrared sensor or the like.

つづいて、特性判定処理により判定された人体属性から、誘導地点決定処理が実行される(ステップS108)。すなわち、誘導地点テーブル142に基づいて、ステップS106に基づいて判定された対象者の特性である人体属性と、対象者がいる現在地点とに基づいて誘導地点を決定する。   Subsequently, a guidance point determination process is executed from the human body attribute determined by the characteristic determination process (step S108). That is, based on the guidance point table 142, the guidance point is determined based on the human body attribute that is the characteristic of the subject determined based on step S106 and the current location where the subject is present.

なお、現在地点の認識方法としては、例えば認識装置20毎に位置情報を持っていれば良く、例えば、1F北口にある認識装置であったり、食品売り場入り口にある認識装置であったりと、認識装置の設置場所毎に判定することが可能である。また、対象者の位置を検出する位置検出装置を別途設けても良い。   As a method for recognizing the current location, for example, it is only necessary to have position information for each recognition device 20, for example, a recognition device at the 1F north exit or a recognition device at the food department entrance. It is possible to determine for each installation location of the apparatus. Moreover, you may provide the position detection apparatus which detects a subject's position separately.

つづいて、現在地点と、誘導地点とに基づいて、誘導表示を行う(ステップS110)。例えば、地図情報144から読み出された現在地点周辺の地図に、誘導地点への誘導表示を重畳して行う。   Subsequently, guidance display is performed based on the current location and the guidance location (step S110). For example, the guidance display to the guidance point is superimposed on the map around the current point read from the map information 144.

ここで、本実施形態では地図情報に誘導表示を重畳して行っているが、例えば別領域(別画面)に表示しても良いし、誘導表示のみを行っても良い。表示方法については、例えば誘導を希望する施設や店舗が自由に決めることとしても良い。   Here, in the present embodiment, the guidance display is superimposed on the map information. However, for example, the guidance display may be displayed in another area (separate screen), or only the guidance display may be performed. The display method may be determined freely by, for example, a facility or store that desires guidance.

なお、人体認識処理(ステップS104)や、特性判定処理(ステップS106)等の処理は、対象者を検知したタイミングで1回実行される場合もあれば、所定のタイマにて割込処理(例えば、3秒毎、5秒毎)によって随時実行されても良い。   Note that the human body recognition process (step S104), the characteristic determination process (step S106), and the like may be executed once at the timing when the target person is detected, or an interrupt process (for example, a predetermined timer) (Every 3 seconds, every 5 seconds).

[1.4 適用例・効果]
図6を用いて本実施形態の適用例について説明する。認識装置20で対象者Pが認識されることにより、誘導表示を行う。具体的には、対象者Pが子供であることから、A玩具店に誘導表示を行っている。
[1.4 Application examples and effects]
An application example of this embodiment will be described with reference to FIG. When the recognition apparatus 20 recognizes the target person P, guidance display is performed. Specifically, since the target person P is a child, guidance display is performed at the A toy store.

このとき、画像表示装置34が投影する領域R34に、地図M102と、誘導マークM104が表示されている。   At this time, a map M102 and a guidance mark M104 are displayed in a region R34 projected by the image display device 34.

このように、本実施形態によれば、判定された対象者の特性として、人体属性に応じて、対象者をどこに誘導するかを判定し、誘導表示を行うことが可能となる。また、対象者は認識装置20で自動的に認識されるため、特別な端末装置を持つ必要も無く、予め対象者に関する情報等を入力しておく必要もない。   As described above, according to the present embodiment, it is possible to determine where the target person is guided according to the human body attribute as the determined characteristic of the target person, and perform guidance display. Further, since the target person is automatically recognized by the recognition device 20, it is not necessary to have a special terminal device, and it is not necessary to input information on the target person in advance.

[2.第2実施形態]
つづいて、第2実施形態について説明する。第2実施形態は、誘導表示を予め記憶部に記憶している実施形態である。
[2. Second Embodiment]
Next, the second embodiment will be described. The second embodiment is an embodiment in which a guidance display is stored in advance in a storage unit.

第2実施形態の機能構成は、図2に示した第1実施形態の記憶部140を、図7の記憶部140bで置き換えた構成である。記憶部140bには、誘導表示情報146が記憶されている。   The functional configuration of the second embodiment is a configuration in which the storage unit 140 of the first embodiment shown in FIG. 2 is replaced with the storage unit 140b of FIG. In the storage unit 140b, guidance display information 146 is stored.

誘導表示情報146は、誘導表示する為のデータが記憶されている。例えば、図8に示すように、特性(人体特性)に対応づけて、誘導表示データが記憶されている。   The guidance display information 146 stores data for guidance display. For example, as shown in FIG. 8, guidance display data is stored in association with characteristics (human body characteristics).

誘導表示データは、画像表示装置30に表示する表示内容が記憶されている。例えば、特性(人体属性)が「大人」の場合、誘導表示データがレストラン街までを誘導表示するためのデータ(例えば、画像データや、動画データ等)が記憶されている。また、単純にテキストデータが記憶されていても良い。例えば、図8の「動物」の場合の「ペットコーナは右奥です」が記憶されており、当該メッセージが画像表示装置30に表示されることとなる。   The guidance display data stores display contents to be displayed on the image display device 30. For example, when the characteristic (human body attribute) is “adult”, the guidance display data stores data (for example, image data, moving image data, etc.) for guiding and displaying up to a restaurant street. Further, text data may be simply stored. For example, “pet corner is in the back right” in the case of “animal” in FIG. 8 is stored, and the message is displayed on the image display device 30.

なお、更に誘導表示情報146は、現在地点が更に対応づけて記憶されていても良い。この場合は、現在に対応した誘導表示データが表示されることとなる。   In addition, the guidance display information 146 may be stored in association with the current location. In this case, guidance display data corresponding to the current time is displayed.

また、第2実施形態の処理の流れは、第1実施形態における図5の処理フローを、図9の処理フローに置き換えたものである。なお、第1実施形態の同一の処理については、同一の符号を付すことにより、その説明を省略する。   The process flow of the second embodiment is obtained by replacing the process flow of FIG. 5 in the first embodiment with the process flow of FIG. In addition, about the same process of 1st Embodiment, the description is abbreviate | omitted by attaching | subjecting the same code | symbol.

ステップS106により対象者の特性が判定されると、当該特性に基づいて表示メッセージ決定処理が実行され、表示メッセージが決定される(ステップS202)。具体的には、特性に対応する表示メッセージを誘導表示情報146から読み出す。そして、読み出された表示メッセージを、画像表示装置30に表示する(ステップS204)。   When the characteristics of the subject are determined in step S106, display message determination processing is executed based on the characteristics, and a display message is determined (step S202). Specifically, a display message corresponding to the characteristic is read from the guidance display information 146. Then, the read display message is displayed on the image display device 30 (step S204).

このように、本実施形態によれば、地図情報等を利用せずに簡易的に誘導表示を行うことが可能となる。また、直接誘導表示データが記憶されていることから、対象者の特性に適した表示を予め記憶させるといったことが可能となる。   Thus, according to the present embodiment, it is possible to easily perform guidance display without using map information or the like. Further, since the direct guidance display data is stored, it is possible to store in advance a display suitable for the characteristics of the subject.

例えば、店舗の宣伝や、イベント情報を含めた誘導表示データを記憶させることも可能である。このように付加情報も表示されることから、対象者により適切な情報を提供することが可能となり、誘導表示データを提供する側も効率良く情報を提供することが可能となる。   For example, store display and guidance display data including event information can be stored. Since the additional information is also displayed in this manner, it is possible to provide appropriate information to the subject, and the side providing the guidance display data can also provide information efficiently.

[3.第3実施形態]
つづいて、第3実施形態について説明する。第3実施形態は、誘導表示データを表示条件毎に記憶し、特性と表示条件に合致した誘導表示を行うものである。
[3. Third Embodiment]
Subsequently, the third embodiment will be described. In the third embodiment, guidance display data is stored for each display condition, and guidance display that matches the characteristics and the display conditions is performed.

第3実施形態は、第2実施形態における誘導表示情報146を、図10で置き換えたものである。図10の誘導表示情報146は、表示条件として「時間」が更に記憶されている。   In the third embodiment, the guidance display information 146 in the second embodiment is replaced with FIG. The guidance display information 146 in FIG. 10 further stores “time” as a display condition.

例えば、対象者の特性が「子供」と判定された場合であっても、「09:00〜18:00」の間であれば「クレーンゲーム」の場所に誘導表示を行う「003.dat」を表示する。しかし、「18:00〜20:00」の間になれば、「ほごしゃのひとといっしょにはいってね」と、注意を促す「002.dat」が表示される。   For example, even if it is determined that the characteristic of the subject is “child”, if “09:00:00 to 18:00”, guidance display is performed at the location of “crane game” “003.dat” Is displayed. However, if it is between “18:00 and 20:00”, “002.dat” for prompting attention is displayed as “Please enter with a cheerful person”.

このように、本実施形態によれば、特性だけに限られず、更に表示条件に適した誘導表示を行うことが可能となる。   As described above, according to the present embodiment, it is possible to perform guidance display suitable for display conditions without being limited only to characteristics.

なお、本実施形態では、表示条件として「時間」を説明したが、例えば、天候、気温、日付、祝祭日、特売情報等を利用しても良い。例えば、気温であれば、暑い日はアイスクリーム売り場に誘導表示を行ったり、雨の日は傘売り場に誘導表示を行ったりといったことが可能となる。   In the present embodiment, “time” has been described as the display condition. However, for example, weather, temperature, date, holiday, sale information, etc. may be used. For example, if the temperature is high, it is possible to perform a guidance display at the ice cream department on a hot day or a guidance display at the umbrella department on a rainy day.

[4.第4実施形態]
つづいて、第4実施形態について説明する。第4実施形態は、誘導手段として、音声出力を利用した場合についての実施形態について説明する。
[4. Fourth Embodiment]
Next, a fourth embodiment will be described. In the fourth embodiment, an embodiment in which audio output is used as the guiding means will be described.

第4実施形態は、第1実施形態の誘導地点テーブル142を図11で置き換えたものである。図11に示すように、対象者の特性と、誘導地点と、誘導データ(音声データ)と、誘導方法とが記憶されている。   In the fourth embodiment, the guide point table 142 of the first embodiment is replaced with FIG. As shown in FIG. 11, the characteristics of the subject, guidance points, guidance data (voice data), and guidance methods are stored.

また、本実施形態の処理フローは、第1実施形態における図5で示した処理フローを図12で置き換えたものである。なお、同一の処理には同一の符号を付してその説明を省略する。   Further, the processing flow of this embodiment is obtained by replacing the processing flow shown in FIG. 5 in the first embodiment with FIG. In addition, the same code | symbol is attached | subjected to the same process and the description is abbreviate | omitted.

対象者の特性が判定され、誘導地点が決定したあとに(ステップS102〜ステップS108)、誘導表示を行うか否かを誘導地点テーブル142の「誘導方法」から判定する(ステップS302)。   After the characteristics of the subject are determined and the guide point is determined (steps S102 to S108), it is determined from the “guide method” in the guide point table 142 whether or not guide display is performed (step S302).

ここで、誘導表示をする場合には(ステップS302;Yes)、誘導地点に基づいて地図情報144を利用して誘導表示を行う(ステップS304)。   Here, when performing guidance display (step S302; Yes), guidance display is performed using the map information 144 based on the guidance point (step S304).

また、「誘導方法」から音声出力をする場合には(ステップS306;Yes)、音声データを出力する(ステップS308)。   In addition, when outputting the voice from the “guidance method” (step S306; Yes), the voice data is output (step S308).

図13は、本実施形態における適用例を示した図である。本実施形態では、音声出力装置40(例えば、スピーカ)が更に設けられている。   FIG. 13 is a diagram showing an application example in the present embodiment. In the present embodiment, an audio output device 40 (for example, a speaker) is further provided.

本実施形態では、画像表示装置34(プロジェクタ)より、領域R34に誘導表示が投影されている。また、音声出力装置40より誘導音声が出力されている。   In the present embodiment, a guidance display is projected onto the region R34 from the image display device 34 (projector). In addition, a guidance voice is output from the voice output device 40.

このように、本実施形態では、表示だけでなく音声出力等の他の出力手段によっても誘導表示を行っている。なお、本実施形態では音声出力を例に説明しているが、例えば、光を利用して誘導するといった他の方法であっても良い。   Thus, in this embodiment, guidance display is performed not only by display but also by other output means such as audio output. In this embodiment, audio output is described as an example, but other methods such as guidance using light may be used.

[5.第5実施形態]
つづいて、第5実施形態について説明する。第5実施形態は、画像表示装置が複数接続されている場合の実施形態について説明する。
[5. Fifth Embodiment]
Next, a fifth embodiment will be described. In the fifth embodiment, an embodiment in which a plurality of image display devices are connected will be described.

具体的には、図14に示すように、画像表示制御部130には、画像表示装置30として、画像表示装置32と、画像表示装置34と、画像表示装置36とが接続されている。そして、図15に示すように、画像表示装置(プロジェクタ)32、34、画像表示装置(ディスプレイ)36が設けられている。更に、画像表示装置32は、表示領域R32aと、R32bとに分けて表示することが可能である。   Specifically, as shown in FIG. 14, an image display device 32, an image display device 34, and an image display device 36 are connected to the image display control unit 130 as the image display device 30. As shown in FIG. 15, image display devices (projectors) 32 and 34 and an image display device (display) 36 are provided. Furthermore, the image display device 32 can display the display area R32a and R32b separately.

これにより、画像表示装置32が誘導表示を投影する表示領域R32a、R32bと、画像表示装置34が誘導表示を投影する領域R34と、画像表示装置36とが本実施形態における誘導表示する場所となる。   As a result, the display areas R32a and R32b on which the image display device 32 projects the guidance display, the area R34 on which the image display device 34 projects the guidance display, and the image display device 36 are places where guidance display is performed in the present embodiment. .

そして、人体認識処理(ステップS104)と、対象者の特性を判定する特性判定処理(ステップS106)において、対象者の視線の向きや身長を判定する。また、この対象者の特性と、利用する画像表示装置の位置とを対応づけて記憶することにより、対象者が向いている方向に誘導表示が表示されることとなる。   Then, in the human body recognition process (step S104) and the characteristic determination process for determining the characteristics of the subject (step S106), the direction and height of the subject's line of sight are determined. Further, by storing the characteristics of the subject and the position of the image display device to be used in association with each other, a guidance display is displayed in the direction in which the subject is facing.

また、図16に示すように、対象者が複数いる場合には、人体認識処理と、特性判定処理とを対象者毎に実行してもよい。これにより、対象者毎に適切な誘導表示を行うことが可能となる。   As shown in FIG. 16, when there are a plurality of subjects, human body recognition processing and characteristic determination processing may be executed for each subject. Thereby, it becomes possible to perform an appropriate guidance display for each target person.

[6.第6実施形態]
つづいて、第6実施形態について説明する。第6実施形態は、対象者の特性として動作を記憶している。
[6. Sixth Embodiment]
Subsequently, the sixth embodiment will be described. 6th Embodiment has memorize | stored operation | movement as a characteristic of a subject.

ここで、本実施形態の機能構成は、図2に示した第1実施形態の記憶部140を、図17の記憶部140cに置き換えた構成である。   Here, the functional configuration of the present embodiment is a configuration in which the storage unit 140 of the first embodiment shown in FIG. 2 is replaced with the storage unit 140c of FIG.

記憶部140cには、動作状態テーブル148が記憶されている。この動作状態テーブル148の構成の一例を図18にしめす。図18は、対象者の特性として、人体属性と、危険度動作状態とが記憶されている。そして、この特性に対応して、回避誘導表示データが記憶されている。   An operation state table 148 is stored in the storage unit 140c. An example of the configuration of the operation state table 148 is shown in FIG. In FIG. 18, human body attributes and risk operating states are stored as the characteristics of the target person. Corresponding to this characteristic, avoidance guidance display data is stored.

例えば、人体属性が「大人」の場合、パターン1の動作(例えば、開閉するドア付近に寄りかかったり、近すぎたりする場合)には、「ドアから離れて下さい」というメッセージが、パターン2の動作(例えば、柵から手や物等を出したり、身を乗り出したりする動作)に対応づけて、メッセージ「危険ですので手を出さないで下さい。」が記憶されている。   For example, when the human body attribute is “adult”, the message “Please leave the door” is displayed in the pattern 2 operation in the operation of the pattern 1 (for example, when leaning near or too close to the door to be opened / closed). The message “Don't put your hand out because it is dangerous.” Is stored in association with the movement (for example, moving a hand or an object off the fence or getting out of the fence).

本実施形態の処理を図19を用いて説明する。まず、人体が検知されると(ステップS402;Yes)、人体認識処理が実行される(ステップS404)。本実施形態では、人体認識処理により、関節等に対応する特徴点がそれぞれ検出され、対象者(人体)の姿勢や、動作を判定するための特徴点の位置及び動きが認識される。   The processing of this embodiment will be described with reference to FIG. First, when a human body is detected (step S402; Yes), a human body recognition process is executed (step S404). In the present embodiment, feature points corresponding to joints and the like are detected by the human body recognition process, and the position and movement of the feature points for determining the posture and motion of the target person (human body) are recognized.

つづいて、動作状態を含めた特性判定処理が実行される(ステップS406)。具体的には、対象者の人体属性と、現在の姿勢・動きといった動作状態が認識される。そして、認識された人体属性、動作状態が危険動作状態に該当するか否かを判定する(ステップS408)。   Subsequently, a characteristic determination process including an operation state is executed (step S406). Specifically, the human body attributes of the target person and the operation state such as the current posture / movement are recognized. Then, it is determined whether or not the recognized human body attribute and motion state correspond to a dangerous motion state (step S408).

危険動作状態は、動作状態テーブル148にパターンとして記憶されている。パターンとしては、所定の特徴点の位置範囲が記憶されていても良いし、特徴点の動きを記憶していても良い。そして、人体属性に応じて危険動作状態に該当すると判定された場合には(ステップS408;Yes)、回避誘導表示が行われる(ステップS410)。   The dangerous operation state is stored as a pattern in the operation state table 148. As a pattern, a position range of a predetermined feature point may be stored, or a movement of the feature point may be stored. And when it determines with falling into a dangerous motion state according to a human body attribute (step S408; Yes), avoidance guidance display is performed (step S410).

図20及び図21は本実施形態の動作例を説明するための図である。図20は、駅のホームドアの具体例である。この場合、ホーム柵600のうち、ホームドア付近の領域M610に対象者が存在することが認識される。この場合、画像表示装置30に「ドアから離れて下さい」と表示される。   20 and 21 are diagrams for explaining an operation example of this embodiment. FIG. 20 is a specific example of a platform door of a station. In this case, it is recognized that the subject exists in the area M610 in the vicinity of the platform door in the platform fence 600. In this case, “Please leave the door” is displayed on the image display device 30.

また、図21は、動物園の柵を一例として説明する図である。ここで、認識装置20は、対象者としてP1(大人)と、P2(子供)を認識している。   FIG. 21 is a diagram illustrating a zoo fence as an example. Here, the recognition device 20 recognizes P1 (adult) and P2 (child) as subjects.

そして、P2の対象者の手(腕)が、柵610を超えている状態が認識される(M610)。この場合、画像表示装置30に対して、回避誘導表示として「★あぶない★手をさくのそとにださないでね!」と表示される。   And the state where the hand (arm) of the subject person of P2 exceeds the fence 610 is recognized (M610). In this case, the image display device 30 displays “★ Do n’t put your hand up!” As an avoidance guidance display.

ここで、P1の対象者の手が柵610を超えている状態であれば、「危険ですので手を出さないで下さい」と回避誘導表示がされる。   Here, if the hand of the subject person of P1 exceeds the fence 610, an avoidance guidance display is displayed as "Don't put your hand out because it is dangerous".

このように、本実施形態によれば、対象者の動作に応じた誘導表示が可能になる。また、対象者の人体属性に応じて、誘導表示を切り替えて表示するといったことも可能となるため、適切な表示がされることとなる。   Thus, according to this embodiment, guidance display according to a subject's operation is attained. Further, since it is possible to switch and display the guidance display according to the human body attribute of the subject person, an appropriate display is performed.

[7.変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
[7. Modified example]
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and the design and the like within the scope of the present invention are also within the scope of the claims. include.

なお、上述した各実施形態は、説明の都合上処理を分けて説明しているが、可能な範囲で組み合わせて動作させても良い事は勿論である。   In the above-described embodiments, the processes are described separately for the convenience of explanation, but it is needless to say that they may be combined and operated within a possible range.

また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROMやHDDの記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行われる。   In addition, the program that operates in each device in the embodiment is a program (a program that causes a computer to function) that controls the CPU and the like so as to realize the functions of the above-described embodiments. Information handled by these devices is temporarily stored in a temporary storage device (for example, RAM) at the time of processing, then stored in various ROM or HDD storage devices, and read and corrected by the CPU as necessary. -Writing is performed.

ここで、プログラムを格納する記録媒体としては、半導体媒体(例えば、ROMや、不揮発性のメモリカード等)、光記録媒体・光磁気記録媒体(例えば、DVD(Digital Versatile Disc)、MO(Magneto Optical Disc)、CD(Compact Disc)、BD等)、磁気記録媒体(例えば、磁気テープ、フレキシブルディスク等)等の何れであってもよい。また、ロードしたプログラムを実行することにより、上述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、オペレーティングシステムあるいは他のアプリケーションプログラム等と共同して処理することにより、本発明の機能が実現される場合もある。   Here, as a recording medium for storing the program, a semiconductor medium (for example, ROM, a non-volatile memory card, etc.), an optical recording medium / a magneto-optical recording medium (for example, a DVD (Digital Versatile Disc), MO (Magneto Optical), etc. Disc), CD (Compact Disc), BD, etc.), magnetic recording medium (for example, magnetic tape, flexible disk, etc.), etc. In addition, by executing the loaded program, not only the functions of the above-described embodiment are realized, but also based on the instructions of the program, the processing is performed in cooperation with the operating system or other application programs. The functions of the invention may be realized.

また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバの記憶装置も本発明に含まれるのは勿論である。   In addition, when distributing to the market, the program can be stored and distributed in a portable recording medium, or transferred to a server computer connected via a network such as the Internet. In this case, of course, the storage device of the server is also included in the present invention.

また、上述した実施形態における各装置の一部又は全部を典型的には集積回路であるLSI(Large Scale Integration)として実現してもよい。各装置の各機能ブロックは個別にチップ化してもよいし、一部又は全部を集積してチップ化してもよい。また、集積回路化の手法はLSIに限らず専用回路又は汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いることも可能であることは勿論である。   In addition, a part or all of each device in the above-described embodiments may be realized as an LSI (Large Scale Integration) that is typically an integrated circuit. Each functional block of each device may be individually chipped, or a part or all of them may be integrated into a chip. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when integrated circuit technology that replaces LSI appears due to progress in semiconductor technology, it is of course possible to use an integrated circuit based on this technology.

1 :対象者誘導システム
10 :制御装置
110 :制御部
120 :認識部
130 :画像表示制御部
140 :記憶部
142 :誘導地点テーブル
144 :地図情報
20 :認識装置
30〜36 :画像表示装置
1: Target person guidance system 10: Control device 110: Control unit 120: Recognition unit 130: Image display control unit 140: Storage unit 142: Guidance point table 144: Map information 20: Recognition devices 30 to 36: Image display device

Claims (12)

対象者の特性に対応づけて、誘導地点を記憶する記憶手段と、
対象者をセンシングして特性を判定する特性判定手段と、
前記特性判定手段により判定された特性に基づいて、誘導地点を決定する決定手段と、
現在地点から、前記決定された誘導地点まで、対象者を誘導する誘導手段と、
を備えることを特徴とする対象者誘導システム。
Storage means for storing the guidance point in association with the characteristics of the target person,
A characteristic determination means for sensing the target and determining the characteristic;
Determining means for determining a guide point based on the characteristics determined by the characteristic determining means;
Guidance means for guiding the subject from the current location to the determined guidance location;
A subject person guidance system comprising:
前記対象者の特性は、人の属性であることを特徴とする請求項1に記載の対象者誘導システム。   The subject guidance system according to claim 1, wherein the characteristics of the subject are human attributes. 前記記憶手段は、誘導地点の位置情報を更に記憶しており、
前記誘導手段は、前記位置情報に基づいて前記対象者に対して誘導を行うことを特徴とする請求項1又は2に記載の対象者誘導システム。
The storage means further stores position information of the guidance point,
The subject guidance system according to claim 1, wherein the guidance unit guides the subject based on the position information.
前記誘導手段は、対象者を誘導するために、誘導表示を行うことを特徴とする請求項1から3の何れか一項に記載の対象者誘導システム。   The subject guidance system according to any one of claims 1 to 3, wherein the guidance unit performs guidance display in order to guide the subject. 前記記憶手段は、地図情報を更に記憶しており、
前記誘導手段は、前記地図情報に基づいて表示される地図に重畳して誘導表示を行うことにより、対象者を誘導することを特徴とする請求項4に記載の対象者誘導システム。
The storage means further stores map information,
The subject guidance system according to claim 4, wherein the guidance means guides the subject by performing guidance display superimposed on a map displayed based on the map information.
前記記憶手段は、誘導地点として画像データを記憶しており、
前記誘導表示手段は、前記画像データを表示することにより対象者に対して誘導表示を行うことを特徴とする請求項4に記載の対象者誘導システム。
The storage means stores image data as a guide point,
The subject guidance system according to claim 4, wherein the guidance display unit performs guidance display on the subject by displaying the image data.
前記記憶手段は、更に表示条件を記憶しており、
前記誘導表示手段は、前記表示条件に合致する誘導表示を行うことを特徴とする請求項4から6のいずれか一項に記載の対象者誘導システム。
The storage means further stores display conditions,
The object guidance system according to any one of claims 4 to 6, wherein the guidance display unit performs guidance display that matches the display condition.
対象者の特性に対応づけて、誘導地点と、音声データとを記憶する記憶手段と、
対象者をセンシングして特性を判定する特性判定手段と、
前記特性判定手段により判定された特性に基づいて、誘導地点を決定する決定手段と、
現在地点から、前記決定された誘導地点まで、対象者に対して前記音声データを出力することにより誘導を行う音声出力手段と、
を備えることを特徴とする対象者誘導システム。
A storage means for storing the guidance point and voice data in association with the characteristics of the target person;
A characteristic determination means for sensing the target and determining the characteristic;
Determining means for determining a guide point based on the characteristics determined by the characteristic determining means;
From the current location to the determined guidance location, voice output means for performing guidance by outputting the voice data to the subject,
A subject person guidance system comprising:
対象者の特性と、動作パターンと、誘導データとを対応づけて記憶する記憶手段と、
対象者をセンシングして特性を判定する特性判定手段と、
前記特性判定手段により判定された特性は前記対象者の動作状態であり、当該動作状態が前記動作パターンと一致するかを判定する動作状態判定手段と、
前記動作状態が、前記動作パターンと一定した場合には、対応する誘導データを出力する出力手段と、
を備えることを特徴とする対象者誘導システム。
Storage means for storing the subject's characteristics, operation patterns, and guidance data in association with each other;
A characteristic determination means for sensing the target and determining the characteristic;
The characteristic determined by the characteristic determination means is an operation state of the subject, and an operation state determination means for determining whether the operation state matches the operation pattern;
When the operation state is constant with the operation pattern, output means for outputting corresponding guidance data;
A subject person guidance system comprising:
対象者をセンシングして認識する認識装置と、報知装置と、制御装置とを備えた対象者誘導システムであって、
前記制御装置は、
対象者の特性に対応づけて、誘導地点を記憶する記憶手段と、
前記認識装置により認識された対象者の特性を判定する特性判定手段と、
前記特性判定手段により判定された特性に基づいて、誘導地点を決定する決定手段と、
現在地点から、前記決定された誘導地点まで、前記報知装置により対象者を誘導する誘導手段と、
を備えることを特徴とする対象者誘導システム。
A subject guidance system comprising a recognition device that senses and recognizes a subject, a notification device, and a control device,
The controller is
Storage means for storing the guidance point in association with the characteristics of the target person,
Characteristic determination means for determining characteristics of the subject recognized by the recognition device;
Determining means for determining a guide point based on the characteristics determined by the characteristic determining means;
From the current location to the determined guidance location, guidance means for guiding the subject by the notification device,
A subject person guidance system comprising:
コンピュータに、
対象者の特性に対応づけて、誘導地点を記憶する記憶機能と、
対象者をセンシングして特性を判定する特性判定機能と、
前記特性判定機能により判定された特性に基づいて、誘導地点を決定する決定機能と、
現在地点から、前記決定された誘導地点まで、対象者を誘導する誘導機能と、
を実現させるためのプログラム。
On the computer,
A memory function for storing the guidance point in association with the characteristics of the target person,
A characteristic determination function that senses the target person and determines characteristics,
A determination function for determining a guide point based on the characteristics determined by the characteristic determination function;
A guidance function for guiding the subject from the current location to the determined guidance location;
A program to realize
対象者の特性に対応づけて、誘導地点を記憶する記憶ステップと、
対象者をセンシングして特性を判定する特性判定ステップと、
前記特性判定ステップにより判定された特性に基づいて、誘導地点を決定する決定ステップと、
現在地点から、前記決定された誘導地点まで、対象者を誘導する誘導ステップと、
を備えることを特徴とする対象者誘導方法。
A storage step for storing the guidance point in association with the characteristics of the target person;
A characteristic determination step for sensing the target and determining the characteristic;
A determination step of determining a guide point based on the characteristics determined by the characteristic determination step;
A guidance step for guiding the subject from the current location to the determined guidance location;
A subject person guidance method comprising:
JP2015135657A 2015-07-06 2015-07-06 Target person guidance system Active JP6632824B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015135657A JP6632824B2 (en) 2015-07-06 2015-07-06 Target person guidance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015135657A JP6632824B2 (en) 2015-07-06 2015-07-06 Target person guidance system

Publications (2)

Publication Number Publication Date
JP2017016588A true JP2017016588A (en) 2017-01-19
JP6632824B2 JP6632824B2 (en) 2020-01-22

Family

ID=57828145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015135657A Active JP6632824B2 (en) 2015-07-06 2015-07-06 Target person guidance system

Country Status (1)

Country Link
JP (1) JP6632824B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018163637A1 (en) * 2017-03-09 2018-09-13 ソニー株式会社 Information-processing device, information-processing method, and recording medium
WO2021048908A1 (en) * 2019-09-10 2021-03-18 三菱電機株式会社 Guidance system and output device
JP6912021B1 (en) * 2020-02-13 2021-07-28 三菱電機株式会社 Guidance system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010170229A (en) * 2009-01-20 2010-08-05 Japan Tobacco Inc Customer guidance system
JP2012014602A (en) * 2010-07-05 2012-01-19 Hitachi Ltd Signage terminal and system for the same
JP2013161145A (en) * 2012-02-02 2013-08-19 Mitsubishi Motors Corp Pedestrian guiding device
JP2014123277A (en) * 2012-12-21 2014-07-03 Sony Corp Display control system and recording medium
JP2014152022A (en) * 2013-02-08 2014-08-25 Toshiba Elevator Co Ltd Elevator device and elevator system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010170229A (en) * 2009-01-20 2010-08-05 Japan Tobacco Inc Customer guidance system
JP2012014602A (en) * 2010-07-05 2012-01-19 Hitachi Ltd Signage terminal and system for the same
JP2013161145A (en) * 2012-02-02 2013-08-19 Mitsubishi Motors Corp Pedestrian guiding device
JP2014123277A (en) * 2012-12-21 2014-07-03 Sony Corp Display control system and recording medium
JP2014152022A (en) * 2013-02-08 2014-08-25 Toshiba Elevator Co Ltd Elevator device and elevator system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018163637A1 (en) * 2017-03-09 2018-09-13 ソニー株式会社 Information-processing device, information-processing method, and recording medium
CN110383214A (en) * 2017-03-09 2019-10-25 索尼公司 Information processing unit, information processing method and recording medium
JPWO2018163637A1 (en) * 2017-03-09 2020-01-09 ソニー株式会社 Information processing apparatus, information processing method, and recording medium
US10930249B2 (en) 2017-03-09 2021-02-23 Sony Corporation Information processor, information processing method, and recording medium
JP7020474B2 (en) 2017-03-09 2022-02-16 ソニーグループ株式会社 Information processing equipment, information processing method and recording medium
CN110383214B (en) * 2017-03-09 2022-05-10 索尼公司 Information processing apparatus, information processing method, and recording medium
WO2021048908A1 (en) * 2019-09-10 2021-03-18 三菱電機株式会社 Guidance system and output device
JPWO2021048908A1 (en) * 2019-09-10 2021-09-27 三菱電機株式会社 Guidance system and output device
JP6912021B1 (en) * 2020-02-13 2021-07-28 三菱電機株式会社 Guidance system
WO2021161461A1 (en) * 2020-02-13 2021-08-19 三菱電機株式会社 Guidance system

Also Published As

Publication number Publication date
JP6632824B2 (en) 2020-01-22

Similar Documents

Publication Publication Date Title
US9294873B1 (en) Enhanced guidance for electronic devices using objects within in a particular area
US10636185B2 (en) Information processing apparatus and information processing method for guiding a user to a vicinity of a viewpoint
KR102362117B1 (en) Electroninc device for providing map information
Legge et al. Indoor navigation by people with visual impairment using a digital sign system
US10677596B2 (en) Image processing device, image processing method, and program
CN104024984B (en) Portable set, virtual reality system and method
US20160258760A1 (en) Providing directions to a location in a facility
US20140172640A1 (en) Augmented reality shopping game
US10900790B2 (en) Interior building navigation system
CN102388406A (en) Generating a three-dimensional model using a portable electronic device recording
US20170115749A1 (en) Systems And Methods For Presenting Map And Other Information Based On Pointing Direction
US11181376B2 (en) Information processing device and information processing method
JP7296406B2 (en) Program, information processing method, and information processing terminal
US20170076361A1 (en) Systems And Methods For Location-Based Notifications For Shopping Assistance
US20180020319A1 (en) Display device and mobile device
JP6632824B2 (en) Target person guidance system
KR20160086717A (en) Method for providing service by bending mobile device and mobile device
JP7287950B2 (en) COMMUNICATION METHOD, COMMUNICATION DEVICE, AND PROGRAM
JP5836670B2 (en) Guidance system, photographing apparatus, and control apparatus
US20210289321A1 (en) A device for location based services
JP2005309537A (en) Information providing device
JP2004279154A (en) Azimuth detection correcting system using azimuth detection device
JP7041211B2 (en) Image display control device, image display system and program
EP3962118A1 (en) Interaction method employing optical communication apparatus, and electronic device
JP2017003820A (en) Image display controller, image display system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191211

R150 Certificate of patent or registration of utility model

Ref document number: 6632824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250